大模型中有很多的名词,有所了解就可以让我们更好地应用大模型,例如"幻觉"这个词,听起来很玄乎,像是AI出现了精神错乱,其实没多么复杂,我通过几个生活中的例子,帮你一秒搞懂。
历史文章,
大模型的幻觉,就是它“一本正经地胡说八道”。
它不是故意骗你,而是因为它不知道“我不知道”。它就像一个记忆力超强、但从来不会说"我不懂"的超级学霸,当你问到一个它不确定的问题时,它会用听起来非常流利、非常自信的语言,现场给你编一个答案。
想象一下,大模型本质上是一个超级接龙高手。它被训练的方式是:看了海量的互联网文字后,学会了"给定前面的文字,下一个字最可能是什么"。
当你问它一个问题时,它不是在查资料,而是在做无限接龙:
问题在于:它没有"事实核查"这个步骤。它只在乎"下一个字接得顺不顺",不在乎"接出来的内容是不是真的"。
这就像一个擅长接龙的孩子,你说"苹果",他接"手机",你说"华为",他接"5G"……接得再流畅,他也不知道自己说的这些是不是真实发生的。
1. 将它当参谋,不当权威 重要事实要核实,别信它的一面之词。
2. 开启联网搜索 现在很多AI(如DeepSeek)可以联网,让它在回答前先查真实资料,能大幅降低幻觉。
3. 要求引用来源 在提问时加上:"请给出信息来源或引用出处。"虽然它有时会编造虚假来源,但会让它更谨慎。
4. 用它的幻觉帮你创作 如果想写小说,可以故意问:"假设秦始皇穿越到现代,开了一家奶茶店,会发生什么?"这时候幻觉就是最好的创意引擎。
它源自模型的本质:一个"文字接龙大师",而不是"事实数据库"。了解这一点,你就既不会被它的胡话带偏,也能更好地利用它那强大的、不受事实束缚的创造力。