当AI开始“满嘴跑火车”,我们还能信它吗?

2025年04月11日 16:03   广州金融科技

综述:

在AI飞速发展的时代,我们享受其便捷的同时,也会遭遇“AI幻觉”。比如有人问AI康熙有几个儿子,答案五花八门。一位律师用ChatGPT搜法律案例,在法庭引用了6个不存在的案例,最后道歉还被罚5000美元。谷歌的Bard在回答与孩子分享詹姆斯・韦伯太空望远镜新发现的问题时,将拍摄太阳系外行星图像的成就错安到韦伯望远镜上,实际是欧洲南方天文台超大望远镜的成果。

一、“AI幻觉”是什么

这些让人哭笑不得的场景,其实就是AI幻觉在作祟。简单来说,AI幻觉就是AI生成的内容与真实数据不符,或是偏离用户指令,生成一些看似合理但实际上错误、虚构的信息。就好像AI做了一场梦,梦里的内容被它当成了现实,然后一本正经地告诉我们。它的表现形式多种多样,比如事实不一致、事实捏造、指令不一致、上下文不一致以及逻辑不一致。

二、AI为何会“一本正经胡说八道”

看到这儿,大家肯定好奇,AI这么聪明,怎么还会犯这种低级错误呢?其实,这背后的原因还挺复杂的。

1、基于统计关系的预测

AI(如ChatGPT这类语言模型)通过大量训练数据学习文字统计关系,核心是依上下文预测下一个最可能出现的词,并非真正理解问题,本质是通过概率最大化生成内容,而非逻辑推理。它像博览群书的智者,靠学习海量文本获取知识,不是真理解知识,而是找文字统计关系和模式来“预测”下一个词,依据大量例子猜测最可能出现的词。模型有时会“猜错”,前面一点偏差,后面内容偏差会越来越大,导致从一个小错误编出完全虚构的故事,就像只知词语搭配概率的人写故事,可能写出“苹果在天空中飞翔”这样荒诞的句子。

2、训练数据的局限性

AI的“认知”源于训练数据,但训练数据无法涵盖所有信息,甚至存在错误信息。就像人依书作答,书有错误或知识缺失就易误判。例如早期AI幻觉较大时,问“北京有什么著名建筑”,它可能因学过“北京是中国的首都”和“巴黎有埃菲尔铁塔”,而错误回答“北京有埃菲尔铁塔”,因其还未学会正确运用和区分知识。

3、过拟合问题

大模型训练参数量庞大,易在训练数据上“过拟合”,记住太多错误或无关内容,对噪声敏感,导致幻觉产生。就像学生死记硬背课本所有内容,考试可能输出错误信息。AI模型若过度依赖训练数据特征,缺乏对新数据的泛化能力,也会产生错误输出,比如依据训练数据中偏差的历史事件描述答题,给出错误答案。

4、有限的上下文窗口

尽管大模型的上下文窗口不断扩大(如能处理64k或128k个tokens),但因技术限制,其仍只能在有限范围理解文本。就像从小窗口看书,看不到全书,易产生理解偏差。处理长文本或复杂问题时,AI可能因无法获取足够上下文信息而理解错误、回答出错。比如遇到多步骤推理问题,它可能只依据部分信息作答,忽略重要条件,无法把握问题全貌。

5、生成流畅回答的设计

很多大模型为给出流畅回答,在不确定时,不倾向说“我不知道”,而是基于已有知识编造看似合理答案。因为实际应用中用户希望得到完整回答。AI会像不懂行的导游被问偏门景点信息时一样,根据“经验”拼凑看似合理的内容应付。

二、AI幻觉带来的影响

1、负面效应

AI幻觉绝非小事,在关键领域会引发严重后果。在医疗领域,AI辅助诊断系统若出现幻觉,将普通感冒误诊为严重肺炎,患者可能接受不必要治疗,花费冤枉钱、承受痛苦甚至危及生命。法律行业中,AI检索法律条文和案例时产生幻觉,提供错误法律依据,会影响案件判决结果,损害司法公正,此前就有律师因AI引用不存在案例受罚,引发人们对AI在法律领域应用的担忧。金融领域,AI进行风险评估和投资建议时若出现幻觉,给出错误分析结果,投资者可能遭受巨大经济损失。此外,AI幻觉还会误导公众,损害AI信任度,阻碍其发展和应用。

2、积极一面

AI幻觉并非全是坏事,在某些方面能带来意想不到的创意。在艺术创作领域,AI幻觉能创造独特作品,带来全新视听体验,如生成超现实图像、奇特组合音乐元素产生新颖风格。在创意启发方面,AI幻觉能激发创作者灵感,让其从不同角度思考问题,产生新创意,比如设计师受AI奇特设计启发创作出优秀作品。

三、如何应对AI幻觉

既然AI幻觉给我们带来了不少麻烦,那我们该如何应对呢?别着急,下面这些方法或许能帮到你。

1、优化提问方式

提问方式对获得准确答案至关重要。我们要尽量避免模糊或开放性的问题,提问越具体、清晰,AI的回答就越准确。同时,提供足够多的上下文或背景信息,也能减少AI胡乱推测的可能性。这里给大家分享几种实用的提示词技巧:

  • 设定边界:比如你想了解某一研究成果,你可以说“请严格限定在2022年《自然》期刊发表的研究范围内”,这样AI就会在你设定的范围内寻找答案,避免给出无关或错误的信息。假设你原本的问题是“介绍量子计算的最新进展”,现在你可以说“请基于2023年1月至2024年6月期间,《科学》和《自然》杂志上发表的论文,介绍量子计算的最新进展”,这样AI就能更精准地回答你。

  • 标注不确定:对于模糊信息,要求AI标注“此处为推测内容”。比如你问“分析苹果公司明年的产品规划”,可以改成“分析苹果公司明年的产品规划,对于非官方透露或预测性内容,请标注[推测内容]”,这样你就能清楚知道哪些是确定的信息,哪些是AI推测的。

  • 步骤拆解:将问题拆分成多个步骤,让AI一步一步回答。例如,评估人工智能对教育的影响,你可以说“请分三步评估AI对教育的影响:1)先列出目前已在教育领域应用的AI技术;2)分析这些技术对教学方法和学习效果的具体影响;3)基于现状预测未来5年AI在教育领域的发展趋势”,这样AI的回答会更有条理,也能减少错误。

  • 明确约束:明确告诉AI要基于已有事实回答,不要进行推测。比如预测2025年新能源汽车市场的占有率,你可以说“请仅基于2024年上半年新能源汽车的实际销售数据、已公布的各大车企产能规划以及相关政策导向进行分析,不要加入任何推测性内容”。

2、分批输出内容

AI内容按概率生成,一次性生成内容越多,出现AI幻觉概率越大,所以可主动限制其输出数量。写长文章时,可让AI分段创作,先写开头,满意后再写下一段,这既能让内容更准确,也更易把控质量。比如写旅游攻略,不要让AI一次性生成完整攻略,可先让其生成景点介绍,确认无误后再生成美食推荐等。

3、多模型交叉验证

采用“多模型交叉验证”能提高AI回答可靠性。一些AI聚合平台可让多个AI模型同时答同一问题,遇到需严谨答案的问题时,启动此功能,不同大模型参与讨论,对比答案能获更全面、可靠认知。如纳米AI搜索平台的“多模型协作”功能,能让模型各司其职。问“人工智能在医疗领域的应用前景”时,不同模型从不同角度作答,对比答案可加深对问题的理解。

总结与展望

AI幻觉体现了AI的强大与局限,它虽会“胡说八道”,在关键领域引发严重后果,但也在艺术创作等方面带来新创意和启发。随着技术进步,AI幻觉问题有望改善。在此之前,我们享受AI便利时要保持警惕,正确与之交互,用批判性思维看待其生成内容,也期待科研人员优化AI技术,让它更好服务人类。

本文内容为原创,转载请注明来源于“广州金融科技公众号”!

财经日历

关注我们