最近,知乎升级“直答”AI搜索功能引发不少讨论。这个能溯源答案出处的设计,恰恰戳中了当下AI最令人头疼的问题——它那一本正经的“胡说八道”,确实该有人管管了。
相信不少人都有过类似经历:“遇事不决问AI”时,也会经常被它的“不靠谱”惊到。比如,AI写的文章会杜撰事实、引用根本不存在的文献;用一个完全虚构的概念提问,AI也能煞有介事地给出长篇大论;让AI给出用药建议、疾病诊断,结果与权威指南大相径庭。曾有专家测试当下热门的几款大模型,结果显示“幻觉率”超过20%。
更令人担忧的是,AI还会被一些利欲熏心者利用,沦为造谣、诈骗的工具。某公司高管张先生就曾遭遇“AI换脸”诈骗,在视频确认“老板”身份后转出20万元,直到下午当面汇报时才惊觉上当。而从西藏定日县“小男孩被埋图”到广东“冰雹砸垮了房屋顶棚”,再到“某顶流明星在澳门输光10亿”……这些在社交平台疯传的虚假信息,背后竟都是一些人用AI精心炮制的“流量陷阱”。
“为啥我的AI爱胡说?”背后的原因其实挺复杂的。如果打个形象的比方,AI就像是一本由无数信息碎片拼凑的百科全书,虽然数据量庞大,但并不具备事实判断的能力。生成回答时,只是根据概率组合词语,选择最像“合理”的表述。即使遇到不了解的问题时,AI也会基于已有信息强行补全答案。当然,AI不是故意想说谎,也许只是太想把每个问题都答得漂亮。
尽管AI“幻觉”逐渐增多,但人们也不必过于担忧。因为,技术本身还在不断进步,就譬如现在的AI已经很少会再犯当初“秦始皇使用智能手机”这类低级错误。不少平台也在积极探索解决方案,譬如设置答案溯源、AI内容标签等等。但不管怎样,用户的判断力始终是抵御AI“幻觉”的终极防线。我们需要守住这道防线。
在这个AI几乎无处不在的时代,学会与之正确“相处”或许更为重要。当AI给出答案时,别急着相信,不妨先问一问:这符合基本科学常识吗?用好常识这面“筛子”,其实就能过滤掉“用84消毒液洗头能永久防脱发”“80后死亡率突破5.2%”之类的荒谬信息。遇到“某权威机构研究表明”这样的说法,也要保持警惕:相关论文真的存在吗?数据来源可靠吗?机构是否权威?要验证信息真伪,我们得学会综合多种渠道,比如,用天眼查查企业资质,通过学术数据库核对论文,从官方渠道核实新闻等等。最近就有网友通过比对官方监测数据,成功识破了AI编造的“某地核泄漏”谣言。
就目前而言,AI 再智能也只是工具,替代不了人类的思考和判断。所以,与其担心被AI取代,不如先确保不被它带偏。毕竟,再智能的工具,也需要清醒的使用者来驾驭。
撰稿 | 瞭望评论员 水木
图片 | 视觉中国