在人工智能(AI)技术的飞速发展下,“AI幻觉”,即人工智能在信息处理和生成中的误差或错觉,已经成为不容忽视的问题。2023年,“幻觉”成为剑桥词典和Dictionary.com的年度词语。根据Dictionary.com的数据,2023年“幻觉”一词的搜索量比前一年增加了46%。剑桥词典中,“幻觉”的原有释义“似乎看到、听到、感觉到或闻到一些不存在的东西,通常是因为健康状况或因为你服用了某种药物而产生幻觉”之外,增加了一个新的释义:“AI幻觉会生成错误讯息”。日前《自然》杂志上的一篇论文《机器行为》指出,人工智能今天已经普遍存在于人类社会,新闻排名算法会影响人们看到的信息,消费算法会影响人们购买什么消费品,打车算法会影响我们的出行模式,智能家庭算法会影响我们的家庭生活,在法律、医疗等领域,人工智能的影响就更为巨大。人工智能使机器越来越像人类一样思考和行为。如此一来,机器越来越深入影响人类社会的结构,机器塑造人类的行为,人类也塑造机器的行为,人类和机器如何协同,会对未来社会形态产生重大深远的影响。人工智能时代下,AI幻觉已经成为一种普遍存在的现象。从自动驾驶汽车可能的错误判断到智能助手误解指令,再到医疗诊断工具的误诊,AI幻觉遍布于我们日常生活的每一个角落。2024年谷歌搜索引擎推出了一项人工智能搜索服务:AI概览,提供AI生成的答案。其本意是想提升用户体验,但用户很快发现AI概览提供了大量离谱的答案,如建议用胶水粘披萨、每天吃石头来获取营养等,使得谷歌赶快关闭了其部分功能。从人工智能科学家的视角看,由于技术的限制和人类认知的不足,AI幻觉本质上是难以避免的。尽管技术人员正在努力提升AI的准确性和可靠性,但由于数据的不完整、算法的局限和复杂的交互环境等因素,AI幻觉仍然频繁出现,且难以完全消除。AI幻觉的产生机制涉及多个方面。首先,数据偏差是主要原因之一,如果AI的训练数据缺乏多样性或存在系统性偏见,那么输出的结果就可能产生幻觉。其次,当前的AI算法,尤其是基于统计学的算法,无法完美地适应新的、未曾见过的情况,从而可能导致错误的判断。再次,人类设计者的认知局限也是一大问题,设计者和训练者的主观偏见可能无意中被编码进AI系统,影响其决策。最后,AI系统运行的交互环境本身充满变数,复杂多变的环境因素常常超出AI系统的处理能力,导致AI幻觉的产生。面对AI幻觉的普遍性和不可避免性,如何应对?首先,提升数据质量和多样性是基础。通过增加训练数据的广度和深度,可以减少数据偏差,提高AI系统的泛化能力。其次,优化算法设计,增强其健壮性和适应性,能够使AI系统更好地应对新情况。第三,提升用户教育和意识也至关重要,帮助用户正确理解AI的能力和局限,可以有效减少因误解而产生的幻觉。此外,建立伦理规范和监管机制,确保AI的发展和应用符合伦理与法律标准,对于减少AI幻觉的发生同样重要。最后,跨学科合作在应对AI幻觉时扮演着关键角色。工程师、数据科学家、心理学家、伦理学家以及法律专家等应共同参与到AI系统的设计和评估过程中,从各自领域的专业角度出发,共同解决AI幻觉问题。人工智能时代下,AI幻觉是一个复杂、普遍、不可避免的问题,这就要求我们采取多维度、多层次的策略来应对,从而最大限度地减少AI幻觉的负面影响。2023年联合国教科文组织发布的《教育与研究领域生成式人工智能指南》建议,把在课堂上使用人工智能工具的最低年龄设定为13岁。Open AI则建议13岁以下儿童禁止使用生成式人工智能,13到18岁的孩子需要在监护人指导下使用。2023年一次可信任媒体峰会在新加坡举行,分享了各国如何提升青少年媒介素养的举措。如一项国外基于网站和播客发起的、以小学生为对象,提升媒体素养的公益活动“SQUIZ KIDS”,帮助培养青少年分辨网络上出现的错误信息、假信息的能力。它主要分三步:接触到网络信息时停一停(STOP),想一想(THINK),最后对一对(CHECK),和可靠的信息源对照确认是否一致。通过集合不同领域的知识和技能,更全面地识别问题、找到解决方案,我们就可以期待一个更智能、更安全、更可靠的人工智能社会的到来。