人们能要求人工智能讲真话吗?或许不能,但一个伦理学家团队表示,从法律上来说,人工智能开发商应该承担减少犯错风险的责任。“我们只是在尝试创建一种激励构架,让公司在创建(大语言模型)系统时更重视真实性或准确性,”牛津大学伦理学家布伦特·米特尔施塔特说。
基于对大量文本的统计分析,大语言模型聊天机器人,例如ChatGPT能对用户提出的问题生成类似人类的回答。然而,尽管它们的答案通常看起来令人信服,但也容易出错,这是一种被称为“幻觉”的缺陷。米特尔施塔特说:“我们拥有这些极其令人印象深刻的生成式人工智能系统,但它们也会频繁出错,从我们对这种系统基本机能的了解来看,没有根本的解决方法。”
米特尔施塔特表示,对大语言模型系统来说,这是一个重大问题,因为它们正在被应用于政府决策,在这种情况下,它们诚实地承认自己的知识局限性就变得至关重要。为解决这个问题,他们提出一系列应对措施:当被问及与事实有关的问题时,人工智能应该像人一样。这意味着它们要诚实,秉持“知之为知之,不知为不知,是知也”的态度。“要点在于采取必要步骤,让它们真正做到谨言慎行,”米特尔施塔特说,“如果对某件事不确定,它们不要只是为了让人们信服而编造一些东西。相反,它们应该说,‘嘿,你知道吗?我不知道。让我来研究一下。我会回复你的。’”
这似乎是一个值得称赞的目标,但在英国德蒙福特大学网络安全教授伊尔克·鲍伊腾看来,伦理学家提出的这些要求在技术上未必可行。开发商正尝试让人工智能实事求是,但到目前为止,事实证明这是一项极其“劳动密集型”的任务,甚至不切实际。“我不明白,他们怎么期望法律要求强制执行这种命令,我认为这在技术上根本行不通,”鲍伊腾说。
为此,米特尔施塔特及其同事们提出一些更直接的措施,可能使人工智能更“诚实”。他说,这些模型应该列出答案的信息源,目前许多模型都在这样做以证明它们给出答案的可信度,此外,更广泛地使用一种被称为“检索增强”的技术来给出答案,也可能限制这些模型产生“幻觉”的可能性。他还认为,应该缩减在政府决策等高风险领域部署人工智能的规模,或者应该限制模型可利用的信息源。“如果我们有一个仅在医学中使用的语言模型,我们就应该限制它,让它只能在高质量医学期刊上搜索学术文章。”
米特尔施塔特声称,改变观念也很重要,“如果我们能摆脱所谓(大语言模型)善于回答事实性问题、或者它们至少会给你一个可靠答案的想法,而是认为它们有助于为你提供更多相关的信息,那就太好了。”
但荷兰乌得勒支大学法学院副教授卡塔琳娜·戈安塔表示,这些研究人员过于关注技术,因此对公共话语中长期存在的谎言问题关注不够。“在这种背景下,仅将矛头指向大语言模型会制造一种假象,即人类非常勤奋细致,永远不会犯此类错误。问问你遇到的任何法官,他们都遇到过律师玩忽职守的可怕经历,反之亦然——这并非一个机器的问题。”