参考消息网8月14日报道 据德国《商报》网站7月15日报道,现年54岁的认知科学家加里·马库斯是人工智能(AI)圈子里最具争议的人物之一。围绕所谓的大型语言模型的能力,马库斯与开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼以及特斯拉首席执行官埃隆·马斯克争论不休。奥尔特曼和马斯克预计,人工智能将很快发展出类人的能力。
马库斯却看到了另一种危险:他认为,新的人工智能模型只是一场炒作,“很快就会破灭”。
《商报》记者问:马库斯先生,您可能是最著名的OpenAI批评者。奥尔特曼公司的哪一点让您不满?
马库斯答:我并不反对OpenAI或奥尔特曼本人。我反对的是虚假承诺。
问:虚假承诺是指?
答:OpenAI宣布,其使命是开发能造福全人类的通用人工智能。人们可以向它提出任何问题,它会理性地给出正确答案。但实际上,OpenAI的软件既不安全也不可靠,且忽视了公众利益。
问:奥尔特曼说,OpenAI离实现通用人工智能可能只差一两次突破。
答:我认为,这是炒作和无稽之谈。
问:为什么?
答:看看新模型GPT-4o,我认为它是构建GPT-5的一次失败尝试。OpenAI曾多次暗示,即将推出GPT-5,然后通用人工智能就会到来。事实却是,人工智能的发展速度最近一直在放缓。OpenAI走错了方向。
答:ChatGPT或许很受欢迎,但并不可信。我对精明的企业家没什么意见,但必须指出当下流行的人工智能模型的技术局限性。只有克服这些局限性,人工智能的发展才能进入值得信赖的轨道。
问:具体是什么让您不安?
答:我不认为大型语言模型(生成式人工智能的一个子集)真的是一个好的解决方案,尽管它们很受欢迎。它们包藏了太多风险,其中最严重的是错误信息,另一个则是幻觉。
问:也就是说,这些模型会编造答案和结果。
答:正是。什么是大型语言模型?它是一种概率模型,可以计算出句子中最有可能出现的下一个词。其结果是,系统拥有惊人的模仿能力,但并不真正聪明。它们或许可以很好地解答80%的问题,却对剩下的20%几乎束手无策。人们可以和聊天机器人谈论几乎任何事情。有时答案是对的,有时是错的。但我们无法预测何时会出错,这是一个大问题。
问:人类不会犯错吗?
答:人类当然会犯错,但人的错误与机器的错误截然不同。此外,人类在某些领域非常出色,当今的机器则不然。以人工智能辅助驾驶为例:我们看到,很多事故都是由人类驾驶员高估机器的能力造成的。他们看到机器正确驾驶了45分钟,于是就认为“太好了,我能信任它”。从统计学角度看,这种想法很愚蠢。一辆在95%的场景中自动驾驶的汽车,会在20种情况中的某一种中做出错误决定。这可能会要了我们的命。这是不可接受的。
问:马斯克认为,更多的数据将完善自动驾驶。OpenAI也提出,数据越多,语言模型越强。
答:这是误入歧途。我们看到,新推出的模型变体带来的回报逐渐减少。进步速度放缓。我们不会因为模型越来越大而实现通用人工智能。
问:您怎么能如此确定呢?
答:没有什么是确定的。但在我看来,用越来越多的数据“喂养”模型,从而实现通用人工智能,这种可能性微乎其微。一方面,根本没有足够的好数据。OpenAI已经搜刮了互联网上的人类文本,现在又在转录优兔(YouTube)视频,但仍然不够。另一方面,目前还不清楚更多的文本是否真的有助于人工智能的发展。就拿我的孩子们来说:他们比任何人工智能都要聪明,但他们并没有翻阅整个互联网。为什么?因为他们能更高效地分析数据,并从更多渠道获取数据:通过眼睛、耳朵和感觉从现实生活获取数据。人类构建了世界运行的因果模型,但生成式人工智能做不到这一点,所以我们无法真正信任它。
问:许多人都希望用所谓的合成数据,即人工智能生成的数据,来训练他们的模型。
答:这是主流人工智能抓住的下一根救命稻草,其背后的想法非常糟糕。人工智能系统会产出满是幻觉的糟糕数据,然后它们又被用来训练其他系统。结果就是,越来越多的虚假信息污染了互联网。人类已经在用生成式人工智能来快速炮制不可靠的产品,例如未经研究、未经核查的传记。这样一来,人工智能不会让世界变得更聪明,而是变得更愚蠢。
答:拜托,图灵测试太可怕了。也许这曾是个伟大的想法,但它已经有74年历史了,经不起时间的考验。图灵测试更适用于验证人类有多么容易上当受骗。我们现在就能建立一个系统,在短期内骗过一个没有受过心理学或人工智能训练的天真的人。但这并不能证明什么。图灵测试的确提出了一个正确的问题:什么是智能?但我们仍未找到答案。