这里还有另一个例子,你知道,我们在整个互联网上训练这些模型,所以它已经见过许多不同的语言,但然后你只训练它们用英语回答问题,所以它学会了用英语回答问题;然后我们增加模型大小,增加模型大小,然后突然之间,它开始能够用波斯语进行问答。没有人知道为什么。这里还有另一个例子,AI的心智理论(theory of mind)。心智理论是能够理解别人在想什么的能力,这种能力启发了战略思维。在2018年,GPT几乎没有心智理论,在2019年几乎没有心智理论,在2020年开始发展像4岁孩子的战略水平,2022年1月,发展了像7岁孩子的战略水平,去年11月,几乎达到9岁孩子的战略水平。现在,真正让人毛骨悚然的是,我们只是上个月发现AI获得了这种能力,它已经出来两年了,两年了!这些模型在交流方式和与你战略互动的能力等等各方面的能力正在以这样的(指数)曲线上升,它从一个7岁的孩子变成一个9岁的孩子,它的心智理论在11个月里提高了2年。它也许可能会停止发展,也许可能会有人工智能的冬天,但目前,我们正在泵送更多的东西,让AI获得更多和更多的能力,这与(以前的)其他AI系统的扩展方式非常不同。同样重要的是,AI研究人员发现,使AI表现良好的最佳系统是reinforcement learning with human feedback(RLHF,即OpenAI发现的人类反馈强化学习技术),本质上就是像训练狗一样,是高级的点击反馈培训。想象一下,试图对一个9岁的孩子进行点击式的训练或在鼻子上轻拍式训练。。。一旦你离开房间,他们会做什么? 他们不会做你要求他们做的事情,所以AI这里的情况是一样的,对吧?我们知道如何在短期内帮助AI实现一致(AI alignment),但我们不知道如何在更长期内使其一致,这方面没有研究。让我们听听谷歌AI的负责人Jeff Dean怎么说的。他说,尽管有几十个新出现的能力的例子,但目前几乎没有令人信服的解释来说明为什么会出现这些能力。所以,您不必相信我们的话,(听专家的)没有人知道。再举一个例子,我相信这只是上周发现的。大语言模型已经默默地教会自己研究级化学知识。如果您现在去玩ChatGPT, 会发现它在进行研究化学方面, 已经比许多专门用于研究化学的AI更强大。