人工智能发展已进入奥本海默时刻?9月5日下午的外滩大会科技伦理见解论坛上,中国工程院院士与来自清华大学、中国科学院大学等知名学府的专家学者们齐聚一堂。值得关注的是,对AI前景怀有期待的同时,学者们也不可避免有着担忧与反思。
所谓“奥本海默时刻”,是指科学家奥本海默在核武器研发和使用过程中,所面临的道德和伦理困境。“发展机遇前所未有,安全风险也严峻复杂”,中国工程院院士吴世忠借此来形容当下AI治理中所面临的难题。
9月5日下午,外滩大会科技伦理见解论坛现场(牛益彤 摄)
近年来,以ChatGPT、sora为代表的人工智能技术,给世界带来巨大机遇,也带来了巨大的风险挑战,如隐私泄露、算法偏见等问题层出不穷。尽管人们已经尝到不少AI发展的向好趋势,但在场专家们都有着相似判断——人工智能的治理一定不能落后,甚至应该走在前面。
“不能让技术以自由落体的趋势发展”,清华大学公管学院教授、人工智能国际治理研究院副院长梁正说,“如果我们能在人工智能发展上走在前列,那么在管理上也不能脱节”。
专家们普遍认为,人工智能的发展是符合技术发展规律的,“从现在的时间节点来看,还处于产业化的发展初期”,梁正说。
从技术发展的角度来看,无论是从核武器、疾病控制的发展变迁,还是飞机、汽车等交通工具的逐步规范,其他技术在发展中也经历过类似的问题。而历史留给我们的经验是,必须主动选择和谋划发展方向。
“要从打补丁式的被动防范,到主动出击”,中国科学院自动化研究所研究员、联合国高级别人工智能咨询机构专家组成员曾毅说。在他看来,系统的自适应与安全也应是人工智能的能力,两者并非相互掣肘的关系,但这需要过程。
换句话说,要想让人工智能从“非善非恶”的判断题走向“知善知恶”的分析题、从“人工智能”成为“人工智慧”,显然还需要完备地布局。
从外部来说,人工智能的治理共识显然也引发了不少学者的思考。国家创新与发展战略研究会副会长、中国科学院大学经管学院教授吕本富将人工智能形象地比作“孙悟空”,比起压在山下,不如为其戴上紧箍咒,更好地发挥其价值。
但就算是紧箍咒,是紧是松也值得思量。
国际视野下,不少国家已意识到人工智能管理上的空白。据吴世忠介绍,当前全球已有31个国家共计通过123项涉及人工智能相关内容的法律,如欧盟议会今年3月正式通过《人工智能法案》、美国总统拜登于去年10月签署第14110号行政令……各国都正在尝试更新人工治理动态。刚刚过去的人工智能大会上不难看出,中国在这方面显然走在前列。
也许未来某一天,人工智能的发展真的能从合乎伦理走向具有道德,“不必使人工智能无所不在,负责任地稳健发展、适度使用,才能使人工智能扬帆起航。”曾毅说。