自1956年人工智能概念首次提出以来,AI在计算智能、感知智能的基础上进一步朝着认知智能发展。近年来,随着ChatGPT、sora横空出世,AI发展一路高歌猛进。不过,在今天(10月28日)中国工程院、新加坡工程院主办,同济大学承办的中新人工智能前沿与治理研讨会上,多位院士却给“AI热”浇了一盆冷水。
“网络内生安全问题正在全面挑战当今数字生态系统底层驱动范式。”中国工程院院士、复旦大学教授邬江兴直言,令人遗憾的是,目前无论安全系统本身还是看家护院的网络安全护卫都无法回答“有没有漏洞”“有没有后门/陷门”“存不存在多重安全叠加问题”三大灵魂拷问。他严肃指出,当前ai应用系统,安全责任与风险严重失衡。没有任何商家敢保证自家产品不存在安全漏洞和后门,也没有任何检测机构能够对送检的产品做无漏洞和无后门的担保。这已经成为AI时代各国无法摆脱的噩梦。
看似强大的人工智能实则隐患重重
提起网络安全隐患,今年7月发生的微软蓝屏事件让不少人印象尤深。7月19日,全球多国用户发现公司的电脑出现蓝屏,提示“设备遇到问题,需要重启。随后,蓝屏问题被确认与网络安全公司Crowd Strike的软件更新有关。在邬江兴看来,这就是网络安全“保镖”背刺人类的典型案例。“人工智能和安全问题强相关,而安全性则是现代计算机体系结构存在‘娘胎’里带出来的基因缺陷,AI运行环境的安全问题必须引起重视。”
郑庆华举例,首当其冲的表现就是过度消耗数据和算力。“总有一天,人类从互联网上的开源数据中挖掘出的有价值信息会遇到天花板,就像人类从矿产资源中挖掘稀有金属一样,有消耗殆尽的时候。”第二个固有缺陷表现为灾难性遗忘以及场景的牵引能力弱。郑庆华解释,大模型存在喜新厌旧,难以举一反三,往往是适应了A,就很难适应B,两者之间要找到一个平衡点并不容易。第三则是推理能力弱。大模型采用的是自回归训练算法,导致它无法形成人类所构建的基于因果推理的逻辑推理能力。自回归生成方式也难以应对需要回溯和试错的复杂推理任务,由此常常导致大模型通过学习错误的信息来解决任务的现象,这种现象被称为“聪明汉斯效应(Clever Hans effect)”。第四个固有缺陷则表现为大模型不知道自己错在何处,为何出错,更做不到知错就改。郑庆华直言,这些固有缺陷使得导致了大模型出现幻觉、可控性差等问题。“尤其是在工程应用等需要知其然知其所以然的场景中,大模型可以说无能为力。”
新加坡工程院院士、南洋理工大学教授文勇刚认为,人类社会正在进入数字化、可持续化双重变革的时代。尤其是在数字化变革中,大量活动从线下变成线上,对计算资源、服务器的耗费相当大。有预测显示,到2030年新加坡数据中心的耗电量会达到社会总耗电量的12%。更值得警惕的是,AI的大量运用还会增加碳排放的体量,对环境产生破坏性影响。
引导AI向着正确的方向狂奔
当AI一路闭眼狂奔,科技的开发者——人类如何把握好方向盘?会上,专家们也基于长期研究给出了可行性建议。
邬江光从2013年起创建了内生安全和拟态防御理论。基于理论基础,团队在南京实验室构建了内生安全架构赋能智能驾驶系统。该系统有20多种应用场景、100多种差异化的应用个体,在对抗攻击、后门漏洞等AI共性问题上,综合识别成功率超过90%。
郑庆华谈到,历史和经验证明,人类在脑科学方面每一次进步都对人工神经网络、机器智能的研究有借鉴、启发和指导作用。“今天的大模型只是对人脑最初步、最简单的借鉴,如果我们能够深度借鉴脑科学中,特别是人类所特有的记忆表征、激活、检索、编码回访等机制,有望破解今天大模型面临的种种固有缺陷。”由此,他提出:中国要有自己的机器智能模型。目前同济大学正在打通学科边界,推动计算机学科与脑科学学科融合,研究人脑记忆和机器记忆的关联性,探索以信息科学研究脑科学的新路径。
今天的人工智能已经打破传统意义上的学科边界,正在延伸至几乎所有学科。新加坡工程院院士、新加坡科技设计大学教授郭贵生也是AI-RAN协会的一员。据了解,AI-RAN指“人工智能(AI)-无线接入网(RAN)”,是一个旨在重振人工智能与无线通信融合、引领技术创新的行业协会组织。郭贵生介绍,大量有关AI的项目、量子计算项目正通过跨学科互联得以推进。在他看来,引导AI向善,不仅要学科破圈,还要积极联动全球智慧。他期待,未来能有更多中国高校的实验室、企业能够加入AI朋友圈,建立合作伙伴关系。
记者了解到,新加坡作为世界著名的“人工智能之都”,是全球最早启动国家人工智能战略的国家之一,在人工智能治理上开展了大量开创性工作。现场,郑庆华也倡议,未来要想实现“人有人智,机有机智,各智其智,智智与共”的美好图景,需要中国、新加坡两国人工智能领域的专家共同携手,为这个世界创造更多贡献。