生成式人工智能发展要守牢安全底线

AIGC行业资讯4个月前发布 jzawxc
12 0
党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》(下称《决定》)对健全网络综合治理体系作出系统部署,其中提出,要完善生成式人工智能发展和管理机制。
日前,中央网信办主任庄荣文在接受新华社记者采访时强调,(在生成式人工智能领域)要守牢安全底线,防范滥用风险。
截至目前,我国完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达190多个,注册用户超过6亿。下一步,将继续促进生成式人工智能技术在工业、农业及教育、医疗、卫生等领域落地应用,激活人工智能技术赋能实体经济发展的作用,合力推动人工智能在传统行业领域应用中取得更大突破。
生成式人工智能是一把双刃剑,在给许多领域带来重大变革的同时,也产生或孕育着国家竞争力风险、技术安全风险、网络安全风险、经济社会风险等各种风险。这是强调要完善生成式人工智能发展和管理机制的出发点所在。
生成式人工智能是世界性赛道,各国都非常重视,有一些经验可以借鉴,但核心领域的创新只能依靠自己的努力。
核心领域有硬件和软件两个方面。对前者来说,要着力促进自主可控算力芯片产业发展,这是生成式人工智能发展的基础性要素,也是当前和今后一段时间的“卡脖子”所在。
去年8月工业和信息化部等四部门发布的《新产业标准化领航工程实施方案(20232035年)》指出,要研制新型存储、处理器等高端芯片标准,开展人工智能芯片、车用芯片、消费电子用芯片等应用标准研究。这将对我国自主可控算力芯片发展起到引导和激励作用。
当前,我国能为公众提供服务的生成式人工智能服务大模型已达190多个,但在产出成果和应用效果上还与先进国家存在一定差距,加速自主大模型研发和应用仍是各方面临的紧迫任务。“自主”是重点,发挥社会各方面的合力作用是路径。
在生成式人工智能迅猛发展的同时,防范滥用风险也成为公众关注的重要方面。正如上述采访中庄荣文强调的那样,今后要指导相关平台企业合法合规向网民提供优质服务,防范技术滥用带来的个人数据泄露、虚假信息生成、知识产权侵权等风险。
另外需要强调的是,需要防范的风险还包括涉及用户生物识别信息、健康信息等个人数据泄露而引发的诸多问题。这涉及生成式人工智能应用的伦理道德问题,技术发展和应用不能违背伦理道德是一个基本要求。
为此,本月1日正式生效的欧盟《人工智能法案》明确,所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统都将被禁止。
我国去年8月施行的《生成式人工智能服务管理暂行办法》(下称《暂行办法》)明确规定,有关生成式人工智能的内容要合法合规、禁止算法歧视、不得生成虚假信息、不得侵犯他人合法权益等相关内容。这对生成式人工智能可能带来的伦理道德风险具有重要的警示作用。
完善生成式人工智能发展和管理机制还需要加强法规建设,并进而形成协同共治的局面。
在加强法规建设方面,《暂行办法》的制定施行在全球范围内具有领先意义,但这仅仅是一部行政法规,还有较大的提升空间。
在今年的全国两会期间,有多名人大代表提出了关于制定人工智能法的议案,建议对人工智能发展和崛起所导致的各类法律问题开展立法研究,适时制定出台人工智能法。因为这些代表认为,《暂行办法》仍不能较全面地涵盖人工智能所引发的各类问题,不足以做好与现行法律的衔接工作。
在协同共治方面,要进一步推动人工智能的安全和应用治理,政府监管、行业自治、企业自律、社会监督协调一致。
总而言之,近年来,我国生成式人工智能快速发展,新技术不断突破,新业态持续涌现,为经济社会发展注入了强劲动能,但也面临着许多亟待解决的问题,包括强化自主可控、引导和规范应用落地、防范滥用风险、实现协同共治等。这些问题的解决将为推动生成式人工智能产业发展、技术进步与安全保障提供坚实基础。
    © 版权声明

    相关文章