参考消息网8月14日报道 据美国消费者新闻与商业频道网站8月1日报道,欧盟的标志性人工智能法案8月正式生效——这对美国科技巨头意味着艰难的变革。
监管大企业
《人工智能法案》最早由欧盟委员会于2020年提出,旨在应对人工智能的负面影响。
它将主要针对美国大型科技公司。这些公司目前是最先进人工智能系统的主要构建者和开发者。
不过,其他许多企业——甚至是非科技型企业——也将被纳入这一法规的管控范围。
这项法规为整个欧盟的人工智能制定全面、协调的监管框架,用一种基于风险的手段来监管人工智能技术。
英国年利达律师事务所技术、媒体和电信业务负责人坦吉·范奥弗斯特拉滕说,欧盟《人工智能法案》是“世界上此类法案中的第一部……它可能会影响许多企业,尤其是那些开发人工智能系统的企业,还会影响那些部署或仅仅在某些情况下使用人工智能的企业”。
该法案用基于风险的手段来监管人工智能。这意味着,取决于对社会构成风险的程度,人工智能技术不同的应用方式将受到不同的监管。
例如,对于被认为“高风险”的人工智能应用方式,将依照《人工智能法案》严格要求其负起责任。此类责任包括进行充分的风险评估和建立缓解系统、使用能让偏见风险降至最低的高质量训练数据集、定期记录活跃度,以及强制与当局分享有关模型的详细文件以便评估合规情况。
这项法律还将对在风险等级方面被列为“不可接受”的人工智能的应用实施全面禁令。构成“不可接受”风险的人工智能应用方式包括,构建通过汇集和分析公民数据对其进行排序的“社会评分”系统、预测性执法,以及在职场或学校中使用情绪识别技术。
在这方面,大型科技公司无疑属于这项新法规盯得最紧的公司。
获得豁免难
对于这些系统,《人工智能法案》将提出严格要求,例如遵守欧盟的版权法、就这些模型的训练方式披露信息,以及定期测试和采取充分的网络安全保护措施。
不过,并非所有人工智能模型都将得到一视同仁的对待。人工智能开发商已经表示,欧盟需要确保开源模型——即供公众免费使用且可用于创建量身定制的人工智能应用的模型——不会受到过于严格的监管。
欧盟确实针对开源生成式人工智能模型规定了一些例外情形。
但是,要想获得豁免资格,开源模型提供商必须公开自己的参数,包括权重、模型结构和模型使用情况,并使“模型的获取、使用、修改和分发”成为可能。
根据《人工智能法案》,构成“系统性”风险的开源模型将不能享受豁免。
违规处罚重
违反欧盟《人工智能法案》的公司可能被处以750万欧元(或其全球年营收的1.5%,取两者中金额高者)到3500万欧元(或其全球年营收的7%)的罚款。
具体罚款金额将取决于被处罚公司的规模和违规情节。
监管该法案覆盖的所有人工智能模型的责任将由欧洲人工智能办公室承担。该办公室是欧盟委员会2024年2月成立的一个监管机构。
金融科技公司Linedata的资产管理部门全球主管雅米尔·日瓦对消费者新闻与商业频道记者说,欧盟“知道,如果他们希望法规能产生影响,他们需要对违规公司处以重罚”。
尽管如此,需要指出的是,尽管《人工智能法案》终于生效,但其大多数条款至少要等到2026年才会真正实施。