IT之家 8 月 1 日消息,在欧盟官方发布《人工智能法案(Artificial Intelligence Act)》最终完整版本 20 天后,全球首部全面监管人工智能的法规于当地时间 8 月 1 日正式生效。
据介绍,《人工智能法案》旨在确保在欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。该法规旨在在欧盟建立一个统一的人工智能内部市场,鼓励采用这项技术,并为创新和投资创造一个支持性的环境。
《人工智能法案》规定,对违反被禁止的人工智能应用程序的罚款可能高达全球年营业额的 7%,对违反其他义务的罚款最高可达 3%,对提供错误信息的罚款最高可达 1.5%。该法案中的所有条款将在两年内全面适用,但其中一些将会更早实施。
《人工智能法案》基于欧盟的产品安全对人工智能提出了前瞻性定义,IT之家汇总如下:
最小风险:大多数 AI 系统,例如支持 AI 的推荐系统和垃圾邮件过滤器,都属于这一类。由于这些系统对公民权利和安全的风险最小,因此在《人工智能法案》下没有承担任何义务。公司可以自愿采用额外的行为准则。
特定的透明度风险:聊天机器人等人工智能系统必须向用户清楚地披露他们正在与机器交互。某些人工智能生成的内容,包括深度伪造的内容,必须被标记为此类内容,并且在使用生物识别分类或情感识别系统时需要通知用户。此外,提供商在设计系统时必须将合成音频、视频、文本和图像内容标记为机器可读的格式,并可检测为人工生成或操纵的内容。
高风险: 被确定为高风险的人工智能系统将被要求遵守严格的要求,包括风险缓解系统、高质量的数据集、活动记录、详细的文档、清晰的用户信息、人工监督以及高水平的稳健性、准确性和网络安全。监管沙盒将促进负责任的创新和合规人工智能系统的开发。例如,这种高风险的人工智能系统包括用于招聘的人工智能系统,或用于评估某人是否有权获得贷款,或运行自主机器人的人工智能系统。
不可接受的风险: 被认为对人们基本权利构成明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用程序,例如使用语音辅助鼓励未成年人危险行为的玩具,允许政府或公司进行“社会评分”的系统,以及预测性警务的某些应用。此外,生物识别系统的某些用途将被禁止,例如在工作场所使用的情绪识别系统,以及一些用于对人员进行分类的系统,或在公共可进入的空间中用于执法目的的实时远程生物识别系统(只有少数例外)。