OpenAI:人工智能的发展速度足够快 它可能带来的危险也足够明显

AIGC行业资讯1年前 (2023)发布 编辑员
1.3K 0

人工智能的发展速度足够快,它可能带来的危险也足够明显,以至于 OpenAI 的领导层认为,世界需要一个类似于管理核能的国际监管机构——而且速度要快。但不能太快。

OpenAI:人工智能的发展速度足够快 它可能带来的危险也足够明显ChatGPT 的创建者 OpenAI 正在测试如何就影响其人工智能的决策收集广泛的意见。周一,该公司总裁 Greg Brockman 在由高盛集团和 SV Angel 主持的旧金山 AI Forward 活动上讨论了 OpenAI 正在全球范围内推动 AI 监管的概述。

他预览了一项类似于维基百科的项目,该项目需要有不同观点的人共同协作,以达成一致意见。他说:「我们不只是坐在硅谷想着我们可以为每个人制定这些规则。我们开始考虑民主决策。」

Brockman 还讨论了另一个想法,OpenAI 在周一的博客文章中对此进行了详细阐述,即全球各国政府应当协调,确保安全地开发 AI。

在 OpenAI 公司官网博客的帖子中,OpenAI 创始人 Sam Altman、总裁 Greg Brockman 和首席科学家 Ilya Sutskever 解释说,人工智能创新步伐如此之快,以至于我们不能指望现有当局充分控制该技术。

自 11 月 30 日推出 ChatGPT 以来,这项生成式人工智能技术可以从文本提示中生成出极具权威性的散文,使该程序成为有史以来增长最快的应用程序。人工智能也成为人们关注的焦点,因为它能够制造深度伪造图片和其他错误信息。

在评估人工智能的未来路径时,Brockman 参考了维基百科以及其他地方。他和 OpenAI 表示,像国际原子能机构 (IAEA) 这样的组织可以对部署进行限制,审核安全标准的符合性,并跟踪计算能力的使用情况。

另一个建议是全球协议,限制前沿人工智能能力的年度增长,或者是一个主要政府可以参与的全球性项目。

OpenAI 首席执行官 Sam Altman 上周向美国立法者提出了管理人工智能的各种想法,其中包括要求获得开发最复杂 AI 模型的许可证,并建立相关的治理体制,他本周正在访问欧洲政策制定者。

    © 版权声明

    相关文章