AI风险:AI 会助纣为虐吗?

AIGC行业资讯2年前 (2023)发布 编辑员
2K 0

09.AI 风险 #5:AI 会助纣为虐吗?

以上,我解释了为什么说经常被提及的 AI 风险中实际上有四个并不是真的:AI 不会苏醒并干掉我们;AI 不会毁灭我们的社会;AI 不会导致大规模失业;AI 不会引发更多的不平等。下面,我们来谈谈第五点,我非常同意的一点:AI 将助纣为虐,帮助坏人做坏事。

AI风险:AI 会助纣为虐吗?

从某种意义上说,这是一个“重言式”(逻辑学名词。如果一个公式,对于在任一解释下其真值都为真,就称为重言式,又叫永真式)。科技是一种工具。工具(比如火和石头)可以用来做好事(可用来饭和盖房子),也可以用来做坏事(可用来防火和打人)。任何技术都可以用来做好事,也可以用来做坏事。毫无疑问,AI 也可以降低不法分子作恶的难度。

有些人也许会说,既然如此,我们就应该防患于未然。然而不幸的是,AI 并不是很难获取的物理材料(比如钚)。恰恰相反,它是世界上最容易获得的材料——数学和代码。

网上有数不尽的免费课程、书籍、论文视频,可供你学习如何构建 AI,而且优秀的开源实现每天都在激增。AI 就像空气,无处不在。我们应该如何逮捕这些不法分子?监视和控制所有的计算机?夺走他们的 GPU

实际上,我们有两种非常直接的方法可以解决不法分子利用 AI 做坏事的风险,而这些正是我们应该关注的方面。

首先,我们需要制定法律,将利用 AI 做的大多数坏事定为犯罪。从银行偷钱?犯罪。制造生化武器?犯罪。实施恐怖行为?犯罪。我们可以集中精力在力所能及的情况下防止这些罪行,如果无法防范则起诉不法分子。

但是,你可能注意到了,我说我们应该在 AI 辅助犯罪发生之前预防,这种预防难道不是意味着禁用 AI 吗?实际上,我们还有另一种方法可以防止此类犯罪,那就是将 AI 作为防御工具。同样是 AI,到了坏人手里就会变得很危险,而到了好人手里就能变成强大的武器,特别是用于防止坏事做坏事。

例如,如果你担心 AI 会冒充人类或生成虚假视频,那么就可以构建新系统,让人们通过加密签名验证身份和内容的真实性。其实,早在 AI 出现之前,虚假内容就已经存在了。我们不能禁用文字处理器、Photoshop 或 AI,而是应该使用技术来构建一个真正解决问题的系统。

其次,我们应该付出大量努力,将 AI 用于好的、合法的防御目的。我们可以将 AI 用于网络防御、生物防御、追捕恐怖分子,以及其他保护我们自己、社区和家园的安全的一切措施。

当然,政府内外已有很多人在朝着这个方向努力,如果我们能够利用 AI 来防止坏人做坏事,那么充满 AI 的世界将更加安全。

 

    © 版权声明

    相关文章