AI生成内容“亮明真身”,源头治理又迈出一步

AIGC行业资讯3个月前更新 zhang
23 0

近日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,为AI生成内容标识提供了规范标准。通俗地说,今后AI生成内容将强制“亮明真身”。据介绍,这也是全球范围内第一部关于人工智能生成合成内容标识的国家标准

从文生文、文生图到跨模态交互,不断进化的AI生成技术正极大赋能内容生产。不论是写篇新闻、润色小说,还是指令作图、智能写歌,AI相当程度帮助创作者省去了苦思冥想的环节,明显提升了生产效率。然而,技术红利也正被一些别有用心之人利用。有的批量生产假科普,补钙强骨、健脾养胃等噱头把老年人忽悠得团团转;有的动辄编造假消息,“突发”“重磅”“必看”等字眼刺激着网友眼球;有的换声换假扮明星,李鬼横行骗情谋财……如此种种,严重污染着网络内容生态,不少还直接涉嫌违法犯罪。

“内容垃圾”与互联网相伴而生,屡打而不绝,但AI的加持,让垃圾发酵“鸟枪换炮”。具体来说,AI生成的“内容垃圾”首先迷惑性极强。通过对训练数据的学习,AI大模型很容易掌握文本、图像、视频等不同内容的基本特征和形式。纵然最开始AI生成的内容还比较粗糙,但随着技术持续迭代,已经告别“一眼假”阶段,进入单凭肉眼难辨真伪的状态。二是AI造假成本极大降低。如果说过去的造假尚需多项成本投入,那么借助最新的AI大模型应用,几乎全程无需人工参与,文本、图片视频等各式各样的内容都可大批量快速生产,“任君选取”。倘若对此听之任之,后果将不堪设想,严加治理正当其时。

反观本次《办法》,强制要求AI生成内容“亮明真身”,相当于一种源头治理。一方面,本次《办法》几乎涵盖了智能对话合成人声人脸生成、沉浸式虚拟场景等当前所有AI生成内容类型。另一方面,本次《办法》就标识义务主体、适用范围、标识类型、使用场景与部署方式等都提出了细化规定,还给出了标识示例。当前,《办法》仍在征求社会意见,需要AI创作者、互联网平台、学界等相关主体群策群力,共同完善顶层设计,让“小标识”为互联网内容生态治理发挥大作用。

“凡事预则立”,技术治理与技术发展必须齐头并进。规范添加标识,让技术“如虎添翼”而非“为虎作伥”,AI产业才能行稳致远。

    © 版权声明

    相关文章