10月8日,2024年诺贝尔物理学奖揭晓,奖项颁给了通过人工神经网络实现机器学习而作出基础性贡献的两位“AI(人工智能)先驱”。
毫无疑问,不断迭代升级的AI技术正改变着世界,推动着社会的发展进步。而另一方面,AI的不当使用,也给我们带来了一些困扰和“麻烦”。
前不久,中国科学院公开发布八条诚信提醒,要求该院科研人员和学生在科研活动中规范使用AI技术,避免误用、滥用AI技术引发的科研诚信风险。此举引起科技界广泛关注。
随着ChatGPT、sora等生成式AI工具的快速普及,AI已成为科研写作的常用工具。从文献检索到科研选题,从数据处理到图表制作,从辅助进行论文写作到语言润色,AI发挥的作用越来越大。2023年底,一家媒体机构面向我国高校学生发起的问卷调查显示,84.88%的受访者使用过AI工具,77.51%的受访者认为AI工具可提升工作和学习效率。
需要看到的是,AI在给科研带来便利的同时,也对学术道德和学术规范造成很大冲击。有人用AI伪造实验数据、制作虚假图像,生成欺骗性研究论文;有人借助AI强大的抓取能力,肆意整合网络内容进行“洗稿”,抄袭剽窃,触碰侵权红线;还有人将ai代写论文做成一桩“生意”,声称可以“创你所需,保证查重原创”等。这种现象若不及时遏制,不仅会削弱科研人员的独立思考能力,更会侵蚀教育净土,对科研诚信造成无法估量的伤害。
正因如此,在AI的规范使用上,国内外都在采取积极措施。如我国相继在《中华人民共和国学位法》《人工智能生成合成内容标识办法(征求意见稿)》等法律法规中,明确了ai应用和相关网络信息服务提供规则。美国的《深度伪造问责法案》、欧盟的《人工智能协调计划》,也都界定了AI在学术领域的应用范围。
AI这把“双刃剑”,用好了会成为助力科研的“帮手”,用不好则会沦为学术不端的“帮凶”。高校和科研院所承担着科学研究和人才培养的双重任务,在规范使用AI方面起着风向标作用。前段时间,包括中国传媒大学、华北电力大学等在内的多所高校,已针对学生论文开展使用生成式AI风险情况的检测。这次中国科学院明确发出八条提醒,对申报材料撰写、数据收集和使用、音视频和图表制作等方面的AI使用作出具体规范,针对性、必要性都很强,可以产生很好的示范效应。
20多年前互联网在我国刚刚兴起时,我们确定了“积极发展、加强管理、趋利避害、为我所用”的方针。时至今日,在对待AI的态度上,这样的方针依旧适用——既鼓励积极发展,又强调规范引导,这才是促进AI在科研领域应用的正确之道。