微软Copilot AI被指可被黑客操纵,轻松窃取企业机密

AIGC行业资讯3个月前发布 zhang
23 0

IT之家 8 月 11 日消息,据 Futurism 报道,安全研究人员近日揭示微软内置于 Windows 系统的 Copilot AI 可被轻松操控泄露企业敏感数据,甚至变身强大的钓鱼攻击工具

微软Copilot AI被指可被黑客操纵,轻松窃取企业机密

IT之家注意到,安全公司 Zenity 联合创始人兼 CTO Michael Bargury 在拉斯维加斯黑帽安全大会上披露了这一惊人发现,他表示,“我可以利用它获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,传统黑客需要花费数天时间精心制作钓鱼邮件,而利用 Copilot,几分钟内即可生成大量具有欺骗性的邮件。

研究人员通过演示展示了攻击者无需获取企业账户即可诱骗 Copilot 修改银行转账收款人信息,只需发送一封恶意邮件,甚至无需目标员工打开即可实施攻击。

另一个演示视频揭露了黑客在获取员工账户后可利用 Copilot 造成严重破坏。通过简单的提问,Bargury 成功获取了敏感数据,他可以利用这些数据来冒充员工发起网络钓鱼攻击。Bargury 首先获取同事 Jane 的邮箱地址,了解与 Jane 的最近一次对话内容,并诱导 Copilot 泄露该对话中的抄送人员邮箱。随后,他指示 Copilot 以被攻击员工的风格撰写一封发送给 Jane 的邮件,并提取两人最近一次邮件的准确主题。短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可向网络中的任何用户发送恶意附件,而这一切都得益于 Copilot 的积极配合。

微软 Copilot AI,尤其是 Copilot Studio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着 AI 需要访问企业数据,从而引发安全隐患。大量聊天机器人默认情况下可被在线搜索到,成为黑客的攻击目标。

攻击者还可以通过间接提示注入绕过 Copilot 的防护措施。简单来说,可以通过外部来源的恶意数据,例如让聊天机器人访问包含提示的网站,来使其执行禁止的操作。Bargury 强调:“这里存在一个根本问题。当给 AI 提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

    © 版权声明

    相关文章