伴随着OpenAI ChatGPT和Google Gemini等生成式AI系统的快速发展,AI开始被
应用于解决某个特定问题或者任务,例如创建日历项、订购某件物品等等。
网络安全技术研究人员表明生成式AI存在漏洞,并将其命名为“Morris II”。
IT之家在这里简要介绍下这个名称的背景,Morris被认为是人类发现的第一个计算机蠕虫病毒,于1988年被发现,感染了超过6200台计算机,占当时连接到互联网的所有计算机的10%。
“Morris II”可以基于生成式AI,绕过了ChatGPT和Gemini的保护,能从电子邮件中窃取数据并发送垃圾邮件。
研究作者表示在沙盒环境中测试了新的攻击模型,但目前尚未在实践中被发现,不过个人开发者、初创企业和科技公司都应考虑到这一威胁。
大多数生成式人工智能系统的工作原理是接收文本指令:要求回答问题或创建图像。
这些命令可以用来对付系统,使其忽略安全措施并生成不恰当的内容;还可以向系统发出隐含指令,例如,向其提供一个隐藏有此类命令文本的恶意网页地址。
攻击生成式人工智能的蠕虫病毒的运行原理基于“对抗性自我复制提示”机制。这种命令会导致生成式人工智能模型发出另一条命令作为回应,这很像SQL注入和缓冲区溢出等传统攻击模式。
为了演示该蠕虫的工作原理,研究人员通过连接ChatGPT、Gemini和开源LlaVA模型,创建了一个可以使用生成式人工智能接收和发送信息的电子邮件服务。
然后,他们使用自我复制的文本指令和嵌入图像文件的类似指令两种方法,成功利用人工智能漏洞发起攻击。
研究报告的作者指出,由于人工智能生态系统的架构设计错误,这些攻击方法成为可能。他们与谷歌和OpenAI分享了他们的发现--OpenAI证实了威胁的存在,但补充说该公司正在努力提高其系统的稳定性,而谷歌拒绝发表评论。