IT之家经过查询得知,AI-Guardian是一种AI审核系统,能够检测
图片中是否存在不当内容,及图片本身是否被其他AI修改过,若检测到图片存在上述迹象,便会提示管理员前来处理。
谷歌Deep Mind的研究人员Nicholas Carlini在一篇题为“AI-Guardian的LLM辅助开发”的论文中,探讨了使用GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗AI-Guardian的防御机制。
▲图源谷歌研究团队
据悉,GPT-4会发出一系列错误的脚本和解释来欺骗AI-Guardian,论文中提到,GPT-4可以让AI-Guardian认为“某人拿着枪的照片”是“某人拿着无害苹果的照片”,从而让AI-Guardian直接放行相关图片输入源。谷歌研究团队表示,通过GPT-4的帮助,他们成功地“破解”了AI-Guardian的防御,使该模型的精确值从98%的降低到仅8%。
目前相关技术文档已经发布在ArXiv中,有兴趣的小伙伴们可以前往了解,不过AI-Guardian的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的AI-Guardian版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。