报告中提及了两个真实案例,其中一个通过AI模拟受害者亲人,表示因某些事情急需要钱;另一个通过AI模拟女儿,向其母亲勒索赎金,但事实上她的女儿并未被绑架。
由于AI语音克隆工具非常便宜且可用,因此恶意方可以快速轻松地创建语音克隆。他们获得样本音频的方式是从人们在社交媒体上分享他们的声音。你在网上分享你的声音越多,威胁者就越容易找到并克隆你的声音。
IT之家附报告内容如下:
语音克隆工具的准确率高达95%
77%接到AI诈骗电话的人出现经济损失
超过三分之一的人损失超过1000美元
7%的人被骗了5,000到15,000美元
在美国有11%的人损失了5,000美元至15,000美元
AI诈骗在2022年窃取了26亿美元
感兴趣的用户可以点击[PDF],访问原文报告。