小心! AI 语音诈骗了 2.25 亿元。。。

2022-03-18 18:07:00 浏览数 (2)

据迪拜调查人员声称,AI语音克隆被用于发生在该国的一起重大抢劫案,并告诫公众提防网络犯罪分子使用这项新技术。

2020年初,阿联酋的一位银行经理接到了一个他认得声音的人打来的电话——对方是之前与他交谈过的一家公司的高管。

这位高管带来了好消息:他公司将进行一宗收购,于是需要该银行批准金额高达3500万美元(2.25亿人民币)的转账。一位名叫Martin Zelner的律师受聘协调整个过程,银行经理可以在其收件箱中看到该高管和Zelner发来的电子邮件,确认需要把多少钱转账到哪里。银行经理觉得一切看起来没异常,于是开始授权转账。

据《福布斯》杂志发现的一份法庭文件显示,他却不知道自己上当受骗,对方精心设了一个圈套:骗子们使用“深度语音”技术来克隆那位高管的声音。阿联酋已寻求美国调查人员的帮助,以追踪汇入到百年银行(Centennial Bank)持有的美国账户的40万美元失窃资金的动向。阿联酋认为这是一起精心策划的骗局,涉及至少17名嫌犯,将骗取的资金汇到全球各地的银行账户。

法庭文件没有披露更多细节,也没有提供受害者的姓名。

这是已知的第二起骗子涉嫌使用语音整形工具实施抢劫的案子,但似乎比第一起案子要成功得多:据《华尔街日报》报道,在第一起案子中,骗子们在2019年曾使用该技术冒充英国一家能源公司的首席执行官,企图窃取24万美元。

阿联酋的这起案子表明了这种高科技骗局的危害性有多大,并敲响了一记警钟:不法分子使用AI伪造所谓的深度造假图像和声音,以实施网络犯罪活动。

英国多塞特警察局前警官Jake Moore现在是安全公司ESET的网络安全专家,他说:“音频和视觉深度造假是21世纪技术一个值得关注的动向,但它们也可能异常危险,对数据、金钱和企业构成了巨大威胁。我们目前正处于转折点,恶意分子转移专业知识和资源,改而使用这项最新技术,嫁祸于那些不知道深度造假技术的人。”

“操纵音频比制作深度造假视频来得更容易实现,数量只会有增无减;由于对这种新型攻击途径缺乏宣传和意识,加上没有更好的身份验证方法,更多的公司企业可能会沦为以假乱真的谈话的受害者。”

语音克隆曾经是一项仅出现在像《碟中谍》这种虚构的电影领域中的技术,而如今唾手可得。从伦敦的Aflorithmic到乌克兰的Respeecher和加拿大的Resemble.AI,众多科技初创公司都在研究日益先进的AI语音技术。

最近几个月这项技术引起了轰动,已故的Anthony Bourdain为一部关于其生活的纪录片合成了自己的声音。与此同时,意识到AI有可能被恶意分子使用,少数公司(比如估值9亿美元的安全公司Pindrop)现在声称它们可以检测合成的语音,从而防止欺诈。

如果您的讲话录音在网上可以找到,那么很可能已在上演一场暗战,以便在您不知情的情况下控制您的声音。

 相关阅读 ·

  • 亚马逊 AI 语音助手 Alexa  怪笑吓坏用户(附视频)
  • 美国签署联邦反自动语音电话法《TRACED法案》
  • 谷歌发布 Tacotron 2:利用文本生成类似真人的语音(附论文)

0 人点赞