用户 发表于 2024-2-28 21:44:58

警惕!“声音克隆”诈骗!人工智能变“帮凶”,3秒就能复制你的声音!这几个防范方法要记住!

我们的声音就像指纹一样独特,那么如果您的声音被克隆,您会有什么感受?
近年来,一种名为“声音克隆”的技术悄然兴起,黑客利用人工智能 (AI) 模拟你的声音,伪装成你,向亲友诈骗钱财。
名人如斯蒂芬·弗莱、萨迪克·汗和乔·拜登都曾成为声音克隆的受害者,一位匿名首席执行官更被骗走243,000美元。
01它是如何运作的,到底有多逼真?
声音克隆是一种人工智能技术,可以让黑客获取某人的音频录音,然后训练人工智能工具学习其声音并进行复制。

黑客协会 (HackerOne) 的解决方案架构师丹·谢雷茨 (Dane Sherrets) 告诉《每日邮报》:“这项技术最初用于制作有声读物,并帮助失去声音的医疗人士进行交流。但如今,这项技术越来越多地被好莱坞和骗子们所利用。”

谢雷茨表示,当这项技术在上世纪 90 年代末首次出现时,只有具备深入人工智能知识的专家才能使用它。然而,随着时间的推移,这项技术变得更加易于获取和负担,几乎任何人都可以使用它。
“即使是经验非常有限的人也可以克隆声音,”他说。“使用一些免费的开源工具,可能只需要不到五分钟的时间。”
为了找到答案,一个专业的黑客克隆了实验者的声音——结果很可怕。
https://mmbiz.qlogo.cn/mmbiz_jpg/VTjhB7k8ctiaynNe7f9jnWP9bv4cXsHffIoOmf53uFuuXicJKUjhohH9bcyAxzwTtjib4xYThuNuiblYwFJ3QKENHQ/640?wx_fmt=jpeg&from=appmsg&wx_
为了克隆实验者的声音,Sherrets 先生只需要实验者五分钟的说话录音。
实验者选择录制自己朗读《每日邮报》的一篇文章,尽管 Sherrets 先生表示大多数黑客只需从快速通话或社交媒体上发布的视频中提取音频即可。
实验者把视频发给Sherrets先生后,他就把视频上传到一个工具里(他没有透露这个工具的名字),然后这个工具就可以根据实验者的声音进行“训练”。
https://mmbiz.qlogo.cn/mmbiz_jpg/VTjhB7k8ctiaynNe7f9jnWP9bv4cXsHffvluZ5ZiaThbjH9GrXSRWeCyWYn2G6Qvkcia3hfj9v2xga42yjWkdqDiag/640?wx_fmt=jpeg&from=appmsg&wx_
他说:“完成后,我可以直接在工具中输入,甚至直接讲话,然后它就可以输出我想要用你的声音传达的任何信息,现在可用的工具真正疯狂的地方在于,我可以添加额外的语调、停顿或其他使语音听起来更自然的东西,这使得在欺诈情景中更具说服力。”
尽管没有添加任何停顿或额外的语调,但实验者的语音克隆的第一个片段却令人惊讶地逼真。
机器人的声音完美地模仿了实验者的美苏格兰混血口音,因为它说:“嘿,妈妈,我是Shivali,我的银行卡丢了,需要转账,你能不能给刚才给你发短信的那个账号发点?”
然而,在接下来的视频片段中,雪瑞茨添加了停顿,这种恐怖感被提升了一个档次。
这位职业黑客解释说:“在最后,你可以听到很长的停顿,然后是呼吸,这让它听起来更自然。”
值得庆幸的是,实验者的语音克隆经历只是一次演示,但谢雷茨强调了这项技术的一些严重危险。
他说,有些人接到了假绑架电话,他们的“孩子”打电话给他们,说“我被绑架了,我需要数百万美元,否则他们不会释放我”,孩子听起来非常痛苦。
AI工具将BBC大卫阿滕伯勒的声音从英语克隆为德语

“我们今天看到的是,越来越多的人试图对公司和组织进行更有针对性的社会工程攻击。我用同样的技术克隆了我CEO的声音。ceo们经常公开露面,所以很容易获得他们的高质量声音并进行复制。拥有首席执行官的声音会让快速获得密码或进入系统变得容易得多,公司和组织需要意识到这种风险。”
,时长00:39


用特朗普的声音说六种语言


02
表明声音是克隆的关键迹象
值得庆幸的是,Sherrets先生说,有几个关键的迹象表明一个声音是克隆的。
第一个迹象是“会有停顿,听起来不太自然的问题”
第二个迹象是“背景中可能会有你所说的‘人工制品’,例如,如果在一个拥挤的房间里克隆一个声音,并且有很多人在聊天,那么当使用语音克隆时,你会听到一些垃圾背景音。”


03
如何分辨真假
然而,随着技术的不断发展,这些迹象将变得越来越难以发现。
Sherrets先生解释说:“人们需要意识到这种技术,并不断怀疑任何要求他们紧急行动的事情——这通常是一个危险信号。人们应该迅速提出可能只有真人才知道的问题,而且在采取任何行动之前,不要害怕尝试和核实事情。”
谢雷茨建议与家人和朋友说一句“安全话”。
他说,如果你真的处于紧急情况,你可以说出那个安全字,他们就会立刻知道这是真的你。
最后,这位专家建议,要注意自己的网络足迹,并密切关注自己上传到网上的内容。你的每次上传,都扩大了音频攻击面,以后可以用来训练人工智能。
以下是一些针对声音克隆的建议:

[*]不要轻易相信电话或语音留言中的内容,尤其是涉及金钱或敏感信息时。


[*]与家人和朋友保持沟通,告知他们你可能会被声音克隆,并约定一些只有你们才知道的秘密信息。


[*]使用强密码和双重身份验证来保护你的账户安全。


[*]安装防病毒软件和防火墙,并定期更新。


[*]关注有关声音克隆的最新信息,了解如何防范相关的诈骗和犯罪。

声音克隆,是一项充满潜力的技术,但也暗藏着巨大的风险。我们需要提高警惕,共同抵御声音克隆骗局,保护自身安全。

页: [1]
查看完整版本: 警惕!“声音克隆”诈骗!人工智能变“帮凶”,3秒就能复制你的声音!这几个防范方法要记住!