这不是危言耸听。
接到陌生号码来电时,注意让对方先开口。
不然对方可以轻易录制你的声音,拿来勒索诈骗。
多年来,一个常见的骗局是接到一通自称是权威人士(如警察)的来电,紧急要求你付钱,以帮助朋友或家人摆脱困境。
现在,美国联邦监管机构警告说,这样的电话可能来自一个听起来像某位朋友或家人的人——但实际上是一个使用克隆声音的诈骗者。
联邦贸易委员会(the Federal Trade Commission)本周发布了一份消费者警报,敦促人们对使用人工智能生成的克隆声音的电话保持警惕。这是犯罪分子骗取人们钱财的最新技术之一。
像ChatGPT之类的AI工具已经能够将很短的声音后制仿真(voice cloning)成像是本尊在说话。收到诈骗电话的家属起初会怀疑,但声音真的是宝贝儿孙的声音时,可能就汇款了。
联邦贸易委员会警告说:"(骗子)只需要你的家庭成员的声音的简短音频剪辑——他可以从网上发布的内容中获得——和一个声音克隆程序。"当骗子给你打电话时,他的声音听起来就会像你的亲人一样。"
加州柏克莱大学教授Hany Farid警告,抖音上面一小段声音,就算只有3秒钟,就足以让歹徒有机可乘;语音信箱的留言也是。
联邦贸易委员会建议,如果一个听起来像朋友或亲戚的人向你要钱——特别是如果他们想通过电汇、加密货币或礼品卡来支付,你应该挂断电话,直接给对方打电话,核实他们的说法。
联邦贸易委员会的一位发言人说,该机构无法提供关于被盗贼利用语音克隆技术骗走钱财的估计报告数量。
很多这一类诈骗的案例,听起来像科幻小说中的情节,却是完全不是编造的。
2019年,骗子冒充英国一家能源公司CEO的老板,索要24.3万美元。2020年初,香港的一名银行经理被人利用语音克隆技术骗去了高额转账。今年早些时候,加拿大至少有八位老人在因为声音克隆骗局中总共损失了20万美元。
在视频领域,显示名人做了或说了他们没有做过的事情的 "深假 "视频越来越复杂,现在专家们说声音克隆技术也在不断进步。
亚利桑那州立大学计算机科学教授Subbarao Kambhampati说,克隆声音的成本也在下降,使骗子更容易得手。
Kambhampati说:"以前,这需要一个复杂的操作。现在,小混混们都可以使用它。"
==========广告分界线=========
继续阅读
阅读原文