Geoffrey Hinton 是ChatGPT 等人工智能工具发展背后的技术先驱。
但这位 75 岁的开拓者表示,由于 AI 可能被滥用,他对自己毕生致力的工作感到遗憾。
“你很难防止有人利用它做坏事。”
图源bloomberg 版权属于原作者
根据 Hinton 的说法,他的主要担忧之一是AI生成工具会导致虚假或欺诈内容被创造出来,以及普通人无法再知道什么是真实的。
例如几周前,身穿巴黎世家白色羽绒服的教皇假照片在网上流传开来。
图源globalnews 版权属于原作者
同理还有特朗普被捕的照片,这些都是AI生成的虚假照片,但是足以以假乱真。
图源buzzfeednews 版权属于原作者
这类图像如果不及时“辟谣”,会让不知情的受众掌握错误信息。
更可怕的是,除了图像,声音也可以复制
1 月的一个下午,Jennifer DeStefano接到了一个匿名电话,电话那头是她15岁的女儿尖叫的声音。紧接着是一名男子的声音,声称绑架了Jennifer的女儿,并索要100 万美元。
图源nbcnews 版权属于原作者
Jennifer顿时如坠冰窖,因为当时她 15 岁的女儿恰好出城参加滑雪比赛,并不在家。
但Jennifer突然急中生智,先给女儿尝试的拨打了电话。
在警方的帮助下,发现这是一起语音人工智能的骗局。
“这显然是她的声音,”Jennifer接受采访时表示,“电话里的音调变化,都和女儿的声音一模一样。”
网络安全公司McAfee调查发现,四分之一的受访成年人都经历过 AI 语音诈骗。
图源times 版权属于原作者
77% 的目标客户报告说他们因诈骗而损失了钱,在这 77% 的人中,“超过三分之一的人损失了超过 1,000 美元,而 7% 的人被骗了 5,000 到 15,000 美元。”
调查显示,美国的受害者损失最大。通过 AI 语音诈骗而蒙受损失的美国受害者中,有 11% 损失了 5,000 至 15,000 美元。
欺诈者会通过 AI 语音生成器播放一段从社交媒体上截取的声音,使用机器学习生成独特的原始音频,近乎完美地模仿对方的声音,而这一切操作都非常简单,短短几秒就可以完成
任何你上传到社交媒体上的声音文件,都有可能成为诈骗者的创作素材
图源nbcnews 版权属于原作者
然后,骗子会通过应用程序将这些录音发送给受害者的朋友和亲戚,从而骗取钱财。

如何预防诈骗

随着 AI 语音诈骗变得越来越普遍,有一些迹象可以识别骗局:
不寻常的联系方式(例如未知号码)立即要求大笔资金要求通过不寻常的方式(例如礼品卡或加密货币)转移资金要求您不要将电话/事件告诉任何人

如果感觉到是骗局后,您应当:

拨打给您留言的号码以验证其身份拨打您家人或朋友的个人电话号码,验明真伪及时报警

今日推荐

新闻来源time等,版权归原作者所有

本文禁止任何形式的转载,请与一亩三分地联系
继续阅读
阅读原文