机器之心报道
参与:李泽南、路
DeepFakes 可以通过人工智能技术把所有视频中的人脸换成你想要的任何其他人,进而满足很多人「大胆的想法」。然而,被骚扰最严重的明星们却发现这些视频有时是无法删除的。近日,好莱坞女星斯嘉丽·约翰逊对这种现象发表了自己的看法。
这项研究通过人脸识别算法实现,不仅被人们用于拼接色情视频,还被用于制造大量「假新闻」并发布到社交网络中。研究人员还在不断提升 DeepFakes 的真实度,最新版的变种已经可以达到破解人脸识别系统的程度了(参见:惊了,DeepFakes 不仅骗过人,还能骗过人脸识别系统?!)。
自从 2017 年底 DeepFakes 流行起来之后,斯嘉丽的脸已被匿名「创作者」拼接到很多影片的性爱场景中——目前市面上已经出现了免费的人工智能软件用于创作效果逼真的假视频。其中一条被描述为「泄露内容」的假视频已经在著名色情网站上被观看了超过 150 万次。
作为目前当红的影星,斯嘉丽·约翰逊被人们当做「造假」对象不足为奇。她是目前全球片酬最高的女星,净身价达到 1.4 亿美元。她因为出演「复仇者联盟」系列电影中的黑寡妇一角而被人们熟知。有些讽刺的是,在科幻电影「她」中,斯嘉丽还曾饰演人工智能助理。
而且,她早已对现代明星隐私泄露的荒唐情况不厌其烦了。2011 年,她是明星私照大范围泄露的受害者之一,这一事件的涉事黑客 Christopher Chaney 后来已被处以 10 年刑期。
想让尼古拉斯凯奇「出演」各类大片吗?DeepFakes 可以帮你轻松做到,这一技术已经成为了攻击女性的武器。
DeepFakes 背后的深度学习虽然对于很多人来说有点难懂,但这种技术已经被人们制作成了简单的 APP。有人在社交网络上称,自己从高中女同学的 Facebook 和 Instagram 上搜集到约 380 张照片,随后制作出了质量不错的视频。
创建假色情图像的技术几十年前就已经出现,但是被用于侵犯和羞辱明星和普通人的 deepfake 视频标志着女性在追求互联网安全方面遇到新的巨大挑战。斯嘉丽在一次采访中表示。
但是,她也坦率地谈到对抗这一新兴技术被错误使用的案例非常困难,部分原因在于这需要对世界多个地方的相关视频合法性发起挑战。
她对此的发言是:
「很明显这对我的影响没有那么大,因为人们知道色情视频里的人并不是我。我认为对此的相关诉求从法律上讲是无用的,主要原因在于互联网是一个巨大的黑暗虫洞,不停地吞噬它自己。在黑暗的网络上有很多比这件事更令人恐慌的事情。我认为是否捍卫自己的肖像权、要求赔偿取决于个人。
我的意思是,对我来说这种努力是无用、没有结果的,但是对于那些因此可能丢掉工作的人来说就不同了。
此外,每个国家在保护公民肖像权方面有自己的法律法规,因此即使你能够清除美国网站上的相关内容,可能也无法清除德国网站上的内容。即使你的图像版权属于你,同样的版权法在国外未必可行。我对此非常难过。
事实是,对大多数人而言,尝试保护自己免受互联网及其邪恶属性的侵扰是注定要失败的事情。脆弱的人(如女性、儿童和老人)必须采取额外的措施才能保护自己的身份和个人内容。不管谷歌的策略多么严苛,这都不会改变。(九月份,谷歌将「非自愿合成色情影像」加入黑名单。)
互联网是贩卖色情的一大场所,脆弱的人会被攻击。低级黑客就可以偷窃密码和身份。每个人都有可能成为目标,这只不过是时间问题。
人们认为密码可以保护他们,只有公众人物才有被黑的风险。殊不知,对黑客来说,攻击谁并没有太大差别,这只取决于 ta 想不想攻击你。
很明显,如果一个人有更多资源,那么他们可能会使用更多资源为其数字身份保驾护航。但是没有什么能够阻止别人将我或其他人的图像贴到别的身体上,并且合成的内容非常逼真。互联网没有规则,它是几乎没有法律的深渊,能够抵御美国警方。」
去年 9 月,谷歌在其禁令列表中添加了「非自愿合成色情图像」的一条,允许任何人要求搜索引擎阻止这种类型的结果,谷歌将假图像描述为在「裸体或在色情情况下」。但迄今为止,人们对于 DeepFakes 的创作和传播并没有简单的解决方法。
「如果一位生物学家说:『这是一种非常有意思的病毒,让我们看看当公众掌握它时会发生什么。』这是完全不可接受的。然而这正是硅谷一直在做的事情。」达特茅斯学院计算机科学教授 Hany Farid 表示。
目前,这种基于 DeepFakes 的网络攻击已经呈现出大众化的趋势,从明星扩展到了网络匿名社区,以及同事、同学和朋友中间。一些制造假视频的人甚至表示,目前可以接收订单:20 美元制作一个人的假视频。
看来,在人工智能技术发展的同时,人们也在面临着越来越多的隐私挑战。
参考内容:
https://www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image/?noredirect=on&utm_term=.ad5d9acdaf76
https://www.smh.com.au/technology/fake-porn-videos-are-being-weaponised-to-harass-and-humiliate-women-everybody-is-a-potential-target-20190101-p50p5c.html
继续阅读
阅读原文