来源:北美留学生日报
ID :collegedaily
一直以来,女性穿的少,
就会被指责穿着暴露、行为不检。
而今,即使穿戴整齐,
也会被无孔不入的网络“意淫”,
这个社会对女性的伤害从未减少。
近日,据外媒报道,国外一个技术团队制作出一个名为Deepnude的应用软件。
使用该软件,上传穿衣的女性照片,系统会根据网络算法直接将其转化为裸女。
号称“一键扒衣”……并且使用者还可以保存高质去水印的图片。
并且上传的女性照片穿着越裸露,生成的图片越真实。
这个应用传出后,在网络上引起人们的强烈谴责,这一技术严重侵犯到女性隐私
仅靠一张照片就能生成裸照,试想多少女性会在完全不知情的情况下成为网络偷窥者的猎物?
连中国网友看到这则新闻也都纷纷表示,不能接受。
“这什么恶臭发明啊!!”
“如果你真的裸露,别人也会指责你不自爱自重,现在呢,你真的不裸露,别人也能用这方式脱掉你、意淫你?”

“穿衣服也特么不安全了是吗?”
在一名油管博主的视频中,详细介绍了该应用的使用:
上传一张女性照片。
等待几秒系统生成,
成图!


一张女性的裸体“假照”就这么诞生了……
该应用程序可用于Windows和Linux,并且仅限女性,有免费付费两个版本。
免费版本的应用程序会在图像上放置一个大水印,而付费版本在角落放置一个较小的、容易被剪裁掉的水印。
而上传一张男性照片后,则无法实现“一键脱衣”,只能淡化颜色。
人们不禁怀疑,发明这种应用的用途,难道就是为了让女性活在网络偷窥者的意淫之下吗
在一篇国外的报道中称,这款应用程序正在关闭。在得到广泛关注后,随之而来的舆论压力,让该应用背后的团队表示:
他们“大大低估了”人们对该项目的兴趣,以及“人们滥用它的可能性太高了”
网站创始人Alberto回应媒体,自己并不是一名偷窥狂,而单纯的是一名技术爱好者
DeepNude团队则表示:这款应用将不再出售,其他版本也将不会发布。
该团队还警告不要在线共享该软件,称这将违反该应用程序的服务条款。但他们承认,“肯定会有一些副本”出来了。
这意味着大量女性裸照可能已经在网络上被传播,不法分子更是可以对这些照片大加利用,做非法勾当。
Deepnude的备受瞩目,虽然印证了这款应用有商业利益可图,但被上传照片的这些女性的权益却被这种“假照片”严重损害。
尝到甜头的应用团队会就此收手?
该图与此文无关
人们长期以来以数字方式操作照片,而Deepnude号称使这种能力能够瞬间完成,并且可供任何人使用
而这些瞬间完成的“假照”却使女性安全受到严重威胁。
它们可能会被用来骚扰女性、在未经同意之下滥用照片,甚至编辑成色情影片。
而通过这样的渠道,女性却很难去保护自己,因为这些视频一旦在网络上流传,传播速度将极快。
面对媒体质疑,Deepnude团队称,如果他们不抢占先机,马上就会有很多其他团队做出类似应用。
并且表示:“如果应用程序被滥用,他们将放弃它。”
但事实好像并非他们说的那样,本月27日Deepnude团队发推称,这只是“暂时下线”:
“嗨!DeepNude已离线。为什么?
我们没有预料到会有如此数量庞大的访问,我们的服务器因此需要加强。
我们是一个小团队。我们需要小心翼翼一些,并借此修复一些错误,努力使DeepNude稳定地工作。
并且我们将在几天后重新上线。”
只是为了使该应用更稳定、获得更好的用户体验,在加强服务器罢了。显而易见,舆论并没有迫使这款app撤下。
该团队仍在运作中。
更让人惊悚的是,如此游走于道德和法律的高危边缘,侵害女性权益的“应用程序”并不只是在国外出现,国内也有类似案例。
“原谅宝”
本质上是人肉搜索
近日,国内微博上出现了“原谅宝App上线倒计时并向网友征集新名字”的消息,将去年曾引起轩然大波的软件重新带回了公众视线。
2018年五月,一名身在德国的程序员@将记忆深埋在微博上称,自己开发了一款人脸识别程序,通过抓取海量色情网站的视频和音频,与微博、抖音、脸书、推特等社交媒体上的数据进行对比
这款程序被网友戏称为“原谅宝”。
程序员称在测试中,对比准确率高达99%(视频)和100%(声纹),已成功识别了全球范围内,超过十万从事色情行业的女性。
制作这款程序的原因,是为了帮助程序员们辨认对象是否是“好女孩”,以避免成为接盘侠
如今是否是“好女孩”,只能通过这种侵犯隐私权的渠道来盘查了吗?
同时他也承认,公布数据就会涉嫌违反当地法律
,所以暂时不会发表这个程序。

但这款app还是被越来越多人获悉。

不少男性拍手称快,认为老实人终于有救了,不用再被绿茶婊蒙在鼓里;
而女性则义愤填膺,认为科技使男性凝视无处不在,对被偷拍的女性受害者造成二次伤害。
在舆论谴责下,@将记忆深埋道歉并删除了相关言论,宣布关闭项目并删除已抓取到的数据库。
图源:凤凰网
原谅宝此次复出,重心转向了“查一查是否被偷拍、隐私是否被侵犯”,俨然一副保护女性的模样。
网友测试后称,打开连接后,只能通过上传照片测试“原谅指数”,得不到任何实际匹配到的数据来源。
网页标明“原谅宝专为保护老实人而生”,测试结果会显示在“接盘报告”中,原谅指数越高,说明匹配到结果越少,越“值得原谅”。
经过多次真人照片测试后,网友发现无论什么照片都会得到95%以上的原谅指数,毫无准确性可言。
科技博主分析称,机器识别人脸的运作原理和素材的精准度误差,限制了其准确率度。
原谅宝的设计理念,在实践中难以实现。
以霸凌女性圈钱
却声称技术无罪
无论是Deepnude还是原谅宝,他们所制作出的程序的本质,都暗示着社会对女性的霸凌
Deepnude无法识别男性;而原谅宝虽声称该应用程序男女皆可使用,但男性的脸和身材并不是此类应用观众的主要“欣赏对象”。
一些被偷拍的女性作为受害者,却被当做“坏女孩”,甚至遭受谣传、网络暴力,却难以还原真相。
如果被有心人利用,找到这种“证据”后对受害者进行勒索恐吓,或者仅仅是污蔑侮辱,后果将不堪设想。
所谓的“保护隐私”却是“泄露隐私”的源泉。
手机原谅宝app需要支付才可登录
而这样的开发者,却都声称“技术无罪”
他们拥有技术,却利用技术侵害他人利益,站在“技术向善”的背面,以求流量和金钱。

技术无罪?
可这些技术存在的本身就侵害了用户隐私,是技术无罪吗?
同样的技术,可以用在正途,为了流量圈钱、霸凌女性,是技术无罪吗?
“荡妇”、“婊子”,这样羞辱女性的脏水说泼就泼,谁会在意你本身是否清白,谁又能证明自己百分百清白?
在这样反复挖掘互联网印迹的热潮中,一个人必须做到不留一个污点才能全身而退。
而在不法分子肆意偷拍的年代,被侵犯隐私容易,想全身而退,谈何容易?
Ref:
https://www.theverge.com/2019/6/27/18761496/deepnude-shuts-down-deepfake-nude-ai-app-women
https://www.youtube.com/watch?v=KNCzT-E2Ffs
http://tech.sina.com.cn/csj/2019-06-08/doc-ihvhiews7422819.shtml
https://tech.sina.com.cn/i/2019-06-27/doc-ihytcerk9751370.shtml
https://new.qq.com/omn/20190627/20190627A0QJJ1.html
本文图片均来自网络,如有侵权请与我们联系
大家都在读什么?
继续阅读
阅读原文