Mark 是旧金山的一名软件工程师。
在过去的两年中,他一边远程工作,一边照顾年幼的儿子。
然而,几张照片却意外地毁了他的生活,甚至让他被标记为犯罪分子!
图片来自SFGATE,版权属于原作者
去年2月的一个星期五,Mark注意到孩子有点不对劲,下体肿胀,看起来可能发炎了。
救娃心切,他立马跟妻子商量咨询一下医生,并且拍下了儿子的症状。
当时旧金山正值新一轮疫情爆发,很多医生都通过频方式线上咨询,夫妇俩便把照片提供给了医生。
之后医生给儿子开了抗生素消了肿。
但Mark和妻子没想到,这件事即将给自己带来大麻烦…
Mark一直用Google Cloud备份自己的所有信息,电子邮件,照片,联系方式等等。
就在拍摄完儿子照片的2天后,Mark的手机通知发出警笛声,称他的账户因账户中的“有害内容严重违反谷歌政策且可能违法”而被立即停用。
而内容“违法”的方向正是“儿童性虐待和剥削”
本来Mark一脸懵逼,还以为是搞错了。
后来他想起来了儿子的照片,原来当这张照片被自动备份到云端后,立马被谷歌当成儿童色情照片来归类了!
哎,就离谱!
但Mark自己就惨了,一下子失去了所有的邮件、照片、文件、Google Fi的电话套餐和亲朋好友的联系方式
邮件和电话号码无法恢复,还被标记为“潜在的儿童性虐犯”,给Mark的生活带来了极大的不便。
于是他马上提交了表格,解释了儿子生病这件事,要求谷歌重新恢复他的账号。
几天后,谷歌回应了,称不会恢复Mark的账户,没有其他任何解释。
去年 12 月,Mark收到了旧金山警察局寄来的一个信封。
信上通知他已经接受过警局的调查,以及对Mark展开的搜查令的副本。
一名调查员已经访问了马克的谷歌账户中的所有内容:他的互联网搜索、他的位置历史、他的信息以及他在公司存储的任何文件、照片和视频等等。
Mark按照信封上的联系方式打过去,调查员说对他的调查案件早已完结,但因为警员们始终联系不上Mark的旧号码和旧邮件,所以只能把关于案子的结果寄给他……
这回,Mark再次向谷歌上诉,提供了警方报告,但还是无济于事,账号至今依然没有恢复!
自从账号封锁后,这一切仿佛陷入了一个死循环……
然而,Mark并不是唯一被误伤的爸爸!!
Mark被警察盯上的第2天,同样的场景在德州再次上演。
休斯顿一名父亲Cassio向媒体倾诉,孩子当时不舒服,应儿科医生的要求,他也用安卓设备拍照,照片被自动备份到了谷歌云端
几天后,Cassio的Gmail被禁用。当时Cassio还正在买房,贷款经纪人对这件事还产生了怀疑,生了一番波折。
Cassio后来也被警方盯上。
去年秋天,休斯顿警察局打来电话,要求他去警局接受调查。
虽然之后嫌疑被清除了,但他用了10年的谷歌账号依然被禁封!
Cassio今年又接到一位谷歌客服的电话,称使用 Google Hangouts 将当事照片发送给他的妻子违反了聊天服务条款。
哎,事情没完没了,令人头大……
科技行业内第一款反儿童色情犯罪的图像数据库来自微软。
自微软于 2009 年发布 PhotoDNA 后,脸书和其他科技公司都用它来跟踪传播非法和有害图像的用户。
图片来自Microsoft,版权属于原作者
谷歌在2018年对这项技术有了重大突破。
由谷歌开发的AI识别技术可以识别更多的“儿童虐待”图片,极大帮助了警局和FBI解救未知受害者的工作。目前脸书也采用了这项技术。
图片来自Microsoft,版权属于原作者
2021 年,据CyberTipline 报告称,谷歌的这项技术已帮助警察发现了“超过 4,260 名潜在的新儿童受害者”,当然,Mark和Cassio的儿子也在其中
北卡法学教授 Carissa Byrne Hessick 说,从法律上定义什么构成性虐待图像可能很复杂。
并非所有裸体儿童的照片都是色情、剥削或虐待的,例如客观的医学图像。而且拍摄图像的原因对定义图片性质重要。
“我们确实认识到,在远程医疗,尤其是新冠疫情 期间,父母有必要给孩子拍照来获得诊断,”谷歌儿童安全运营负责人 Claire Lilley 说。
谷歌的儿童搜索引擎Kiddle, 图片来自GH,版权属于原作者
目前,谷歌已经向儿科医生咨询,AI开发人员需要了解出于医疗原因拍摄的照片的情况。
那么新问题又来了:上传到云端的信息,到底算个人隐私吗?
要开学了,周末亲子活动玩起来!!
本文由北美省钱快报小编整理,图片及信息来自SFGATE等媒体,版权属于原作者。本文不代表本公众号立场,未经许可不得擅自转载,否则将追究责任。
THE END
编辑:Casit
就离谱!
继续阅读
阅读原文