西雅图IT圈:seattleit
【今日作者】宇直
宇宙第一直男
01
一直以来苹果都是以用户隐私保护者自居,很多苹果的忠实粉丝也是因为这个原因喜欢使用iPhone手机多于安卓手机。
然而上周苹果公司的一条新闻在手机圈里炸开了锅。
02
苹果公司宣布在美国的手机用户上排查儿童性虐材料(child sexual abuse material ,简称CSAM)新系统的细节。
在图片被储存在云端图片库之前,这项技术将能搜寻与已知的CSAM图片匹配。
03
换句话说,就是如果这项系统通过并且上线,你上传到iCloud所有图片和视频都会被苹果一一审查,用来检查是否属于儿童性虐。
苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手机用户上报给执法机关。
04
如果实施,苹果引以为傲并不断攻击对手的绝对隐私能力荡然无存。
消息公布后引发轩然大波,无数苹果粉丝要求给出说法,并且请愿苹果停止该计划。
05
苹果方面对此的解释是:这项系统(nerualMatch)使用密码学把图片的哈希值计算出来之后,与机器学习数据进行对比,不会影响到普通用户的隐私问题。而且苹果明确表示暂时只会在美国使用。
然而很多人对于苹果的说法是不买账的,这里就包括美国霍普金斯大学教授、密码学专家Matthew Green。
他在采访中说到,虽然目前苹果还不会使用 nerualMatch 做什么违法行为,但是可以想像掌握如此能力的公司未来潜在的隐私危机将会有多大。
你对于苹果的这个做法怎么看?
西雅图IT圈原创
仅有不到7%的公众号, 还在坚持原创
如果喜欢, 请分享我们的文章
每天加点料
投稿,转载,商业合作,请联系E-mail:
继续阅读
阅读原文