苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!
百科、经验、问答,小黄鸡全都有!

苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!

爱美之心qingyu2021-08-28 11:58:241805A+A-

  早前苹果承认,将会审核用户手机及iCloud的照片,以辨识“儿童色情和虐待”(CSAM)元素,引起各界抨击,号称最注重隐私的苹果公司形象被质疑。

  而事情曝光原由自8月5日,约翰霍普金斯大学Matthew Green教授曝光苹果检测CSAM的技术NeuralHash,能够在用户手机和iCloud或苹果伺服器通过演算法,比对用户照片和CSAM资料库的“杂凑值”,如果对比成功,就会隐藏有关照片,并有可能报警或是通知青少年家长。

  苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!1.jpg

  iOS 14.3就已经植入

  机器学习研究者Asuhariet Ygvar也发现,NeuralHash其实在iOS 14.3就已经被植入iPhone系统内,苹果还通过API命名来混淆外界,并在早前宣布表示有关审查CSAM是全新的技术,计划在iOS 15和macOS Monterey正式版才启动。

  Ygvar早期测试显示,NeuralHash原算法对照片尺寸和压缩调整抗性比较好,但如果照片经过裁剪或是旋转,就不好用了,也就是说NeuralHash对于审查CSAM效果会打折。波特兰安全研究员Cory Cornelius曾经上传比特犬照片和灰色乱码图,两张毫无关联的图片透过NeuralHash演算法之后杂凑值居然一模一样。

  苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!2.jpeg

  容易被滥用

  Github上有人表示,Cornelius的测试结果已经属于原像攻击(pre-image),比“杂凑碰撞”更加严重,杂凑碰撞就是找到两张杂凑值相同的随机照片,原像攻击则可以理解为“刻意碰撞”,也就是指定一张照片,之后生成出量一张杂凑值相同但内容不同的照片。

  也有人在标注图片资料库ImageNet找到NeuralHash的“双胞胎”,从ImageNet找到的钉子和滑雪板照片,NeuralHash也能够算出杂凑值相同的情况。

  种种迹象显示,苹果力推的NeuralHash原算法有远比人们想象中更严重的滥用缺陷。比如别人可以找一张CSAM照片,生成几张看来无害的照片来,但是杂凑值相同,发送给你,然后你会被苹果举报遭警察调查。

  苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!3.jpg

  2019年开始扫描用户账户

  研究员Brad Dwyer说,苹果全球有15亿用户,NeuralHash的错报将会对大量用户造成负面影响。

  苹果反欺诈技术部门的负责人Eric Friedman曾经在2020年说,苹果是全世界最大的儿童色情内容平台,意思是苹果隐私安全设计让不少不法分子通过苹果传播这些内容,但如此断言也不禁让人怀疑,当时的苹果有可能已经开始扫描用户照片了?苹果也针对此事回应说,该公司从2019年开始就扫描用户的iCloud账户,那时距离NeuralHash发布时间早了1年。苹果也表示有扫描“其他数据”,但拒绝透露是什么数据,惟当时宣称没有扫描用户的iCloud Photos。

 苹果审核iCloud照片风波升温,几年前就已开始“审查”用户iCloud?!4.jpg

  Corellium遭苹果提控

  早年,Corellium公司曾经发布“虚拟化ARM框架设备”服务,让用户可以通过电脑研究包括iOS和Android的系统和软件安全,无需购买实体手机。但也因此遭苹果公司提控,但在2020年12月,法官初步判决Corellium没有侵权。这个案件也在8月10日,也就是CSMA扫描争议的几天后庭外和解,不免引起各界联想该公司不像让此案当成与资安对抗的证据。

  而在8月17日,Corellium发起了“开放安全计划”招募研究员,主题是“验证设备厂商的安全宣传”,似乎也在针对苹果公司。这件事也激怒了苹果,导致和解协议被取消,对于有关案件再进行上诉。

  看来,与苹果公司相关的隐私风波很难有完全落幕的一天。

首页 © All Rights Reserved.  
网站备案号:闽ICP备18012015号-4
Powered by 网站地图 关于我们| 留言建议|