上周,苹果宣布将推出一项新功能,通过扫描手机图片的方式来鉴别儿童性虐待图片。
你听到这消息有什么反应?我担心自己相册里的照片是否安全,一些专家和组织也在抨击苹果这项计划。
这事儿对我们有影响吗?今天来简单说下这是怎么回事。
苹果大致是这样做的——
1、用户将图片上传至iCloud之前,苹果会将图片的哈希值(简单理解为数据文件的身份证)与美国国家失踪与受虐儿童中心(简称NCMEC)提供的数据库进行比对。
解释:苹果不会直接扫描用户图片,只扫描哈希值,然后与已知的NCMEC数据相匹配。
2、如果在某iCloud账号中检测到一定数量的违法文件,系统将上传一个文件,允许苹果公司解密并查看该iCloud账号中相匹配的图片,然后进行人工审核。
解释:查到可疑文件后,苹果公司只能解密查看可疑照片。父母给孩子洗澡的照片不会被检测,因为这类图片不在NCMEC数据库里。
3、如果人工审核专员核定系统检测正确,那么苹果公司将禁用上传违规图片的iCloud账号,并在必要时向NCMEC发送报告及通知执法部门。
解释:该系统只针对美国iCloud服务,没上传至云端的图片不会被扫描。
4、用iMessage接发图片,系统也会进行检测,如果内容露骨该图片就会被屏蔽。
按理说这是好事,苹果的技术也让很多人放心,此举为什么会遭受批评呢?
外界担心这一技术被滥用,即监视范围扩大,比如可能被用来识别其他类型的图片。
尽管苹果声明该系统只适用于NCMEC或其他儿童安全组织编目的图片,而且该公司构建密码系统的方式可以防止被用于其他目的。
但人们还是对此感到担忧,因为保证不是证明。
有人发表了一封抗议公开信。
已有6000多人和组织在上面签名,包括安全与隐私专家、密码学家、研究人员、教授、法律专家和苹果消费者,他们要求苹果停止部署该技术并发表声明,确认其对用户隐私的承诺。
昨天稿件中我说过,让一家公司做出改变的力量主要有两个,市场和政府。
保护隐私是苹果的商业价值观,也是其主要卖点,有的公司依赖搜集用户资料挣钱,苹果靠的是保护用户隐私。
2019年1月的CES消费电子展上,苹果在展馆附近大楼上竖起一块巨大广告牌,上面写着:“让iPhone上发生过的事就留在iPhone上”。
从商业角度讲,苹果保护用户隐私是市场行为。但扫描iCloud照片计划显然有侵犯隐私的嫌疑,苹果为什么要跟市场对着干?
因为世界各地执法官员在向苹果施压,要求他们开放更多软件服务权限,以便调查儿童性虐待或恐怖主义等行为。
当市场和政府这两股力量发生冲突时,苹果只能尽可能找到解决办法。
当然,跟谷歌(从2008年开始)、微软(2009年)、Facebook(2011年)和 Twitter(2013年)等早已在用算法技术应对儿童色情虐待内容的公司相比,苹果已经扛了够长时间。
但对苹果不利的地方在于,他们擅长的是保护用户隐私,而不是相反。
1984年1月24日,苹果推出了麦金塔电脑,以及被誉为最伟大电视广告的《1984》
一个白衫红裤的姑娘冲进屋里,将手中的铁锤掷向屏幕,锤子击中屏幕,在一阵光线和烟雾中屏幕摧毁。
那么,一个不自由的苹果将会是什么样子?
最新资讯
Copyright (C) 1999-20120 www.ahcar.com, All Rights Reserved
版权所有 环球快报网 | 联系我们:265 073 543 9@qq.com