Jtti1.14

德华斯诺登和EFF抨击苹果扫描信息和iCloud照片计划

苹果公司计划将用户iCloud照片库与儿童性虐待材料(CSAM)数据库进行扫描,以寻找匹配的内容,这遭到了爱德华斯诺登和电子前线基金会(EFF)的抨击。

星空站长网(XingkongWeb.com)8月7日消息:苹果公司计划将用户iCloud照片库与儿童性虐待材料(CSAM)数据库进行扫描,以寻找匹配的内容,这遭到了爱德华斯诺登和电子前线基金会(EFF)的抨击。在一系列推文中,著名的隐私活动家和揭密者爱德华斯诺登强调,人们担心苹果正在推出一种"对整个世界的大规模监控"项目,并开创了一个先例,可能允许该公司在未来扫描其它任意内容。

德华斯诺登和EFF抨击苹果扫描信息和iCloud照片计划
苹果公司

爱德华斯诺登表示,不管用意如何,苹果公司正在向整个世界推行大规模监控。如果苹果今天可以扫描儿童色情内容,明天就可以扫描任何内容。爱德华斯诺登还指出,在数字隐私方面,苹果公司历来是行业领先者,甚至拒绝解锁2015年12月加州圣贝纳迪诺袭击案的枪手之一赛义德法鲁克拥有的一部iPhone。现在苹果公司采取相反的做法,这将成为一个危险的先例。

知名的国际非营利性数字权利组织EFF对苹果扫描用户的iCloud库和信息的举动发表了谴责,表示它对一个"端到端加密的倡导者"正在进行扫描用户的行为感到非常失望,并且表示这是令人震惊的转变。儿童色情是一个严重的问题,苹果公司并不是第一个为打击这种现象而改变其隐私保护立场的科技公司。但是,这种选择将为整个用户隐私付出高昂的代价。苹果公司可以详细解释其技术实现,如何在其提议的后门中保护隐私和安全,但即使是一个彻底记录、仔细考虑的、范围狭窄的后门仍然是一个后门。

EFF表示,不可能建立一个客户端扫描系统,只用于扫描儿童色情图片。因此,即使是建立这样一个系统的善意努力,也会破坏苹果对加密本身的关键承诺,为更广泛滥用打开大门。要扩大苹果正在建立的狭窄后门,只需扩大机器学习参数,以寻找更多类型的内容,或调整配置标志,扫描不仅是儿童色情图片,而且是任何人的账户。

EFF强调了世界各国政府如何通过法律要求对各种平台上的内容进行监控和审查,包括信息应用,而苹果扫描信息和iCloud照片的举动在法律上可能被要求包括更多的材料,或者很容易被扩大。EFF警告表示,苹果此举这是对所有iCloud用户隐私的减少,而不是改进。

自苹果公司昨天宣布这些变化以来,安全研究人员和用户在社交媒体上提出了大量的谴责,引发了敦促苹果公司收回其计划并确认其对隐私承诺的请愿活动。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
人已打赏
广告位招租919838898
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索