在该工具引起用户和隐私团体的关注后,苹果暂停了扫描设备中虐待和剥削儿童内容的计划。
上个月宣布,新的安全功能将包含在iOS 15、iPadOS 15、watchOS 8和macOS Monterey中。第一个是用于监控Messages应用程序的功能,实现了客户端机器学习,以便在发送色情图片时扫描并发出警报,需要用户输入他们是否想要查看该材料
“作为额外的预防措施,还可以告诉孩子,为了确保他们的安全,如果他们确实看到了,他们的父母会收到一条消息,”该公司解释道
第二批更改影响了Siri和搜索,其中包括更新,为家长和孩子提供额外信息,以便在他们遇到“不安全”情况时向他们发出警告,以及在用户搜索儿童性虐待材料(CSAM)时进行“干预”
第三个是CSAM扫描工具,被吹捧为“保护儿童免受利用通讯工具招募和利用儿童的掠夺者的侵害”的手段。
根据iPhone和iPad制造商的说法,该工具将使用加密技术“帮助限制CSAM的在线传播”,同时兼顾用户隐私。图像不会在云中扫描,而是在设备上进行匹配,将图像与链接到已知CSAM图像的哈希进行比较
“CSAM检测将有助于苹果为执法部门提供有关iCloud照片中CSAM收集的宝贵信息,”该公司表示这项计划雄心勃勃,保护儿童是一项重要责任。这些努力将随着时间的推移而发展和扩大。”
在一篇描述该工具的技术论文(.PDF)中,苹果表示:
“CSAM检测使苹果能够准确识别和报告在其iCloud照片帐户中存储已知CSAM的iCloud用户。苹果服务器会标记与已知CSAM图像哈希数据库匹配的图像数量超过阈值的帐户,以便苹果可以向国家失踪和受剥削儿童中心(NCMEC)提供相关信息。此过程是安全的,并明确设计为保护用户隐私。”
然而,扫描仪在网上引起了争议,引起隐私倡导者和密码学专家的批评。
约翰·霍普金斯信息安全研究所副教授兼密码学专家马修·格林说,实施密码学扫描包含特定哈希的图像可能成为“加密消息中增加监视的一个关键因素”系统“。”
< P>在善意的创造下,这样的工具可以成为错误的手上的有力武器,比如专制政府和独裁政权。<电子版> P.>电子前沿基金会也抨击了这些计划,并发起请愿书向苹果施压,使其倒退。在撰写本文时,该抗辩有27000多个签名。为未来而战,OpenMedia也发起了类似的请愿,苹果公司表示,为了花“更多的时间”来分析这些工具及其潜在的未来影响,该产品的推出已经暂停。“此前,我们宣布了一些功能计划,旨在帮助保护儿童免受利用通讯工具招募和利用儿童的掠夺者的侵害,并帮助限制儿童性虐待材料的传播,“苹果说。”基于来自客户、宣传团体、研究者和其他人的反馈,我们决定在未来几个月内再花些时间来收集输入,并在发布这些极为重要的儿童安全特征之前做出改进。“
< P>绿色”说,这是苹果采取行动来考虑推出的一个积极举措。EFF表示,它对苹果的决定感到“高兴”,但补充说,倾听是不够的——这家科技巨头应该“放弃在其加密系统中设置后门的计划。”“苹果一个月前宣布的旨在帮助保护儿童的功能,将创建一个非常容易重定向到更大监控和审查的基础设施,”数字权利组织说这些功能将对iPhone用户的隐私和安全造成巨大威胁,为极权政府提供一个新的大规模监视系统来监视公民。”
之前的报道和相关报道为iOS 15和iPadOS 15做好准备——不是那么新的iPhone:苹果如何说服你购买谷歌极力嘲弄苹果的旧东西(但等一下,我以前在哪里看到过这一点?有提示吗?通过WhatsApp |信号在+447713 025 499或在Keybase上安全联系:charlie0
联邦贸易委员会命令间谍手机删除其所有监控数据
CenturyLink支付275美元,000在3级收购反竞争案中
BitConnect董事承认参与了20亿美元的加密货币欺诈
这就是Mozi僵尸网络将通过注册继续存在的原因,您同意使用条款并确认隐私政策中概述的数据实践。
您还将免费订阅ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅这些时事通讯。
您同意接收CBS公司系列的更新、提醒和促销活动,包括ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅