苹果公司宣布计划让设备扫描上传到iCloud的图像中的虐待儿童内容后,针对针对针对苹果公司的批评,苹果公司制作了一份常见问题解答[PDF]
儿童性虐待材料(CSAM)检测系统将配备运行iOS 15、iPadOS 15、watchOS 8、,macOS Monterey将设备上的图像与美国失踪和受剥削儿童国家中心(NCMEC)和其他儿童安全组织提供的已知CSAM图像哈希列表进行匹配,然后将图像存储在iCloud中
如果进行了哈希匹配,苹果称之为“安全凭证”的元数据将随图像一起上传,一旦达到未命名的阈值,苹果将手动检查元数据,如果它将其视为CSAM,则该帐户将被禁用,并向NCMEC发送报告
很多批评都围绕着这样一个观点,即即使苹果是出于善意且目前受到限制,该系统也可以由苹果单独扩展,或者根据法院命令,它可以搜寻其他类型的材料
苹果表示,其流程旨在防止这种情况发生
“iCloud照片的CSAM检测系统的构建使得该系统只能与NCMEC和其他儿童安全组织提供的CSAM图像哈希一起工作,”苹果说
“没有自动向执法部门报告,苹果在向NCMEC报告之前会进行人工审查。因此,该系统仅用于报告iCloud照片中已知CSAM的照片
“在包括美国在内的大多数国家,仅仅拥有这些图像就是一种犯罪,苹果公司有义务向有关当局报告我们所了解到的任何情况。”
关于被迫向其数据集添加其他哈希值的前景,苹果公司提到了其过去的拒绝,以帮助美国执法
“苹果将拒绝任何此类要求,”该公司表示我们以前曾面临过构建和部署政府授权的更改以降低用户隐私的要求,但我们坚决拒绝了这些要求。我们将来会继续拒绝
“让我们明确一点,这项技术仅限于检测存储在iCloud中的CSAM,我们不会同意任何政府扩大它的要求。此外,苹果公司在向NCMEC提交报告之前进行了人员审查。如果系统标记与已知CSAM图像不匹配的照片,则不会禁用该帐户,也不会向NCMEC提交任何报告。”
苹果声称其系统将阻止注入和标记非CSAM图像,因为该公司没有添加用于匹配的哈希集,人类也参与了验证过程
“每个iPhone和iPad用户的操作系统中都存储着相同的哈希值,因此在我们的设计下,不可能只针对特定的个人进行有针对性的攻击,”苹果说
“因此,系统错误或攻击不会导致无辜的人被报告给NCMEC。”
这家iPhone制造商重申,该解决方案比能够扫描上传到它的图像具有隐私优势
“由其他公司实施的现有技术扫描存储在云中的所有用户照片,”它说
“这会给所有用户带来隐私风险。iCloud照片中的CSAM检测通过阻止苹果了解照片,提供了比这些技术更大的隐私优势,除非这些照片与已知的CSAM图像匹配,并且包含在包含已知CSAM集合的iCloud照片帐户中。”
苹果还表示,如果用户拥有iCloud照片,该功能将不会运行已禁用,无法使用“设备上的专用iPhone照片库”
在iMessage中的图像扫描方面,苹果扩大了对家长的要求,即一旦创建了一个家庭组,家长选择加入,就要提醒家长
“对于12岁及以下的儿童帐户,发送或接收的每一个性暴露图像实例都会警告孩子,如果他们继续查看或发送图像,他们的父母将收到通知。只有当孩子在发出警告后继续发送或查看图像时,才会发送通知,”它说
“对于13-17岁的儿童账户,孩子仍然会被警告并询问他们是否希望观看或分享色情图片,但不会通知家长。”
苹果表示,它正在考虑增加“对Siri和搜索的额外支持,以便为受害者以及了解受害者的人提供更多关于如何寻求帮助的指导”
尽管CSAM系统目前仅限于美国,但库珀蒂诺可能很快就会面临堪培拉将其引入澳大利亚的压力
周一,政府公布了一套网络安全规则,涵盖社交媒体、短信平台和任何相关的电子服务
供应商应尽量减少针对澳大利亚儿童的网络欺凌材料、针对澳大利亚成年人的网络虐待材料、非自愿的个人亲密形象、1类材料、促进恶劣暴力行为的材料、煽动恶劣暴力行为的材料、,指导令人憎恶的暴力行为的材料,以及描述令人憎恶的暴力行为的材料
这些期望还带来了额外的期望,例如服务提供商将采取合理措施,主动将服务上的材料或活动非法或有害的程度降至最低
澳大利亚的eSafety专员将有权命令科技公司报告他们如何应对这些危害,如果他们不响应,将对公司和个人分别处以最高55.5万澳元和11.1万澳元的罚款
NBN首次清除了正的全年息税折旧摊销前利润障碍
Optus和TPG将预留约900MHz 5G频谱TPG因涉嫌误导NBN FttN speed索赔而向法院提起诉讼
通过注册,华为上半年收入下降29%
,您同意使用条款并确认隐私政策中概述的数据实践。
您还将免费订阅ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅这些时事通讯。
您同意接收CBS公司系列的更新、提醒和促销活动,包括ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅