Android Authority上的链接可能会为我们赢得佣金。了解更多信息。
8月初,苹果宣布了一项极具争议的新政策。为了遏制对儿童的剥削,该公司表示将开始安全扫描人们上传到iCloud的每一张照片。尽管这种扫描是通过算法完成的,但算法中的任何标志都会看到人类的后续行动。
显然,儿童性虐待材料(CSAM)是一个巨大的问题,几乎每个人都想与之抗争。然而,苹果的CSAM政策让很多人感到不安,因为它似乎侵犯了隐私。现在,苹果公司推迟了这项功能的推出(通过9to5Mac)。
苹果承诺其扫描用户资料的算法非常准确,声称“每年有1万亿次错误标记某个特定帐户的机会”。不过,这一承诺并没有阻止这种不安。苹果关于延期的声明非常明确:
声明表明苹果不会在短期内推出此产品。”“未来几个月”可能意味着今年年底或2022年。甚至可能无限期推迟。
有趣的是,SellCell最近的一项民意调查显示,很少有安卓用户计划改用今年的iPhone。当被问及原因时,大部分回复都将苹果的CSAM政策作为一个因素