联合国专员说,由于安全措施尚未到位,无法确保负责任地使用这项技术,各国政府应作为紧急事项控制人工智能。
要求停止使用人工智能,在某些情况下完全禁止这项技术的呼声越来越高。现在,联合国人权事务负责人米歇尔·巴切莱特(Michelle Bachelet)也加入了专家们的行列,他们敦促各国政府采取更有力的行动控制算法,在一份新报告中,巴切莱特建议暂停在高风险用例中销售和使用人工智能。
巴切莱特还主张禁止某些违反国际人权法的人工智能应用,例如基于歧视性标准对个人进行社会评分。
联合国专员说,由于安全措施尚未到位,无法确保负责任地使用该技术,各国政府应作为紧急事项控制人工智能。否则,可能对人权有害的算法将继续在没有监督的情况下使用,对公民造成更大的伤害。
巴切莱特强调,算法已经存在于大多数人生活的方方面面,指向目前参与改变生活决策的各种系统,如谁获得公共服务、谁获得工作、用户可以在线查看和共享的内容。
“我们无法继续追赶人工智能——允许人工智能在有限或没有边界或监督的情况下使用,并在事后处理几乎不可避免的人权后果,”巴切莱特说。
联合国人权专员的评论来自她的办公室为调查人工智能如何影响隐私、健康、教育、行动自由或言论自由等人权而进行的一份报告。
虽然人工智能在很大程度上被认为是一种“向善的力量”,可以帮助社会和经济体克服巨大挑战,但该报告也强调了人工智能对某些人权的“不可否认且稳步增长”的影响。
例如,算法可以显著侵犯用户的隐私。人工智能系统接收大量数据,包括个人数据,这鼓励组织收集、存储和处理有关其用户或客户的敏感信息,有时是以秘密方式。这些系统反过来可以用来预测人们的个人生活,从他们居住的社区到他们的睡眠模式。
根据该报告,有几个部门特别关注这些人工智能系统的使用。它们包括执法部门,算法可能影响逮捕罪犯的决定,以及公共服务部门,人工智能模型可以帮助确定福利待遇,一直到是否应该为一个家庭提供儿童保育服务。
在工作场所,报告指出了使用算法监控和管理员工的风险。在网上,AI系统可用于支持内容管理决策,这有助于确定每个用户所接触的内容类型。
对于许多此类应用程序,风险是双重的。人工智能系统本身不仅会与隐私权等基本人权发生冲突;但在某些情况下,当算法存在偏差时,该技术也会做出歧视性决策。
例如,用于通知人工智能系统的数据可能对某些群体存在偏差,或者可能只是有缺陷、过时或不相关,这反过来会导致算法做出不公平的决策。例如,去年用于预测英国学生成绩的算法最终将更高的分数分配给了那些生活在富裕地区的学生。
有足够多的人工智能模型做出有害——有时甚至完全错误——决策的例子让人担忧。巴切莱特说:“与人工智能驱动的决策相关的歧视风险——可以改变、定义或损害人类生命的决策——实在太真实了。这就是为什么需要对人工智能系统的影响进行系统评估和监测,以识别和减轻人权风险的原因。”联合国的报告尤其引起了人们的注意,国家出于监视目的使用算法,特别是面部识别等生物识别技术,该技术用于实时和远距离身份识别,有可能允许无限跟踪个人。
应暂停在公共场所使用生物识别技术,报告说,除非证明算法的准确性没有问题,并且该系统没有歧视性影响。
因此,政府有责任实施正确的法律,以保持人工智能工具的开发,使监视和其他侵犯人权行为得到控制,根据联合国专员的说法。例如,今年早些时候,欧盟委员会公布了人工智能规则草案,根据不同的风险等级对人工智能应用进行分类。金字塔顶端是带有“不可接受风险”的用例,这些用例侵犯了基本权利,应该被禁止。
欧盟委员会表示,在公共场所使用面部识别应该被禁止,因为它侵犯了这些权利。然而,这项裁决却出现了各种例外情况,这些例外情况被倡导团体谴责为允许存在太多的漏洞。
福特和沃尔玛将从这些自动驾驶汽车上为您运送食品
埃森哲,IonQ将量子计算引入更多企业的工作还处于早期阶段。但投资者已经开始兴奋起来了
量子密码:这种充气光纤电缆可以传输联合国信息-研究人员说,可破解的钥匙