我接触到了一些见解 Haniyeh Mahmoudian,博士,DataRobot全球人工智能伦理学家,一家总部位于波士顿的公司,使客户能够从他们的数据中创建和验证机器学习模型。作为一名人工智能偏见和道德专家,哈尼耶完全有资格谈论新法规及其对美国的意义,以及未经检查的人工智能所固有的风险以及监管机构今后应采取的行动。
GN:欧盟泄露的人工智能监管计划中,最大的收获是什么?什么让你吃惊?
哈尼耶·马哈茂德: 从从业者的角度讲,我们非常感谢泄露的草案有助于消除一些歧义。在没有立法的情况下,对于定义将影响个人生活的用例,或者我们所说的高风险用例,有很多模棱两可的地方。定义那些高风险的用例确实很有用,而且重要的是要让他们意识到,随着技术的不断进步,这是一个不断发展的列表。
法规的审计要求出乎意料,但并不令人意外。在DataRobot,我们围绕风险和影响评估实施了框架和流程,这些框架和流程适用于我们正在进行的项目。
GN:为什么欧盟对监管如此认真?根据您对该计划的理解,您的主要关注点和主要目标是什么 欧盟一直严肃地对待技术法规,保护其公民免受数据侵害,并且已经在GDPR上有了强有力的监管基础,以扩展到AI。驱动因素之一是保护公民,即使牺牲了这些技术可能带来的经济繁荣。
GN:美国在考虑AI监管方面在哪里?你能简单地解释一下各选区/利益相关者对此事的各种意见吗?
哈尼耶·马哈茂德: 美国正在平衡多个优先事项和利益相关者,同时致力于立法,以确保技术的发展符合我们的民主理想。美国国会已经提出了类似算法责任法案的立法,这将使我们目前的状态更倾向于欧盟的法规,这可能是世界上最强有力的法规。还有像联合人工智能中心和国家人工智能安全委员会这样的机构表示,人工智能是一个安全问题。除了政府实体之外,我们也知道组织将人工智能视为一种经济催化剂,这意味着监管机构需要在确保道德、公平和公正的人工智能之间取得适当的平衡,同时又不扼杀创新。
GN:美国应该从欧盟的计划中拿走什么?你认为,美国监管机构有什么不同的做法吗?
哈尼耶·马哈茂德: 重要的是,法规应侧重于确保技术的构建考虑到一定的社会理想和道德规范,使组织能够以公平、道德和可解释的方式利用人工智能为世界造福。欧盟的新法规显示了巨大的希望,它例举了一个合作委员会来评估这项技术,并随着技术的发展定义了“高风险人工智能”的用途。如前所述,这些法规还澄清了关于高风险人工智能定义的一些模糊性,这在美国非常有价值。有些人可能认为欧盟法规过于规范。此外,一些要求可能会阻碍小企业和初创企业的发展。这当然是我们必须达成的平衡。
GN:如果我们不尽快监管人工智能,会有什么危险?美国监管的现实时间表是什么?
哈尼耶马哈茂德: 我确实认为,由于这些系统的人文影响,我们需要对空间的某些规定敞开心扉。在一家公司里,一个有偏见的招聘经理虽然不道德,但影响有限,因为他是一个人和一家公司。然而,在同样的招聘情况下使用的人工智能系统有可能对公司和应聘者都造成伤害。政府或公共安全领域的用例也是如此——如果我们不进行监管,就有可能对人们造成真正的伤害。同时,我们还必须记住,人工智能可以用来帮助解决我们生存所面临的问题,如粮食不安全、气候变化和医疗保健。这当然是一种平衡多少监管是太多还是太少。
如前所述,美国已经着手制定相关法规,国会也提出了相关立法。我们正朝着正确的方向前进,但重要的是要确保技术建立在我们理想的基础上。
,您同意https://redventures.com/CMG-terms-of-use.html“target=”\u blank“rel=”noopener noreferrer nof