跳到主要内容

感谢您访问nature.com。您使用的是对CSS支持有限的浏览器版本。为了获得最好的体验,我们建议您使用最新的浏览器(或关闭Internet Explorer的兼容性模式)。同时,为了确保持续的支持,我们将在没有样式和JavaScript的情况下显示站点。

  • 赞助商的特性主办方将对本文内容全权负责

制造道德机器的挑战

放大计算机芯片

随着人工智能应用的激增,关于道德发展和嵌入偏见的问题也越来越多。信贷:MF3d

在2020年即将过去的日子里,谷歌的人工智能(AI)伦理学家蒂姆尼特·格布鲁(Timnit Gebru)向她的雇主提交了一份学术论文草稿。Gebru和她的合作者分析了自然语言处理(NLP),特别是训练NLP人工智能(AIs)的数据密集型方法。这样的人工智能可以准确地解释人类生成的文档,并对人类的命令或查询做出自然的回应。

在他们的研究中,该团队发现,训练NLP AI的过程需要大量的资源,并产生了在AI中嵌入显著偏见的相当大的风险。这种偏见会导致不恰当甚至有害的反应。谷歌对论文的结论表示怀疑,并对Gebru将其提交给一个著名的会议感到不满。该公司要求Gebru要么撤回文章,要么删除任何提及谷歌隶属关系的内容。格布鲁拒绝了这些条件。不到一天,她就得知自己失业了。

Gebru的突然下台引发了人们对人工智能开发的透明度、问责制和安全性的严重质疑,尤其是在私营公司。这也明确了人们对人工智能算法多年来一直存在的担忧。

无论是嵌入自然语言处理器还是医学诊断,人工智能算法都可能带有无意的偏差,而这些偏差可能会对现实世界产生影响。操纵脸书算法影响2016年美国总统大选是一个经常被引用的例子。德国波恩大学(University of Bonn)的人工智能伦理学家艾米·范·温斯伯格(Aimee van Wynsberghe)引用了一个流产的例子亚马逊的努力使用基于人工智能的招聘工具该工具在2014年至2017年期间进行了测试,从该公司过去的招聘模式中吸取了错误的教训。

范温斯伯格说:“在实践中,他们发现该算法不会选择女性担任更高级别的职位,只会选择较低级别的职位。”

然而,人工智能的发展仍在继续加速。到2022年,人工智能软件市场预计将达到630亿美元,根据高德纳研究公司这是在2021年增长20%的基础上实现的。在推荐或优化引擎和翻译服务等在线工具中,人工智能已经很常见,影响更大的人工智能应用也即将出现,尤其是在能源等大型行业,包括交通、医疗、制造、药物开发和可持续发展等领域。

考虑到机会的规模和数量,对人工智能解决方案的热情可能会掩盖与之相关的风险。正如格布鲁发现的那样,人工智能有可能造成真正的伤害。如果人类不能信任旨在帮助他们的机器,这项技术的真正承诺可能永远不会实现。

一天比一天聪明

尽管许多人工智能是由人类直接编程的,但大多数现代实现都是建立在人工神经网络上的。这些算法通过分析数据来识别和提取模式,本质上是边走边“学习”这个世界。对这些数据的解释指导下一步的分析,或者为算法做出的决策提供信息。

人工神经网络以一种大致类似于人脑神经元的方式协作分析数据,Jürgen Schmidhuber解释道,他是沙特阿拉伯KAUST的主任。他在20世纪90年代末开发了一个被称为“长短期记忆”(LSTM)的基本神经网络框架。

“一开始,学习机器什么都不知道——所有的连接都是随机的,”他说。“但随着时间的推移,它会使一些连接变得更强,一些连接变得更弱,直到整个系统可以做有趣的事情。”

人工神经网络是一种流行的人工智能模型,它是在大型数据集上训练的。数据中引入的偏差会在不知不觉中转化为人工智能。信贷:Blackdovfx

这种训练是LSTM和其他神经网络方法的一个特点,这也是这些人工智能变得如此受欢迎的原因。一个学会学习的人工智能有潜力为极其困难的问题开发出新颖的解决方案。例如,FII研究所的THINK倡议正在寻求一个多管齐下的人工智能发展路线图,以探索药物发现和流行病控制等医疗保健应用,以及以可持续发展为导向的监测和保护森林和海洋生态系统的努力——所有这些都适合人工智能应用。

但是训练可以让坏习惯和好习惯一样容易养成。正如Gebru在NLP人工智能中发现的那样,非常大且管理不当的数据集可能会放大而不是纠正人工智能决策过程中的人类偏见。英国牛津大学专门研究数据伦理的研究员桑德拉·瓦赫特(Sandra Wachter)强调了例子通过图像分析来检测皮肤癌迹象的诊断软件工具,这些工具在黑人或棕色皮肤的人身上表现不佳,因为它们主要是根据白人患者的数据进行训练的。她说:“这可能是对你的误诊,实际上可能对你的健康产生有害后果,甚至可能是致命的。”

类似的训练数据问题也困扰着IBM的人工智能驱动的沃森健康平台,该公司最近转移到剥离多年来,这项技术一直在与糟糕的诊断性能和不明智的治疗建议作斗争。

这样的例子引出了一个问题:当算法没有按照设计的那样工作时,谁该受到指责?当人工智能的结论客观上是错误的,就像在某些医学诊断中一样,答案可能很容易得到。但其他情况则要模糊得多。

多年来,脸谱网使公司能够根据算法派生的信息来定位广告,使平台可以推断用户的种族,这是一个选项现在停止.“例如,黑人将无法看到某些招聘广告,或住房或金融服务广告,”Wachter说。“但那些人并不知道这件事。”

歧视的受害者事后可以向法院提出索赔。但最好的解决方案是,首先通过合乎道德的人工智能设计,先发制人地引入破坏性偏见。

机器人规则

向机器灌输伦理道德的想法并不新鲜。75年前,作家艾萨克·阿西莫夫(Isaac Asimov)在想到机器人时写下了《机器人三定律》(Three Laws of Robotics),他的这三条定律都引发了伦理问题。在世界各地的研究实验室里,随着研究人员努力将道德植入人工智能,科幻小说正逐渐走向现实。

目前的工作需要确定一系列与人类法律、规范和道德期望兼容的内部准则,并有助于防止人工智能做出有害或不恰当的决定。范温斯伯格反对将这种人工智能系统称为“道德机器”的想法。“它就像一个精密的烤面包机,”她说。“这是关于在制造机器的过程中嵌入道德规范。”

2018年,总部位于美国纽约市的非营利性组织电气与电子工程师协会(IEEE)召集了一个由来自世界各地的数百名专家组成的跨学科小组,讨论了一些标准核心原则AI系统的潜在“伦理设计”。美国罗德岛州普罗维登斯市布朗大学专门研究人机交互的认知科学家Bertram Malle说:“我们不能只制造‘合乎道德’的机器人——你必须问合乎道德的是谁、何地和何时。”Malle说,因此,任何给定人工智能的伦理框架都应该在与人工智能最终互动的人群的密切参与下制定。

一个最近法律评论文章Wachter的团队强调了这种复杂性。在评估了旨在评估人工智能系统偏见程度的各种指标后,她的团队确定,20个系统中有13个不符合欧盟非歧视法律的法律准则。

她说:“其中一个解释是,如果不是全部的话,大多数偏见测试都是在美国开发的……根据北美的假设。”这项工作是与亚马逊合作进行的,该公司随后采用了改进的bias-testing系统基于这项研究的开源工具包。

一个值得信赖的人工智能系统还需要一定程度的透明度,用户可以清楚地了解算法是如何做出特定决策或结果的。考虑到许多人工智能系统的“黑匣子”复杂性和专有性质,这可能很棘手,但并不是一个不可克服的问题。Malle说:“建立完全透明的系统既不现实,也没有必要。”“我们需要能够回答人类问题的系统。”

这是Wachter团队的另一个优先事项,他们采用了一种名为“反事实的解释以探测不同输入的人工智能系统,以确定哪些因素导致哪些结果。她举了一个例子,用不同的代谢参数询问诊断软件,以了解算法如何确定患者患有糖尿病。

人人有道德

如果说在人工智能中嵌入伦理和透明度是一个难题,那么人类在伦理和透明的基础上开发人工智能可能更具挑战性。谷歌、Facebook、百度和特斯拉等私人公司在整个人工智能开发中占了很大一部分,而新的初创企业似乎每周都会出现。这种情况下的道德监督可能有很大差异。

范威斯伯格说:“我们看到了希望的曙光,(公司)已经聘请了自己的伦理学家。”“问题在于,他们对伦理学家在做什么,他们在学习什么并不透明——这一切都隐藏在保密协议背后。”解雇格布鲁和其他伦理学家凸显了允许公司自我监督的不稳定性。

电脑屏幕上模糊的电脑数据亮起蓝色和粉色

在人工智能伦理学家中,提高人工智能开发和产出的透明度是一个优先事项。这样做可以促进人们对这项技术更广泛的信任。图源:da-kuk/ Getty images

但也有潜在的解决方案。例如,为了克服私人人工智能开发的不透明,范温斯伯格主张,公司可以共同发起一个独立的伦理审查组织,类似于监督临床试验的机构审查委员会。在这种方法中,公司将共同资助一个伦理学家委员会,在公司中轮流“轮班”监督工作。她说:“这样你就有了这样的信息流,分享经验等等,伦理学家不依赖公司的薪水。”“否则,他们就不敢说出来。”

新的法律框架可能也会有所帮助,瓦赫特认为,许多公司可能会欢迎一些指导,而不是在一个充满不确定性和风险的环境中运营。她说:“现在,一些例子正在摆在桌面上,具体地告诉他们什么是负责任,什么是无偏见,什么是保护隐私。”

欧盟目前在这方面处于领先地位“人工智能法案”为基于风险的评估提供了一个详细的框架,评估人工智能系统在哪里可以安全、合乎道德地部署。中国也是严格监管旨在防止基于人工智能的对用户的剥削或歧视-尽管这些相同的法规也可以提供进一步审查的工具网络演讲。

最重要的是,自动化不应该被视为一种普遍的解决方案,而应该始终考虑到所有人的集体利益,而不仅仅是人工智能开发人员。Malle倾向于在教育、医疗和社会服务等领域,将重点放在补充而非取代人类专业知识的系统上。例如,人工智能可以帮助过度劳累的教师更好地处理那些需要更多个人关注或在课程特定领域遇到困难的学生。或者人工智能可以负责医院病房的日常工作,这样护士就可以更好地专注于病人的特定需求。

我们的目标应该是扩大可用人类智慧、专业知识和判断所能取得的成就,而不是完全将这些因素排除在外。Malle说:“在人手不足或训练有素的人手不足的领域,我真的看到了机会。”“让我们先考虑需要的领域。”

要了解更多关于人工智能如何帮助解决重大挑战,同时在这个过程中不造成伤害,请访问造成研究所

搜索

快速链接

Baidu
map