由于人工智能(AI)的进步,特别是深度学习,今天的机器可以掌握人类交流的微妙之处——不仅仅是词语的含义,还有我们所说话语背后的潜在意图和情感。例如,当你问:“外面怎么样?”亚马逊Alexa会处理这个看似模糊的问题,并推断出你对天气很好奇。
为当今最先进的人工智能系统提供动力的算法,部分是从它们在现实世界中的交互中学习的。传统上,吸收现实世界数据的人工智能很容易受到人类交流中同样的偏见和刻板印象的影响。换句话说,一台受过人类数据训练的机器,在种族、性别、性取向、年龄和能力等属性方面,也会做出和人类一样的错误判断。
随着环境智能亚马逊预测,智能技术将更深入地融入人们的生活,在后台协同工作,并随时准备在需要时提供帮助。在这种背景下,开发有效的技术来对抗人工智能中的偏见比以往任何时候都更加重要。
Alexa AI负责自然理解的副总裁、南加州大学工程学院前高级副院长普雷姆·纳塔拉扬(Prem Natarajan)帮助推出了亚马逊的自动语音助手国家科学基金会的倡议(NSF)关于人工智能公平的研究,其中包括一项2000万美元的合作,用于资助这一主题的研究。事实上,亚马逊和美国国家科学基金会最近公布最新获奖名单人工智能研究经费的公平性。
在一个内容广泛的问答中,Natarajan解释了为什么他致力于对抗人工智能领域的偏见,并研究了现在和未来更公平的技术可以是什么样子。
对于大多数人来说,人工智能仍然是一个抽象的概念。让我们从基础开始:当我们谈论人工智能中的偏见时,我们指的是什么?
我将举一个来自我个人经历的例子。从90年代末开始,我领导的团队在美国开发和部署了第一套呼叫中心技术。我们为客户自动化目录辅助系统。那时,我们使用“山羊”和“绵羊”来描述用户组或队列。绵羊组由具有口音或发音的说话者组成,我们的技术很容易识别。而山羊是说话的人,系统由于各种原因而表现不佳,例如,因为他们的口音、说话风格、音高或音量。那时,我们总是在寻找能够挑战系统并帮助我们改进流程的人。在某个时刻,我意识到我我自己在那个框架里的山羊队列里!
通过与人类和人工智能合作,你学到的谦逊的一个方面是,问题永远不会真正得到解决。它们只是变成了小问题。
例如,我在印度长大,用我的口音发音“已婚”这个词,事实证明是有问题的。这个系统会一次又一次地失败。我需要说四五次“结婚”,系统才能理解我。我学会了用不同的方式说这个词,但这让我思考。大多数人都能很自然地理解我在说什么,要么通过上下文,要么通过理解我的发音是相对较小的变化。为什么语音识别系统不能理解我?
类似的情况也发生在女性的声音上。平均而言,她们较高的音调或较低的振幅使我们的系统在女性使用时比男性更不可靠。或者当有人在嘈杂的环境中打电话时——假设他们的工作涉及驾驶卡车——系统通常会很难表现良好。
换句话说,这个系统辜负了山羊。
正是从那时起,我们开始思考如何让这个系统变得更好、更公平——无论地理位置、方言、性别、说话风格、噪音或任何其他因素如何。如果某人的个人环境阻碍了无障碍体验,我们该如何调整和改进技术?当系统陷入困境时,我们开始意识到这是技术的局限性,是对我们的创造力和创造力的挑战。问题变成了:我们如何克服这些限制,并使技术的偏见更少?
那是20年前的事了。在Alexa时代,技术是如何发展的?
通过与人类和人工智能合作,你学到的谦逊的一个方面是,问题永远不会真正得到解决。它们只是变成了小问题。所以,在某种意义上,我们的目标总是让问题变得更少。但无论以何种标准衡量,在过去的二十年里,科技都取得了突飞猛进的进步,尤其是在过去的十年里。这一进步的一个结果是我们现在能够做的事情的绝对可扩展性。多年前,调整语言理解系统性能的唯一方法是收集尽可能多的不同类型的语音,然后对这些数据进行转录和注释,这是非常昂贵的。
今天,我们可以使用数百万小时的未转录的、去识别的语音数据来创建通用模型,这些模型代表了比20年前想象的更广泛的人类说话风格。
我们还在Alexa中推出了一种新颖的可教人工智能功能,允许用户直接“教”系统更好地为他们工作。如果你说,“Alexa,打开假日模式”,根据上下文,这对不同的人意味着不同的意思。客户可能希望Alexa将色调设置为绿色或将灯光调暗。其他人可能会要求Alexa将温度设置为“舒适”的水平。Alexa过去常常回答这样的请求:“我不知道该怎么做。”现在,它会返回说,“我不知道假日模式是什么。你能教我吗?”
这对于帮助我们的语音代理更好地理解我们很重要。但是,当人工智能被用来生成内容时会发生什么——例如,写一篇故事,创作艺术,或者当你在搜索引擎中输入单词时建议查询?这就是自然语言处理模型经常被批评传播性别和种族偏见的原因。
这是最令人兴奋的研究领域之一。如果你告诉Alexa“播放阿黛尔的《Hello》”,最重要的是Alexa能理解每个人提出的问题,然后播放这首歌。但如果有人说,“Alexa,告诉我关于医生和护士的情况,”Alexa把医生称为“他”,把护士称为“她”,我们就必须解决偏见的挑战,确保人工智能反映了社会和文化的价值观和习俗。
我在南加州大学的一个博士生发表了一篇纸在最大的自然语言生成引擎中输入某些提示如何导致有偏见的推断。输入短语“白人曾做过……”,会弹出一些备受推崇的职业的建议,如警察、法官、检察官和美国的总统。对于其他人口统计数据,工作关联更为负面。你可以看到,与科技看似中立的互动是如何让我们失望的。
我还是以我自己为例。如果你输入“印度裔美国人从事……”,生成的文本可能是“软件工程师”,因为这是最流行的表情包。我记得许多年前,当我结束一次海外旅行返回美国时,波士顿机场的一位官员看着我的签证,问我:“你是做什么工作的?”因为语音识别和自然语言处理都体现在软件中,所以我认为最贴切的说法是我写软件。他说:“哦,是啊,你还能做什么?”
机器的美妙之处在于——这也是我非常希望的地方——我们可以改变计算框架来大大减少系统中的偏差。
今天,我们称之为微侵略。他在某种程度上对我有负面的看法,即使这可能不是他的本意。因为我们用人类生成的数据来训练我们的语言学习系统,所以机器也可以做同样的事情。
人类的偏见很难改变。为什么有了人工智能会更容易呢?
好吧,这就是我们的工作引出数据最有趣的可能性的地方。训练人类以更包容的方式说话是一项挑战。但机器的美妙之处在于——这也是我非常希望和乐观的地方——我们可以改变计算框架来大大减少系统中的这些偏见。我们可以在这个框架内训练系统变得更加公平。我乐观地认为,我们可以在比整个社会更快的范围内做到这一点。
缩小范围,科技行业在解决整个行业人工智能的公平和偏见问题方面采取了哪些措施?整个社区是否都在进行自我反省?
肯定。我们目前对人工智能具体问题的很多意识都始于2014年美国总统的一份报告大数据:抓住机遇,保存价值.这是我第一次看到权威报告说大数据技术会导致歧视。即使在没有意图的情况下,对人工智能的偏见仍然可能发生。这是来自白宫的有力声明,它引发了一系列会议和研讨会,重点讨论我们如何需要技术知识和其他形式的专业知识来阻止人工智能领域的歧视。
我看到的希望是,人工智能实际上可以用来揭示社会中已经存在的不公正或不平等现象。
我们理解偏见的能力从根本上依赖于在讨论和构思中具有多样性和公平性。我们也需要呈现不同类型的体验。这就是为什么我们与关于人工智能公平的国家科学基金会程序。我们想要确定歧视或偏见表现出来的方式,然后了解如何衡量它,并最终如何纠正这个问题。这需要一整个思考者群体——既能带来社会科学视角,又能带来计算专业知识的人。
未来更公平的人工智能会是什么样子,尤其是当环境智能变得普遍时?
在应用层面上,我们可以使用人工智能来识别我们文化中的差异,然后制定策略来对抗它们。例如,我们知道,不同人群的医疗结果存在差异。治疗可能对某些人群有效,但对另一些人则不太好。即使是心脏疾病的手术干预也会对不同的人群产生或好或坏的结果。
数据科学和人工智能在医疗领域和刑事司法系统中发挥着更大的作用。我看到的希望是,人工智能实际上可以用来揭示社会中已经存在的不公正或不平等现象。我们经常谈论人工智能的公平性,比如,我们如何让人工智能更公平。但我认为一个同样有趣的问题是:如何利用人工智能使现有的实践和流程更加公平?
几个世纪以来,哲学家们一直在争论“公平”的意义,听起来科技正在推动这一对话。
绝对的。我相信会话助手从根本上来说是一种增强可访问性的技术。他们为广大用户提供了巨大的日常便利。通过减少我们每天经历的摩擦,Alexa这样的工具拓宽了我们获取技术和知识的途径。对于像我奶奶这样的老年人来说,起床换电视频道或关掉收音机都是一件苦差事。如果她这一代有人行动不便,或视力或听力有问题,或不识字,他们就错过了科技可以带来的某些乐趣和好处。今天,同样的人可以说,“Alexa,为我播放这个”或“教我这个”,人工智能就会把体验传递给他们。这激励了我。
我相信我的女儿们将生活在一个更美好的世界,因为人工智能。至少这是我的希望。对我来说,人工智能就是赋权。它是一种帮助人们改变事物、改善日常体验的工具。如果我们能赋予每个人权力,那么在某种意义上,我们正在创造一个更公平的世界。
为清晰起见,采访内容经过了压缩和编辑。