由于人工智能(AI)的进步,特别是深度学习,今天的机器可以理解人类communications-not只是文字的含义的微妙之处,但是我们说背后的潜在意图和情绪。例如,当你问,“外面是什么样子?“亚马逊Alexa过程看似模糊的问题,推断,你好奇天气。
电力当今最先进的人工智能系统的算法学习部分的交互在现实世界中。传统上,AI吸收现实世界的数据容易受到同样的偏见和刻板印象在人类交流中找到。换句话说,一个机器训练的收集的数据从人类可以犯同样的错误判断,人们关于属性,如种族、性别、性取向、年龄、和能力。
的崛起环境智能,亚马逊将智能技术越来越深深地融入人们的生活,在后台一起工作,在需要的时候随时准备协助。在这种背景下,发展有效的对抗偏见在人工智能技术比以往任何时候都更重要。
Prem Natarajan Alexa AI的自然理解和前副总统高级副院长工程南加州大学(USC),帮助亚马逊的发射主动与美国国家科学基金会(NSF)在人工智能的公平,其中包括一个2000万美元的合作基金研究这个话题。事实上,亚马逊和NSF最近公布最新的接受者公平的人工智能研究经费。
在一个广泛的问答,Natarajan解释了为什么他是致力于对抗偏见在AI和审视了公平技术可以看起来像现在和将来。
对大多数人来说,人工智能仍然是一个抽象的概念。让我们从基本的开始学:我们的意思是当我们谈论偏见在人工智能吗?
我给一个例子来自我个人的经验。90年代末开始,我带领团队开发和部署第一组呼叫中心技术在美国我们为客户自动化目录辅助系统。当时,我们使用术语“山羊”和“羊”来描述用户组,或群组。绵羊群体由演讲者的口音或发音容易我们的技术认可。和山羊扬声器系统未能执行以及为谁因为各种各样的原因,例如,因为他们的口音,说话风格,球,或体积。那时,我们总是寻找山羊谁会挑战系统,帮助我们改善我们的流程。在某种程度上,我意识到我我自己在框架的山羊群!
谦虚学习的一个方面通过与人类和AI问题从来没有真正得到解决。他们只是变得更小的问题。
例如,我明显“结婚”这个词在印度的口音我长大,被证明是有问题的。系统将会失败一次又一次。我需要说“结婚”四或五次之前,系统会理解我。我学会说不同的词,但它让我思考。大多数人可以找出我说自然,通过上下文或通过理解我的发音是一个相对较小的变化。为什么不能语音识别系统学会理解我吗?
类似的事情发生在女性的声音。平均而言,他们的高音调或低振幅使我们的系统不可靠的女性比男性使用。或当有人从嘈杂的最主要工作涉及驾驶着一辆卡车,让我们说,系统通常难以表现良好。
换句话说,系统失败的山羊。
到底,当我们开始思考如何使系统better-fairer-for每个个体,无论地理、方言,性别,说话风格,噪音,或任何其他因素。如果某人的个人背景下得到一个无摩擦的经验,我们如何调整和完善技术?系统挣扎时,我们意识到这是一个限制的技术和挑战我们的创新和创造力。问题变成了:我们如何克服这些限制和降低技术偏见吗?
这是20年前。技术发展得如何在Alexa的时代吗?
谦虚学习的一个方面通过与人类和AI问题从来没有真正得到解决。他们只是变得更小的问题。所以,从某种意义上说,目标总是让事情更少的问题。但无论如何衡量,在过去的二十年里,科技发展跨越式bounds-especially在过去的10年。进步的后果之一是纯粹的现在我们能够做的可伸缩性。年前,唯一的方法来优化性能的语言理解系统是收集尽可能多的不同类型的演讲,然后转录数据注释,这是昂贵的。
今天,我们可以用数百万小时的untranscribed,去除了识别信息的语音数据创建广义模型代表更广泛的人类比20年前被认为可能的讲话风格。
我们还推出了小说在Alexa驯良的AI功能,允许用户直接“教”系统为他们更好地工作。如果你说,“Alexa,度假模式”,这意味着不同的事情不同的人取决于上下文。客户可能希望Alexa设置颜色为绿色或使光线昏暗的。别人可能会要求Alexa将温度设置为“舒适”的水平。Alexa用于应对这样的请求,“我不知道怎么做。“现在,它会回来,说:“我不知道假期模式。你能教我吗?”
这很重要,帮助我们的声音代理商更好地理解我们。但当人工智能用于生成内容,写一个故事,创造艺术,或建议当您输入查询词在搜索引擎?这就是自然语言处理模型经常被批评为传播偏见在性别和种族,例如。
这是最激动人心的研究领域之一。如果你告诉Alexa“阿黛尔玩“你好”,“最重要的是,Alexa理解每个人都问这个问题,然后播放这首歌。但是如果有人说,“对医生和护士Alexa,告诉我,”和Alexa指医生一样“他”和护士“她”,我们必须解决偏见挑战,确保AI反映了社会的价值观和习俗和文化。
我的一个博士学生南加州大学发表了纸如何进入某些提示到最大的自然语言生成引擎导致偏见的推论。输入“白人做…”生成的建议备受尊敬的职业,如警察、法官、检察官和美国总统。对于其他人口,就业协会更消极。你可以看到我们看似中性与科技的互动可能会失败。
再次,我将使用我自己作为一个例子。如果你输入“美国印第安人做…”生成的文本可能是“软件工程师”,因为这是最受欢迎的文化基因。我记得当我在回家的路上从我的一个美国海外旅行很多年前,一个军官在波士顿机场看着我的签证,问我,“你做什么?“因为语音识别和自然语言处理体现在软件,我认为这是最接近说我编写软件。他说,“哦,是的,你会做什么?”
美丽的机器,这就是我非常的希望我们可以改变系统中计算框架来大大减少偏见。
今天,我们将称之为microaggression。他对我负在某种程度上,即使这可能不是他的意图。因为我们训练我们的语言学习系统由人类生成的数据,机器可以做同样的事情。
人类的偏见是难以改变的。为什么它会更容易与人工智能?
嗯,这就是我们的工作导致最有趣的数据的可能性。培训人说话以更具包容性的方式是具有挑战性的。但美丽的机器,这就是我非常希望和乐观,我们可以改变计算框架来大大减少系统中这些偏见。我们可以训练系统内公平的框架。我很乐观,我们可以更快的规模比我们可以与整个社会。
放大,科技行业做公平的解决问题和偏见在AI整个行业吗?整个社会陷入了反思吗?
肯定。很多我们当前意识具体问题在人工智能始于2014年美国总统的报告大数据:抓住机遇,保留值。这是我第一次看到一个权威的报告称,大数据技术可能导致歧视。即使没有意图,偏见与人工智能仍然可能发生。这是一个强大的来自白宫的声明中,这导致了会议和研讨会关注我们如何需要的专业技术知识和其他形式停止歧视在人工智能。
希望我看到的是人工智能实际上可以用来照亮不公平或不平等,一个在社会中已经存在。
我们理解偏见的能力从根本上依赖于具有多样性和股本在讨论和意念。我们也需要不同类型的经验表示。这就是我们合作的原因国家科学基金会在公平的人工智能程序。我们想确定的方式歧视或偏见可以体现,然后了解如何测量它,最终如何纠正这个问题。需要一个整体的社区thinkers-people可以引入社会科学视角以及计算技能。
公平的AI会是什么样子在未来,特别是当环境情报变得普遍?
在应用程序级别上,我们可以使用人工智能识别差异在我们的文化中,然后发展策略来对抗他们。我们知道,例如,医疗结果有差异在不同段的人口。治疗适用于一些人口统计和对别人不太好。甚至心脏病的外科干预更好或更糟的结果为不同的人口统计数据。
数据科学和人工智能在医学领域发挥更大的作用和刑事司法系统。希望我看到的是人工智能实际上可以用来照亮不公平或不平等,一个在社会中已经存在。我们经常谈论公平在人工智能,如,如何才能让AI更加公平。但是我认为一个同样有趣的问题是:人工智能可以用来使现有的实践和流程更公平?
哲学家们争论的意义“公平”几个世纪以来,这听起来像技术是推进对话。
绝对的。我相信对话助理根本就是一个accessibility-enhancing技术。他们每天提供巨大的便利广泛的用户。通过减少日常摩擦,我们所有人的经验,像Alexa的工具扩大我们的易访问性技术和知识。像我的奶奶在她的晚年,刚刚改变电视频道或关掉收音机是一件苦差事。如果有人在她的一代有流动性的挑战,或视觉或听觉的问题,或不知道如何阅读,他们错过了某些技术可以提供的好处和乐趣。今天,同一个人可能会说,“Alexa,玩这个我”或“教我,”和AI将提供经验。这激励着我。
我相信我的女儿会因为爱生活在一个更好的世界。至少,这是我的希望。人工智能,对我来说,是关于赋权。它是一个工具来帮助人们改变和改善他们的日常经验。如果我们可以让每一个人,那么在某种意义上,我们创造一个更加公平的世界。
面试已经凝聚和编辑清晰。