9月4日,神经信息处理系统基金会(Neural Information Processing Systems Foundation)发布了2000到2500张年会门票,这是机器学习领域的首要会议,现在被称为NeurIPS。
12分钟就卖光了。
会议组织者预计12月的第一周将有8000名与会者来到Congrès de Montréal宫,其中大部分门票都是为演讲者、赞助商、评审员和其他会议参与者预留的。尽管如此,第一批公开发售的门票迅速售罄,证明了机器学习产生的热情。
亚马逊零售部门首席机器学习科学家、NeurIPS顾问委员会成员伯恩哈德Schölkopf表示:“人工智能研究在某种程度上停滞不前,直到人们注意到,通过使用庞大的数据集、严肃的计算基础设施和最先进的机器学习方法,可以取得非常实质性的进展。”“这使得NeurIPS从首屈一指的机器学习会议变成了最热门的人工智能会议。”
“海报会议可能是NeurIPS最好的部分,因为你可以与作者进行更高程度的互动,并讨论技术细节,”亚马逊网络服务深度引擎组机器学习总监、NeurIPS区域主席亚历克斯·斯莫拉(Alex Smola)说。“这是无与伦比的。同样,讲习班也很有价值。它们已经变成了小型会议——实际上,不是那么小,有数百人参加最大的会议。”
去年,Alexa AI小组的高级首席科学家Dilek Hakkani-Tür受邀参加了第一届NeurIPS对话式AI研讨会。“人数惊人,”她说。“这是最大的车间之一,也是最拥挤的车间之一。今年,我想会更加拥挤。”
Hakkani-Tür是今年研讨会的组织者之一,该研讨会的编程委员会中也有8名亚马逊科学家。她说:“今年提交的论文数量增加了50%以上。”“很长一段时间以来,人们一直在研究以任务为导向的对话,但在过去几年里,人们在更多基于聊天或社交机器人类型的系统上进行了大量工作。这次研讨会上有很多关于这些问题的提交。”
她补充说:“我们在图像处理和语音以及许多机器学习问题上看到了很多进步。”“在对话领域,让机器学会如何在开放领域交谈仍然非常困难。我认为这就是人们想要解决这个问题的原因。”
亚马逊是该会议的顶级(钻石)赞助商之一,也是该会议的赞助商之一机器学习领域的女性而且AI中的黑色研讨会。亚马逊的10名研究人员是NeurIPS董事会和委员会的成员,15名研究人员是8篇会议论文的共同作者。
亚马逊还将在展厅里有一个展位,从里面巨大的(正在工作的)Echo设备复制品就能认出来。
亚马逊研究人员参与NeurIPS为他们提供了一个宝贵的有利位置,可以评估会议计划及其对机器学习研究现状的反映。
亚马逊核心人工智能团队机器学习科学总监、NeurIPS演示和竞赛主席拉尔夫·赫布里希(Ralf Herbrich)说:“五年前,感觉大会90%的内容都是围绕深度学习展开的。“现在有一种趋势,即解决模式识别和未来事件预测问题的多样化方法,我们称之为机器学习。我觉得这很健康。”
赫布里希特别注意到两种方法。一个是贝叶斯学习技术的复兴。传统的机器学习试图辨别描述数据集中数据的统计模式。贝叶斯学习尝试识别相同类型的模式——但它也估计它所识别的模式是正确的概率。
这意味着贝叶斯系统可以比传统的机器学习系统更有效地学习。当贝叶斯系统为其统计模型的准确性分配低概率时,新的数据可以极大地修改模型。然而,随着可能精度的增加,模型对变化的抵抗力会增强。
赫布里希说:“对亚马逊来说,这是最有趣的问题之一,因为我们相信,更多的选择对客户更好。”“但更多的选择也意味着你有更长的实体,无论是书籍、时尚产品还是杂货。根据定义,尾巴是一个稀疏的观测集合。你需要的是一种更接近人类推理的东西,它可以从很少的例子中学习。”
赫布里希看到的另一种吸引更多关注的机器学习技术是一种被称为峰值神经网络的技术。近年来主导机器学习领域的深度神经网络由多层虚拟“神经元”组成,这些虚拟“神经元”从下面的层接收数据,对其进行处理,并将其传递给上面的层。对于网络的任何给定输入,由单个神经元执行的许多(如果不是大部分)计算将被证明与最终输出无关,并被过滤掉。但他们还是表演了。
在峰值神经网络中,它更忠实地模拟人类大脑,神经元只有在接收到它被训练来识别的特定输入时才会“触发”——也就是说,当它对输出的贡献很重要时。因为,对于任何给定的输入,只有一小部分神经元被激活,spike神经网络比传统的深度神经网络更高效。
赫布里希说:“想想Echo这样的设备。“我们在上面运行了相当智能的计算,它正在检测唤醒词。现在考虑一个用例,我们在电池上运行它。随着越来越多的计算转向边缘,能源效率成为一个重要的标准,因为它限制了你使用它的频率和地点。”
亚马逊搜索技术团队的研究员、德克萨斯大学奥斯汀分校(University of Texas at Austin)计算机科学教授因德吉特·迪隆(Inderjit Dhillon)曾是NeurIPS的高级区域主席,负责审查大约5000份提交的论文。他在这些意见书中观察到的一个趋势是越来越多地关注所谓的对抗性方法。
“我认为,人们真正担心的是,如果汽车制造商开始在自动驾驶汽车上部署神经网络,那么汽车是否容易误读标志?”Dhillon说。“你可以尝试通过生成对抗性的例子来让你的神经网络更健壮。你看看神经网络学习的方式,然后你试着构建神经网络可能会被愚弄的对抗例子,然后让网络更健壮,你重新训练它,让它对这些例子做出正确的预测。”
例如,Alexa AI的副总裁兼Alexa自然理解小组主任Prem Natarajan是NeurIPS的高级作者纸题为“无监督对抗不变性”,它研究了用于清除可能误导机器学习系统的“有害因素”数据集的对抗技术。
Dhillon补充道:“我还发现了人工智能对社会的影响以及人工智能的公平性。”“让我印象深刻的是,它似乎更多地停留在受邀演讲和研讨会的层面,而不是实际的技术论文。这些都是非常重要的社会问题,我们希望越来越多的人开始用技术的眼光来思考这些问题。”
与亚马逊合作的NeurIPS论文
(粗体为亚马逊研究人员):
- 《可扩展超参数迁移学习》|Valerio Perrone,Rodolphe Jenatton,马蒂亚斯•西格,塞德里克Archambeau
- “时间序列预测的深度状态空间模型”|作者:Syama Sundar Rangapuram,马蒂亚斯•西格,1月酒店,洛伦佐·斯特拉,伯尼•王,蒂姆Januschowski
- "无监督对抗不变性作者:Ayush Jaiswal, Rex Yuu Wu, Wael Abd-Almageed,但是过犹不及Natarajan
- "模型比较的信息特征作者:Wittawat Jitkrittum, Heishiro Kanagawa, Patsorn Sangkloy, James Hays,Bernhard Scholkopf——阿瑟·格雷顿
- "循环动态模型的时间抽象作者:Alexander Neitz, Giambattista Parascandolo, Stefan Bauer,Bernhard Scholkopf
- "缓解ML的影响差异是否需要治疗差异?|作者:圣扎迦利利普顿, Julian McAuley, Alexandra Chouldechova
- "理解适应性在机器教学中的作用:以版本空间学习者为例作者:Yuxin Chen, Adish Singla, Oisin Mac Aodha,Pietro Perona一起,岳毅松
- "通过子采样放大隐私:通过耦合和发散的紧密分析|作者:Borja Balle,吉尔斯·巴特,马可·加博第
与亚马逊参与者的研讨会
- 会话的人工智能:
- 亚马逊组织者:Dilek Hakkani-Tur
- 程序委员会:阿米娜Shabbeer,钱德拉Khatri,凯文小,兰伯特马赛厄斯,Parminder Bhatia,Praveen Bodigutla,拉维•贾殷,燕杨
- 机器人模仿学习及其面临的挑战:
- 亚马逊组织者:悉达多Srinivasa
- 应急通信
- 邀请谈话:他他
亚马逊NeurIPS委员会和董事会的研究人员
- 高级区域椅子:Inderjit Dhillon,S. V. N.毗什瓦纳坦
- 区椅子:亚历克斯Smola,Borja Balle,塞德里克Archambeau,彼得·格尔
- 工作坊项目委员会成员:马蒂亚斯•西格
- 顾问委员会成员:Bernhard Schoelkopf
- 董事会成员:尼尔•劳伦斯
- 出版社的椅子:尼尔•劳伦斯
- 演示的椅子:拉尔夫Herbrich