2nd Language & Intelligence Summit

第二届语言与智能峰会游记

前两天(明明两周过去了)蹭实验室的邀请名额参加了CCF和CIPS主办的第二届语言与智能峰会。断断续续对会议的主要内容做了一些记录,备忘吧。
由于智力原因基本告别算法竞赛了,所以blog也没啥好写的。除了瞎扯大概会更新一些这样的research方面的内容吧,一方面备忘一方面也欢迎多多交流。

##高文,图灵视觉测试
PKU的高文院士讲的。
大概就是将传统的图灵测试(采用自然语言的问答)扩展为多模态的问答task的idea,加入视觉等因素。比如让人和机器同时描述一幅图片的内容等,来测试智能水平。
很好的串连了CV和NLP以及二者交叉的很多经典task,介绍了一些有意思的工作,但是没来得及记下来(其实是因为当时没太睡醒)

##马维英,信息流与人工智能的未来
今日头条AI lab的主任
因为头条是做信息流的公司嘛,以这个串起了很多topic
先讲了一下头条的推荐系统和精准广告,毕竟看家本事,思路大概也是靠DNN对很多因素建模。下一步似乎要考虑结合RL和博弈论(?)的东西来优化。
然后谈了对Natural language understanding和generation的一些看法,他认为现在DNN做的对数据的digital representation可能不足以做到很好的generation,还需要更semantic的representation。也认为人脑的understanding更依赖Knowledge Base和symbolic understanding,所以AI想要进一步优化还是要接近这条路线。
然后讲了知识图谱的一些工作,似乎更多是他在MS的一些工作,原理性东西涉及的比较少。主要是强调了从超大规模的Web数据挖掘出知识图谱,也演示了MS知识图谱的一些demo,速度很快,效果很炫。
接下来谈了一下对(未来的)Unified Learning Framework的想法,他认为要结合一些现有的idea,包括:
Dual:利用耦合关系对偶学习
Adversarial:对抗学习
Collaborative:合作学习,好像是主要在于合作自动标注数据
Multi-task:一个model做多个任务
Transfer Learning:不同domain之间的model的迁移
然后好像还谈了统计学习和符号逻辑之类的也有“对偶”关系,应该结合发展。
然后好像就是一些比较放飞的东西和头条的工作了,像XiaomingBot,Video understanding和AI Camera之类。

##刘兵,Lifelong Machine Learning
UIUC的教授,在情感分析和数据挖掘等领域做出了很大贡献并且著有一些经典教材。
开场台风犀利地批判了一番现有ML模型存在的一些很根本的问题,包括大部分ML做的都是孤立的single-task,训练数据量太大,一些对先验知识(prior knowledge)的依赖大等。
其实有很多专门性的工作致力于克服这些弱点,像跨domain或跨task的transfer learning,针对数据缺乏的small sample learning和one-shot learning等,但是还是缺乏泛化能力,“高度不够”。
因此模仿人类学习的连续性和长时性,提出了一个概括性很强的新的概念,Lifelong ML。
很多内容来自于去年出版的专著《Lifelong Machine Learning》by Zhiyuan Chen, Bing Liu (Morgan & Claypool Publishers 2016)也有很多在这本书之后产生的idea和工作介绍。
基本概念就是除了主模型在训练学习前n个任务以及test时积累一些知识在一个knowledge base里,在训练解决第n+1个任务时可以利用knowledge base里的知识做优化,最新的定义中还要利用一些model做到挖掘新的task出来,以期应对open world。
//TODO:把better definition里面那张流程图放上来
然后具体介绍了一下分类,大体上还是分成supervised和unsupervised。各自介绍了几个应用了这种思想的工作,像Lifelong Sentiment Classification和Lifelong topic model等…没太听懂
关于发掘新task和在test中learning有几篇paper,不知道能做到怎么样。(TODO:有时间找到看一下)

然后上午的部分就结束了,中午有蛮高端的盒饭,吃完出门奥体公园逛了一圈暴露游客本质.

##张潼 腾讯的自然语言应用和研究
Tencent AI lab主任
腾讯作为目前最受尊敬的互联网公司,当然也是要有AI方面的工作啦。不过好像提到AI lab的人员之类的近期才到齐?不像“百度已经变成了一家人工智能公司!”
先讲了一下他对NLP的overview,分为knowledge,understanding,Generation,Planning四个方面,各自有很多大的task。
然后讲了腾讯的一些系统架构和平台建设的问题,讲的很概括,也没太了解。。。
然后讲了发的几篇paper的内容,讲的有点快,我也不太熟悉,简单列一下记住的备需吧。
Attention Network for Aspect Sentiment Analysis[EMNLP2017]
Deep Pyramid Convolutional Neural Networks for Text Categorization[ACL2017]
Modeling Source Syntax for Neural Machine Translation[ACL2017]
Translating Phrases in NMT [EMNLP2017a]
Exploiting Cross-Sentence Context[EMNLP 2017b]
中间也提到了腾讯在做的dialogue system的架构,感觉做的很大很全…讲的也是很概括。

##李航 Toward Neural Symbolic Processing
华为诺亚方舟实验室主任,也是那本经典的《统计学习方法》的作者。
首先也是对NLP讲了一下overview,给各种task分了五类,然后指出做generation和multi-turn dialogue还是很困难的,现有方法解决的希望不大。
所以motivation就是让机器更多的模仿人类的思维方式,人类在思考时采用的和更容易接受的是symbolic representation(其实我对这个观点存疑。。。)和符号推理的东西。对数据和知识采用symbolic representation天然具有更好的解释性和运算性质,但是实践证明neural representation显然更加鲁棒,所以要对神经处理和符号处理做一个结合。
然后他说咨询了Yoshua Bengio的看法,他老人家说从底层结合很难,但是外部combine一下还是有可能work的…感觉…很有道理…
然后是一些相关的工作,包括Percy Liang的semantic parsing,和Nerver Ending Language learning,Memory Networks,Differentiable Neural Computers等。(TODO:详细了解一下)
之后介绍了诺亚方舟实验室的工作,包括做的QA from knowledge graph和QA from Relational Database之类。

##刘铁岩 Neural Machine Translation:A Machine Learning Perspective
MSRA的Principal Researcher
他起这个题目的原因是因为他自己不是专门做NMT的,只是从ML的角度做了一些NLP包括NMT的工作。这位也是台风犀利,敢说敢讲,做的工作也都很有高度。
首先当然是介绍了NMT现在的state-of-art的做法们,最亮眼的当然是Facebook的纯CNN的Conv525和Google的标题党attention的Transformer。
这些做法大致上都是一个框架内的,不同的就是encoder-decoder的模型的选择,共有的问题就在于依赖大量数据,decode时贪心的beam search以及训练和测试时用的都是likeihood maximization,优化目标和最终目标(BLEU)是有出入的(因为你翻译结果没出来显然是不能计算BLEU的)。
针对这些问题MS做了一些结合RL之类的手段的的工作,也是他接下来介绍的重点。

###Dual Learning
这个算法框架前面也介绍过,尤其是当缺少标注语料的时候,基于翻译任务的对偶性,我们可以用一个训练好的英译中(例子)模型来训练另一个待训练的中译英模型。具体做法就是把翻译的质量通过第一个模型能否好的理解当作一个reward,采用RL的框架进行训练。
然后这是发表在NIPS2016上的一个工作。

###“Dual” Supervised Learning
之后是一篇ICML2017的工作,title是“Dual” Supervised Learning。好像是从数学原理上解释了一下Dual Learning的本质,涉及到joint probability的展开。最后可以把这个概率当作一个正则项来改进模型。(大约是这样,记不清楚了QAQ)
然后从实验结果上看总之效果拔群。

###“Dual” Inference
一篇IJCAI2017的工作。如果有两个训好的model就可以对偶地来做infer ence之类的。

###Value Networks to Predict Long-term Reward
这是针对最后Decode后Inference的时候现有做法的一些不足。传统做法是Beam Search + likeihood greedy。问题在于likeihood并不等于最后句子级别的BLEU。myopic local Search也不等于全局最优。而注意到这种问题框架跟传统RL问题很接近,就像AlphaGo那样,我们可以设计一个Value network to Predict Long-term Reward,然后采用蒙特卡洛搜索来替代传统beam search(想想就难做……)。

###Tui-Qiao Net
似乎是正在进行的一项工作。现有的decoding都是贪心地一遍decode就出来了,可以多次decode寻求最好的,类似“推敲”。

之后谈了一下NMT下一步面临的挑战和需要解决的问题。大概就是调参太依赖于玄学黑科技而且导致复现性差,对计算性能的要求太高,对潜在语义(latent semantics)的利用不够导致很多长尾的固定词汇得不到理解,对翻译的“雅”基本没有追求等等。感觉这种对学术品位的追求还是很值得学习的。

##年轻科学家专场报告
后面的内容是年轻科学家专场报告,主题分别是
清华大学刘洋老师:基于深度学习的机器翻译
中科院刘康老师:Open Domain Event Extraction from Texts
MSRA韦福如老师:机器阅读理解
苏州大学李寿山老师:文本情绪(emotion)分类研究
这几场给的时间比较短(半小时),讲的也都是自己做的最前沿的东西,所以也没太听懂什么内容…
除了机器阅读理解这场,因为这是我现在关注的方向,所以可能会单开一篇做一下最近那七八篇ACL的阅读笔记,也会把这个报告的内容列在那里吧。(一个flag)

##企业论坛
京东讲了下客服chatbot,后面还有个panel。
感觉企业跟学术界的关注点还是很不一样的,最近在sogou实习也深刻体会了这一点。。。

##End
大概要写的就这些吧,其实记得很粗糙也遗漏了很多重点,主要原因还是太菜吧…很多时候听不懂人家在说啥。希望以后能提高一下自己学术方面的姿势水平吧。

恭喜你!<br><br>发现了一条咸鱼=w=