报告题目:Graph2Seq:自然语言处理中的从图到序列学习(Graph-to-Sequence Learning in Natural Language Processing)
报告人:吴凌飞 研究员
单位:IBM全球研究院总部(IBM T.J. Watson Research Center)
报告时间:2019年5月22日(周三)上午10:30
报告地点:翡翠湖校区翡翠科教楼A座902会议室
摘要:从序列到序列(Sequence-to-sequence, Seq2Seq)技术及其众多变体在神经机器翻译、自然语言生成、语音识别和药物发现等许多方面都取得了优异的性能。尽管Seq2Seq模型具有很强的灵活性和表达能力,但它只能应用于输入为序列的问题。然而,序列是结构化数据的一种简单表示,许多重要的问题需要用复杂的结构(如图)来表示。这些图结构数据不仅可以编码复杂的成对关系,以便学习更多的信息表示;同时,序列数据中的结构和语义信息可以通过合并特定领域的知识来扩充原始序列数据。为了处理复杂的结构图输入,我们提出了Graph2Seq,这是一种用于图到序列学习的新的基于注意的神经网络结构。Graph2Seq可以看作是一个广义的图输入Seq2Seq模型,它是一种通用的端到端的神经编解码器结构,它对输入图进行编码,并对目标序列进行解码。在本次讲座中,吴凌飞研究员首先介绍Graph2Seq模型,然后讨论如何在不同的NLP任务中应用该模型。他最近的两部著作(“Exploiting Rich Syntactic Information for Semantic Parsing with Graph-to-Sequence Model”,EMNLP 2018)和(“SQL-to-Text Generation with Graph-to-Sequence Model”,EMNLP 2018)中说明了Graph2Seq模型相对于各种Seq2Seq模型和Tree2Seq模型的优势。
讲者简介:吴凌飞,IBM全球研究院总部(IBM T.J. Watson Research Center) 研究员 , 威廉玛丽大学计算机系博士,主要研究方向为机器学习(深度学习)、表征学习和自然语言处理的交叉领域,尤其是快速发展的图神经网络及其在新的应用领域和任务上的扩展。吴博士已经发表30多篇顶尖杂志和会议,包含NIPS、ICML、ICLR、SysML、AISTATS、KDD、ICDM、NAACL、EMNLP、AAAI、ICASSP、SC、SIAM Journal on Scientific Computing, IEEE Transaction on Big Data, and Journal of Computational Physics。吴博士的研究已被众多媒体报道,包括Venturebeat、TechTalks、季启智新、MIT News、 IBM Research News和SIAMNews,合作了13项美国专利。吴博士组织并担任了The First International Workshop on Deep Learning on Graphs: Methods and Applications (DLG’19)联合主席,18年IEEE BigData Tutorial的联合主席。经常性担任NIPS, ICML, ICLR, KDD, ACL, IJCAI, and AAAI.等国际顶级会议的TPCmember。