为了账号安全,请及时绑定邮箱和手机立即绑定

深度学习技术在机器阅读理解应用的研究进展

2018.05.19 09:32 6838浏览
0 前言

前几篇博文主要是介绍传统机器学习方法在问答系统或其主要分支:机器阅读理解上的研究与应用,在之前介绍的大规模机器阅读理解数据集的基础上,我们来分析下深度学习方法在机器阅读理解领域的研究进展,这里我们主要是在张俊林的《深度学习解决机器阅读理解任务的研究进展》的基础上,整理了深度学习技术在机器阅读理解应用的研究进展

1 机器阅读理解

阅读理解,相信中国学生都不陌生,不管是语文考试还是英语考试,阅读理解是非常常规的考试内容,一般形式就是给出一篇文章,然后针对这些文章提出一些问题,问题的类型包括选择题、填空题或者分析题,学生通过回答这些问题来证明自己理解了文章所要传达的主旨内容。

而机器阅读理解就是机器自主来完成以上过程,教会机器学会阅读理解是自然语言处理(NLP)中的核心任务之一,也是机器真正智能化的体现,目前在国内外的人工智能和自然语言处理等研究领域中,机器阅读理解都已经成为了一大研究热点。

欲先攻其事必先利其器,要完成机器阅读理解任务,首先需要大规模机器阅读理解数据集,为了降低任务难度,较早出现的大规模机器阅读理解数据集都将世界知识(World Knowledge)排除在外,采用人工构造的比较简单的数据集,以及回答一些相对简单的问题。机器阅读理解数据集常见的形式包括人工合成问答、完形填空式(Cloze-style queries)、选择题和问答题等方式。

人工合成问答是由人工构造的由若干简单事实形成的文章以及给出对应问题,要求机器阅读文章内容并作出一定的推理,从而得出正确答案,正确答案往往是文章中的某个关键词或者实体。图1展示了人工合成阅读理解任务的示例。图1示例中前四句陈述句是人工合成的文章内容,Q是问题,而A是标准答案。

图片描述

图1 人工合成阅读理解任务示例

Cloze-style queries是类似于“完形填空”的任务,就是让计算机阅读并理解一篇文章内容后,要求对指定问题进行回答,问题往往是抽掉某个单词或者实体词的一个句子,而机器回答问题的过程就是将问题句子中被抽掉的单词或者实体词预测补全出来,一般要求这个被抽掉的单词或者实体词是在文章中出现过的。典型的数据集有:CNN&Dailymail、HLF-RC等。图2展示了完形填空式阅读理解任务的示例。图中表明了文章内容、问题及其对应的答案。这个例子是将真实的新闻数据中的实体词比如人名、地名等隐去,用实体标记符号替换掉实体词具体名称,问题中一般包含个占位符placeholder,这个占位符代表文章中的某个实体标记,机器阅读理解就是在文章中找出能够回答问题的某个真实答案的实体标记。

图片描述

图2 完形填空式阅读理解

选择题,就是机器阅读完一篇文章后,对给出问题,从给定几个候选答案选项中选择出正确答案,比如托福的听力测试,图3展示了托福听力测试题示例。如果形式化地对阅读理解任务和数据集进行描述的话,可以将该任务看作是四元组<D, Q, A, a>,其中,D代表一篇文章,Q代表针对文章内容提出的一个问题,A是问题的正确答案候选集合,而a代表正确答案。对于选择题类型来说,就是明确提供的答案候选集合而是其中的正确选项。

图片描述

图3 托福听力测试题示例

问答题,和语文考试中的阅读题类似,在读完一篇文章后,提出几个问题并回答。问答题类型的数据集一般要求较强的推理能力,典型的数据集有:SQuAD、DuReader等。图4展示了DuReader问答题示例。

图片描述

图4 DuReader问答题示例

2 深度学习技术在机器阅读理解应用的研究进展

2.1 文档和问题的表示方法

让机器学会阅读理解,首先要将文档(document)和问题(question)的文本表示转化为机器能够”读懂“的表示方法。我们可以从现有机器阅读理解相关文献中归纳总结出常用的表示方法,其中常见的文档神经网络表示方法有两种,问题的神经网络表示方法有三种

图片描述

图5 文档表示方法一

图5展示了文档表示方法一,其将一篇文档看成有序的单词流序列,图中每个圆即代表文档中某个单词的神经网络语义表达,BiRNN代表双向RNN模型,在这个有序序列上使用RNN来对文档进行建模表达,每个单词对应RNN序列中的一个时间步t的输入,RNN的隐层状态代表融合了本身词义以及其上下文语义的语言编码。这种表示方法并不对文章整体语义进行编码,而是对每个单词及其上下文语义进行编码,在实际使用的时候是使用每个单词的RNN隐层状态来进行计算。至于具体的RNN模型,常见的有标准RNN、LSTM、GRU及其对应的双向版本等

对于机器阅读理解来说双向RNN是最常用的表示方法,一般每个单词的语义表示由正向RNN隐层状态和反向RNN隐层状态拼接来表示

图片描述

图6 文档表示方法二

方法二的含义是:首先类似于方法一,用双向RNN来对文档中的每个单词及其上下文进行语义表征,形成隐层状态表示,然后对于向量的每一维数值,乘以某个系数,这个系数代表了单词对于整个文档最终语义表达的重要程度,将每个单词的系数调整后的隐层状态累加即可得到文档的Word Embedding语义表达。而每个单词的权重系数通常用Attention计算机制来计算获得,也有不使用权重系数直接累加的方式,这等价于每个单词的权重系数都是1的情形,所以可以看作加权平均方法的特殊版本。文档语义表达公式如下:

图片描述

以上文档的两种表示方法均可用于问题的表示,表示方法如图7和图8所示。我们来介绍问题的第三种表示。

图片描述

图7 问题表示方法一

图片描述

图8 问题表示方法二

图片描述

图 9 问题表示方法三

方法三也是在方法一的基础之上的改进方法,也是NLP任务中表达句子语义的最常见的表达方式。首先类似于方法一,使用双向RNN来表征每个单词及其上下文的语义信息。对于正向RNN来说,其尾部单词(句尾词)RNN隐层节点代表了融合了整个句子语义的信息;而反向RNN的尾部单词(句首词)则逆向融合了整个句子的语义信息,将这两个时刻RNN节点的隐层状态拼接起来则可以表征问题的整体语义。

理论上问题表示方法三也可以用来表征文档的语义信息,但是一般不会这么用,主要原因是文档往往都比较长,RNN对于太长的内容表征能力不足,所以问题表示方法三会造成大量的信息丢失,而“问题”一般来说都是比较短的一句话,所以用方法三表征是比较合适的。

2.2 机器阅读理解的深度学习模型

目前机器阅读理解研究领域出现了非常多的具体模型,如果对这些模型进行技术思路梳理的话,会发现本质上大多数模型都是论文“Teaching Machines to Read and Comprehend”提出的两个基础模型” Attentive Reader”和“Impatient Reader”的变体,这篇论文我们在《CNN&Dailymail:Teaching Machines to Read and Comprehend》博文中有所介绍。在此之后的模型在结构上看上去有了很大的变化,但是如果仔细推敲的话会发现根源和基础思路并未发生颠覆性的改变。

对主流模型技术思路进行归纳梳理以及某些技术点进行剥离组合,可以将其归类为“一维匹配模型”、“二维匹配模型”、“推理模型”等三类模型,其中“一维匹配模型”和“二维匹配模型”是基础模型,“推理模型”则是在基础模型上重点研究如何对文本内容进行推理的机制。

2.2.1 一维匹配模型

目前机器阅读理解任务的解决方案中,有相当多的模型可以被归类到“一维匹配模型”这种技术范型中,这类模型本质上是“Attentive Reader”的变体。我们首先介绍这种技术思路的总体流程结构,然后说明下主流方法在这个框架下的一些区别。图10展示了“一维匹配模型”的技术流程示意图。

图片描述

图10 “一维匹配模型”的技术流程示意图

由图10可知:

首先,对文档内容使用“文档表示方法一”的方式对文档语义内容进行编码,对于问题来说,则一般会使用“问题表示方法三”的方式对问题进行语义编码,即使用双向RNN的头尾部节点RNN隐层状态拼接作为问题的语义表示

然后,通过某种匹配函数来计算文档中每个单词Di(编码中包括单词语义及其上下文单词的语义)语义和问题Q整体语义的匹配程度,从含义上可以理解为F是计算某个单词Di是问题Q的答案的可能性映射函数

接下来,对每个单词的匹配函数值通过SoftMax函数进行归一化,整个过程可以理解为Attention操作,意在凸显出哪些单词是问题答案的可能性

最后,因为一篇文档中,某个单词可能在多处出现,而在不同位置出现的同一个单词都会有相应的Attention计算结果,这代表了单词在其具体上下文中是问题答案的概率,将相同单词的Attention计算出的概率值进行累加,即可作为该单词是问题Q答案的可能性,选择可能性最大的那个单词作为问题的答案输出。在最后相同单词概率值累加这一步,一般容易质疑其方式:如果这样,那么意味着这个方法隐含一个假设,即出现次数越多的单词越可能成为问题的答案,这样是否合理呢?实验数据表明,这个假设基本是成立的,所以这种累加的方式目前是非常主流的技术方案,AS Reader和GA Reader采取了这种累加模式,而Stanford AR和Attentive Reader则采取非累加的模式。之所以将这个结构称为“一维匹配模型”,主要是其在计算问题和文章中单词序列的匹配过程形成了一维线性结构。

上述内容是“一维匹配模型”的基本思路,很多主流的模型基本都符合上述架构,模型之间的最大区别主要是匹配函数的定义不同。

AS Reader(文献2)可以看作是一维匹配结构的典型示例,其匹配函数定义为D_iQ向量的点积:F(D_i, Q) = D_i Q

Attentive Reader(文献1)是最早提出的模型之一,所以在整体结构上和一维匹配结构有些差异,模型性能相对差些,不过这些结构上的差异点并非性能差异的关键,而匹配函数能够解释其和效果好的模型性能差异的主要原因,其采用了前向神经网络的形式:F(D_i, Q) = tanh(W_D * D_i, W_Q * Q);

Stanford AR(文献3)的匹配函数则采用了双线性(Bilinear)函数:F(D_i, Q) = D_i * W * Q实验结果表明,双线性(Bilinear)函数效果明显优于很多其它匹配函数

AMRNN(文献5)是用来让机器做TOFEL听力题的阅读理解系统采用的技术方案,类似于GA Reader(文献4)的整体结构,其是由一维匹配模型加深层网络组合而成的方案,同样的,深层网络是为了进行推理,如果摘除深层网络结构,其结构与AS Reader也是基本同构的。其采用的匹配函数则使用DiQCosine相似性,类似于AS Reader向量点积的思路。AMRNN解决的是选择题而非完形填空任务,所以在输出阶段不是预测文中哪个单词或实体是问题的答案,而是对几个候选答案选项进行评估,从中选择正确答案

由上述模型对比可以看出,一维匹配模型是个结构简洁效果整体而言也不错的模型范式,目前相当多的具体模型可以映射到这个范式中,而其中的关键点在于匹配函数如何设计,这一点是导致具体模型性能差异的相当重要的影响因素。

2.2.2 二维匹配模型

“二维匹配模型”是相对“一维匹配模型”而言的,其最初的思想其实体现在”Impatient Reader”的思路中。图11是机器阅读理解中二维匹配模型的整体流程示意图。

图片描述

图11 机器阅读理解中二维匹配模型的整体流程示意图

从中可以看出,其整体结构与一维匹配模型是类似的,最主要的区别体现在如何计算文档和问题的匹配这个层面上。与一维匹配模型不同的是:二维匹配模型的问题表征方式采用“问题表示方法一”,就是说不是将问题的语义表达为一个整体,而是问题中的每个单词都单独用Word Embedding向量来表示。*这样,假设文档长度为||D||,问题长度为||Q||,那么在计算问题和文档匹配的步骤中,就形成了`||D||||Q||的二维矩阵,就是说文档中任意单词Di和问题中的任意单词Qj`都应用匹配函数来计算矩阵相应位置的值。**

当二维矩阵的值根据匹配函数填充完毕后,就可以考虑进行Attention计算。因为是二维矩阵,所以可以有多种不同的Attention计算机制。比如可以按照二维矩阵的行来进行Attention计算,因为矩阵的一行代表文档中某个单词Di相对问题中每个单词Qj(1<j<||Q||)的匹配程度向量,按行计算Attention表达的是文档单词Di和问题中各个单词的语义相似程度。同样的,可以按照二维矩阵的列来进行Attention计算,因为矩阵的一列代表问题中某个单词Qi相对文档序列中每个单词Dj(1<j<||D||)的匹配程度向量,按列计算Attention表达的是问题单词Qi和文档序列中各个单词的语义相似程度

Consensus Attention 模型(简称CA Reader,参考文献6)、Attention-over-Attention模型(简称AOA Reader,参考文献7)和Match-LSTM模型(参考文献8)基本都符合二维匹配结构的范式,其主要区别在于Attention计算机制的差异上。

CA Reader按照列的方式进行Attention计算,然后对每一行文档单词对应的针对问题中每个单词的Attention向量,采取一些启发规则的方式比如取行向量中最大值或者平均值等方式获得文档每个单词对应的概率值。

AOA Reader(可参见《机器阅读理解Attention-over-Attention模型》)则对CA Reader进行了改进,同时结合了按照列和按照行的方式进行Attention计算,核心思想是把启发规则改为由按行计算的Attention值转换成的系数,然后用对按列计算出的Attention加权平均的计算方式获得文档每个单词对应的概率值。

Match-LSTM模型(可参见《机器阅读理解Match-LSTM模型》)则是按行进行Attention计算,同样地把这些Attention值转换成列的系数,不过与AOA不同的是,这些系数用来和问题中每个单词的Word Embedding相乘并对Word Embedding向量加权求和,拟合出整个问题的综合语义Word Embedding(类似于“问题表示方法二”思路),并和文章中每个单词的Word Embedding进行合并,构造出另外一个LSTM结构,在这个LSTM结构基础上去预测哪个或者那些单词应该是正确答案。

从上面的具体模型介绍可以看出,目前二维匹配模型相关工作还不多,而且都集中在二维结构的Attention计算机制上,由于模型的复杂性比较高,还有很多很明显的值得改进的思路可以引入。最直观的改进就是探索新的匹配函数,比如可以摸索双线性函数在二维结构下的效果等;再比如可以引入多层网络结构,这样将推理模型加入到阅读理解解决方案中等。可以预见,类似的思路很快会被探索。

2.2.3 机器阅读理解中的推理过程

人在理解阅读文章内容的时候,推理过程几乎是无处不在的,没有推理几乎可以断定人是无法完全理解内容的,对于机器也是如此。比如对于图1中所展示的人工合成任务的例子,所提的问题是问苹果在什么地方,而文章表达内容中,刚开始苹果在厨房,Sam将其拿到了卧室,所以不做推理的话,很可能会得出“苹果在厨房”的错误结论。

乍一看“推理过程”是个很玄妙而且说不太清楚的过程,因为自然语言文本不像一阶逻辑那样,已经明确地定义出符号以及表达出符号之间的逻辑关系,可以在明确的符号及其关系上进行推理,自然语言表达有相当大的模糊性,所以其推理过程一直是很难处理好的问题。

现有的工作中,记忆网络(Memory Networks,参考文献9)、GA Reader、Iterative Alternating神经网络(后文简称IA Reader,参考文献10)以及AMRNN都直接在网络结构中体现了这种推理策略。一般而言,机器阅读理解过程网络结构中的深层网络都是为了进行文本推理而设计的,就是说,通过加深网络层数来模拟不断增加的推理步骤

3 参考文献
  1. Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman,and Phil Blunsom. 2015. Teaching machines to read and comprehend. In Proc. of NIPS, pages 1684–1692.
  2. Rudolf Kadlec, Martin Schmid, Ondrej Bajgar, andJan Kleindienst.2016. Text understanding with the attention sum reader network. tarXiv:1603.01547.
  3. Danqi Chen, Jason Bolton, and Christopher D. Manning.2016. A
    thorough examination of the cnn / daily mail reading comprehension
    task. In Proc. of ACL.
  4. Bhuwan Dhingra, Hanxiao Liu, William W Cohen, and Ruslan
    Salakhutdinov. 2016. Gated-attention readers for text comprehension.arXiv preprint arXiv:1606.01549
  5. Bo-Hsiang Tseng, Sheng-Syun Shen, Hung-Yi Lee and Lin-Shan Lee,2016.Towards Machine Comprehension of Spoken Content:Initial TOEFL Listening Comprehension Test by Machine. arXiv preprint arXiv:1608.06378
  6. Yiming Cui, Ting Liu, Zhipeng Chen, Shijin Wang, and Guoping Hu.2016. Consensus attention-based neural networks for chinese reading comprehension. arXiv preprint arXiv:1607.02250.
  7. Yiming Cui, Zhipeng Chen, Si Wei, Shijin Wang, Ting Liu and Guoping Hu.2016. Attention-over-Attention Neural Networks for Reading Comprehension. arXiv preprint arXiv: 1607.04423v3.
  8. Shuohang Wang and Jing Jiang.2016. Machine Comprehension Using Match-LSTM and Answer Pointer. arXiv preprint arXiv: 1608.07905
  9. Sainbayar Sukhbaatar, Jason Weston, Rob Fergus, et al.2015.
    End-to-end memory networks. In Proc. of NIPS,pages 2431–2439.
  10. Alessandro Sordoni, Phillip Bachman, and Yoshua Bengio. 2016. Iterative alternating neural attention for machine reading. arXiv
    preprint arXiv:1606.02245.
  11. Adam Trischler, Zheng Ye, Xingdi Yuan, and Kaheer Suleman. 2016. Natural language comprehension with theepireader. arXiv preprint arXiv:1606.02270
  12. Sosuke Kobayashi, Ran Tian,Naoaki Okazaki, and Kentaro Inui. 2016. Dynamic entity representations with max-pooling improves machine reading. In NAACL-HLT.
  13. Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questionsfor machine comprehension of text. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, 2016
点击查看更多内容
3人点赞

若觉得本文不错,就分享一下吧!

评论

相关文章推荐

正在加载中
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消