深度学习实体关系抽取研究综述

您所在的位置:网站首页 词向量模型和RNN的关系 深度学习实体关系抽取研究综述

深度学习实体关系抽取研究综述

#深度学习实体关系抽取研究综述| 来源: 网络整理| 查看: 265

随着互联网技术的发展, 人们需要处理的数据量激增, 领域交叉现象突出.如何快速高效地从开放领域的文本中抽取出有效信息, 成为摆在人们面前的重要问题.实体关系抽取作为文本挖掘和信息抽取[1]的核心任务, 其主要通过对文本信息建模, 自动抽取出实体对之间的语义关系, 提取出有效的语义知识.其研究成果主要应用在文本摘要、自动问答[2]、机器翻译[3]、语义网标注、知识图谱[4]等.随着近年来对信息抽取的兴起, 实体关系抽取问题进一步得到广泛关注和深入研究, 一些研究成果及时出现在近几年人工智能、自然语言处理等相关领域的国际会议上, 如ACL[5-13]、EMNLP[14-22]、ICLR[23, 24]、AAAI[25]、KDD[26]、NAACL[27]、ECML-PKDD[28]等.

经典的实体关系抽取方法主要分为有监督、半监督、弱监督和无监督这4类.有监督的实体关系抽取主要分为基于特征和基于核函数的方法.Zhou[29]和郭喜跃[6]等人利用SVM作为分类器, 分别研究词汇、句法和语义特征对实体语义关系抽取的影响.有监督方法需要手工标注大量的训练数据, 浪费时间精力, 因此, 人们[30]继而提出了基于半监督[31]、弱监督和无监督的关系抽取方法来解决人工标注语料问题, 其中:Brin[32]利用Bootstrapping方法对命名实体之间的关系进行抽取; Craven等人[33]在研究从文本中抽取结构化数据、建立生物学知识库的过程中, 首次提出了弱监督机器学习思想; Hasegawa等人[34]在ACL会议上首次提出了一种无监督的命名实体之间关系抽取方法.

经典方法存在特征提取误差传播问题, 极大影响实体关系抽取效果.随着近些年深度学习的崛起, 学者们逐渐将深度学习应用到实体关系抽取任务中[7].基于数据集标注量级的差异, 深度学习的实体关系抽取任务分为有监督和远程监督两类.基于深度学习的有监督实体关系抽取方法是近年来关系抽取的研究热点, 该方法能避免经典方法中人工特征选择等步骤, 减少并改善特征抽取过程中的误差积累问题.根据实体识别及关系分类两个子任务完成的先后顺序不同, 基于深度学习的有监督实体关系抽取方法可以分为流水线(pipeline)方法和联合学习(joint learning)方法.Zeng等人[20]在2014年首次提出使用CNN进行关系分类, Katiyar等人[13]在2017年首次将注意力机制Attention与递归神经网络Bi-LSTM一起用于联合提取实体和分类关系, 神经网络模型在有监督领域的拓展皆取得不错效果.同时, 基于深度学习的远程监督实体关系抽取方法因具有缓解经典方法中错误标签和特征抽取误差传播问题的能力而成为研究热点, 主要基础方法包括CNN, RNN, LSTM等网络结构[35, 36].近年来, 学者们在基础方法之上提出了多种改进, 如PCNN与多示例学习的融合方法[37]、PCNN与注意力机制的融合方法[10]等.Ji等人[38]提出在PCNN和Attention的基础上添加实体的描述信息来辅助学习实体的表示, Ren等人[39]提出的COTYPE模型、Huang[40]提出的残差网络皆增强了关系提取效果.

为了能够系统综述相关研究成果, 我们查阅了近年来的综述论文[30, 35, 41-43], 从中可看出, 基于深度学习的实体关系抽取方法与经典抽取方法相比, 其主要优势在于深度学习的神经网络模型可以自动学习句子特征, 无需复杂的特征工程.所以, 本文重点围绕深度学习来深入探讨实体关系抽取方法.

本文首先在第1节给出实体关系抽取的问题定义和解决框架.着重在第2节、第3节介绍基于深度学习的有监督和远程监督领域的实体关系抽取研究进展.之后, 在第4节介绍基于深度学习的实体关系抽取新模型与新思路.并在第5节介绍基于深度学习的实体关系抽取在领域知识图谱构建中的研究进展.最后, 在第6节、第7节给出数据集、评测效果以及对未来研究方向的展望.

1 深度学习实体关系抽取的问题定义和解决框架 1.1 问题定义

实体关系抽取作为信息抽取的重要任务, 是指在实体识别的基础上, 从非结构化文本中抽取出预先定义的实体关系.实体对的关系可被形式化描述为关系三元组〈e1, r, e2〉, 其中, e1和e2是实体, r属于目标关系集R{r1, r2, r3, ..., ri}.关系抽取的任务是从自然语言文本中抽取出关系三元组〈e1, r, e2〉, 从而提取文本信息.

基于深度学习实体关系抽取主要分为有监督和远程监督两类.在有监督中, 解决实体关系抽取的方法可以分为流水线学习和联合学习两种:流水线学习方法是指在实体识别已经完成的基础上直接进行实体之间关系的抽取; 联合学习方法主要是基于神经网络的端到端模型, 同时完成实体的识别和实体间关系的抽取.与有监督实体关系抽取相比, 远程监督方法缺少人工标注数据集, 因此, 远程监督方法比有监督多一步远程对齐知识库给无标签数据打标的过程.而构建关系抽取模型的部分, 与有监督领域的流水线方法差别不大.

基于深度学习的实体关系抽取、实体关系识别、实体关系分类是3个任务相近、彼此有关联的概念.具体而言, 关系抽取[7]在其流水线处理场景中与关系分类处理着相同的任务, 此时, 关系抽取具体是指在句子中的命名实体对已经被识别的情况下, 直接进行实体对的关系分类; 而关系抽取在联合学习场景中是将关系分类作为自己的一个子任务, 此时, 关系抽取具体是指:将实体关系抽取任务分为命名实体识别和关系分类两个子任务, 用联合学习模型同时解决这两个子任务.而实体关系识别任务与关系抽取任务相同, 在实际处理时也是发现和识别实体间的语义关系[44, 45], 因此在部分中外综述文献里, 实体关系抽取有时也被称为实体关系识别.

1.2 解决问题框架

针对实体关系抽取任务, 基于深度学习的抽取框架如图 1所示.

图 1 Fig. 1 Fig. 1 Entity relationship extraction framework based on deep learning 图 1 基于深度学习的实体关系抽取框架

(1) 获取有标签数据:有监督方法通过人工标记获取有标签数据集, 远程监督方法通过自动对齐远程知识库获取有标签数据集;

(2) 构建词语向量表示:将有标签句子分词, 将每个词语编码成计算机可以接受的词向量, 并求出每个词语与句子中实体对的相对位置, 作为这个词语的位置向量, 将词向量与位置向量组合作为这个词语的最终向量表示;

(3) 进行特征提取:将句子中每一个词语的向量表示输入神经网络中, 利用神经网络模型提取句子特征, 进而训练一个特征提取器;

(4) 关系分类:测试时根据预先定义好的关系种类, 将特征提取出的向量放入非线性层进行分类, 提取最终的实体对关系;

(5) 评估分类性能:最后, 对关系分类结果进行评估, 评测指标和相关数据集详见第6节.

2 基于深度学习的有监督实体关系抽取方法 2.1 有监督实体关系抽取框架演化流程

基于深度学习方法中的有监督方法进行关系抽取, 是近年来关系抽取的研究热点, 其能解决经典方法中存在的人工特征选择、特征提取误差传播两大主要问题, 将低层特征进行组合, 形成更加抽象的高层特征, 用来寻找数据的分布式特征表示.从基于监督学习的神经网络模型来看, 研究主要集中在融合多种自然语言特征来提高识别精确度.有监督的实体关系抽取框架的演化流程如图 2所示.

图 2 Fig. 2 Fig. 2 Solution framework based on supervised entity relationship extraction 图 2 基于有监督的实体关系抽取的解决框架

基于深度学习的有监督实体关系抽取可以分为:1)流水线方法; 2)联合学习方法.这两种方法都基于CNN, RNN, LSTM这3种框架进行扩展优化.

● 流水线方法中, 基于RNN模型的扩展包括在RNN基础之上增加依存分析树信息、词依存矩阵信息; 基于CNN模型的扩展包括在CNN基础之上增加类别排名信息、依存分析树、注意力机制; 基于LSTM模型的扩展包括在LSTM基础之上增加最短依存路径(SDP)或将LSTM与CNN结合.流水线方法存在错误累积传播、忽视子任务间关系依赖、产生冗余实体等问题, 因此, 联合模型逐渐开始受到重视;

● 联合学习方法根据其建模对象不同, 可分为参数共享和序列标注两类子方法:参数共享方法的编码层均使用Bi-LSTM, 解码层则基于Bi-LSTM、依赖树和注意力机制等方法纷纷进行优化扩展; 序列标注方法则用一种新标注策略的端到端模型解决流水线模型中冗余实体的问题.

下面依照流水线方法(基于RNN模型的实体关系抽取方法、基于CNN模型的实体关系抽取方法、基于LSTM模型的实体关系抽取方法)、联合学习方法(基于参数共享的实体关系抽取方法、基于序列标注的实体关系抽取方法)的顺序来介绍有监督领域实体关系抽取方法.

2.2 流水线方法 2.2.1 主要流程

基于流水线的方法进行关系抽取的主要流程可以描述为:针对已经标注好目标实体对的句子进行关系抽取, 最后把存在实体关系的三元组作为预测结果输出.一些基于流水线方法的关系抽取模型被陆续提出, 其中, 采用基于RNN, CNN, LSTM及其改进模型的网络结构, 因其高精度获得了学术界的大量关注.

2.2.2 主流方法介绍

(1) 基于RNN模型的实体关系抽取方法

RNN在处理单元之间既有内部的反馈连接又有前馈连接, 可以利用其内部的记忆来处理任意时序的序列信息, 具有学习任意长度的各种短语和句子的组合向量表示的能力, 已成功应用在多种NLP任务中.

基于RNN模型进行关系抽取的方法由Socher等人[46]于2012年首次提出, 此方法为分析树中的每个节点分配一个向量和一个矩阵, 其中, 向量捕获组成部分的固有含义, 而矩阵捕捉它如何改变相邻单词或短语的含义.这种矩阵向量RNN可以在命题逻辑和自然语言中学习操作符的含义, 解决了单词向量空间模型(single- word vector space models)无法捕捉到长短语的构成意义, 阻碍了它们更深入地理解语言的问题.

Hashimoto等人[19]在2013年提出了基于句法树的递归神经网络(RNN)模型, 与Socher等人提出的模型不同的是, Hashimoto没有使用需要昂贵计算成本的词依存矩阵, 而是使用了词性(POS)标签、短语类别和句法头等附加特征, 并向RNN模型中引入平均参数, 为目标任务的重要短语增加权重, Hashimoto的模型证明了增加特征及引入平均参数的有效性.

RNN相比于前馈网络更适合处理序列化输入, 但RNN也存在着以下两个缺点:(1)在网络训练时, RNN容易出现梯度消失、梯度爆炸的问题, 因此, 传统RNN在实际中很难处理长期依赖, 这一点在LSTM网络中有所改进; (2)由于RNN的内部结构复杂, 网络训练周期较长, 而CNN结构相对简单, 主要包括前置的卷积层和后置的全连接层, 训练更快速.

(2) 基于CNN模型的实体关系抽取方法

CNN的基本结构包括两层:其一为特征提取层, 每个神经元的输入与前一层的局部接受域相连, 并提取该局部的特征; 其二是特征映射层, 网络的每个计算层由多个特征映射组成, 每个特征映射是一个平面, 平面上所有神经元的权值相等, 减少了网络中自由参数的个数.由于同一特征映射面上的神经元权值相同, 所以CNN网络可以并行学习.

Zeng等人[20]在2014年首次提出了使用CNN进行关系抽取, 利用卷积深度神经网络(CDNN)来提取词汇和句子层次的特征, 将所有的单词标记作为输入, 而无需复杂的预处理, 解决了从预处理系统中提取的特征可能会导致错误传播并阻碍系统性能的问题.图 3描述了该论文用于关系分类的神经网络的体系结构.网络对输入句子提取多个级别的特征向量, 它主要包括以下3个组件:词向量表示、特征提取和输出.图 3右部分显示了句子级特征向量构建过程:每个词语向量由词特征(WF)和位置特征(PF)共同组成, 将词语向量放入卷积层提取句子级特征.图 3左上部分为提取词汇级和句子级特征的过程, 然后直接连接以形成最终的句子特征向量.最后如图 3左下部分, 通过隐藏层和Softmax层得到最终的分类结果.

图 3 Fig. 3 Fig. 3 Relationship extraction frameworkbased on convolutional deep neural network 图 3 基于DNN的关系抽取框架

Xu等人[47]于2015年在Zeng等人工作的基础上提出了基于依存分析树的卷积神经网络的实体关系抽取模型, 该模型与Zeng等人的CNN模型不同的是将输入文本经过了依存分析树, 同时提出了一种负采样策略:首先, 利用依存路径来学习关系的方向性; 然后, 使用负采样方法来学习主体和对象的位置分配, 采用从对象到主体的最短依存路径作为负样本, 并将负样本送到模型中学习, 以解决实体对距离较远时, 依存分析树引入的无关信息问题.同时, 显著提高了关系抽取的性能.

Santos等人[21]在2015年提出了CR-CNN模型, 与Zeng等人的模型相比, CR-CNN将最后的Softmax输出层替换为利用排名进行分类输出:对于给定的输入文本段, 网络使用卷积层产生文本的分布向量表示, 并将其与文本表示进行比较, 以便为每个类生成分数; 同时提出了一种新的排名损失函数, 能够给予正确的预测类更高的评分、错误的预测类更低的评分.与Xu等人的模型相比, 本文仅将词向量作为输入特征, 而不需要依存分析树等附加特征, 因此可以降低NLP工具中提取到错误特征的影响, 并提升模型的效果.

Vu等人[48]在2016年提出了一种新的基于CNN网络的上下文表示(扩展的中间上下文), 与作为Baseline的Zeng等人的标准CNN网络不同的是, Vu提出的CNN模型没有额外的全连接隐藏层; 其次, Vu也尝试使用双向RNN进行关系抽取, 并为其优化引入Santos[21]提出的排名损失, 改善关系抽取结果.基于两个实体位置可以将上下文分成3个不相交的区域:左上下文、中间上下文和右上下文.由于在大多数情况下中间上下文包含关系的最相关信息, 因此该文提出了使用两个上下文:(1)左上下文、左实体和中间上下文的组合; (2)中间上下文、右实体和右上下文的组合.通过重复中间上下文, 迫使网络特别关注它.最后, 使用简单的投票机制结合CNN和RNN网络, 并达到了当时的最新技术.

Zeng等人虽然使用了位置向量来表示指定词与目标实体间的相对距离, 但是位置编码不足以完全捕获指定词与目标实体的关系以及它们可能对目标关系的影响.由此, Wang等人[49]于2016年提出的CNN架构依赖于一种新颖的多层次注意力机制来捕获对指定实体的注意力(首先是输入层级对于目标实体的注意力)和指定关系的池化注意力(其次是针对目标关系的注意力).这使得模型能够检测更细微的线索, 尽管输入的句子异构, 但是模型还是能够自动了解句子中的哪些部分与给定的关系类别相关.其次, 模型在利用注意力机制来自动识别与关系分类相关的输入句子的部分之后, 提出了一种Attention-based Pooling的混合方法, 认为利用这样的方法会抽取出部分有意义的N-gram短语, 实验证明了在混合层上, 能够抽出对关系分类最为显著的Trigram字段.最后, 论文还引入了一种新的成对的基于边缘的目标函数, 并证明其优于标准损失函数.

(3) 基于LSTM模型的实体关系抽取方法

由于梯度消失、梯度爆炸的问题, 传统的RNN在实际中很难处理长期依赖, 后面时间的节点对于前面时间的节点感知力下降.而LSTM网络通过3个门控操作及细胞状态解决了这些问题, 能够从语料中学习到长期依赖关系.

Yan等人[11]在2015年提出了基于LSTM的融合句法依存分析树的最短路径以及词向量特征、词性特征、WordNet特征、句法类型特征来进行关系抽取, 该论文的模型图如图 4所示.首先, 如图 4左下部分, 利用斯坦福解析器将句子解析为依赖树, 并提取最短依赖路径(SDP)作为网络的输入, 沿着SDP, 使用4种不同类型的信息(称为通道), 包括单词、词性标签、语法关系和WordNet上位词; 在每个通道中(图 4右部分是每个通道的细节图), 词语被映射成向量, 捕获输入的基本含义, 两个递归神经网络分别沿着SDP的左右子路径获取信息, 网络中的LSTM单元用于有效信息的传播; 之后, 如图 4左上部分, 最大池化层从每个路径中的LSTM节点收集信息, 来自不同通道的池化层连接在一起, 然后输入到隐藏层; 最后, 使用Softmax输出层用于关系分类.

图 4 Fig. 4 Fig. 4 Relationship extraction method based on LSTM and shortest dependency path 图 4 基于LSTM及最短依存路径的关系抽取方法

Thien等人[22]基于已有工作经验, 利用传统特征工程并结合CNN, RNN网络的优势, 在2015年提出一种融合传统特征工程和神经网络的方法, 首次系统地检测了RNN架构以及RNN与CNN和传统的基于特征的关系抽取方法相结合的工作.本文采用LSTM网络的一种变体GRU(gated recurrent unit)展开实验, 同时, 首次提出了融合CNN和RNN网络的3种不同的方式:Ensembling(集成)、Stacking(堆叠)、Voting(投票), 提高了关系抽取的精确度.

为避免Yan等人提出的模型需要从NLP预处理工具中提取附加特征带来的错误传播问题, Li等人[50]于2016年提出一种基于低成本序列特征的Bi-LSTM-RNN模型, 利用实体对并将它们周围的上下文分段表示来获取更丰富的语义信息, 无需词性标注、依存句法树等额外特征.将文本经过LSTM网络获得隐藏向量表示后依照两个实体分成五段式的方式输入池化层获得向量表示, 再输入分类器进行关系分类, 解决了基于句法或依赖性特征等高成本结构特征问题, 并证明当不使用依赖解析时, 两个目标实体之间的上下文可以用作最短依赖路径的近似替换.

基于Yan等人的工作, Cai等人[51]于2016年提出了一种基于最短依赖路径(SDP)的深度学习关系抽取模型:双向递归卷积神经网络模型(BRCNN), 通过将卷积神经网络和基于LSTM单元的双通道递归神经网络相结合, 进一步探索如何充分利用SDP中的依赖关系信息.BRCNN模型结合了Yan等人的多通道LSTM以及Zeng等人的卷积关系抽取的特点, 利用基于双向LSTM的递归神经网络对最短依存路径中的全局模式进行编码, 并利用卷积层捕获依存关系链接的两个相邻词的局部特征, 增强了实体对之间关系方向分类的能力.

2.2.3 流水线方法中存在的共性问题

然而, 流水线方法存在着以下几个缺点.

1) 错误传播:实体识别模块的错误会影响到接下来的关系分类性能;

2) 忽视了两个子任务之间存在的关系:丢失信息, 影响抽取效果;

3) 产生冗余信息:由于对识别出来的实体进行两两配对, 然后再进行关系分类, 那些没有关系的实体对就会带来多余信息, 提升错误率.

2.3 联合学习方法

相比于流水线方法, 联合学习[52]方法能够利用实体和关系间紧密的交互信息, 同时抽取实体并分类实体对的关系, 很好地解决了流水线方法所存在的问题.

2.3.1 主要流程

联合学习方法通过实体识别和关系分类联合模型, 直接得到存在关系的实体三元组.因在联合学习方法中建模的对象不同, 联合学习方法又可以分为参数共享方法和序列标注方法:参数共享方法分别对实体和关系进行建模, 而序列标注方法则是直接对实体-关系三元组进行建模.下面分别对这两种方法进行说明.

2.3.2 主流方法介绍

(1) 基于参数共享的实体关系抽取方法

针对流水线方法中存在的错误累积传播问题和忽视两个子任务间关系依赖的问题, 基于参数共享的实体关系抽取方法被提出.在此方法中, 实体识别子任务和关系抽取子任务通过共享联合模型的编码层来进行联合学习, 通过共享编码层, 在训练时, 两个子任务都会通过后向传播算法更新编码层的共享参数, 以此来实现两个子任务之间的相互依赖, 最终找到全局任务的最佳参数, 实现性能更佳的实体关系抽取系统.在联合学习模型中, 输入的句子在通过共享的编码层后, 在解码层会首先进行实体识别子任务, 再利用实体识别的结果, 并对存在关系的实体对进行关系分类, 最终输出实体-关系三元组.

Miwa等人[12]在2016年首次将神经网络的方法用于联合表示实体和关系, 其模型图如图 5所示.在该模型中, 实体识别子任务和关系分类子任务共享编码层的LSTM单元序列表示(编码层包括LSTM单元和隐藏层).该方法将实体识别任务当作序列标注任务, 使用双向序列LSTM输出具有依赖关系的实体标签; 之后, 通过在双向序列LSTM单元上堆叠双向树结构LSTM的方法, 使关系分类子任务和实体识别子任务共享编码层的LSTM单元序列表示, 同时, 在关系分类子任务中捕获词性标签等依赖特征和实体识别子任务中输出的实体序列, 形成依存树, 最终根据依存树中目标实体间的最短路径对文本进行关系抽取.但该模型中的关系分类子任务和实体识别子任务仅共享了编码层的双向序列LSTM表示, 从严格意义上来说不是真正的联合模型.但是该模型的提出, 为之后真正意义上联合学习模型的提出奠定了基础, 是基于深度学习方法做联合学习模型的启发者.

图 5 Fig. 5 Fig. 5 Relational extraction model diagram based on parameter sharing method 图 5 基于参数共享方法的关系抽取模型图

Li等人[53]在2017年将该模型用于提取细菌和细菌位置之间存在的“Live-In”关系, 并基于实际应用对Miwa模型做出了两点改进:1)为改善从实体识别子任务到关系分类子任务可能会产生的错误累积传播问题, 在关系分类子任务中引入一种新的关系“Invalid_Entity”, 对实体识别子任务中产生的实体进行验证, 以区分有效实体和无效实体, 之后对有效实体再进行“Lives_In”和“not Lives_In”关系的分类; 2)在实体识别子任务中, 因贪婪的从左到右逐步预测实体标签的方式可能会在这些标签之间带来错误传播, 即先前预测中的错误可能会在随后的预测中引起新的错误, 故将模型中原来的贪婪搜索解码换为波束搜索, 因波束搜索中的每一步都可以有多个候选预测, 在最佳预测不正确的情况下, 可以根据全局分数排序来选择候选预测, 并在波束搜索中用早期更新技术来训练模型, 以缓解实体标签间的错误传播问题.

Katiyar等人[54]在2016年首次将深度双向LSTM序列标注的方法用于联合提取观点实体和IS-FROM, IS- ABOUT关系, 同时还提出了在输出层上添加句子级别的限制和关系级别的优化来提高模型的精确度.但这种方法只能识别观点实体和IS-FROM, IS-ABOUT关系, 无法提取实体间的关系类型, 模型也不能扩展用于抽取其他关系类型.之后, 为改进模型无法扩展应用的问题, Katiyar等人[13]在自己2016年模型的基础上, 于2017年首次将注意力机制与双向LSTM一起用于联合提取实体和分类关系.该方法的模型图如图 5所示, 实体识别子任务和关系分类子任务共享编码层表示(编码层包括LSTM单元和隐藏层).该模型在实体识别子任务中和Miwa等人[12]的模型一致, 将实体识别子任务当作序列标注任务, 使用多层双向LSTM网络来进行实体检测; 在关系分类子任务上, 该方法改善了Miwa等人[12]依赖于词性标签、依赖树等特征的缺点, 基于实体识别子任务输出的实体序列表示和共享的编码层表示, 使用注意力模型进行关系分类; 同时, 该模型还可以扩展提取各种定义好的关系类型, 是真正意义上的第一个神经网络联合抽取模型.

其中, Miwa等人[12]和Katiyar等人[13]的模型图如图 5所示.二者在实体识别子任务上的模型图基本相同, 如图左下部分所示, 均使用Bi-LSTM来进行实体识别子任务(其中, 红色箭头部分仅为Katiyar等人[13]的模型图所有).图左上部分为Katiyar等人[13]的关系分类子任务示意图, 基于注意力机制来进行关系分类; 图右上部分为Miwa等人[12]的关系分类子任务示意图, 基于Bi-TreeLSTM来进行关系分类.

(2) 基于序列标注的实体关系抽取方法

基于参数共享的实体关系抽取方法, 改善了传统流水线方法中存在的错误累积传播问题和忽视两个子任务间关系依赖的问题.但因其在训练时还是需要先进行命名实体识别子任务, 再根据实体预测信息对实体进行两两匹配, 最后进行关系分类子任务, 因其在模型实现过程中分开完成了命名实体识别和关系分类这两个子任务, 仍然会产生没有关系的实体这种冗余信息.为了解决这个问题, 基于新序列标注方法的实体、关系联合抽取方法被提出.

Zheng等人[55]在2017年提出了基于新的标注策略的实体关系抽取方法, 把原来涉及到命名实体识别和关系分类两个子任务的联合学习模型完全变成了一个序列标注问题.在该方法中, 共包含3种标注信息:(1)实体中词的位置信息{B, I, E, S, O}, 分别表示{实体开始, 实体内部, 实体结束, 单个实体, 无关词}; (2)实体关系类型信息, 需根据实际需要自定义关系类型并编码, 如{CF, CP, …}; (3)实体角色信息{1, 2}, 分别表示{实体1, 实体2}.该方法能使用序列标注的方法同时识别出实体和关系, 避免了复杂的特征工程, 通过一个端到端的神经网络模型直接得到实体-关系三元组, 解决了基于参数共享的实体关系抽取方法可能会带来的实体冗余的问题.新序列标注方法的模型图如图 6所示.在该端到端的神经网络模型中, 对输入的句子, 首先, 编码层使用Bi-LSTM来进行编码; 之后, 解码层再使用LSTM进行解码; 最终, 输出模型标注好的实体-关系三元组.另外, Zheng等人[55]在这篇论文中还对该端到端模型增加了偏置损失函数, 该函数增强了相关实体对之间的联系, 削弱了无效实体标签的影响力, 提高了关系分类的准确率; 并基于这种新的标注方法, 该论文中还学习用不同的端到端模型来解决关系抽取问题.

图 6 Fig. 6 Fig. 6 New sequence annotation method model diagram 图 6 新序列标注方法模型图 2.3.3 联合学习方法中存在的共性问题

联合学习方法包括基于参数共享的实体关系抽取方法和基于新序列标注的实体关系抽取方法:前者很好地改善了流水线方法中存在的错误累积传播问题和忽视两个子任务间关系依赖的问题; 而后者不仅解决了这两个问题, 还解决了流水线方法中存在的冗余实体的问题.但这两种方法对于现今有监督领域存在的重叠实体关系识别问题, 并未能给出相关的解决方案.

2.4 基于深度学习的有监督领域关系抽取方法与经典方法的对比

基于有监督学习的经典方法严重依赖于词性标注、句法解析等自然语言处理标注工具中提供的分类特征, 而自然语言处理标注工具中往往存在大量错误, 这些错误会在关系抽取系统中不断传播放大, 最终影响关系抽取的效果.而基于深度学习的有监督方法可以在神经网络模型中自动学习特征, 将低层特征进行组合, 形成更加抽象的高层特征, 用来寻找数据的分布式特征表示, 能够避免人工特征选择等步骤, 减少并改善特征抽取过程中的误差积累问题.

2.5 有监督领域实体关系抽取核心公式

流水线和联合方法是有监督实体关系抽取领域主流的两个派系, 这两个派系的实体关系抽取现今衍生出多种不同的抽取方法, 其抽取方法的核心公式见表 1.

表 1(Table 1) Table 1 Supervised entity relationship extraction core formula 表 1 有监督实体关系抽取核心公式 类别 序号 方法名称 核心公式 公式类型 Pipeline 1 Hashimoto, 2013[19] $d(x) = soft{\rm{max}}\left( {{W^{label}}x + \sum\limits_i {W_i^{add}{{x'}_i} + {b^{label}}} } \right), \bar \theta = \frac{1}{{T + 1}}\sum\limits_{t = 0}^T {{\theta _t}} $ ${x'_i}$是同一棵句法树中的任何其他节点的特征向量; $\bar \theta $是模型平均参数, θt是t次优化迭代之后的模型参数向量 分类 2 CR-CNN[21] $\begin{array}{l} {S_\theta }{(x)_c} = r_x^T{[{W^c}]_c} \\ L = \log (1 + \exp (\gamma ({m^ + } - {s_\theta }{(x)_{{y^ + }}})) + \log (1 + \exp (\gamma ({m^ + } - {s_\theta }{(x)_{{c^ - }}}))) \\ \end{array} $ Sθ(x)c是类标签c∈C的分数; γ是缩放因子, 对预测误差进行更多惩罚, y+为正确的类标签, 而c-是错误的类标签 目标函数 3 SDP-LSTM[11] $J = - \sum\limits_{i = 1}^{{n_c}} {{t_i}\log {y_i}} + \lambda \left( {\sum\limits_{i = 1}^w {||{W_i}||_F^2} + \sum\limits_{i = 1}^v {||{U_i}||_F^2} } \right)$ t是groundtruth的one-hot编码表示, λ用于指定权重惩罚的大小 目标函数 4 Bi-LSTM-RNN[50] $\begin{gathered} {x_{penul}} = {r_{before}} \oplus {r_{former}} \oplus {r_{middle}} \oplus {r_{latter}} \oplus {r_{after}} \\ p({R_i}) = soft{\rm{max}}({R_i}) = \frac{{{{\rm{e}}^{{w_{2i}} \times {x_{penul}}}}}}{{\sum\limits_{j = 1}^{|R|} {{{\rm{e}}^{{w_{2i}} \times {x_{penul}}}}} }} \\ \end{gathered} $ rbefore, rformer, rmiddle, rlatter, rafter是实体上下文的5个表示, xpenul是实体最终表示, p(Ri)是各关系概率 分类 Joint 1 Bi-LSTM+Bi-TreeLSTM[54] $h_p^{(r)} = \tanh ({W^{({r_h})}}{d_p} + {b^{({r_h})}}), {y_p} = softmax({W^{({r_y})}}h_t^{(r)} + {b^{({r_y})}})$ dp表示关系候选中的词对p之间的路径的依赖层关系 分类 2 Bi-LSTM+Attention[12] $u_{st}^t = {v^T}\tanh ({W_1}[{z_{st}};{b_{st}}] + {W_2}[{z_t};{b_t}]), p_{st}^t = soft{\rm{max}}(u_{st}^t)$ z≤t是前一时间步的顶部隐藏层表示, b≤t表示对应的标签嵌入 分类 3 Bi-LSTM+CNN[13] ${y_r} = {W_R} \cdot ({R_s} \circ r) + {b_R}, p_r^i = \frac{{\exp (y_r^i)}}{{\sum\limits_{j = 1}^{nc} {\exp (y_r^i)} }}$ r是由伯努利的概率p表示的二进制掩码矢量 nc表示关系量的总数量, RS表示关系特征 分类 4 End-to-End+序列标注[56] {B, I, E, O, S}表示单词在实体中的位置, 分别表示 {实体开始, 实体内部, 实体结束, 单个实体, 其他的无关词} {CF, CP, …}表示自定义的关系类型, {1, 2}表示关系中的实体信息角色 序列标注方法 Table 1 Supervised entity relationship extraction core formula 表 1 有监督实体关系抽取核心公式 3 基于深度学习的远程监督实体关系抽取方法 3.1 远程监督实体关系抽取框架演化流程

面临大量无标签数据时, 有监督的关系抽取消耗大量人力, 显得力不从心.因此, 远程监督实体关系抽取应运而生.Mintz[14]于2009年首次提出将远程监督应用到关系抽取任务中, 其通过数据自动对齐远程知识库来解决开放域中大量无标签数据自动标注的问题.远程监督标注数据时主要有两个问题:噪声和特征提取误差传播.噪声问题是由于远程监督的强假设条件, 导致大量数据的关系被错误标记, 使得训练数据存在大量噪声; 而特征提取中的误差传播问题是由于传统的特征提取主要是利用NLP工具进行数据集的特征提取, 因此会引入大量的传播误差.针对错误标签问题, Surdeanu[8]于2010年提出的多示例多标签学习方法、Lin[10]于2016年提出的Attention机制, 都有效减弱了远程监督错误标签对抽取性能的影响.而自从深度学习的崛起和其在有监督领域取得良好的关系抽取效果后, 用深度学习提取特征的思路来替代特征工程是一个非常自然的想法:用词向量、位置向量来表示句子中的实体和其他词语; 用深度模型对句子建模, 构建句子向量; 最后进行关系分类.深度学习模型及其特点有:CNN的扩展模型PCNN+MIL[37]、PCNN+ATT[10](Attention机制作为多示例机制的一种泛化)弱化错误标签问题; LSTM[57]获取实体对方向性信息; COTYPE[39]联合抽取实体和关系信息; 深度残差网络[40]防止错误标签噪声的逐层累积.基于远程监督实体关系抽取框架的演化流程如图 7所示.下面按照PCNN及其扩展模型、LSTM、COTYPE、深度残差网络的顺序来进行远程监督领域实体关系抽取的主流方法介绍.

图 7 Fig. 7 Fig. 7 Evolutionary process of entity relationship extraction framework based on distantsupervision 图 7 基于远程监督的实体关系抽取框架的演化流程 3.2 基于深度学习的远程监督领域实体关系抽取主流方法介绍 3.2.1 基于PCNN及其扩展模型的实体关系抽取

经典的实体关系抽取在提取特征时使用NLP工具, 会导致误差逐层传播, 影响关系抽取效果.深度学习中的PCNN方法有效解决了特征提取误差传播的问题.而对于远程监督中错误标签引入噪声的问题, 本模块采用多示例和注意力两种机制来缓解噪声问题.以下是基于PCNN及其扩展模型的实体关系抽取过程.

(1) 基于PCNN和多示例(MIL)的实体关系抽取

Zeng[20]提出了PCNN结合多示例的方法进行远程监督实体关系抽取, 与CNN不同的是, PCNN根据实体所在位置将句子切分成3段进行池化, 从而得到更多和实体相关的上下文信息.而多示例学习是将实体对看成包, 基于At-least-one假设, 在包含实体对的所有句子中, 选择使得关系概率最大的示例语句作为实体对的表示.关系抽取的具体流程为:

a) 示例语句编码:词向量、位置向量共同组成词语表示向量;

b) 卷积层:卷积部分是采用了常见的针对文本的卷积核设计, 单向滑动;

c) 三段池化与最终关系分类:在池化层, 是按照分段进行Max Pooling的, 而PCNN的P是Piecewise, 将句子按照两个实体进行分割, 分割得到3段, 将这3段分别进行Max Pooling.最后, 使用一个Softmax分类器进行类别判断.

PCNN结合多实例的方法虽然优化了传统远程监督的效果, 但多实例实际上是给包打标签而不是给语句打标签, 即从包含实体对的所有语句中只选择了一个语句, 这必然导致丢失大量有用的句子信息.

(2) 基于PCNN和注意力机制(ATT)的实体关系抽取

Zeng的多示例方法只用了包中一条语句信息, 这就在一定程度上丢失了很多信息.针对此问题, Lin[10]在Zeng的基础上采用Attention机制, 充分利用包内的信息, 进一步减弱错误打标的示例语句产生的噪声.最终, 标签正确分类的示例语句贡献较大, 分配权重较高; 标签错误分类的示例语句贡献较小, 分配权重较低.从而提高分类的准确率.具体流程主要分为:

a) 包中示例分类:将实体对作为包, 含实体对的句子作为包中示例;

b) 示例语句编码(句子特征提取):句子分词, 将句子词语和实体转化为稠密实数向量, 然后利用卷积、池化和非线性转换等操作构建起对应的句向量.句向量编码过程如图 8所示;

图 8 Fig. 8 Fig. 8 Construction process of sentence vector 图 8 句向量构建过程

c) 给句子加入注意力机制:给不同的句子赋予不同的权重α1, α2, α3, …, αn, 隐式地摒弃一些噪音语料, 以此提升分类器的性能.这样使得网络的输出数目和关系数目相等, 方便后续Softmax层进行分类.图 9为原始句子包生成句子包向量的过程, 原始句子通过CNN提取句子特征, 构建句子向量, 给包中不同句子添加不同的权重, 构建出一个句子包向量.

图 9 Fig. 9 Fig. 9 Generation process ofsentence package vector added attention mechanism 图 9 添加注意力机制的句子包向量生成过程

Attention机制虽与多示例方法都是减弱错误标签带来的噪声问题, 但多示例只用了包中一条语句信息, 而Attention机制综合利用了包中所有示例语句信息, 更好地提升了远程监督中关系抽取的效果.

(3) 基于PCNN、注意力机制和实体表示信息的实体关系抽取

目前的远程监督关系抽取都集中在探索句子的语义信息层次上, 忽略了实体本身的描述信息对关系抽取效果的影响.对此, Ji在文献[38]中提出加入实体表示信息的深度学习实体关系抽取模型.此模型是在PCNN和Attention的基础上添加了实体的描述信息来辅助学习实体的表示, 从而提高准确率.其提取关系流程主要为:

a) PCNN模块:用PCNN提取句子特征, 每个实体对对应一个包, 用句子级别注意力机制给包中每个句子分配一个权重, 综合利用包中所有句子的信息;

b) 提取实体信息:从Freebase和Wikipedia页面中提取实体描述以补充实体关系提取的背景知识, 用一个传统的CNN模型(一个卷积层和一个最大池化层)从实体描述中提取特征.背景知识不仅为预测关系提供了更多信息, 而且为注意力机制模块带来了更好的实体表示;

c) 特征融合:用交叉熵最小化目标函数, 目标函数由句子级别注意力机制和实体信息共同决定.

本文实际检测到:当前远程监督关系抽取模型如果在没有实体背景信息的情况下, 其在抽取某些实体对关系时效果不佳.针对此问题, 作者提出使用实体表示信息丰富其背景知识, 以便更好地预测关系.实验表明在前人模型的基础上加入此创新点, 均明显地提升了当前模型的效果.

3.2.2 基于LSTM的实体关系抽取方法

传统的远程监督方法在提取特征时采用NLP工具包, 加重了错误传播、错误积累的问题, 所以He等人[57]提出一种SE-LSTM结合多示例学习的方法来解决远程监督中错误传播、错误积累问题, 其模型如图 10所示.

图 10 Fig. 10 Fig. 10 Distantsupervision entity relationship extraction framework based on LSTM 图 10 基于LSTM的远程监督实体关系抽取框架

a) LSTM网络抽取实体对方向性信息(图 10左上部分):HE等人首先将句子的最短依存路径(SDP)分割成两个子路径作为LSTM结构的输入, 自动地抽取特征, 以此来抽取实体对的方向性信息;

b) CNN网络提取句子整体信息(图 10右部分):尽管SDP对关系抽取非常有效, 但是这并不能捕捉到句子的全部特征.针对此问题, 作者将全部句子放进CNN网络, 进而抽取句子的全部信息(sentence embedding);

c) 特征融合(图 10左下部分):最后, 将LSTM隐藏层单元以及CNN的非线性单元相融合, 通过Softmax层来标注实体对对应的关系.

本文提出的SE-LSTM网络结合多示例的方法, 其可以在不需要任何NLP工具包的帮助下自动地抽取特征, 并且通过两个LSTM提取实体对的方向性信息.实验表明, 该方法大大地提升了关系抽取的准确率.

3.2.3 基于COTYPE联合抽取模型的实体关系抽取方法

现有的远程监督关系抽取模型通常只能在某一特定领域进行关系抽取工作, 并且将实体抽取和关系抽取两项工作分开进行, 分开进行的方式会导致错误的累积传播, 不易优化扩展模型.针对此问题, Ren在文献[39]中提出了联合抽取模型COTYPE, 此模型的提出, 主要解决在远程监督关系抽取过程中面临的3大挑战:1)事先训练好的命名实体识别器限制了领域之间的扩展; 2)将实体抽取和关系抽取分开导致错误的累积传播; 3)在远程监督中标签噪声问题.COTYPE的框架主要分为3个部分.

a) 数据预处理:在训练语料上运行文本分割算法, 得到候选实体; 给同一句话的两个候选实体构建关系, 用三元组表示; 最后分析文本, 抽取文本特征;

b) 联合训练实体和关系向量空间:将候选实体、候选关系、文本特征等嵌入到关系空间以及实体空间, 并对两者进行联合建模;

c) 对实体类型和关系类型进行推理预测.

COTYPE模型与PCNN等单模型相比不仅可以扩展到不同领域, 而且通过把实体抽取和关系抽取两个任务结合, 较好地减弱了错误的累积传播.实验结果表示, 其明显提升了当时State-of-the-art的效果.

3.2.4 基于深度残差网络的实体关系抽取方法

一般来说, 深层神经网络能抽取更深的语义特征, 所以Huang[40]实验了9层CNN的实体关系抽取模型.但事实发现, 9层CNN抽取效果不如单层.Huang猜测可能是由于远程监督的数据里有太多错误标签的数据, 错误标签带来的噪声随着神经网络层次的加深逐渐被放大, 导致9层效果比单层的差.因此, 提出一种深度残差网络模型来解决深层网络增大噪声的问题, 其采用残差网络设法使浅层网络的特征跳跃传递至深层网络, 让网络可以选择较不被噪声影响的那层网络特征来进行关系分类.在性能上, 9层的残差网络可达到State-of-the-art (PCNN+ATT)模型相似的效果.

3.3 基于深度学习的远程监督关系抽取方法与经典方法的对比

经典的远程监督方法是在解决远程监督中强假设条件造成大量错误标签的问题, 而深度学习方法主要是是在解决特征提取中误差传播问题.

远程监督的提出, 是因为在开放域中存在大量无规则非结构化数据, 人工标注虽能使标注的准确率较高, 但是时间和人力消耗巨大, 在面对大量数据集时显得不切实际.因此, 远程监督实现一种数据集自动对齐远程知识库进行关系提取的方法, 可进行自动标注数据.但由于其强假设条件造成大量错误标签问题, 之后, 经典的远程监督的改进都是在改进处理错误标签的算法.

深度学习的提出, 是因数据特征构造过程依赖于NER等NLP工具, 中间过程出错会造成错误传播问题.且现今基于深度学习的远程监督实体关系抽取框架已包含经典方法中对错误标签的探讨解决, 因此可以认为现今的远程监督关系抽取框架是基于传统方法的扩展优化.

3.4 基于深度学习的远程监督关系抽取方法与有监督方法的对比

有监督的实体关系抽取依靠人工标注的方法得到数据集, 数据集准确率、纯度较高, 训练出的关系抽取模型效果较好, 具有很好的实验价值.但其人工标注数据集的方法耗费大量人力成本, 且标注数据的数量有限、扩展性差、领域性强, 导致构造的关系抽取模型对人工标注的数据具有依赖性, 不利于模型的跨领域泛化能力, 领域迁移性较差.

远程监督在面对大量无标签数据时, 相较于有监督实体关系抽取具有明显优势.人力标注大量无标签数据显得不切实际, 因此远程监督采用对齐远程知识库的方式自动标注数据, 极大地减少了人力的损耗且领域迁移性较强.但远程监督自动标注得到的数据准确度较低, 因此在训练模型时, 错误标签的误差会逐层传播, 最终影响整个模型的效果.因此, 现今的远程监督实体关系抽取模型的效果普遍比有监督模型抽取效果效果差.基于深度学习的有监督和远程监督实体关系抽取效果对比可见表 2.

表 2(Table 2) Table 2 Comparison of supervised and remotely supervised entity relationships based on deep learning 表 2 基于深度学习的有监督和远程监督实体关系抽取对比 有监督 远程监督 数据集标注方法 人工标注 远程对齐知识库 数据集特点 准确度高, 噪声小 准确度低, 噪声大 数据集规模 较小(通常情况) 较大 成本 较高 较低 迁移性 较差 较好 领域性 较强 较低 抽取效果 较好 较差 Table 2 Comparison of supervised and remotely supervised entity relationships based on deep learning 表 2 基于深度学习的有监督和远程监督实体关系抽取对比 3.5 远程监督领域实体关系抽取方法核心公式

现今, 基于深度学习的远程监督实体关系抽取研究点主要集中在远程监督的噪声问题和特征提取的误差传播两方面, 远程监督部分实体关系抽取核心公式为表 3.

表 3(Table 3) Table 3 Distant-supervised entity relationship extraction core formula 表 3 远程监督实体关系抽取核心公式 方法名称 创新方法 核心公式 公式类别 远程监督+多示例[58] 多示例单标签 $F_m^{once}(z, {y_{truth}}) = \left\{ {\begin{array}{*{20}{l}} 1, ~~~~~~~{y_{truth}} \ne NA \wedge ||z|| \geqslant 1 \\ - 1, ~~~~~{y_{truth}} \ne NA \wedge ||z|| = 0 \\ { - ||z||, {\rm{ otherwise}}} \end{array}} \right.$ ||z||作为实体对存在某关系的句子个数, F为含此实体对的包标签 多示例的包表示 PCNNs+MIL[37] 三段池化层 pij=max(cij), 1≤i≤n, 1≤j≤3 pij为池化层结果, 将一个句子向量按实体位置分割为三段池化 三段池化层取值 PCNN+ATT[10] 多注意力 ${\alpha _i} = \frac{{\exp ({e_i})}}{{\sum\limits_k {\exp ({e_k})} }}, {\rm{ }}\vec s = \sum\limits_i {{\alpha _i}{x_i}} $, αi为句子权重, $\vec s$为句子集向量 注意力机制 APCNNs+D[38] 添加实体描述信息 ${L_e} = \sum\limits_{i = 1}^{|D|} {||{e_i} - {d_i}|{|^2}} , \min L = {L_A} + \lambda {L_e}$ Le为实体描述信息的目标函数, La为APCNNs部分目标函数, L为模型最终目标函数LA 目标函数 COTYPE[39] 实体与关系信息联合抽取 $\mathop {\min }\limits_{\{ {z_i}\} , \{ {c_j}\} , \{ {r_k}\} , \{ {m_i}\} , \{ {{c'}_j}\} , \{ {y_k}\} } = M + Z + ZM$最小化联合期望函数, M为实体期望函数, Z为关系期望函数, ZM为关系、实体相互影响魔性的期望函数 期望函数 深度残差网络[40] 9层残差网络 ${\tilde c_l} = f({w_1} + {c_{i:i + h - 1}} + {b_1}), {c'_l} = f({w_2} + {c_{i:i + h - 1}} + {b_2}), c = c + c'$ ${\tilde c_l}$和${c'_l}$分别是两个卷积层, c是最终的残差结果 卷积层 Table 3 Distant-supervised entity relationship extraction core formula 表 3 远程监督实体关系抽取核心公式 4 基于深度学习的实体关系抽取新模型与新思路 4.1 融合深度增强学习的实体关系抽取

近期, 随着增强学习方法的兴起, 给予实体关系抽取又一种新的思路.有学者试图将增强学习[59]的方法与深度学习的方法融合起来, 进行实体和关系的联合抽取.Feng等人[60]在2017年提出了基于增强学习和深度学习的联合学习方法抽取实体和关系的模型.该模型中, 增强学习将任务建模为两步决策过程, 如图 11所示:第1个决策根据实体抽取的初步结果, 判断包含目标实体对的句子是否是一个关系; 第2个决策将关系进行分类.通过设计每步的奖励函数, 可以将实体提取的信息传递给关系提取并获得反馈, 以便同时提取实体和关系.深度学习用于自动捕获非结构化文本中最重要的信息, 这些信息代表决策过程中的状态, 首先使用Bi-LSTM来模拟上下文信息, 将实体抽取任务视为序列标注任务, 实现初步的实体提取; 在提取结果的基础上, 基于注意力机制的方法可以表示包括目标实体对的句子, 以在决策过程中生成初始状态; 接着使用Tree-LSTM来表示关系, 在决策过程中生成过渡状态; 最后采用Q-Learning算法, 在两步决策过程中得到控制策略π.该方法解决了在增强学习与深度学习的联合模型中, 如何将实体信息传递给关系抽取, 使实体和关系信息能够交互并获得反馈的问题.在ACE2005数据集上的实验结果, 比现有技术的方法获得更好的性能, 并且召回率评分提高了2.4%.

图 11 Fig. 11 Fig. 11 Two-step decision process 图 11 两步决策过程

Qin[61]于2018年ACL会议上提出一种深度增强学习的远程监督实体关系抽取方法, 认为多示例和注意力机制并非最理想的降噪方法, 那些被错误打标的数据依旧作为模型的训练数据, 影响着关系抽取的效果.因此, Qin用深度增强学习方法训练一个正例、负例数据识别器.不同于之前研究中将负例移除的方式, Qin是将不存在目标关系的示例语句放入负例集中, 将正例数据和负例数据正确分类, 并充分利用了正例数据和负例数据的信息.

4.2 融合生成对抗网络的实体关系抽取

生成对抗网络是实体关系提取中的新兴方法, 其通过在词向量表示阶段引入对抗性噪声并给出新的损失函数来增加模型的准确率.其主要思路是:生成器和判别器为博弈对方, 生成器拟合数据的产生过程生成模型样本, 判别器通过增加噪声样本增强模型准确率和鲁棒性, 优化目标是达到纳什均衡.

生成对抗网络是由GoodFellow等人[62]在2014年提出的一种生成模型, 在图像和视觉领域取得广泛的研究和应用.从2016年开始, Miyato[23, 63]逐渐将对抗训练引入文本分类任务中.Wu[24]于2017年将生成对抗网络引入弱监督实体关系抽取中, 证明词向量加入对抗性噪声之后, 其进入CNN或RNN等深度模型中的提取效果比直接进入深度模型提取关系的准确率高.Qin在文献[17]将对抗的思路加入模型中来对隐含话语的关系进行分类, 通过隐式网络和竞争特征鉴别器之间的竞争来实现自适应模仿方案, 在PDTB基准测试中实现了最先进的性能.Qin[64]于2018年将生成对抗网络引入到远程监督关系抽取中, 用于筛选错误标签, 最终达到降噪的效果.实验结果表明, 此模型优于现今效果最好的远程监督实体关系抽取模型.

生成对抗网络筛选错误标签数据的流程如图 12所示.

图 12 Fig. 12 Fig. 12 Process of filtering error tags by generative adversarial networks 图 12 生成对抗网络筛选错误标签数据的流程

a) 预训练:对生成器和鉴别器进行预训练, 得到生成器和鉴别器的参数θG和θD.由于在良好初始化参数的情况下对抗训练很容易趋于收敛, 因此预训练具有很好的优化效果.本文生成器和鉴别器都用简单的卷积神经网络, 相比于循环神经网络, 卷积神经网络具有更少的参数;

b) 数据划分:一次迭代(epoch)扫描远程监督训练集中所有正例集P={s1, s2, …, sj, …}, 将其划分为N个包: B={Bag1, Bag2, …, Bagk, …}, 一次处理一个包中的全部数据;

c) 生成器训练:生成器计算包中正样本的概率分布, 其产生的高置信样本被认为是真实的正例样本, 然后根据这个概率分布进行抽样;

d) 对抗器训练:对抗器接收这些高置信度样本, 但将其视为负样本; 相反, 低置信度的样本仍被视为正样本.在这个过程中, 模型会以预训练的参数进行初始化;

e) 交替训练:对于生成的样本, 生成器使真正的概率最大; 相反, 对抗器使这个概率最小.两个网络交替进行训练, 更新θG和θD.

对比实验结果表明, PCNN+ATT+DSGAN模型较PCNN+ATT而言, AUC和p-values均有明显的改善.用生成对抗网络进行训练集噪声数据筛选, 会提高远程监督领域实体关系抽取效果.

5 基于深度学习的实体关系抽取在生物医药领域中的最新应用进展

实体关系抽取是信息抽取的核心任务[65, 66], 其主要通过对文本信息建模, 自动抽取出实体对之间的语义关系, 提取出有效的语义知识.目前, 基于深度学习的实体关系抽取已逐渐应用到垂直领域并取得了不错的效果, 其中, 实体关系抽取在生物医药领域的应用尤为广泛.深度学习实体关系抽取可以发掘生物医学中药品实体与疾病间深层次的特征, 在毒理学研究、药物发现和药物安全监测方面有着广泛的应用.下面依次从CNN, LSTM模型的角度简要介绍深度学习实体关系抽取在医药领域的最新应用.表 4为深度学习模型在生物医药领域中的应用.

表 4(Table 4) Table 4 Deep learning entity relationship extraction usedin biomedicine field 表 4 深度学习实体关系抽取在生物医药领域中的应用 领域 深度学习方法 提出年份 解决问题 生物医药 CNN[67] 2016 首次应用深度模型, 对临床文本等碎片化内容进行关系抽取 最大熵+CNN[68] 2017 抽取化学药物与疾病之间的关系 Bi-LSTM-RNN[53] 2017 抽取药物与疾病实体之间的关系、细菌与位置实体之间的关系 Bi-LSTM+ATT[69] 2018 实体识别和不良药物事件提取 SVM+CNN+RNN[70] 2018 抽取生物医学文献中化学品和蛋白质之间的关系 Bi-LSTM[26] 2018 抽取疾病与治疗药品间关系 CNN+LSTM[71] 2018 抽取化学药物与疾病之间的关系 Table 4 Deep learning entity relationship extraction usedin biomedicine field 表 4 深度学习实体关系抽取在生物医药领域中的应用

从文本中提取生物医学实体及其关系, 对生物医学研究具有重要的应用价值.以前的工作主要是利用基于特征的流水线模型来处理这个任务, 当采用基于特征的模型时, 需要进行大量特征工程工作, 耗费时间且抽取效果参差不齐.因此, 学者们试图将深度学习的方法引入生物医药领域的关系抽取中来提升效果.

从生物医疗领域的科研文章、医疗报告、电子医疗记录抽取相关信息, 已经成为了当前生物医药领域的研究热点.2016年6月, Sahu等人[67]首次提出基于卷积神经网络(CNN)的临床文本关系提取新框架, 临床文本相较于科研文章而言, 内容更具碎片化和不完整性, 因此关系抽取的过程更具挑战性.Sahu将每个句子用词级向量、位置向量、词性特征、词干特征、实体类型信息来共同表示, 丰富句子表示信息; 并且用CNN网络进行关系抽取, 减少了对专家特征知识定义质量的依赖, 模型在i2b2-2010临床关系提取挑战数据集超过了当前state-of-the- art的效果.

2017年1月, Gu等人[68]的论文用最大熵改进了Sahu的CNN模型, 对化学药物与疾病之间的关系进行抽取.通过CNN网络抽取了文本句子的上下文特征以及依存特征, 获得了更加精确、有效的句子信息.模型在BioCreative-V CDR语料库(包括1 500篇美国国立医学图书馆生物医学数据库论文(MEDLINE), 所有论文都被手工标注了化学与疾病)上达到了当前State-of-the-art的效果.

Peng等人在2018年BioCreative VI Workshop上发表的文献[70]结合了SVM, CNN和RNN模型, 联合挖掘生物医学文献中化学品和蛋白质之间的关系, 从而证明了生物医学文献自动关系提取方法的有效性.Peng将句子向量、位置向量、词干特征、句子的依存特征作为SVM, CNN以及RNN模型的输入, 最终将3种模型预测的结果进行投票, 获得最终的关系预测.结果表明, 在BioCreative VI的CHEMPROT系统精确度为0.726 6, 召回率为0.573 5, F值为0.641 0.此模型在2017年挑战期间取得了最高效果.

Li[53]在2017年BMC Bioinformatics会议上提出将CNN和Bi-LSTM-RNN应用于生物医药领域的关系抽取任务中, 在药物与疾病实体之间的关系抽取、细菌与位置实体之间的关系抽取这两个任务中分别比最新技术提高了8.0%和9.2%.本文所用模型对应上文的有监督领域的联合模型, 同时进行命名实体识别与实体间关系抽取两个任务.使用CNN提取字符级信息, 用Bi-LSTM识别生物医学实体, 再结合Bi-LSTM-RNN沿着两个目标实体的最短依存路径(SDP)方向学习实体间关系表示.这些表示用于确定实体间最后的关系类别.此模型在实际应用中取得了杰出的效果, 这也表明了深度学习实体关系抽取在生物医学文本挖掘中研究的重要性.

药物引起的不良反应是一个潜在的危险问题, 可能导致患者死亡和发病.提取药物不良事件以及挖掘药物与疾病间关系, 是生物医学研究中的重要问题.2018年1月, Ramamoorthy等人[69]采用Bi-LSTM结合注意力机制的序列模型进行实体识别和不良药物事件提取, 利用临床文本中的当地语言实现序列内相互作用, 以便对药物和疾病实体间关系进行共同学习, 从而抽取到最合适的关系.模型证明, 用此种方式进行事件和关系抽取的性能优于先前工作中使用的基于最短依存路径(SDP)方法.

Chikka等人[26]在2018KDD上提出一种结合深度学习和规则的关系抽取模型, 解决如何抽取疾病与治疗药品间关系的问题.文中利用深度学习的词级和句子级表示信息来提取治疗方案与医疗问题之间的关系, 使用基于规则的方法处理数据集中可用的样本数量较少的关系, 最终通过Bi-LSTM和基于规则的模型联合得出最终关系.最终结果在I2b2 2010关系提取任务的关系类上取得了良好的性能.结合深度学习和基于规则的模型可以深入挖掘疾病与药品之间关系, 在决策支持系统、安全监视和新的药品发现中有着广泛应用.

Nguyen[71]在2018年BioNLP上提出通过CNN+CNNchar和CNN+LSTMchar模型来抽取生物医学文本中化学药品与疾病之间的关系.不同于之前模型中只用CNN提取词语与字符级信息, Nguyen提出CNN和LSTM共同训练字符级别的词向量, 解决生物医药领域专有名词没有特定的词向量这一问题, 将字符集别词向量和词级别词向量拼接作为CNN关系抽取网络的输入.将模型应用于BioCreative-V CDR语料库中的任务数据, 其结果表明:利用基于CNN和LSTM的字符级单词表示模型改进了不使用此信息模型的关系抽取效果, 更好地抽取化学药品与疾病之间的关系.

6 基于深度学习的实体关系抽取的数据集及其评测方法 6.1 数据集介绍

近年来, 用作深度学习关系抽取实验评估的标准数据集主要有SemEval-2010 Task 8公开数据集、ACE2004实验语料、NYT-FB数据集等.

(一)有监督领域

有监督领域的实体关系抽取主要采用MUC关系抽取任务数据集、ACE04、ACE05、SemEval-2010 Task 8公开数据集, 部分论文采用MPQA 2.0语料库和BioNLP-ST 2016的BB任务数据集.有监督方面评测标准主要以F1值来统计.

● MUC关系抽取任务数据集:MUC-7包含五大评测任务:命名实体识别、指代消解、模版元素填充、模版关系确定和场景模版填充.其中, 关系抽取首次作为一个独立的评测任务被提出来.MUC-7的数据语料主要是取自新闻语料, 主要是飞机失事事件报道和航天器发射事件报道.MUC会议停开以后, ACE会议也将关系抽取任务作为会议的一个子任务;

● ACE关系抽取任务数据集:ACE会议从2002年~2007年一直将关系抽取任务作为一个子任务, 其中获得广泛认可的是ACE04/ACE05.其中, ACE04语料库来源于语言数据联盟(linguistic data consortium, 简称LDC), 分成广播新闻(BNEWS)和新闻专线(NWIRE)两个部分, 总共包含451个文档和5 702个关系实例.ACE04提供了丰富的标注信息, 从而为信息抽取中的实体识别、指代消解和关系抽取凳子任务提供基准(benchmark)的训练和测试语料库.而ACE05作为ACE04的扩充, 对ACE04数据集进行了适当的修改与完善;

● SemEval-2010 Task 8数据集:SemEval是由Senseval演变而来的语义评测.Senseval是由ACL-SIGLEX组织的国际权威的词义消歧评测, 但由于Senseval中除词义消歧外有关语义分析的任务越来越多, 之后, Senseval委员会决定把评测名称改为国际语义评测(SemEval).SemEval-2010 Task 8数据集是2010年SemEval语义评测的子任务, 构建于2009年, 此任务用于名词间多种语义关系的分类.数据集根据预设定的9种互不相容关系从各大数据源收集而来, 数据源包括WordNet, Wikipedia data, Google n-grams等.数据集共包含10 717条数据, 其中, 训练集有8 000条, 测试集有2 717条.数据集中9种关系, 分别为:Cause-Effect(因果关系), Instrument-Agency(操作、使用关系), Product-Producer(产品-生产者关系), Content-Container(空间包含关系), Entity-Origin(起源关系), Entity-Destination(导向关系), Component-Whole(组件-整体关系), Member-Collection(成员-集合关系), Message-Topic(主题关系).每条数据是一个包含实体对的句子, 类别标签为实体对在该句中表现出的关系;

● MPQA 2.0语料库:包含来自各种新闻源的新闻文章和社论, 数据集中共有482个文档, 包含9 471个带有短语级别注释的句子.数据集中包含观点实体的黄金标准注释, 如观点表达、观点目标和观点持有者; 还包含观点关系的注释, 如观点持有者和观点表达之间的IS-FROM关系、观点目标和观点表达之间的IS-ABOUT关系;

● BioNLP-ST 2016的BB任务:此任务是针对细菌/位置实体抽取和两者间Lives_In关系抽取而设立的一个标准竞赛, 数据集由来自PubMed的161个科学论文摘要组成, 数据集中包含3种类型的实体:细菌、栖息地和地理位置; 包含一种关系:Lives_In, 指由细菌-栖息地构成的Lives_In关系或由细菌-地理位置构成的Lives_In关系.

(二)远程监督领域

远程监督领域的实体关系抽取主要采用NYT-FB数据集.这个数据集是由Freebase知识库对其纽约时报的文本获得的数据集.训练数据为知识库对其2005年、2006年文本获得的, 测试库数据为知识库对其2007年文本获得的.NYT-FB数据集中共有53种关系, 共计695 059条数据(其中训练集包含522 611条训练语句, 训练数据中有近80%的句子的标签为NA, 测试集包含172 448条测试语句), 通过结合FreeBase对NYT语料做实体链接、关系对齐等操作进行标注, 最终得到一个被广泛使用的关系抽取数据集.

6.2 评测方法介绍

关系抽取领域有3项基本评价指标:准确率(precision)、召回率(recall)和F值(F measure).

(一)准确率

准确率是从查准率的角度对实体关系抽取效果进行评估, 其计算公式为

$ Precision_{R}=\frac{{被正确抽取的属于关系R 的实体对个数}}{{所有被抽取为关系R 的实体对个数}} $ (6-1)

(二)召回率

召回率是从查全率的角度对抽取效果进行评估, 其计算公式为

$ Recall_{R}=\frac{{被正确抽取的属于关系R 的实体对个数}}{{实际应被抽取的属于关系R 的实体对个数}} $ (6-2)

(三) F值

对与关系抽取来说, 准确率和召回率是相互影响的, 二者存在互补关系, 因此, F值综合了准确率和召回率的信息, 其计算公式为

${F_\beta } = \frac{{({\beta ^2} + 1) \cdot Precision \cdot Recall}}{{Precision + Recall}}$ (6-3)

β是一个调节准确率与召回率比重的参数, 实际测试中, 一般认为准确率与召回率同等重要, 因此, β值一般设置成1.因此, 上式可以表示为

${F_1} = \frac{{2 \cdot Precision \cdot Recall}}{{Precision + Recall}}$ (6-4) 6.3 深度学习实体关系抽取典型论文的数据集与评测标准

不同模型的数据集及其评测标准见表 5.

表 5(Table 5) Table 5 Different models of data sets and their evaluation criteria 表 5 不同模型的数据集及其评测标准 关系抽取方法 序号 Model 数据集 评测指标 评测值 发表年份 发表会议 流水线 1 MV-RNN(POS, WordNet, NER)[46] SemEval-2010 Task 8 F1 82.4 2012 EMNLP 2 RNN[19] SemEval-2010 Task 8 F1 79.4 2013 ACL 3 Convolutional DNN[20] SemEval-2010 Task 8 F1 82.7 2014 COLING 4 SDT-LSTM[11] SemEval-2010 Task 8 F1 83.7 2015 EMNLP 5 CR-CNN[21] SemEval-2010 Task 8 F1 84.1 2015 ACL 6 Vote-BIDIRECT[22] ACE05 F1 84.1 2015 Computer Science 7 Dependency paths from the object to subject[47] SemEval-2010 Task 8 F1 85.4 2015 Computer Science 8 ER-CNN + R-RNN[48] SemEval-2010 Task 8 F1 84.9 2016 NAACL 9 Multi-Level attention CNNs[49] SemEval-2010Task 8 F1 88.0 2016 ACL 10 Bi-LSTM-RNN[50] SemEval-2010Task 8 F1 83.1 2016 ACL 联合学习 11 Bi-LSTM+Bi-TreeLSTM[12] ACE05 F1 55.6 2016 ACL 12 LSTM[54] MPQA 2.0语料库 F1 54.98(IS_ABOUT) 58.22(IS_FROM) 2016 ACL 13 Bi-LSTM+ Bi-TreeLSTM[53] BioNLP-ST 2016的BB任务数据集 F1 28.5 2017 PAKDD 14 Bi-LSTM+Attention[13] ACE 2005 F1 55.9 2017 ACL 15 Novel tagging scheme[55] NYT F1 52.0 2017 ACL 远程监督 16 PCNNs+MIL[37] NYT-FB Precision (Top100) 86.0 2015 EMNLP 17 APCNNs[38] NYT-FB Precision (Top100) 87.0 2016 ACL 18 APCNNs+D[38] NYT-FB Precision (Top100) 87.0 2017 AAAI 19 DMN[72] NYT-FB Precision (Top100) 89.0 2017 IJCAI 20 APCNN+soft_label[73] NYT-FB Precision (Top100) 84.0 2017 ACL 21 JointD+KATT[74] NYT-FB Precision (Top100) 80.6 2018 AAAI 22 CNN+RL[75] NYT-FB F1 42.0 2018 AAAI 23 MIMLCNN[76] NYT-FB Precision (Top100) 69.0 2016 COLING 24 RNN-Adv[24] NYT-FB F1 38.2 2017 ACL 25 ResCNN-9[40] NYT-FB Precision (Top50) 88.0 2017 ACL Table 5 Different models of data sets and their evaluation criteria 表 5 不同模型的数据集及其评测标准

表 5中, 序号1~序号15是有监督领域实体关系抽取的典型模型与其相关信息介绍, 序号16~序号25是远程监督领域实体关系抽取的典型模型与其相关信息介绍.其中, 1~10是有监督领域中流水线类别的模型, 序号11~序号15是有监督领域的联合学习类别的模型.

参考常耀成[77]在《软件学报》中的数据集整理的方式, 本文数据集描述与下载链接见表 6.

表 6(Table 6) Table 6 Dataset description and download link 表 6 数据集描述与下载链接 数据集 简述 URL SemEval-2010 Task 8 包含10 717条数据(训练集8 000条, 测试集2 717条); 共包含9种互不相容的关系, 如因果关系、包含关系等 https://www.researchgate.net/publication/271452073_SemEval-2010_task_8 MPQA 2.0 corpus 来自各种新闻源的新闻文章和社论, 数据集中共有482篇文章, 9 471条句子 http://mpqa.cs.pitt.edu/corpora/mpqa_corpus/ ACE05 7种实体类型和6种实体关系类型 https://www.nist.gov/speech/tests/ace/ace05 openIE 50亿网页数据, 提取开放域关系三元组 https://github.com/dair-iitd/OpenIE-standalone ACE04 7种实体类型和7种实体关系类型 https://www.nist.gov/speech/tests/ace/ace04 NYT 53种关系, 共计695 059条数据(其中训练集包含522 611条训练语句, 测试集包含172 448条测试语句) https://github.com/shanzhenren/CoType Table 6 Dataset description and download link 表 6 数据集描述与下载链接 7 未来研究方向和总结

目前, 基于深度学习的实体关系抽取已经取得了极大成功, 但依旧值得学者们不断探索.通过对现有实体关系抽取研究工作进行总结, 未来可从以下几个方面展开相关研究.

(1) 重叠实体关系识别

目前, 就重叠实体关系识别这一问题, 已有的实体关系识别模型还没有给出相应的解决方法.尽管Zheng[55]提出的新标注策略解决了参数共享方法存在冗余实体的问题, 真正做到了将两个子任务合并成一个序列标注问题, 但该方法仍然没有解决重叠实体关系问题.故未来重叠实体关系仍会是学者研究和攻克的一大难题.此外, 因Zheng[55]新标注策略的提出, 未来在这套标注策略上也可以进行更多的改进和发展, 来进一步完善端到端的关系抽取任务.

(2) 跨句子级别关系抽取

现今, 关系抽取任务集中在对一句话内识别出的实体对进行关系分类, 而按照自然语言的习惯, 实体对分别位于不同句子中的情况也十分常见.现有的指代消解任务可以通过指代对象识别和指代对象中心词抽取有效影响多种自然语言处理任务系统的性能, 但其存在依赖人工特征强、精确度不够高的问题.因此, 融合并改进指代消解和关系抽取模型, 是未来解决跨句子级别关系抽取任务中可以研究探讨的一种方案.

此外, Peng等人[78]于2017年提出了基于图的LSTM网络(graph LSTM)的一般关系提取框架, 可以很容易地扩展到跨句子N元关系提取.图公式提供了一种探索不同LSTM方法的统一方法, 它能结合各种句内和句间的依赖关系, 如顺序、句法和语篇关系等; 能学习实体的上下文表示, 以用作关系分类器的输入, 简化与任意元关系的处理, 并且能够利用相关关系进行多任务学习.通过在两个重要的精确医学环境中评估该框架, 证明了其在传统监督学习和远程监督方面的有效性.因此, 基于图结构进行实体关系抽取也可作为解决跨句子级别关系抽取问题的一种方案.

(3) 关系类型OOV问题

现今, 完成关系抽取任务的主流方法中, 均没有有效地解决关系类型OOV(out of vocabulary)问题.对于没出现在训练集中的关系类型, 已有的模型框架无法准确地预测出实体对所属的正确关系类型.在SemEval-2010的评测任务8中, 因考虑到句子实例中实体对的先后顺序问题, 引入了Other类对不属于已有关系类型的实例进行描述, 然而这只是减少了存在关系的实体对的损失, 提升了模型判断关系提及的能力, 对Other类中实体对的关系却难以定义, 关系模糊, 需要人工干预和判断.因此, 关系类型OOV问题也是未来亟待解决的问题之一.

(4) 解决远程监督的错误标签问题

远程监督中的假设过于肯定, 难免引入大量的噪声数据.为缓解错误标注的问题, 目前主流的方式是:(a)利用多示例学习方法对测试包打标签; (b)采用Attention机制对不同置信度的句子赋予不同的权值.但这两种方法都不可避免地会将一些不具有某个关系的句子作为这个关系的训练语句:在多示例学习方法的情况下, 若一个包中全是负例(包中没有一个句子的关系是实体对对齐知识库得到的关系), 即使取出概率最大的语句作为这个包的训练语句, 其仍是噪声语句; 而在Attention机制下, 虽将并不代表实体对关系的语句给予较小的权重, 但本质上仍是将其作为正例放入训练集中, 仍是会引入噪声.Qin[61]将深度增强学习引入远程监督领域, 将不存在目标关系的示例语句放入负例集中, 是远程监督领域解决噪声问题的一个新兴方法.但解决噪声的方法远不止这3种, 如何采用有效的方式来解决远程监督的错误标签问题, 是实体关系提取发展过程中研究的重要问题.

(5) 远程监督领域错误传播问题

现今, 实体关系抽取的典型模型是PCNN+ATT, 但其主要利用的是句子的语义信息.虽已有论文利用句子的语法信息[79]将依存句法树用于实体关系抽取, 但效果并不惊人.因此, 如何将语义与语法信息有效融合来抽取实体关系, 也是今后优化深度模型的主要方向之一.



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3