关系分类是自然语言处理中一项重要的基础性任务,目的是识别实体对之间的语义关系。目前的方法主要依赖于句子特征,忽视了句子中实体的信息,而句子中的实体位置信息、实体类型信息以及实体依存信息等多元实体信息有助于识别实体间关系...关系分类是自然语言处理中一项重要的基础性任务,目的是识别实体对之间的语义关系。目前的方法主要依赖于句子特征,忽视了句子中实体的信息,而句子中的实体位置信息、实体类型信息以及实体依存信息等多元实体信息有助于识别实体间关系。为充分利用实体信息,提出一种融入多元实体信息关系分类模型BERT-MEI。首先标记实体类型和提取实体最短依存路径,然后通过预训练的语言表征(Bidirectional Encoder Representation from Transformers,BERT)模型编码,将编码后的句子向量、实体向量和实体依存关系向量合并为最终的实体关系表示。在KBP37数据集和TACRED数据集上的实验结果表明,BERT-MEI模型的F1值比基线模型提高了1~17百分点,验证了利用多元实体信息,能够提升关系分类的效果。展开更多
文摘关系分类是自然语言处理中一项重要的基础性任务,目的是识别实体对之间的语义关系。目前的方法主要依赖于句子特征,忽视了句子中实体的信息,而句子中的实体位置信息、实体类型信息以及实体依存信息等多元实体信息有助于识别实体间关系。为充分利用实体信息,提出一种融入多元实体信息关系分类模型BERT-MEI。首先标记实体类型和提取实体最短依存路径,然后通过预训练的语言表征(Bidirectional Encoder Representation from Transformers,BERT)模型编码,将编码后的句子向量、实体向量和实体依存关系向量合并为最终的实体关系表示。在KBP37数据集和TACRED数据集上的实验结果表明,BERT-MEI模型的F1值比基线模型提高了1~17百分点,验证了利用多元实体信息,能够提升关系分类的效果。