每天给你送来NLP技术干货!


论文:Unified Named Entity Recognition as Word-Word Relation Classification
链接:https://arxiv.org/pdf/2112.10070.pdf
收录:AAAI2022

总体说一下

NER任务大概分为三种:flat, overlapped, and discontinuous NER,如下图所示:
  • aching in legs 为flat NER
  • aching in shoulders为discontinuous NER

  • aching in legs和aching in shoulders这两个实体共同重复了aching in,为overlapped NER
最近的研究都在考虑如何通过一个大一统模型一次性解决这三种问题。目前的最佳的方法基本都是基于span-based和seq2seq的,然而span-based方法主要倾向于通过枚举所有span组合来解决边界问题,时间复杂度上是个问题;而后者大家都知道,存在错误传播。
所以,本文提出了一种新颖的方式和框架来解决所有的NER问题:通过预测word-word之间的关系(这里称之为W2NER
)。其中word与word之间的关系主要有三种:

  • NNW: Next-Neighboring-Word,预测与后面词的关系
  • THW-*: Tail-Head-Word-* ,预测与前面词的关系,其中*表示具体关系(ORG、PER等)
  • NONE:表示没有关系
其中,本文采用一个多粒度2D图来表示word之间的关系,如下图,其中为了解决图的稀疏性,而将这两种关系放到一个图里,一个在右上角,一个在左下角。
最终在14个公开数据集(包含中文和英文)上做了大量实验,并都取得了最佳值,也成为了最新的SoTA

模型

一下子看,感觉模型想是一堆模块堆积而成,其实细读论文会发现这些模型都是由NER的前人经验而来,有理有据。
具体来看,大概分为三个模块:

Encoder Layer
通过BERT获取表示信息,然后通过LSTM获取上下文信息。
Convolution Layer
这里有一个CLN(Conditional Layer Normalization)层,主要用来获得word j在word i前提下的表示:
然后是BERT-Style Grid Representation层,这里主要是模型BERT的3个embedding层而来,这里的三个表示层为信息表示、关系位置信息表示和位置域表示组成,通过MLP融合到一起。
然后通过多粒度的空洞卷积(Multi-Granularity Dilated Convolution)采样不同的信息。
Co-Predictor Layer
这里用了一个普通的MLP和一个专门用于变长标签预测的biaffine预测:
最后过一个softmax层:

最后是一个Decoder层,这里主要就是通过NNW和HTW-*构成一个环的部分就是一个实体,比如下面这个例子就解释了所有情况:
损失的话,就简单了:

实验

英文flat数据集:
中文flat数据集:

英文overlapped数据集:

中文overlapped数据集,F1性能:

英文discontinuous数据集:
和前沿最佳论文作对比:
消融实验,F1性能:
训练速度和推理速度都得到了极大提升:

这篇文章还是非常不错的,是一个简单有效的NER新框架,可以较为轻松的应用于线下。

下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!后台回复【五件套
下载二:南大模式识别PPT后台回复南大模式识别

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦
整理不易,还望给个在看!
继续阅读
阅读原文