给定若干文章,目标是判断文章的核心实体以及对核心实体的情感态度。 版权声明:本文著作权归原作者所有,奇番小编欢迎分享本文,您的收藏是对我们的信任,QFanW谢谢大家支持!
这里说的是实体识别,马上想到的就是利用分步走解决:先去对文章进行实体识别,然后对提取出来的实体进行情感分类。但是后来一想这样两步的话会使得最终结果的错误率叠加,也就是说第一步做的不好的话会很大程度影响到第二步的结果。其实仔细看一下数据集会发现,它给出的很多样本实体并不是传统实体识别的实体,而是句子中的某一个token。这就跟SemEval2014的subtask 4非常像了,也就是Aspect Based Sentiment Analysis (ABSA)。不说废话了,接下来我们来看看关于ABSA问题都有哪些常用的算法
1. A glance at ABSA(什么是ABSA)
在介绍具体算法之前,先来看一下什么是ABSA?可以粗暴翻译为基于方面的情感分析,本质就是对句子中不同对象可能会存在不同的情感倾向,例如:“I bought a new camera. The picture quality is amazing but the battery life is too short”,这句话中对于target=picture quality,情感是正的;而对于target=battery,情感就是负的了。ABSA任务的目的就是去找出给定句子中的不同target的情感倾向。
一个关于ABSA的PPT介绍
2. Effective LSTMs for Target-Dependent Sentiment Classification(Tang/COLING2016)
在这篇论文里面作者主要是介绍了三种解决ABSA任务的模型:TC-LSTM在TD-LSTM的基础上进一步加强了target-word与句子中每个token的关联,看模型框架就会很清晰,
可以看出,这里在模型输入的时候多加入了一部分:v_target,这样就可以加强target与句子的交互,使得最后的表示更为确切。那么这个 v_target是怎么得到的呢?其实就是简单地对target words的向量表示进行平均化处理得到一个向量。
在输入经过embedding层和LSTM层之后进入到Word-Aspect Fusion Attention Layer,这也是该模型的重点。
Normalization Layer(optional): 在隐状态矩阵和aspect vector进行交互之前可以选择性地对其进行正规化操作,可以选用Batch Normalization;
Associative Memory Operators: 用于计算context word 和 aspect word之间的关系。有两种:
circular correlation和circular convolution
circular convolution
5. Interactive Attention Networks for Aspect-Level Sentiment Classification(Ma/IJCAI2017)
这篇文章作者的思路也是将target和context进行交互获取句子的准确表达,利用的模型是attention。与上面几个模型不同的在于,这里考虑了target可能存在好几个word组成的短语,另外添加了一层对于target的attention操作用于计算权重。提出了Interactive Attention Networks(IAN), 整体模型框架如下: