奇番基于特定实体的文本情感分类总结(PARTI)


来自:QFanW     发表于:2019-08-01 18:32:20     浏览:100次 关键词:基于特定实体 文本情感分类总结 PARTI

基于特定实体的文本情感分类总结(PARTI)1

最近在看一个比赛:2019 搜狐校园算法大赛,赛题说的是

给定若干文章,目标是判断文章的核心实体以及对核心实体的情感态度。

基于特定实体的文本情感分类总结(PARTI)2

版权声明:本文著作权归原作者所有,奇番小编欢迎分享本文,您的收藏是对我们的信任,QFanW谢谢大家支持!

530

每篇文章识别最多三个核心实体,并分别判断文章对上述核心实体的情感倾向(积极、中立、消极三种)。

这里说的是实体识别,马上想到的就是利用分步走解决:先去对文章进行实体识别,然后对提取出来的实体进行情感分类。但是后来一想这样两步的话会使得最终结果的错误率叠加,也就是说第一步做的不好的话会很大程度影响到第二步的结果。其实仔细看一下数据集会发现,它给出的很多样本实体并不是传统实体识别的实体,而是句子中的某一个token。这就跟SemEval2014的subtask 4非常像了,也就是Aspect Based Sentiment Analysis (ABSA)。不说废话了,接下来我们来看看关于ABSA问题都有哪些常用的算法


1. A glance at ABSA(什么是ABSA)

在介绍具体算法之前,先来看一下什么是ABSA?可以粗暴翻译为基于方面的情感分析,本质就是对句子中不同对象可能会存在不同的情感倾向,例如:“I bought a new camera. The picture quality is amazing but the battery life is too short”,这句话中对于target=picture quality,情感是正的;而对于target=battery,情感就是负的了。ABSA任务的目的就是去找出给定句子中的不同target的情感倾向。

一个关于ABSA的PPT介绍


2. Effective LSTMs for Target-Dependent Sentiment Classification(Tang/COLING2016)

在这篇论文里面作者主要是介绍了三种解决ABSA任务的模型:
  • LSTM
  • Target-Dependent LSTM (TD-LSTM)
  • Target-Connection LSTM (TC-LSTM)
LSTM
第一种方法就是直接使用NLP中的万金油模型LSTM,在该模型中,target words是被忽略的,也就是说跟普通的对文本情感分析的做法没有区别,最终得到的也是这个句子的全局情感,可想而知最后的效果一般般。具体做法就是对句子中的token进行embedding处理作为模型的输入,经过一次一次的计算隐层和输入之后得到一个句子表示hn,接着对这个向量进行softmax计算概率, 其中C是情感类别种类。
其基本思想是对于一个target-word,充分考虑其上下文信息,具体来说使用了两个LSTM,从左往右的和从右往左的,分别对target word的左边和右边的信息建模。接着将两个LSTM得到的隐状态hl和hr concat一下,也就得到了关于这个词的句子情感表示,然后一样也是送入到softmax进行分类。除了concat作者也提到可以尝试进行sum或者average。
TC-LSTM

TC-LSTM在TD-LSTM的基础上进一步加强了target-word与句子中每个token的关联,看模型框架就会很清晰,

可以看出,这里在模型输入的时候多加入了一部分:v_target,这样就可以加强target与句子的交互,使得最后的表示更为确切。那么这个 v_target是怎么得到的呢?其实就是简单地对target words的向量表示进行平均化处理得到一个向量。

实验结果比对
注意力结果可视化

Word-Aspect Fusion Attention Layer

在输入经过embedding层和LSTM层之后进入到Word-Aspect Fusion Attention Layer,这也是该模型的重点。

  1. Normalization Layer(optional 在隐状态矩阵和aspect vector进行交互之前可以选择性地对其进行正规化操作,可以选用Batch Normalization;

  2. Associative Memory Operators: 用于计算context word 和 aspect word之间的关系。有两种:

  • circular correlation和circular convolution


  • circular convolution


5. Interactive Attention Networks for Aspect-Level Sentiment Classification(Ma/IJCAI2017)

这篇文章作者的思路也是将target和context进行交互获取句子的准确表达,利用的模型是attention。与上面几个模型不同的在于,这里考虑了target可能存在好几个word组成的短语,另外添加了一层对于target的attention操作用于计算权重。提出了Interactive Attention Networks(IAN), 整体模型框架如下:



  • CCAI 2019 | 这是一封来自2019中国人工智能大会的邀约

  • CVPR2019 |《胶囊网络(Capsule Networks)综述》,附93页PPT下载

  • AiLearning:一个 GitHub万星的中文机器学习资源

  • Multi-task Learning(Review)多任务学习概述

  • 医学图像处理与深度学习入门

  • AI综述专栏 | 多模态机器学习综述

  • 深度学习中不得不学的Graph Embedding方法

  • 学习率和batchsize如何影响模型的性能?

  • 旷视研究院新出8000点人脸关键点,堪比电影级表情捕捉


上一篇:《谁动了我的山头》姑娘有喜[现代情感]
下一篇: