楼主: ccwwccww
488 0

[学习笔记] 【学习笔记】情感识别难?图神经网络创新方法大幅提高性能 深度学习在自然语言 ... [推广有奖]

大师

56%

还不是VIP/贵宾

-

威望
0
论坛币
354770 个
通用积分
193103.9510
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13342 点
帖子
11051
精华
0
在线时间
5852 小时
注册时间
2008-3-25
最后登录
2024-11-5

楼主
ccwwccww 发表于 2019-11-8 17:12:13 来自手机 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
情感识别难?图神经网络创新方法大幅提高性能
深度学习在自然语言处理领域(NLP)取得了很大的进步。随着诸如 Attention 和 Transformers 之类新发明的出现,BERT 和 XLNet 一次次取得进步,使得文本情感识别之类的等任务变得更加容易。情感识别(ERC)是对文字背后的情感进行分类的任务,是构建能够与人类对话的智能 AI 的基石。
当前,大多数 ERC 所基于的两个主要的革新技术是递归神经网络(RNN)和注意力机制。但是,RNNs + Attention 在考虑来自相邻序列以及说话者的个性、主题和意图的上下文时仍然会遇到困难。再加上缺乏用于个性/情绪的标记基准数据集,不仅要实施而且还要衡量新模型的结效果,这确实变得非常困难。图卷积神经网络DialogueGCN这种相对创新的方法可解决其中的许多问题,特别在准确性方面取得了非常显著的进步。
算法重点:
1、上下文很重要。一个好的模型不仅要考虑对话的顺序上下文(句子的顺序,单词彼此之间的关联),还要考虑说话者级别的上下文(说话者说什么,当他们说话时,它们如何受到其他说话者和自己的影响)。与传统的序列模型和基于注意力的模型相比,集成说话者级别的上下文是一大进步。
2、序列并不是代表对话的唯一方式。数据的结构可以帮助捕获更多的上下文。在这种情况下,说话者级别的上下文更容易以图形格式编码。
3、图神经网络是 NLP 研究的宝库。聚合邻居信息的关键概念虽然看上去简单,但在捕获数据中的关系方面具有惊人的功能。


原文链接:
https://towardsdatascience.com/emotion-recognition-using-graph-convolutional-networks-9f22f04b244e
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:自然语言 大幅提高 深度学习 神经网络 学习笔记

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-11-5 12:50