楼主: ccwwccww
1080 1

[学习笔记] 【学习笔记】注意力(Attention)机制 注意力(Attention)机制在近几年来在图 ... [推广有奖]

已卖:2469份资源

大师

57%

还不是VIP/贵宾

-

威望
0
论坛币
349637 个
通用积分
193046.0295
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13385 点
帖子
11027
精华
0
在线时间
6041 小时
注册时间
2008-3-25
最后登录
2025-7-31

楼主
ccwwccww 发表于 2019-8-4 23:59:33 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
注意力(Attention)机制
注意力(Attention)机制在近几年来在图像,自然语言处理等领域中都取得了重要的突破,被证明有益于提高模型的性能。Attention机制本身也是符合人脑和人眼的感知机制,注意力机制的本质就是定位到感兴趣的信息,抑制无用信息,结果通常都是以概率图或者概率特征向量的形式展示,从原理上来说,主要分为空间注意力模型,通道注意力模型,空间和通道混合注意力模型三种,它们分别学习了通道、空间的重要性,还可以很容易地嵌入到任何已知的框架中。
除此之外,还有很多的注意力机制相关的研究,比如残差注意力机制,多尺度注意力机制,递归注意力机制等。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Attention 学习笔记 ATT ten 注意力

已有 1 人评分论坛币 收起 理由
经管之家编辑部 + 30 精彩帖子

总评分: 论坛币 + 30   查看全部评分

沙发
经管之家编辑部 在职认证  发表于 2019-8-5 07:23:52
学习笔记奖!

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-24 05:21