楼主: ccwwccww
849 2

[学习笔记] 【学习笔记】自注意力可以替代CNN,能表达任何卷积滤波层丨代码已开源 像素层 ... [推广有奖]

大师

55%

还不是VIP/贵宾

-

威望
0
论坛币
366650 个
通用积分
193144.2804
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13217 点
帖子
11027
精华
0
在线时间
5755 小时
注册时间
2008-3-25
最后登录
2024-5-22

楼主
ccwwccww 发表于 2020-1-26 22:13:18 来自手机 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
自注意力可以替代CNN,能表达任何卷积滤波层丨代码已开源

像素层面上,CNN能做的,自注意力(self-attention)也都能做。统御NLP界的注意力机制,不仅被迁移到了计算机视觉中,最新的研究还证明了:CNN卷积层可抽取的特征,自注意力层同样可以。

这项工作来自洛桑理工学院的博士生Jean-Baptiste Cordonnier,致力于无监督知识提取、图神经网络、自然语言处理和分布式优化的研究。研究表明:只要有足够的头(head)和使用相对位置编码,自注意力可以表达任何CNN卷积滤波层。

论文中选ICLR 2020,在Twitter上也受到了广泛的关注。论文地址:https://arxiv.org/abs/1911.03584
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:学习笔记 注意力 CNN 习笔记 Attention

沙发
512661101 发表于 2020-1-26 23:43:11 来自手机 |只看作者 |坛友微信交流群

使用道具

藤椅
jessie68us 发表于 2020-1-27 00:12:25 来自手机 |只看作者 |坛友微信交流群

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-6-18 18:37