自注意力可以替代CNN,能表达任何卷积滤波层丨代码已开源
像素层面上,CNN能做的,自注意力(self-attention)也都能做。统御NLP界的注意力机制,不仅被迁移到了计算机视觉中,最新的研究还证明了:CNN卷积层可抽取的特征,自注意力层同样可以。
这项工作来自洛桑理工学院的博士生Jean-Baptiste Cordonnier,致力于无监督知识提取、图神经网络、自然语言处理和分布式优化的研究。研究表明:只要有足够的头(head)和使用相对位置编码,自注意力可以表达任何CNN卷积滤波层。
论文中选ICLR 2020,在Twitter上也受到了广泛的关注。论文地址:https://arxiv.org/abs/1911.03584