楼主: Mujahida
93 0

[其他] ICML-EL-Attention Memory Efficient Lossless Attention for Generation [推广有奖]

已卖:5665份资源

泰斗

0%

还不是VIP/贵宾

-

威望
0
论坛币
13312 个
通用积分
711.3950
学术水平
459 点
热心指数
484 点
信用等级
414 点
经验
115999 点
帖子
4683
精华
0
在线时间
16723 小时
注册时间
2013-1-2
最后登录
2025-12-14

楼主
Mujahida 在职认证  发表于 2025-8-10 17:41:40 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
EL-Attention: Memory Efficient Lossless Attention for Generation

  Yu Yan 1 Jiusheng Chen 1 Weizhen Qi * 2 Nikhil Bhendawade * 1 Yeyun Gong * 3 Nan Duan 3 Ruofei Zhang 4

             Abstract                pruning layer (Fan et al., 2019) or training a smaller stu-
                                 dent model (Shleifer & Rush, 2020). Another way is non-
    Transformer model with multi-head attention re-      autoregressive generation (Gu et al., 2018; Lee et al., 2018;
    quires caching inte ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Generation Attention EFFICIENT ration memory

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 03:45