楼主: Barda-2025
65 0

[其他] 计算视觉Self-Distillation Amplifies Regularization in Hilbert Space [推广有奖]

  • 0关注
  • 2粉丝

已卖:146份资源

学科带头人

32%

还不是VIP/贵宾

-

威望
0
论坛币
18 个
通用积分
119.4777
学术水平
4 点
热心指数
13 点
信用等级
2 点
经验
20933 点
帖子
1755
精华
0
在线时间
776 小时
注册时间
2023-7-5
最后登录
2025-12-18

楼主
Barda-2025 发表于 2025-8-11 07:10:56 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
Self-Distillation Amplies Regularization
             in Hilbert Space

         Hossein Mobahi    Mehrdad Farajtabar§   Peter L. Bartlett
     hmobahi@google.com    farajtabar@google.com    bartlett@eecs.berkeley.edu
             Google Research, Mountain View, CA, USA
              § DeepMind, Mountain View, CA, USA
        EECS Dept., University of California at Berkeley, Berkeley, CA, USA

                       Abstract
     Knowledge distillation introduced in the deep learning conte ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Regular hilbert ATION Still Space

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-21 11:23