楼主: Mama-2022
83 0

[其他] 14-混合专家模型(MoEs)技术揭秘 [推广有奖]

  • 0关注
  • 14粉丝

已卖:1272份资源

院士

92%

还不是VIP/贵宾

-

威望
0
论坛币
754 个
通用积分
309.1723
学术水平
25 点
热心指数
114 点
信用等级
16 点
经验
67363 点
帖子
2884
精华
0
在线时间
1707 小时
注册时间
2022-5-14
最后登录
2025-11-20

楼主
Mama-2022 发表于 2025-10-10 07:08:49 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
混合专家模型(MoEs)技术揭秘
      彭靖田
  Google Developer Expert
目录
     混合专家模型(Mixture-of-Experts, MoEs)技术发展简史
       开山鼻祖:自适应局部专家混合( Michael I. Jordan & Hinton, 1991)
       多层次混合:深度MoEs中的表示学习( Ilya, 2013)
       稀疏门控:支持超大网络的MoEs(Hinton & Jeff Dean, 2017)
     MoEs 与 大模型结合后的技术发展
       GShard:基于 MoE 探索巨型 Transformer 网络(Google, 2020)
       GLaM:使用 MoE 扩展语言模型性能(Google, 2021)
       Switch Transformer:使用稀疏技术实现万亿模型(Google, 2022)
       MoEs 实例研究:Mixtral-8x7B-v0.1(Mistral AI, 2023)
Mixtral 8x7B :质 ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:transform developer Michael Mixture Develop

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-1 14:19