楼主: 2023Hua
34 0

[其他] 6个问题讲清楚LoRA微调 [推广有奖]

  • 0关注
  • 22粉丝

已卖:1997份资源

大师

21%

还不是VIP/贵宾

-

威望
1
论坛币
556 个
通用积分
575.5027
学术水平
66 点
热心指数
130 点
信用等级
37 点
经验
114043 点
帖子
6756
精华
0
在线时间
2963 小时
注册时间
2022-8-18
最后登录
2026-3-2

楼主
2023Hua 在职认证  发表于 9 小时前 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
6个问题讲清楚LoRA微调
举例说明什么是LoRA
假设大模型原始权重矩阵(W) 是 :


全量微调需要更新全部5×4=20个参数
假设微调后的参数是:


其中增量权重矩阵可以进行LoRA 低秩分解:
              △W=A·B


(A) 有 5×2=10 个参数。
(B) 有 2×4=8 个参数。
LoRA 总参数:1 0 + 8 = 1 8 个
结论:通过LoRA 微调,调参对象从W变为A、B, 使得参数量从20个减少为18个,这是简化 的例子。在
实际案例中,参数量可以减少为0.01%~3%左右。
LoRA 开山论文:2021 年 Microsoft Research 提出,首次提出了通过低秩矩阵分解的方式来进行部分
参数微调,极大推动了 AI 技术在多行业的广泛落地应用:LoRA: Low-Rank Adaptation of Large
Language Models
为什么需要LoRA
它的目标是解决大模型微调中的两大痛点
资源消耗太大              训练效率低下
大型语言模型动辄几亿甚至几千亿参数,全参数   ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Adaptation Microsoft Research Language Researc

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-3 17:22