楼主: Rita2029
8 0

[其他] AI大模型LLM-大模型微调预训练论文 [推广有奖]

  • 0关注
  • 0粉丝

已卖:186份资源

学科带头人

77%

还不是VIP/贵宾

-

威望
1
论坛币
57 个
通用积分
111.5487
学术水平
12 点
热心指数
43 点
信用等级
9 点
经验
29690 点
帖子
1607
精华
0
在线时间
890 小时
注册时间
2024-1-22
最后登录
2026-3-2

楼主
Rita2029 发表于 昨天 14:44 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
用于 NLP 的参数高效迁移学习.pdf            852.0 KB
统一的多模态理解和生成模型:进步、挑战和机遇.pdf            1.6 MB
The Power of Scale for Parameter-Efficient Prompt Tuning.pdf            535.0 KB
QLORA Efficient Finetuning of Quantized LLMs.pdf            1.0 MB
P-Tuning v2  Prompt Tuning Can Be.pdf            679.0 KB
Prefix-Tuning Optimizing Continuous Prompts for Generation.pdf            1.5 MB
LORA.pdf            1.5 MB
GPT Understands, Too.pdf            1.5 MB
BriLLM:类脑大型语言模型.pdf            1.0 MB


大模型微调预训练论文.zip (7.94 MB, 需要: RMB 10 元)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:LLM Optimizing Understand Generation Continuous

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-2 17:49