楼主: Lotus_ss
59 0

[其他] 大模型的本地部署和微调 [推广有奖]

  • 0关注
  • 76粉丝

已卖:3862份资源

学术权威

33%

还不是VIP/贵宾

-

威望
0
论坛币
2262 个
通用积分
326.3520
学术水平
225 点
热心指数
225 点
信用等级
191 点
经验
85768 点
帖子
2353
精华
0
在线时间
5059 小时
注册时间
2020-1-27
最后登录
2026-3-25

楼主
Lotus_ss 在职认证  发表于 2026-3-9 07:14:05 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
+大模型的本地 部署和微调
大任智库服务—DeepSeek深度应用及创新实践培训与辅导
陈念东江苏大任智库AI技术总监AI研究与应用领域资深专家
目 录1、大模型在垂直领域使用时为啥需要修改或增强2、检索增强生成RAG和微调Fine-tunning选择3、微调的种类和相关工具框架介绍4、RAG、Fine-tunning微调时费用常见的估算方法5、实际微调l Prompt Learning中常使用的技巧介绍        现场演示Prompt微调实列l LoRA中的常用技巧介绍        现场演示LoRA微调实列l RLHF常用技巧介绍        现场演示RLHF微调实列6、大模型垂直领域部署失败的原因介绍
大任智库服务—DeepSeek深度应用及创新实践培训与辅导
大模型在垂直领域使用时为啥需要修改或增强l目前大模型存在的问题                幻觉问题:LLM 有时会生成看似合理但实际错误的内容,这种现象被称 为“幻觉” 。 这主要是由于预训练数据的局限性,模型可能缺乏特定领 域的知识,或在数据中学习到错误信息。                时效性问题:LLM 的训练数据通常截至于特定时间点,因此无法处理训 练后发生的事件或更新的信息。 这在需要实时信息的应 ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Learning tunning earning prompt Learn

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-26 09:57