楼主: ccwwccww
395 0

[学习笔记] 【学习笔记】史上最大AI语言模型——GPT-3又迭代了,现在有1750亿个参数。45T ... [推广有奖]

大师

56%

还不是VIP/贵宾

-

威望
0
论坛币
357397 个
通用积分
193114.8414
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13352 点
帖子
11052
精华
0
在线时间
5823 小时
注册时间
2008-3-25
最后登录
2024-9-21

楼主
ccwwccww 发表于 2020-6-1 17:33:43 来自手机 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
史上最大AI语言模型——GPT-3又迭代了,现在有1750亿个参数。45TB数据,会编故事,还会三位数加减法
OpenAI表示,通过GPT-3,他们证明了无需梯度更新,无需微调,规模更大的语言模型就可以大大改善无关任务和小样本(few-shot)学习的性能,达到最先进微调方法的水准。
在部分任务中,甚至超越了最先进微调方法。
达到这样的效果,不需要梯度更新,不需要微调。只需要指定任务、展示少量演示,来与模型文本交互,就能使其完成任务。
这样一来,一方面,对于新任务,就不需要重新收集大量带标签的数据。另一方面,可以避免微调阶段出现过拟合,导致模型泛化能力下降的问题。而实现的关键,总结起来就是:大力出奇迹。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:学习笔记 习笔记 Shot Open Few

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-10-5 23:35