楼主: ccwwccww
764 0

[学习笔记] 【学习笔记】开源“穷人版”摘要生成NLP模型:训练成本低,只要1000个样本就能 ... [推广有奖]

大师

55%

还不是VIP/贵宾

-

威望
0
论坛币
367079 个
通用积分
193149.7926
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13217 点
帖子
11027
精华
0
在线时间
5739 小时
注册时间
2008-3-25
最后登录
2024-5-13

楼主
ccwwccww 发表于 2020-6-14 16:51:50 来自手机 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
开源“穷人版”摘要生成NLP模型:训练成本低,只要1000个样本就能打败人类
BERT、GPT-2、XLNet等通用语言模型可以应付各类任务,比如文本生成、问答。当这些模型对各种语言任务进行微调时,可以达到SOTA性能。
以上这些NLP模型都是“通才”,在面向特定任务时需要微调,训练数据集也十分庞大,非一般人所能承受。

谷.歌发布的“天马”(PEGASUS)模型,专门为机器生成摘要而生,刷新了该领域的SOTA成绩,并被ICML 2020收录。“天马”模型仅使用1000个样本进行训练,就能接近人类摘要的水平,大大减少了对监督数据的需求,创造了低成本使用的可能性。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:学习笔记 摘要生成 NLP 习笔记 训练数据集

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-13 16:53