开源“穷人版”摘要生成NLP模型:训练成本低,只要1000个样本就能打败人类
BERT、GPT-2、XLNet等通用语言模型可以应付各类任务,比如文本生成、问答。当这些模型对各种语言任务进行微调时,可以达到SOTA性能。
以上这些NLP模型都是“通才”,在面向特定任务时需要微调,训练数据集也十分庞大,非一般人所能承受。
谷.歌发布的“天马”(PEGASUS)模型,专门为机器生成摘要而生,刷新了该领域的SOTA成绩,并被ICML 2020收录。“天马”模型仅使用1000个样本进行训练,就能接近人类摘要的水平,大大减少了对监督数据的需求,创造了低成本使用的可能性。