楼主: 时光永痕
1660 1

[数据挖掘新闻] 是什么推动了NLP和GPT-3的创新? [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)八级

4%

威望
0
论坛币
26 个
通用积分
57.2238
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34180 点
帖子
2732
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

楼主
时光永痕 学生认证  发表于 2020-8-21 10:03:45 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
是什么推动了NLP和GPT-3的创新?
NLP在2019年和2020年取得了长足发展
是什么推动了NLP的飞速发展,这种趋势会继续吗?
这是解释NLP兴起的简单方法
今天,GPT-3展示了一些惊人的结果。有人称它为AGI(人工通用情报)。GPT由OpenAI创建,并获得了Microsoft的大量投资,它代表了Generative Pretrained Transformer。
这三个词为NLP的成功和未来发展提供了线索
让我们从“变形金刚”开始。Transformer于2017年推出,是专为NLP设计的深度学习模型。像递归神经网络(RNN)一样,变形金刚可以处理顺序数据。但是,与RNN不同,由于具有关注机制,因此Transformer不需要按顺序处理数据。与RNN相比,这允许在Transformers中进行更多的并行化。反过来,训练期间的并行化允许在更大的数据集上进行训练。
这又导致了变压器的第二个好处,即可以进行预训练的  模型。这类似于CNN中的转移学习,它使您可以在现有模型的基础上构建更复杂的模型。最早的示例是BERT(来自变压器的双向编码器表示)。BERT本身导致了在特定领域中受过训练的其他模型,例如BioBERT:针对...的预训练生物医学语言表示模型
最后,模型是Generative。GPT-3是最好的例子。GPT-3是基于变压器的模型,使用45TB文本数据和1
结论
变压器机制是推动NLP的主要创新。变压器使新模型可以在其他模型的基础上构建(例如,CNN的“转移学习”方法)。随着在更大的语料库上进行训练的能力的增强,像GPT这样基于变压器的模型将变得更加“神奇”。  

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:NLP Transformers Generative transform Microsoft

沙发
easy0728 发表于 2021-6-19 21:22:11

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-26 21:51