楼主: 时光永痕
3651 0

[数据挖掘新闻] 基于 Transformer 的预训练语言模型 (TPTLM) 的分类 [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)八级

12%

威望
0
论坛币
26 个
通用积分
57.2238
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34180 点
帖子
2732
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

楼主
时光永痕 学生认证  发表于 2022-3-29 15:57:55 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
基于 Transformer 的预训练语言模型 (TPTLM) 是一个复杂且快速增长的 AI 领域,因此我推荐这篇论文作为理解和导航领域的好方法

我们可以从四个角度对 TPTLM 进行分类

预训练语料库
模型架构
SSL 的类型(自我监督学习)和
扩展
预训练基于语料库的模型
通用预训练:GPT-1、BERT 等模型在通用语料库上进行了预训练。例如,GPT-1

在书籍语料库上进行了预训练,而 BERT 和 UniLM 在英语维基百科和书籍语料库上进行了预训练。

这种形式的培训更普遍,来自多个信息源

基于社交媒体:您可以使用社交媒体对模型进行训练

基于语言:模型可以在单语或多语种语言上进行训练。

建筑学
TPTLM 可以根据其架构进行分类。T-PTLM 可以使用一堆编码器或解码器或两者进行预训练。

因此,您可以拥有基于

基于编码器
基于解码器
基于编码器-解码器
SSL
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:transform Former Trans form For

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-2-15 19:41