楼主: 2023Hua
103 0

[其他] 计算视觉ViLBERT Pretraining Task-Agnostic Visiolinguistic Representations for V ... [推广有奖]

  • 0关注
  • 22粉丝

已卖:1930份资源

大师

20%

还不是VIP/贵宾

-

威望
1
论坛币
517 个
通用积分
575.0481
学术水平
66 点
热心指数
130 点
信用等级
37 点
经验
113870 点
帖子
6738
精华
0
在线时间
2932 小时
注册时间
2022-8-18
最后登录
2025-12-19

楼主
2023Hua 在职认证  发表于 2025-8-11 08:55:41 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
ViLBERT: Pretraining Task-Agnostic Visiolinguistic
  Representations for Vision-and-Language Tasks

            Jiasen Lu1 , Dhruv Batra1,3 , Devi Parikh1,3 , Stefan Lee1,2
     1
       Georgia Institute of Technology, 2 Oregon State University, 3 Facebook AI Research

                         Abstract
       We present ViLBERT (short for Vision-and-Language BERT), a model for learning
       task-agnostic joint representations of image content and natural language. We
       extend the popular ...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Presentation Presentatio linguistic represent Training

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-21 18:10