楼主: 时光人
617 2

[网帖精选] OpenAI发布完整版自动文本生成系统 专家担忧被滥用 [推广有奖]

  • 3关注
  • 34粉丝

院士

23%

还不是VIP/贵宾

-

威望
1
论坛币
26907 个
通用积分
428.9260
学术水平
95 点
热心指数
109 点
信用等级
91 点
经验
39960 点
帖子
1629
精华
3
在线时间
579 小时
注册时间
2019-2-25
最后登录
2023-4-26

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

CDA网校:数据科学、人工智能从业者的在线大学。

数据科学(Python/R/Julia)数据分析、机器学习、深度学习


11月8日消息,据外媒报道,人工智能研发组织OpenAI日前发布了其完整版的自动文本生成AI系统,专家警告称该系统可能被用于恶意目的。

OpenAI最初在今年2月宣布了名为GPT-2的系统,但由于担心它会被用来传播假新闻、垃圾邮件和虚假信息,因此保留了该程序的完整版本。但该机构发布了不太复杂的GPT-2简化版本,借此研究人们对其接受情况。OpenAI现在表示,该组织没有看到GPT-2“被滥用的确凿证据”,为此决定发布其完整版本。

GPT-2是新一代文本生成系统的一部分,这些系统给专家留下了深刻印象,它们能够从最少的提示中生成连贯的文本。该系统接受了从网上抓取的800万份文本文档的培训,并对用户提供的文本片断作出响应。例如,给它个假标题,它就能写出新闻报道;给它一首诗的第一行,它就能续写整首诗。

要弄清楚GPT-2的输出有多好有点儿困难,但该模型经常产生既令人害怕又令人信服的文字,这些文字常常会给人一种充满智慧的感觉。不过,随着使用这个系统的时间足够长,它的局限性也变得很明显,尤其是其面临长期一致性的挑战。例如,在故事中始终如一地使用同样的人名或坚持某个角色独有的个性。

除了推出GPT-2的更多原始功能外,该模型的发布也是关于AI研究人员减轻其工作造成伤害的责任的持续辩论的一部分。专家指出,容易获得的尖端AI工具可能也更容易滥用。例如,我们已经看到使用深度伪造(deepfakes)来生成复仇色情内容的趋势。由于这种担忧,OpenAI限制了其模型的发布。

然而,并不是每个人都对OpenAI的做法表示欢迎。许多专家批评这一决定,称此举限制了其他人可以为减轻该模型危害而进行的研究,而且它也引发了关于“AI危险”的不必要炒作。研究人员Delip Rao曾说:“‘太危险’这个词在没有经过深思熟虑或实验的情况下就被随意抛出了。我不认为OpenAI花了足够的时间来证明GPT-2真是危险的。”

在本周发布的完整版中,OpenAI指出,GPT-2可能被误用,该组织还援引第三方研究称,该系统可能有助于对极端意识形态立场进行“广泛宣传”。它也承认,担心该系统会被用来产生大量连贯的垃圾邮件,使社交媒体等在线信息系统不堪重负,但这些担心尚未成为现实。

OpenAI还指出,其研究人员已经创建了自动系统,可以约95%的准确率识别GPT-2的输出内容,但这个数字还不够高,不足以进行“独立检测”,这意味着任何用于自动识别假文本的系统都需要与人类审核人员配合。这类合作并不罕见,因为这些任务经常依赖于人类来识别假图像和视频。

OpenAI表示,它将继续观察GPT-2如何被社区和公众使用,并将进一步制定其负责任AI研究的政策。


关注“AIU人工智能”公众号,回复“白皮书”获取数据分析、大数据、人工智能行业白皮书及更多精选学习资料!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


已有 1 人评分经验 收起 理由
yunnandlg + 100 精彩帖子

总评分: 经验 + 100   查看全部评分

沙发
时光人 学生认证  发表于 2019-11-11 11:58:31 |只看作者 |坛友微信交流群

使用道具

藤椅
时光人 学生认证  发表于 2019-11-11 11:59:58 |只看作者 |坛友微信交流群

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 21:57