楼主: OEXN
464 0

[其它] 英伟达推出NeMo Guardrails,ChatGPT的安全隐患是否解决? [推广有奖]

  • 0关注
  • 1粉丝

教授

18%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
109.2983
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
9230 点
帖子
571
精华
0
在线时间
192 小时
注册时间
2021-3-17
最后登录
2023-8-18

楼主
OEXN 发表于 2023-4-27 14:31:59 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币


OEXN报道:自从ChatGPT自去年爆火后,它的安全问题的警告也层出不穷,为了追求“更安全”的文本生成模型英伟达公司在周二发布了“NeMo Guardrails”的开源工具包,旨在使基于 AI 应用程序更加“准确、合理、切合主题和安全”。



对此英伟达的高管表示:“大家都意识到了大型AI生成语言模型的力量,因为用一种安全可靠的力量部署是十分重要的。”并且他指出,公司已经在Guardrails的底层系统上工作了"多年",大概在一年前就意识到了它很适合GPT-4和ChatGPT这样的模型。

具体来说,Guardrails 可用于防止模型偏离主题,以不准确的信息和极为负面的语言作为响应,不过英伟达也承认工具包也并非十分完美,也无法涵盖所有问题。

高盛分析师表示:“撇开技术有效性不谈, Guardrails作为该公司NeMo框架的一部分,可通过英伟达企业AI软件套件和NeMo完全管理的云服务所得,任何公司要是都能实施 Guardrails的开源版本,那么英伟达肯定希望这些公司为托管付费。”


OEXN的分析师表示:“随着AI的发展需要大量持续的研究,Guardrails 为释放社区的巨大能量及推动AI安全作出了贡献,英伟达也在尽力帮助企业确保他们在AI服务上满足功能安全、以及隐私安全,从未让这些创新引擎中保持正规。”

他指出生成式AI模型和大型语言模型一个主要挑战的是用户可能得到不适当或不准确的回应的风险。









二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Rails GUARD 安全隐患 Rail chat

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-2 08:25