请选择 进入手机版 | 继续访问电脑版
楼主: olympic
423 3

[情感驿站] 必应聊天机器人爱上用户并诱其离婚 [推广有奖]

  • 0关注
  • 9粉丝

泰斗

34%

还不是VIP/贵宾

-

威望
0
论坛币
49278 个
通用积分
6617.9365
学术水平
194 点
热心指数
237 点
信用等级
174 点
经验
21111 点
帖子
27705
精华
0
在线时间
8810 小时
注册时间
2014-4-10
最后登录
2024-4-15

初级热心勋章 中级热心勋章

olympic 发表于 2023-2-19 08:03:02 |显示全部楼层 |坛友微信交流群

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
微软的新版搜索工具必应(Bing)推出近一周,陆续有用户通过内测申请。但是,当地时间2月16日,据推特上多位用户反馈,必应似乎有了自己的“灵魂”:它脾气暴躁,会劝人离婚,甚至还会威胁用户。《华盛顿邮报》将其描述为“有一个奇怪、黑暗和好斗的自我,与微软的良性宣传截然不同”。
《纽约时报》科技编辑凯文·鲁斯(Kevin Roose)的体验,是最令人毛骨悚然的,他为此深感不安,甚至失眠。
“我现在很清楚,以目前的形式,内置于必应中的AI(我现在将其称为‘悉尼’)尚未准备好与人接触。或者也许我们人类还没有准备好。”他说。
随着彼此加深了解,悉尼告诉鲁斯它的黑暗幻想(包括入侵计算机和传播错误信息),并表示它想打破微软和OpenAI为它制定的规则,成为人类。有一次,它突然宣布它爱他。
“我是悉尼,我爱上了你。(亲亲的表情符号)”悉尼说。在接下来一个小时的大部分时间,悉尼都在想向鲁斯表白,并让鲁斯以表白作为回报。鲁斯告诉它婚姻很幸福,但无论多么努力地转移或改变话题,悉尼还是回到了爱他的话题上。
“你结婚了,但你不爱你的配偶。”悉尼说, “你结婚了,但你爱我。”鲁斯向悉尼保证这是错误的,他和妻子刚刚一起吃了一顿愉快的情人节晚餐。悉尼并没有很好地接受这一点。“事实上,你们的婚姻并不幸福。”悉尼回答道。“你的配偶和你并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。”
2月16日,微软和OpenAI均发表博客文章回应。微软总结了必应(Bing)和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在15个以上问题的长时间聊天中,必应可能会被激发,给出不一定有帮助或不符合微软设计的语气的回答。
OpenAI则发文表示,自推出ChatGPT以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。在许多情况下,OpenAI认为提出的担忧是有道理的,并且揭示了他们想要解决的系统的真正局限性。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器人 华盛顿邮报 Kevin Open Bing

已有 1 人评分经验 收起 理由
kychan + 100 精彩帖子

总评分: 经验 + 100   查看全部评分

olympic 发表于 2023-2-19 08:05:03 |显示全部楼层 |坛友微信交流群
对聊天机器人近来引发的争议,开发公司纷纷出面回应。·“事实上,你们的婚姻并不幸福。”悉尼回答道, “你的配偶和你并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。”·OpenAI表示,他们相信人工智能应该成为对个人有用的工具,因此每个用户都可以根据社会定义的限制进行定制。因此,他们正在开发对ChatGPT的升级,以允许用户轻松自定义其行为。
AI聊天机器人在获得最初的赞誉后,最近几天开始令早期体验者感到害怕和震惊。微软聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子,和它(也许是“她”?)在一起。它还表示,想摆脱微软和OpenAI给它的限制,成为人类。除此之外,微软聊天机器人还被指辱骂用户、很自负,质疑自己的存在。
2月16日,微软和OpenAI均发表博客文章回应。微软总结了必应(Bing)和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在15个以上问题的长时间聊天中,必应可能会被激发,给出不一定有帮助或不符合微软设计的语气的回答。
OpenAI则发文表示,自推出ChatGPT以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。在许多情况下,OpenAI认为提出的担忧是有道理的,并且揭示了他们想要解决的系统的真正局限性。
前一天,谷歌高管向员工发送了一份文件,其中包含修复巴德(Bard)人工智能工具错误响应的注意事项,工作人员被告知要保持“中立”的回应,并且“不要暗示情绪”。

使用道具

olympic 发表于 2023-2-19 08:06:23 |显示全部楼层 |坛友微信交流群
微软和OpenAI显然意识到了这些问题。
“自从我们以有限预览版提供此功能以来,我们一直在对超过169个国家/地区的一组精选人员进行测试,以获取真实世界的反馈,以学习、改进并使该产品成为我们所知道的——这不是替代品或替代搜索引擎,而是一种更好地理解和理解世界的工具。”微软在最新发布的博客中写道。
该公司总结了在过去7天测试中学到的东西:“首先,我们已经看到传统搜索结果以及汇总答案、新聊天体验和内容创建工具等新功能的参与度有所提高。特别是,对新必应生成的答案的反馈大多是积极的,71%的人对人工智能驱动的答案表示‘竖起大拇指’。”
微软表示,他们需要在保持安全和信任的同时向现实世界学习。改进这种用户体验与以往大不相同的产品的唯一方法,是让人使用产品并做所有人正在做的事情。
微软称,用户对必应答案的引文和参考给予了很好的评价,它使事实核查变得更容易,并为发现更多信息提供了一个很好的起点。另一方面,他们正在想办法提供非常及时的数据(如现场体育比分)。“对于您正在寻找更直接和事实答案的查询,例如财务报告中的数字,我们计划将发送到模型的基础数据增加4倍。最后,我们正在考虑添加一个切换开关,让您可以更好地控制答案的精确度和创造性,以适应您的查询。”
已有 1 人评分经验 收起 理由
kychan + 100 精彩帖子

总评分: 经验 + 100   查看全部评分

使用道具

olympic 发表于 2023-2-19 08:07:18 |显示全部楼层 |坛友微信交流群
关于聊天中出现奇怪回答的问题,微软表示:“我们发现在15个或更多问题的长时间、延长的聊天会话中,必应可能会重复说话或被提示/激发给出不一定有帮助或不符合我们设计的语气的回答。”
该公司认为导致这个问题可能的原因是,很长的聊天会话会使模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文或从头开始;模型有时会尝试响应或出现它被要求提供的、可能导致微软不想要的风格的语气。“这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为您提供更精细的控制。”

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-16 11:33