楼主: xujingjun
1173 1

霍金等呼吁提防人工智能副作用 [推广有奖]

  • 7关注
  • 66粉丝

巨擘

0%

还不是VIP/贵宾

-

威望
2
论坛币
18247 个
通用积分
4052.3210
学术水平
299 点
热心指数
390 点
信用等级
264 点
经验
707567 点
帖子
23118
精华
0
在线时间
11531 小时
注册时间
2006-1-2
最后登录
2024-4-25

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
霍金等呼吁提防人工智能副作用英国《金融时报》 蒂姆•布拉德肖 旧金山报道

数十位科学家、企业家及与人工智能领域有关的投资者联名发出了一封公开信,警告人们必须更多地注意人工智能(AI)的安Q性及其社会效益。参加联署的人中包括了科学家史蒂芬•霍金(Stephen Hawking)及企业家埃伦•马斯克(Elon Musk)。

这封发自生命未来研究所(Future of Life Institute,简称FLI)的公开信还附带了一篇论文,其中建议应优先研究“强大而有益”的人工智能。目前,人们日益担心机器的智力和能力可能会超过创造它们的人类,从而影响到人类的就业,甚至影响到人类的长期生存。
这封FLI的公开信表示:“由于人工智能的巨大潜力,开展如何在规避其潜在陷阱的同时获取其好处的研究十分重要。我们的人工智能系统,必须按照我们的意愿工作。”
FLI去年由包括Skype联合创始人让•塔林(Jaan Tallinn)在内的志愿者创立。成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。这其中,在开发与人类相当的人工智能技术过程中出现的那些风险,将是该所关注的重点。

SpaceX和特斯拉(Tesla)的共同创始人马斯克、著名演员摩根•弗里曼(Morgan Freeman)以及宇宙学家史蒂芬•霍金都是FLI科学顾问委Y会的W员。马斯克表示,他相信不受控制的人工智能“可能比核武器更危险”。
这封FLI公开信上的其他联署人还包括机器智能研究所(Machine Intelligence Research Institute)的执行主任吕克•米尔豪泽(Luke Muehlhauser),麻省理工学院(MIT)物理学教授、诺贝尔奖得主弗兰克•维尔切克(Frank Wilczek),人工智能企业DeepMind和Vicarious的幕后主管,以及几名谷歌(Google)、IBM和微软(Microsoft)的员工。
这封信并不以兜售恐惧心理为目的。与此相反,它十分谨慎地同时强调了人工智能的积极面和消极面。
信中写道:“如今存在的一个广泛共识是,人工智能研究正在稳步进展之中,它对社会的影响也很可能会逐渐增大。人类文明所能提供的一切都是人类智慧的结晶。在这种智慧被人工智能可能提供的工具放大后,我们能做到什么是我们无法想象的,不过届时根除疾病和贫困将不再是遥不可及的。从这个意义上说,人工智能有巨大的潜在好处。”
目前,人工智能研究的部分好处已经成为现实,其中包括语音识别和图像识别,以及自动驾驶的汽车。在硅谷,部分人估计如今从事人工智能业务的初创企业超过了150家。
人工智能正吸引越来越多的投资,许多创业家和谷歌等企业都在盼望着能通过建立会自主思考的电脑,获得巨额回报。对于这种局面,FLI警告说,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展研究。
译者/简易

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:人工智能 副作用 Intelligence Institute Microsoft 人工智能 副作用

沙发
skybluuue 发表于 2015-1-13 16:19:48 |只看作者 |坛友微信交流群
这个很高端,就国内的现状来说,如何提高自身的技术创新能力与技术进展速度似乎比提防人工智能的副作用更重要。

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-25 16:57