楼主: admin
1052 1

危言耸听?人工智能机器人5年内有毁灭人类的可能 [推广有奖]

管理员

站长

泰斗

39%

还不是VIP/贵宾

-

TA的文库  其他...

经管好老师、好资源征集

123

资源好贴

威望
18
论坛币
10453045 个
通用积分
123464.7055
学术水平
1943 点
热心指数
2544 点
信用等级
1906 点
经验
661321 点
帖子
4323
精华
32
在线时间
20956 小时
注册时间
2004-1-1
最后登录
2024-4-28
毕业学校
人大

初级学术勋章 中级热心勋章 初级信用勋章 高级信用勋章 初级热心勋章 特级热心勋章 中级信用勋章 中级学术勋章 高级学术勋章 高级热心勋章

楼主
admin 企业认证  发表于 2016-5-28 17:19:18 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
据英国媒体报道,全球挑战基金会近日发布《2016年全球灾难风险报告》(又被称为末日报告),概述了人类面临的最紧迫全球风险。其中,人工智能、核战争、自然流行病以及气候变化被视为最危险因素,报告作者们认为“终结者”式的杀人机器人可能在5年内灭绝人类。


“末日报告”称,人类正处于空前危险状态,距离被灭绝只差一线之隔。报告中列举了2016年人类面临的最大全球灾难性风险,包括与气候变化有关的天灾、自然传染病(比如禽流感)以及核战争等,它们很有可能在未来5年中发生。

其他风险还包括人造病毒、“地球改造工程”(比如向海洋中添加铁以吸收大气层中的碳)失败以及人工智能带来的灾难性威胁。从历史上看,全球性灾难已经罕有发生。但是一旦发生,意味着将有数百万人死亡。最极端的例子包括1918年发生的流感疫情,导致5000万人死亡,超过一战遇难总人数。20世纪60年代,人类曾无限接近“末日”。当时正是冷战高峰期,核战争一触即发。

与此同时,科幻电影中常见的末日元素,比如小行星撞地球或超级火山爆发,今年却都处于垫底儿位置。这份报告凸显了全球灾难性风险,它们可能抹杀10%人类,也就是7.4亿人。

为了具体化全球灾难性风险,报告中引用车祸进行对比。报告中指出,一个人死于灭绝事件的几率很小,每年仅为0.1%,但却比遭遇交通事故遇难高4倍。而随着二氧化碳排放增加、缺少相应措施和财政投资,这些与气候变化有关的灾难风险还会继续累积。

全球挑战基金会创始人拉兹洛·松鲍特弗尔维(Laszlo Szombatfalvy)解释说:“我希望这份报告能加深人们对全球灾难性风险的了解,同时推动人们寻找应对这些风险的最好方式。”

报告中指出,国际社会需要采取有力措施避免全球温度上升超过上限,那会对粮食安全和人类生命造成破坏性影响。对于世界各国领导人来说,合作是应对危及人类生存的风险的唯一方式。


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:智能机器人 人工智能 危言耸听 机器人 智能机 机器人 小行星 人工智能 英国媒体 气候变化

沙发
crossbone254 发表于 2016-5-28 17:39:50 |只看作者 |坛友微信交流群
是福不是祸,是祸躲不过。一群高智商高地位的人做出来的东西如果毁灭了人类损失最大的是他们。

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 17:46