楼主: Studio-R
2241 1

一个故意不通过图灵测试的人工智能(五) [推广有奖]

  • 9关注
  • 12粉丝

教授

1%

还不是VIP/贵宾

-

威望
0
论坛币
38231 个
通用积分
898.8044
学术水平
30 点
热心指数
29 点
信用等级
18 点
经验
25291 点
帖子
636
精华
1
在线时间
1130 小时
注册时间
2016-11-3
最后登录
2024-4-24

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

人工智能能为我们做什么


24.jpg


拥有了超级智能和超级智能所能创造的技术,超人工智能可以解决人类世界的所有问题。气候变暖?超人工智能可以用更优的方式产生能源,完全不需要使用化石燃料,从而停止二氧化碳排放。然后它能创造方法移除多余的二氧化碳。癌症?没问题,有了超人工智能,制药和健康行业将经历无法想象的革命。世界饥荒?超人工智能可以用纳米技术直接搭建出肉来,而这些搭建出来的肉和真肉在分子结构上会是完全相同的——换句话说,就是真肉。

纳米技术能够把一堆垃圾变成一堆新鲜的肉或者其它食品,然后用超级发达的交通把这些食物分配到世界各地。这对于动物也是好消息,我们不需要屠杀动物来获得肉了。而超人工智能在拯救濒危物种和利用DNA复活已灭绝物种上面也能做很多事情。超人工智能甚至可以解决复杂的宏观问题——我们关于世界经济和贸易的争论将不再必要,甚至我们对于哲学和道德的苦苦思考也会被轻易的解决。

但是,有一件事是如此的吸引人,光是想想就能改变对所有事物的看法了:


几个月前,我提到我很羡慕那些可能达成了永生的文明。但是,现在,我已经在认真的考虑达成永生这个事情很可能在我们有生之年就能达成。研读人工智能让你重新审思对于所有事情的看法,包括死亡这一很确定的事情。

自然演化没有理由让我们活得比现在更长。对于演化来说,只要我们能够活到能够生育后代,并且养育后代到能够自己保护自己的年纪,那就够了——对演化来说,活30多岁完全够了,所以额外延长生命的基因突变并不被自然选择所钟爱。这其实是很无趣的事情。

而且因为所有人都会死,所以我们总是说“死亡和缴税”是不可避免的。我们看待衰老就像看待时间一样——它们一直向前,而我们没有办法阻止它们。

但是这个假设是错的,费曼曾经写道:

“在所有的生物科学中,没有任何证据说明死亡是必需的。如果你说你想造永动机,那我们对于物理学的研究已经让我们有足够的理论来说明这是不可能的。但是在生物领域我们还没发现任何证据证明死亡是不可避免的。也就是说死亡不一定是不可避免的,生物学家早晚会发现造成我们死亡的原因是什么,而死亡这个糟糕的‘病’就会被治好,而人类的身体也将不再只是个暂时的容器。”

事实上,衰老和时间不是绑死的。时间总是会继续前进的,而衰老却不一定。仔细想想,衰老只是身体的组成物质用旧了。汽车开久了也会旧,但是汽车一定会衰老吗?如果你能够拥有完美的修复技术、或者直接替换老旧的汽车部件,这辆车就能永远开下去。人体只是更加复杂而已,本质上和汽车是一样的。

Kurzweil提到由Wifi连接的纳米机器人在血液中流动,可以执行很多人类健康相关的任务,包括日常维修,替换死去的细胞等等。如果这项技术能够被完美掌握,这个流程(或者一个超人工智能发明的更好的流程)将能使人的身体永远健康,甚至越活越年轻。一个60岁的人和一个30岁的人身体上的区别只是物理上的,只要技术足够发达我们是能改变这种区别的。

超人工智能可以建造一个“年轻机器”,当一个60岁的人走进去后,再出来时就拥有了年轻30岁的身体。就算是逐渐糊涂的大脑也可能年轻化,只要超人工智能足够聪明,能够发现不影响大脑数据的方法来改造大脑就好了。一个90岁的失忆症患者可以走进“年轻机器”,再出来时就拥有了年轻的大脑。这些听起来很离谱,但是身体只是一堆原子罢了,只要超人工智能可以操纵各种原子结构的话,这就完全不离谱。

Kurzweil的思维继续跳跃了一下,他相信人造材料将越来越多的融入人体。最开始,人体器官将被先进的机械器官所代替,而这些机械器官可以一直运行下去。然后我们会开始重新设计身体,比如可以用自我驱动的纳米机器人代替血红细胞,这样连心脏都省了。Kurzweil甚至认为我们会改造自己的大脑,使得我们的思考速度比现在快亿万倍,并且使得大脑能和云存储的信息进行交流。


我们能获得的新体验是无穷的。人类的性爱,使得人们不但能生育,还能从中享乐。Kurtzweil认为我们可以对食物做同样的改造。纳米机器人可以负责把身体需要的营养物质传送到细胞中,智能的将对身体不好的东西排出体外——就像一个食物避孕套一样。纳米技术理论家Robert A. Freitas已经设计了一种红细胞的替代品,能够让人快速冲刺15分钟不需要呼吸——那么超人工智能能对我们的身体能力做的改造就更加难以想象。虚拟现实将拥有新的意义——体内的纳米机器人将能控制我们从感官获得的信号,然后用别的信号替代他们,让我们进入一个新的环境,在新环境里,我们能听、看、闻、触摸。。。


最终,Kurzweil认为人类会完全变成人工的。有一天当我们看到生物材料,然后觉得生物材料实在太原始了,早年的人体居然是用这样的东西组成的,早期的人类居然会被微生物、意外、疾病杀死。这就是Kurzweil眼中人类最终战胜自己的生理,并且变得不可摧毁和永生,这也是平衡木的另一个吸引态。他深深的想象我们会达到那里,而且就在不久的将来。

Kurzweil的想法很自然的受到了各方的批评。他对于2045年奇点时代的到来,以及之后的永生的可能性受到了各种嘲笑——“书呆子的狂欢”、“高智商人士的创始论”等等。也有人质疑他过于乐观的时间线,以及他对人脑和人体的理解程度,还有他将摩尔定于应用到软件上的做法。有很多人相信他,但有更多人反对他。


但是即使如此,那些反对他的专家并不是反对他所说的一切,反对他的人说的不是“这种事情不可能发生”,而是说“这些当然可能发生,但是到达超人工智能是很难的。”连经常提醒我们人工智能的潜在威胁的Bostrom都这么说:

很难想象一个超级智能会有什么问题是解决不了,或是不能帮着我们解决的。疾病、贫困、环境毁灭、各种不必要的苦难,这些都是拥有纳米科技的超级智能能够解决的。而且,超级智能可以给我们无限的生命,这可以通过停止或者逆转衰老来达成,也可以让我们上传自己的数据。一个超级智能还能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界,让我们享乐。

这是Bostrom这个明显不在信心角的人的观点,但也是很多反对Kurzweil的专家的观点,他们不觉得Kurzweil是在说梦话,只是觉得我们首先要安全达成超人工智能。这也是为什么我觉得Kurzweil的观点很有传染性,他传达了正面的信息,而这些事情都是可能的——如果超人工智能是个仁慈的神的话。

对信心角的最有力的批评,是那些信心角里的人都低估了超人工智能的坏处。Kurzweil的畅销书《The Singularity is Near》700多页,只有20页用来讨论人工智能的危险。前面提到,当超人工智能降临时我们的命运取决于谁掌握这股力量,以及他们是不是好人。Kurzweil的回答是“超人工智能正从多方的努力中出现,它将深深的融入我们文明的基建中。它会亲密的被捆绑在我们的身体和大脑中,它会反映我们的价值,因为它就是我们。”

但如果答案就是这样的话,为什么这个世界上最聪明的一些人会很担忧?为什么霍金会说超人工智能会毁灭人类?为什么比尔盖茨会不理解为什么有人不为此担忧?为什么马斯克会担心我们是在召唤恶魔?为什么那么多专家担心超人工智能是对人类最大的威胁?这些站在焦虑大道上的思想家,不认同Kurzweil对于人工智能的危险的粉饰。他们非常非常担心人工智能革命,他们不关注平衡木下比较有趣的那一个吸引态,而是盯着平衡木的另一边,而他们看到的是可怕的未来,一个我们未必能够逃离的未来。

___________




未来可能是我们最糟的恶梦


我想了解人工智能的一个原因是“坏机器人”总是让我很困惑。那些关于邪恶机器人的电影看起来太不真实,我也没法想象一个人工智能变得危险的真实情况。机器人是我们造的,难道我们不会在设计时候防止坏事的发生吗?我们难道不能设立很多安全机制吗?再不济,难道我们不能拔插头吗?而且为什么机器人会想要做坏事?或者说,为什么机器人会“想要”做任何事?我充满疑问,于是我开始了解聪明人们的想法。

这些人一般位于焦虑大道:

27.jpg


焦虑大道上的人并不是恐慌或者无助的——恐慌和无助在图上的位置是更加左边——他们只是紧张。位于图表的中央不代表他们的立场是中立的——真正中立的人有自己独立的阵营,他们认同极好和极坏两种可能,但是不确定究竟会是哪个。

焦虑大道上的人是部分为超人工智能感到兴奋的——他们只是很担心人类现在的表现。

那究竟是什么让焦虑大道的人们如此焦虑呢?

首先,广义上来讲,在创造超人工智能时,我们其实是在创造可能一件会改变所有事情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么。科学家Danny Hillis把这个比作“就好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。”

Bostrom则担忧创造比自身聪明的东西是个基础的达尔文错误,就好像麻雀妈妈决定收养一只小猫头鹰,并且觉得猫头鹰长大后会保护麻雀一家,但是其它麻雀却觉得这是个糟糕的主意。

当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,你创造出了一个很恐怖的词——生存危机。可能对人类产生永久的灾难性效果的事情。通常来说,生存危机意味着灭绝。下面是Bostrom的图表:

30.jpg



可以看到,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情。它可以包括人类遭受永久苦难的情况,但是这基本上和灭绝没差了。三类事情可能造成人类的生存危机:

1)自然——大型陨石冲撞,大气变化使得人类不能生活在空气中,席卷全球的致命病毒等

2)外星人——霍金、卡尔萨根等建议我们不要对外广播自己的位置。他们不想我们变成邀请别人来殖民的傻子。

3)人类——恐怖分子获得了可以造成灭绝的武器,全球的灾难性战争,还有不经思考就造出个比我们聪明很多的智能

Bostrom指出1和2在我们物种存在的前十万年还没有发生,所以在接下来一个世纪发生的可能性不大。3则让他很害怕,他把这些比作一个装着玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是红色的,只有几个是黑色的。每次人类发明一些新东西,就相当于从罐中取出一个玻璃球。大多数发明是有利或者中立的——那些是白色玻璃球。有些发明对人类是有害的,比如大规模杀伤性武器——这是那些红色玻璃球。还有一些发明是可以让我们灭绝的,这就是那些黑色玻璃球。很明显的,我们还没摸到黑色玻璃球,但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可能的。比如核武器突然变得很容易制造了,那恐怖分子很快会把我们炸回石器时代。核武器还算不上黑色玻璃球,但是差的不远了。而超人工智能是我们最可能摸到的黑色玻璃球。

你会听到很多超人工智能带来的坏处——人工智能取代人类工人,造成大量失业;因为解决了衰老造成的人口膨胀。但是真正值得我们担心的是生存危机的可能性。

于是我们又回到了前面的问题,当超人工智能降临时,谁会掌握这份力量,他们又会有什么目标?

当我们考虑各种力量持有人和目标的排列组合时,最糟糕的明显是:怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能。这会是什么样的情况呢?

怀着恶意的人/组织/政府,研发出第一个超人工智能,并且用它来实现自己的邪恶计划。我把这称作贾法尔情况。阿拉丁神灯故事中,坏人贾法尔掌握了一个精灵,特别让人讨厌。所以如果ISIS手下有一群工程师狂热的研发人工智能怎么办?或者说伊朗和朝鲜,机缘巧合,不小心造成了人工智能的快速发展,达成了超人工智能怎么办?这当然是很糟糕的事,但是大部分专家认为糟糕的地方不在于这些人是坏人,而在于在这些情况下,这些人基本上是不经思考就把超人工智能造出来,而一造出来就失去了对超人工智能的控制。


然后这些创造者,连着其他人的命运,都取决于这个超人工智能的动机了。专家认为一个怀着恶意并掌握着超人工智能的人可以造成很大的伤害,但不至于让我们灭绝,因为专家相信坏人和好人在控制超人工智能时会面临一样的挑战。


如果被创造出来的超人工智能是怀有恶意的,并且决定毁灭我,怎么办?这就是大部分关于人工智能的电影的剧情。人工智能变得和人类一样聪明,甚至更加聪明,然后决定对人类下手——这里要指出,那些提醒我们要警惕人工智能的人谈的根本不是这种电影情节。邪恶是一个人类的概念,把人类概念应用到非人类身上叫作拟人化,本文会尽量避免这种做法,因为没有哪个人工智能会像电影里那样变成邪恶的。


《人工智能》系列连载贴:下一篇
一个故意不通过图灵测试的人工智能(六):https://bbs.pinggu.org/thread-5916045-1-1.html
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


回帖推荐

此如过不 发表于2楼  查看完整内容

影视作品类似超验骇客已经展现过这种未来可能
[url=https://edu.cda.cn/page/110][/url]
沙发
此如过不 发表于 2017-8-14 09:04:31 |只看作者 |坛友微信交流群
影视作品类似超验骇客已经展现过这种未来可能

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-27 06:19