地球上的人口数量只是几十亿而已,因此,我们得到了一个悲剧性的结论,那就是为了避免人类被人工智能机器种族灭绝,人类不得不进行内部的战争,并且(或基本上)杀完自己。
这场我所谓的“人工智能战争”将会是历史上最波澜壮阔的,因为从来都没有如此高的赌注,那就是整个人类的生存。战争将用21世纪的武器进行,因此伤亡数字也将是21世纪的数量级。
悲哀的是,对于这个令人沮丧的情形,尽管我尽了很多的个人努力仍然无法找到脱离困境的办法。我夜不能寐,试图找到可以避免“大规模死亡”的现实办法。我没有成功,这让我感到非常的悲哀。事实上,我是如此的悲观,以至于我很高兴我现在还活着,至少我会寿终正寝。但是我很为我的后代担心,他们可能正好处于这样的恐怖时代,而且随时有可能会被毁灭。
对我这样的年纪来说,我可能会在30~40年后死去,这段时间可能看不到人工智能战争—— 这个潘多拉盒子的开启。我认为,可能需要更长的时间来让人们掌握那些制造超智能的人工大脑或者人工智能机器所必要的知识。然而,我这辈子可以看到的也就是围绕本书所提出的人工智能问题展开的激烈争论。
越来越多像我一样的研究者和教授们开始意识到这个问题,他们在媒体或书本上向大众声称21世纪将会看到超级人工智能机器的出现。但是至今我是唯一一个预言超级人工智能会带来大战的人,也就是所谓的“人工智能的战争”。
因此,这个观点开始引起世界媒体的注意,像美国、英国、法国和荷兰都开始关注这个问题。事实上我认为,几年之后,这些问题就会脱离学术范围的局限,而逐渐被普通大众接受,引起政治、宗教、国防等领域的关注。
“人工智能的战争”看起来像科幻小说,是对未来的预言,好像多数人都不会太担心,但是随着机器变得越来越聪明,对此的恐惧将越来越深。
那么我对这个问题的态度呢?我为什么要写这本书呢?在内心深处,我是一个宇宙主义者。我认为如果人类不制造人工智能机器,那么将是宇宙的悲剧。为了解释我为什么是宇宙主义者,先让我来讲一个小故事。
试想一下,你是一个拥有神一样能力的ET(外星人),你30亿年前来到了地球。你观察那个时候地球生命的形式,发现它们还是处在非常原始的单细胞阶段。你挥舞一下手中的魔力小棍,改变了地球上所有细菌的DNA,以至于(根据某个论点)让它们永远都不能进化到多细胞生物。因此,永远都不会有植物、动物,没有人类,没有爱因斯坦,没有贝多芬第九交响曲。那不是灾难是什么?当多细胞生物出现在地球,无数的细菌将被它们吃掉。地球上多细胞生物的进化没有对细菌表示任何怜惜。
我希望你理解这个类比。如果我们制造人工智能机器导致人类最终被灭绝,拥有神一样智慧的机器人会创造出怎样的、类似贝多芬第九交响曲一样的奇迹呢?作为人类,我们太愚蠢了,以至于想象不出。我们是如此的低等以至于没有能力去鉴赏这些。就像让老鼠来研究爱因斯坦广义相对论一样,人类根本就不可能去理解,因为我们根本就不具备理解这些所必需的神经电路。
但是你会问,如果我内心里是一个宇宙主义者,那我为什么写这本书呢?答案是,我不是100%的宇宙主义者。如果我是个纯粹的宇宙主义者,那么我将会安安静静地从事我的人工大脑制造研究,而不会去向公众敲响人工智能问题的警钟。当我临终之时,我会为我被认为是“人工大脑之父”而自豪,但是如果历史谴责我是“大规模死亡之父”的话,那么这个前景真的让我很害怕。我第二任妻子的母亲仍然对奥斯维辛集中营的纳粹生活非常后怕。我清楚大屠杀给人类情感上带来的阴影是会伴随人一辈子的。
我写本书的目的是给出一个警告,我认为在宇宙主义者的工作发展到一定程度前,应该给予人类机会去选择停止他们的工作,如果那是大多数人的选择。我应该停止我的人工大脑研制工作吗?答案是否定的。我认为制造近于人类程度的人工智能机器是非常困难的事情,需要几十年的时间去解决。在未来30~40年内,机器人的人工智能将发展得足够高,而变得对人类非常有用。机器人将负责大多数的工作,它们会从事很多枯燥、肮脏和危险的工作。人类将会从这些工作中解脱出来,转而去从事更有回报的工作,去做更有趣的事情。
现在停止人工大脑的研究是很不明智的。然而,当人工大脑真正开始变得聪明起来,并且非常迅速地变得非常聪明以至于(在处于一个“拐点”的时候)成为威胁时,人类就应该准备决定是否继续。在这个关系到整个人类生存与否的问题上做出正确的决定是非常重要的,而对人工智能问题的必要讨论则应该越早越好。在人工智能时代来临之前,应该有足够的时间去理解这个问题的复杂程度。
在公开场合,我是地球主义者,我在试着警告大家。私底下,我又是一个宇宙主义者。就像我在本书中提到的,这个问题困扰着我,让我左右为难。当人工智能的辩论真正开始后,数十亿人将会和我有同样的感受。从地球主义者的视角看,作为一个宇宙主义者就像一个“种族怪物”一样(物种杀手),他会接受人类将被消灭的风险。这是这个形式的固有本质。是否要制造这些人工智能机器只有两个答案—— 制造或者不制造。决定制造它们的同时就是接受它们可能会把我们消灭的风险。另一方面,不去制造它们就是决定不去制造“神”,一种弑杀“神”的行为。从宇宙主义者的观点出发,地球主义者是“弑神怪物”。
之前,有些人认为,通过把人类自己变成人工智能机器,可以化解宇宙主义者和地球主义者之间的冲突。我们可以给人类的头脑等加一些成分,使他们成为“半机器人”(半机器生命体,比如,一部分是人,一部分是机器)。我个人觉得这样的看法很幼稚,除非整个人类向人工智能人的转化是一样的快,然而这显然是不可能发生的。
一颗糖粒大小的人工脑潜在的计算能力可能比人类大脑的计算能力要高几十亿倍。对于地球主义者来说,让这样的一个颗粒融入人脑而使之成为半机器人,是“伪装成人类的人工智能机器”。地球主义者会像对待人工智能机器一样仇恨半机器人,并且会把它们两者都消灭掉。有一个人类的外表,并不会让地球主义者觉得半机器人的威胁会减小。