楼主: jojo505
4624 18

智能简史》作者用心良苦的推演正反映了人类生物生于忧患的本性… [推广有奖]

  • 0关注
  • 1粉丝

已卖:132份资源

硕士生

64%

还不是VIP/贵宾

-

威望
0
论坛币
1061 个
通用积分
3.0847
学术水平
6 点
热心指数
10 点
信用等级
5 点
经验
1627 点
帖子
246
精华
0
在线时间
8 小时
注册时间
2007-11-2
最后登录
2022-12-20

楼主
jojo505 发表于 2007-11-2 17:28:00 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
我们知道恐龙在地球上生活了2亿年,是人类历史的50倍以上。在这2亿年的时间里,似乎它们并没有本质地进化成更高级、更智慧的一类生物,这也许就是它们灭绝的原因吧。那么,我们人类,首先能不能存在的比恐龙更久,如果能生存那么久,似乎没有任何迹象可以表明人类那时候会有本质的进化,以至于可以自由地翱翔于宇宙。
  当我拿起这本书的时候,知道这决不是一本科幻小说。但当我读它的时候,却让我感到亦真亦幻的神奇和惊悚,让人看了就离不开目光。被誉为人工智能先驱者的德·加里斯教授,向我们预测的未来,让我们清醒地意识到,真实远远超出想象。与他描绘的几乎近在眼前的情景相比,那些科幻小说和电影都太缺乏想象力了。那些毕竟不是最前沿的科学家幻想出来的,局限性很大。而且,最重要的是,它们用人的思维来考虑能力是我们的万亿个万亿倍的人工智能机器,就像一个蚊子来思考人类会怎么想怎么做一样是完全不现实的。
  我本想劝说作者将第三章有关技术的部分挪到后面,担心这个章节技术性太强,影响读者的阅读兴趣。但是,我自己很快被这些神奇的技术迷住了,我越来越理解为什么德·加里斯会有这样夜不能寐的苦苦思索了。书中非常合理地推论了,人类真的会很快制造出这样无所不能的“可敬”或是“可怕”的人工智能机器,这不是技术是否允许的问题,而是时间和金钱是否允许的问题,那么换句话说,就是实现这些基本没有什么障碍。计算机会在某天突然达到一种称作“奇点”的状态,它们将会“失去控制”,获得迅速的智能进化,以至于远远地,并且非常迅速地把我们抛在后面。这是什么意思呢?例如,一个人直到博士毕业学到的所有知识,人工智能机器只需要4秒钟就能完成,而这还只是比较早期的人工智能机器的基本能力!
  我们有可能控制这样的进程吗?人类将会怎样进化?人类将怎么解决我们和人工智能机器之间的关系?这将是本世纪最伟大的思想家们的主要课题,对这类问题的研究和探讨,将产生一些比古代伟大的思想家更杰出的思想家。这本书提出的问题,将给思想家们指出一个可以超越前辈的方向。
  我认为对于这类问题的普遍思考和找寻良性的解决方案,将会使人类的智力产生质的飞跃。试想一下,站在家庭的角度思考是不是比站在个人的角度要显得智慧,站在国家的角度思考是不是比站在小家的角度更智慧。而一些古代的思想家和智者往往是站在全人类的角度思考,所以他们是那么的与众不同,智慧高于常人。那么看了本书之后,我们应该怎么思考呢?
  也许到了某一天,人类会像注射疫苗一样,从出生开始,随着年龄的增长定期植入各种能力的晶片,我觉得人们是有可能接受这个的,虽然现在不能接受,就像古人不能接受在身上动刀子—— 做手术一样。既然为了健康能接受心脏起搏器,那么为什么不能接受植入晶片,当然这需要一个接受过程。
  这样就绝对不会发生人工智能的战争了吗?不是的!以前的世界大战都是因为一些莫名其妙的原因引发的,而制造智力和能力远远超过常人的机器,这比以前任何一个战争的起因都更充分。居里夫人研究铀的时候,目的一定是积极的,为了造福人类的,谁会想到竟成为人类的杀手。
  因此,德·加里斯的警钟多么及时,为了避免可预见的悲剧,我们应该怎么做?
  (1) 在对理工科高才生的培养中,我们要进一步强化情商的培养,就像我们不断地教育孩子要注重环保一样,使他们充分认识到—— 他的发明创造有可能威胁人类的生存。
  (2) 注意不要单纯把机器人制造成超级智慧能力的,还要有意识地把它们制造成超级情感的,让它们的智能和情感同步发展。
  (3) 是不是应该在最初研制的时候,就考虑人工智能机器除了在智力和神经等方面是人类的万亿个万亿倍以外,还应该在境界上是人类的万亿个万亿倍。那样,它们一定会比耶稣和释迦牟尼更加厌恶暴力和血腥。
  是的,普通人在杀死蚊子的时候不会迟疑,不会觉得这样残忍,但是耶稣和释迦牟尼是不会杀死蚊子的。他们会认为这是很残忍的事情。如果能制造出这种境界的机器人,也许人类还有希望……也许,到了那个时候,这个世界上就真的再也没有血腥了……
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:用心良苦 心脏起搏器 是什么意思 人工智能 释迦牟尼 简史 智能 人类 生物 忧患

沙发
jojo505 发表于 2007-11-2 17:29:00
电子版分享!
  
  第1章 导言 1
  
  第2章 我正在进行的工作 23
    自传 23
    我的工作 27
   基因算法 29
   神经系统进化 31
   FPGA技术的应用 33
    未来的任务和理想 42
  第3章 使人工智能成为可能的关键技术 49
    摩尔定律 52
    可逆计算 54
    纳米科技:分子级工程 61
    人工胚胎形成学 64
    进化工程学 65
    自我装配 66
    综合所有的技术 67
    量子计算的人工智能 68
    作为人脑科学工具的纳米技术 70
  第4章 宇宙主义者 75
    “全局”的论据 80
    “科学宗教”的论据 83
    “制造人工智能上帝”的论据 90
    “人类奋斗”的论据 96
    “经济动力”的论据 98
    “军事动力”的论据 104
  第5章 地球主义者 107
    “自卫”的论据 109
    “畏惧差异”的论据 112
    “拒绝半机器人”的论据 113
    “不可预知复杂性”的论据 121
    “宇宙主义者的不体谅”的论据 126
  第6章 人工智能的战争 131
  第7章 人工智能时代 155
  第8章 问题和解答 167
  问题1. “时间问题——如果人工智能发展得太快以至于
  关于人工智能的辩论来不及展开将怎么办?” 167
   问题2. “那么第三群体—— 半机器人是怎么回事呢?” 170
   问题3. “为什么没有一个甜蜜和轻松的前景呢?” 174
   问题4. “为什么不使用毁灭开关?” 177
  问题5. “我们能够在人工智能机器上应用阿西莫夫
  三大法则吗?” 179
   问题6. “为什么给它们刀片呢?” 181
   问题7. “为什么过度强调负面部分?” 183
   问题8. “你是否是一个伪君子?!” 185
  问题9. “如果一个人工智能机器变得有意识,
  消灭它吗?” 189
   问题10. “没有更紧迫的问题吗?” 190
   问题11. “悲剧可以避免吗?” 191
  第9章 总结 199
  术语表 203
  参考文献 219
  后记 225
  编辑手记 227

藤椅
jojo505 发表于 2007-11-2 17:32:00
导 言
  
  
  我是雨果·德·加里斯教授,一个设计和制造“人工大脑”的研究机构的负责人。研究这个领域是我的专长。但我不仅是一个研究者和科学家,也是一个有着政治和伦理意识的社会评论家。我十分担心我的研究结果会在21世纪下半叶给地球上的人类带来我所恐惧的后果。
  你可能会问:“既然你对现在进行的工作可能会给人类带来的负面影响感到如此焦虑,为什么不干脆停下来去做点别的呢?” 事实上,我认为我正建造着一个在未来几十年内,将会成为神一样无所不能的东西(虽然在我有生之年可能看不到它的完成)。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那些可怕的负面效应可能会接踵而来。
  对此,我感觉似乎要精神分裂。一方面,我的确非常想制造这些人工大脑,并尽可能将它们制造得极其聪明。我把这当作人类追求的一个伟大目标,我将会在后面的章节里,对这个问题进行深入的讨论。另一方面,我又对人工大脑制造成功将产生的影响感到不寒而栗。因为这个成功同时也意味着人工大脑最终会比我们生物大脑智慧很多倍。这一点,我也同样会在本书后面的章节里进行深入的讨论。

板凳
jojo505 发表于 2007-11-2 17:43:00
摩尔定律是芯片上电路尺寸不断缩小的结果,以至于电子(一种基本粒子,它在电路中的流动形成电流)在电子元件(例如两个晶体管)间传递的距离被缩短了。根据爱因斯坦的理论,物体可以移动的最快速度是光速(大概300 000千米/秒),并且这也是电流必须遵守的自然常量。如果两个电子元件间的距离被缩短了,它们之间电子信号的传递距离也将缩短,因此,通过这个距离所需要的时间就会更少(以恒定的光速)。
  芯片制作公司在过去几十年里投入了巨大的精力来使电路变得更小,使之分布得更少(以恒定的光速)。更少(以恒定的光速)。更加密集,以便让它们运行得更快。微处理芯片运行越快,就会越经济。如果你是加州“硅谷”中一家制造芯片公司的CEO,而你的竞争对手比你早6个月在市场上推出一款比你(的产品)快30%的芯片,那么你的公司可能会破产,而竞争对手的市场份额会大幅增长,因为每个人都想拥有一台更快的计算机。因此,在过去的几十年,电子线路变得更小更快。
  摩尔定律还能够保持多长时间的有效性呢?如果一直有效到2020年,海量内存芯片上电路尺寸可能允许在一个原子上面存储一个比特(一个“比特”是一个“二进制数字”,一个“0”或者一个“1”,是计算机进行运算所代表的数字和符号)的信息。那么,一个这样等量级的物体,比如说苹果,包含多少个原子(即苹果这么大的存储器可以存储多少比特)呢?答案是令人吃惊的,有万亿万亿个原子(比特),就是说,1后面跟24 个零。

报纸
jojo505 发表于 2007-11-5 09:55:00

然而,随着科技进步人们可以制造越来越小的设备——从微米级达到纳米级。比如说,当设备从百万分之一米(细菌的大小)变得只有十亿分之一米(分子的大小)的时候,制造分子级机器人来探索大脑如何工作将成为可能。

关于生物大脑工作原理的科学知识到现在之所以还非常有限,正是由于我们现在使用的工具非常有限。但是,随着分子级工具(称作纳米科技)的出现,神经学家将会有一套强有力的崭新工具用来探索生物大脑,该领域的研究也会取得很快的进展。

像我这样的人工大脑制作者将会利用这些新创建的神经科学原理,迅速地把它们应用到人工大脑结构上。

可能不久人们便会破解很多生物大脑的工作原理,从而将会产生一种能够在神经元电路基础上解释的—— 如为什么爱因斯坦的大脑会比绝大多数人聪明很多的智能理论。这样的智能理论一旦存在,对于像我这样的神经工程师来说,就可以用一种更工程化的方法来制造大脑。我们将不必去做神经科学的奴隶。我们可以使用一种替代方式来制造人工智能机器(虽然一开始是基于神经科学原理的)

地板
jojo505 发表于 2007-11-5 09:56:00

当拥有了纳米科技工具提供的崭新的神经科学知识,量子计算以及一个原子存储一个比特所允许的惊人的计算能力,像我这样的人工大脑制造者才可能具备制造真正有意识的人工智能机器所需的所有要素。

现在有很多问题被提出,我将在本书大部分章节里试着解答它们。让我们把目光投向未来,想象一下上述的科技将怎样影响我们普通人的生活。

很快,购买人工大脑控制机器人来做家务将变为现实。如果这些机器人的价格变得可以承受,那么对于它们的需求将变得非常巨大。我相信,不久,世界经济将依靠这些基于人工大脑的计算机。这样的设备将变得非常有用和流行,以至于地球上的每一个人都想拥有。随着科技和经济的进步,这种设备在全球市场将会快速增长以至于地球上的大多数政治家都会支持它。不仅商务公司会热衷于制造更聪明更有用的机器人和基于人工大脑的各种设备,就连各国军事领域也将广泛采用这种技术。

在未来几十年,地球将真正形成一个全球性国家,但有全球性的警察维护全球性的法律这种可能性是很小的。相反,我认为在下半个世纪为成为世界上最强大国家而产生的政治对立将白热化。这样就会使处于敌对状态的国家不允许对方研发出更聪明的机器士兵和其他基于人工大脑的国防系统。因此,国家政府将会加强为军方服务的人工大脑研究的发展,这将不限于商务应用,就像一个世纪以来其他技术的发展模式一样。

所以,人工大脑的机器人和相应领域的崛起,看起来是不可阻挡的。要阻挡商业及军方的推动力是很难想象的,除非某种大规模的政治运动才可以阻止它。

如何才能引发这样的运动?

试想几十年以后,几百万人都买了家务机器人、性机器人、教学机器人、育儿机器人、伴侣机器人、友谊机器人,等等,并且这些人工大脑控制机器人可以很好地理解人类语言并与人类交谈。一些年之后会发生什么呢?毫无疑问,早年那些型号的机器人会因为是老式的而变得没有吸引力。新型号机器人因为有更高质量的语言能力而被认为是更智能的。它们会更好地理解并与人类沟通。它们的行动指令会更丰富。一句话,它们会很快替代早期型号的机器人。

那么大家会怎样呢?当然,他们会丢弃老式机器人去买新型的,或者把他们的老式机器人进行人工神经元电路升级。之后,这样的过程将反复出现,就像20世纪80年代至90年代人们购买个人电脑那样。

然而,有些爱思考的购买者会发现一代一代的家用机器和机器人变得越来越聪明,并且机器人和人类智商的差异越来越小。当机器人真的变得非常聪明后,几百万的机器人拥有者会开始问自己一些有趣的问题。诸如:

7
jojo505 发表于 2007-11-5 09:56:00

“这些人工大脑机器人会变得多聪明呢?”

它们会变得和人类一样聪明吗?

“如果可能,那是一件好事吗?”

这些机器人会变得足够聪明而成为人类的威胁吗?

这些机器人会比人类聪明吗?

如果能够,会聪明多少呢?

“人类应不应该允许这些机器人比人类聪明呢?”

当它们变得比人类聪明时,它们会认为人类是地球上的瘟疫或癌症而把人类灭绝吗?”

“人类应该为这些可能发生的事情冒险吗?”

机器人人工智商需要设置一个限制吗,使机器人足够聪明从而有利于人类但不至于成为人类的威胁?

政治上、军事上、经济上有阻碍机器人逐年变得更聪明的可能性吗?

有很多人认为,制造超智能机器是人类的使命。这些人不喜欢对人工智商设置任何限制。这会在人类间产生冲突吗?

8
jojo505 发表于 2007-11-5 09:57:00

随着人工智能机器的出现以及制造更强能力的人工大脑,会出现更多诸如此类的问题。

我又是怎样看待人类应对人工智能机器的出现所面临的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,先给大家介绍一个本书中经常用到的新术语,它是表达神一样超级智能机器的缩写。这个新术语是artilect(人工智能机器),它是artificial intellect的缩写,是本书中最重要的概念和术语。

我相信,人工智能机器在21世纪将成为主导问题——具体指人类是否应该制造比人类智能高出万亿个万亿倍的人工智能机器,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且会随着人工智能机器逐渐变为现实而使得他们之间的斗争更加激烈。

支持制造人工智能机器的集团我称之为宇宙主义者(Cosmist)是基于cosmos(宇宙)一词。对于宇宙主义者,制造人工智能机器就像宗教中人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能机器,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,宇宙大悲剧宇宙主义者会强烈反对任何试图阻碍21世纪人工智能机器产生的行为。

9
jojo505 发表于 2007-11-5 09:58:00

随着人工智能机器的出现以及制造更强能力的人工大脑,会出现更多诸如此类的问题。

我又是怎样看待人类应对人工智能机器的出现所面临的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,先给大家介绍一个本书中经常用到的新术语,它是表达神一样超级智能机器的缩写。这个新术语是artilect(人工智能机器),它是artificial intellect的缩写,是本书中最重要的概念和术语。

我相信,人工智能机器在21世纪将成为主导问题——具体指人类是否应该制造比人类智能高出万亿个万亿倍的人工智能机器,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且会随着人工智能机器逐渐变为现实而使得他们之间的斗争更加激烈。

支持制造人工智能机器的集团我称之为宇宙主义者(Cosmist)是基于cosmos(宇宙)一词。对于宇宙主义者,制造人工智能机器就像宗教中人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能机器,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,宇宙大悲剧宇宙主义者会强烈反对任何试图阻碍21世纪人工智能机器产生的行为。

10
jojo505 发表于 2007-11-5 09:58:00

强烈反对制造人工智能机器的集团,我称之为地球主义者(Terran)是基于terra(地球)一词反映了他们内在的非宇宙主义的看法。我坚信,地球主义者会争论说,允许制造人工智能机器(以非常高级的形式)意味着接受一个冒险—— 那就是某一天,人工智能机器会认为,无论从什么样的角度来说,人类都是一种瘟疫或有害物。而人工智能机器的智能已远远超过人类,那么对人工智能机器来说,如果它们决定把人类灭绝将是很容易的。

但是你可能会辩论说,如果人工智能机器真的非常聪明,那么它们会认为人类赋予了它们生命,人类就是它们的父母。因此,人工智能机器会尊重我们,并且对我们很友好。这样的情况可能会发生,但问题是,你无法保证人工智能机器们会像我们期望的那样对待我们。

不要忘记,人工智能机器可能比我们聪明万亿个万亿倍,由于它们是如此的聪明以至于人类对于它们来说是低等甚至是不值一提的,以至于人类存在与否对于它们来说没有任何不同。

毫不夸张地说,人工智能机器们试图和人类交流,就像人类想要和石头说话。

换一个比方,考虑一下你对一只停在小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作,是20世纪科学家根本没有办法制造的吗?蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就像人相对于城市一样。

尽管蚊子是经过几十亿年进化的极其复杂和不可思议的生物,我们人类根本就不会考虑这些而轻易杀死它们,因为我们从来都只是把它们看成是一种有害生物。当我们漫步在森林里踩死一只蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有同样的态度。

谁又会说那些人工智能机器们不会对我们有同样的看法而消灭我们呢?拥有超级的人造智慧,做这些事情对它们来说是小菜一碟。

对于地球主义者,这场辩论中最重要的词汇是风险。地球主义者争论说,人类从来就不该冒任何风险,比如像制造高级形式的人工智能机器可能会导致人类灭亡这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能机器。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-5 22:05