1729 0

像海参一样愚蠢 ——人工智能与智能计算纵横谈 [推广有奖]

  • 0关注
  • 0粉丝

学前班

50%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
0
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
73 点
帖子
2
精华
0
在线时间
0 小时
注册时间
2010-1-16
最后登录
2010-1-16

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
IT产业的列车被一前一后两个火车头驱动:人们生产生活的需求在后面推进,计算科学和技术的进展在前面牵引。我们在关心IT产品、IT市场和IT应用的同时,也希望参观一下IT技术的幕后——众多从事计算科学和技术基础研究的机构。在那里,我们可以和研究者交谈,跟上他们的思想节拍,寻找藏在深山中的绚丽景观。

在这个新奇之旅的第一站,我们要接触到一些人工智能及智能计算方面的专家,包括三位图灵奖的获得者。他们都是通过微软公司的学术活动与我们见面的,大部分属于该公司分散在世界各地的数家研究院。他们与别的人工智能及智能计算研究者一道,向世界展示了这个领域的新境界。

 


喂,你是人吗?

徐迎庆研究员想到一个可以哄妈妈开心的办法。老人退休在家,喜欢和儿子聊天,但儿子很忙,忙得恨不得用一截圆木代替枕头。如果计算机可以代替人聊天就好了。徐迎庆的办法是,两边都开着摄像头说话,首先和妈妈说几分钟,儿子这边的计算机用这几分钟时间生成了儿子的形象,并且了解了谈话的大致内容。几分钟后,按一个键,计算机虚拟的儿子开始工作,传过去的图像和摄像头拍到的几乎一模一样,还会点头挥手微笑眨眼。谈的话题与妈妈紧密配合,妈妈说阳台上的花花草草,“儿子”就说自己只会养仙人掌;妈妈说锻炼身体,“儿子”就推荐一套老年早操;一个小时后,妈妈心情舒畅,“儿子”用“过不多久就到冬至了,您要多穿点儿,小心感冒”结束了这次聊天。在替身与妈妈聊天这段时间,徐迎庆可以继续研究毛衣上那些细小的纤毛在计算机屏幕上怎么渲染才逼真的问题,他是微软亚洲研究院形象计算组的研究员。

将来,我们真会弄不清电话甚至可视电话的另一端是不是“人”吗?

这是一个让人们探讨了半个世纪的话题。1950年,计算机理论的奠基人阿伦·图灵在哲学性杂志《精神》上发表了一篇题为《计算机和智力》的著名文章。这篇文章提出一个检验计算机是否在“思维”的方法,后来被称为“图灵测试”或者“图灵检验”。检验者是一个人,他(她)用非人格的方式(比如通过网络聊天)分别与一个真实的人和一台计算机问答,检验者仅仅通过两者回答的信息来评判谁到底是人。被检验者中的人要说服检验者他(她)才是真的人;而计算机也被编好程序,程序的目的是让检验者误认为这台计算机才是人。如果检验者通过一段过程比如几个小时的问答,还无法区分到底谁是人,那么被检验的计算机就通过了测试,被认为能够“思维”。

图灵预言2000年到来之前就会有计算机通过图灵测试,看来他过分乐观了,至少现在我们还没有见到一台宣称可以通过图灵测试的机器。人们可能会认为,计算机在很多场合表现了它们的“智慧”。一个游戏玩家说:“我真的不知道那个分割包围我的坦克部队、同时派伞兵偷袭我后方基地的混蛋是人还是计算机。”没错,有时候计算机显得相当聪明,但通过图灵测试比按规则竞赛取得胜利要难得多。和计算机对答的时候,你可以用一些骗招。比如像史蒂芬·霍金那样造一个没有语法错误但毫无意义的句子——站在篱笆下,听起来像一只萝卜——夹在大段正常的话中让计算机去判断,它非疯了不可,如果它真有思维的话。

“大青虫”

图灵的预言没有实现,计算机虽然被叫做电脑,它们的表现仍和大脑相去甚远。几十年来计算机的速度变快、容量增大、种类变多、应用越来越广泛,计算技术是否像一条青虫,不断长大,但是一直没有羽化成蝶?

“哈哈,这真是个有趣的比喻,”图灵奖得主托尼·霍尔今年10月在北京对记者说,“你可以这么说,计算技术的发展是一个渐变的过程,硬件更强,软件更有用,就像青虫在长大。”他不愿意对“青虫变成蝴蝶”的时刻做预测,因为“巨大的变化无法预料”。

微软公司高级副总裁里克·雷斯特认为没有这么简单。“这可不只是一条青虫的长大,”他说,“你去翻翻你们十年前的报纸,你会发现这十年其实发生了质变。”

雷斯特举出两个例子证明现在和十年前根本不同。他的女儿在美国西雅图,经常通过Internet和她远在别的国家的朋友聊天、互发照片。另一个例子是,现在12岁的孩子可以使用PC制作出和好莱坞水平相若的电影片段。这些在十年前都是不可想像的。雷斯特说,计算机确实还不能像人脑一样思考,但它们已经改变了世界。

单纯的CPU速度提高或硬盘变大都不是计算技术发生质变的理由。雷斯特认为“青虫”出现了全方位的剧变。硬件、软件、网络环境共同进步,多种创造性的应用相继出现,计算机在现代社会的角色都和十年前全然不同了。

智能和算法

能够使用工具是人类的重要特征。人们对于体力上胜过他们的机器司空见惯,搬重物的有起重机,跑得快得有汽车,这些都没有什么好奇怪的。然而当IBM的计算机打败国际象棋大师的时候,有人坐不住了:计算机如此聪明,它们能力的成长会失去控制,最终危害人类吗?

图灵奖获得者吉姆·格雷在这一点上比较悲观,他一年前对记者说,将来计算机可能不喜欢人类,它们可以自我完善,不再需要我们,甚至想消灭我们。

迅速提高计算机的能力,人类在养虎为患吗?微软亚洲研究院院长张亚勤不相信计算机的智慧能超过人类。他说,要么让计算机模拟人的智力,要么让计算机不断学习,逐渐接近人的智力,除此之外,人工智能(AI)没有第三条路走。但这两种方式都决定了计算机智力的极限就是人的智力,不会更高了。

里克·雷斯特说:“人要计算机做什么,它们就做什么。”胜过人类棋手的计算机,无非是按照程序设计者事先规定的算法行事。

所谓算法,就是求解问题的步骤。比如求两个数相除的余数,首先要判断这两个数哪一个大;然后用大数减去小数;如果得到的结果仍大于小数,就用结果再减一次小数;重复判断当前的结果和小数的大小关系,只要大于小数,就继续做减法,直到结果小于小数;最后的结果就是余数。同样地,两个数相乘也可以分解成多次这样的简单运算。由于计算机每秒可以执行很多次简单运算,它们在求解两个6位数相乘这样的问题上,可以轻而易举地超过人,做得比人快得多。

根据局面求解下一步棋怎么走最终取胜的概率最大又比两个数相乘难得多,胜过国际象棋大师的计算机需要很快的CPU、很大的数据库容量和精巧的算法。但分开来看,算法的每一步仍是些简单的运算,计算机的智能也完全构筑在这些简单运算的机械堆积上。

聪明的编译器

程序是让计算机执行算法的工具。程序编译器的发展能否让计算机变得言听计从、唯唯诺诺?托尼·霍尔是编译方面的专家,他说,现在还看不到用人的自然语言代替程序语言让计算机执行复杂算法的那一天。

编译器存在的理由其实是计算机“听不懂人话”。人使用程序语言下达指令,编译器将这些指令(程序)编译成机器语言以便符合计算机的逻辑。如果有人读写只由0和1两个数字组成的大段“文章”毫不费力,知道它是让计算机如何读写寄存器、如何累加、如何判断、如何循环,那么他用不着编译器了,直接写几页纸的01码让计算机去执行就可以。

这样的人不存在,所以程序员用一些规范的编程语言写出程序,通过编译器编译成机器语言,计算机才可以按部就班去做。使用编程语言已经是迁就计算机的体现了,虽然可以被读懂,但“if i现在的编译器针对一处程序错误,比如循环嵌套不妥帖,会报出六七条错误信息。而人们说话是很随意的,有时候说些和主题无关的话,有时候颠倒语序,如同古文中的“衍文”和“错简”。如果让编译器直接处理自然语言,它报出的错误信息可能比程序本身还长。托尼·霍尔说,那不是努力的方向。如果说编译技术将有里程碑式的进步,这样的进步可能发生在统一的方法学上。“编程领域很多研究人员各自为战,他们的力量被分散了。如果有一个统一的理论把他们的工作结合起来,编译器就会很快变得聪明——所谓聪明也就是减少程序员排错的时间,让他们集中精力在通过程序实现需求上。”

统一理论在物理学中可以找到一个类比:融合广义相对论和量子力学的量子引力论。但物理学主要研究连续的世界,计算科学研究离散的世界,与连续世界的理论相比,离散理论落后很多。

“你能指望计算机怎么样呢,它们蠢得像海参,”托尼·霍尔说。

计算机的意识

海参虽然低等,也已经是动物了。计算机现在像海参,但它们能否逐步进化到高等动物的水平?里克·雷斯特说计算机是不会自己进化的,一切都要人来推动。

吉姆·格雷的观点正好相反,他同意,能否进化,生物体并不比计算机具有构成上优先权。这就是说,由水、蛋白质、脂肪等等构成的生物体可以进化,由导线、硅片构成的计算机也可以进化。分开来看,水、蛋白质和脂肪都没意识,合成人体之后就有了意识,那么没有意识的导线和硅片怎么就不能合成有意识的计算机呢?

草履虫看起来没有意识,海参也可能没有意识。生物体越来越复杂之后,意识开始出现,猫、狗已经可以表达好恶了。计算机现在没有意识,是因为还不够复杂,当它们足够复杂的时候,意识就会自然出现。对于这样的观点,雷斯特说“不”,格雷说“是”。格雷看起来同情强人工智能(强AI)论者,强AI论者说意识和精神都是一些精巧的算法。

那么,复杂到什么程度,生物体和计算机就可以具有意识呢?我们不知道意识是从哺乳动物还是昆虫还是别的什么进化阶段进入生物体的,暂且绕过这个问题。我们确切地知道,人类具有意识,那么复杂如人类大脑的计算机也应该具有意识吧?

将大脑看做一台计算机,强AI论者认为,当大脑运转的时候,它也在执行一系列算法,分辨迎面走来的人是不是熟人的过程就是模式识别的过程。如果有一天,造出了可以模拟大脑算法的计算机,我们能否宣称它就具有意识?

哲学家约翰·西尔勒否认可以模拟大脑算法的计算机具有意识,他在上个世纪80年代给出了一个著名的理想实验“西尔勒的中文屋子”来支持他的论点。实验的要旨是这样的:一个用中文讲的笑话,中国人听了会哈哈大笑,如果用一台可以执行复杂算法的计算机根据这个笑话的词句进行一系列运算,得出的结果很正确,也是“哈哈大笑”,于是计算机用它自己的方式笑了几声,我们是否可以认为这台计算机“理解”了这个笑话呢?不是的。用一大群不懂中文的美国人取代计算机,他们拿着铅笔和纸重复计算机所做的一切,因为算法很复杂,可能要全国不懂中文的美国人算上一年才得到了结果“哈哈大笑”,他们派一个代表出来笑了几声。虽然反应很慢,但他们和一个中国人做得一样好,我们却无法认定这群美国人理解这个中文笑话。如果说,单个美国人不理解这个笑话,但他们的集合体确实理解了这个笑话,那就太牵强了。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:智能计算 人工智能 纵横谈 Internet Intern 微软公司 人工智能 纵横谈 火车头 研究院

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-19 16:42