霍金对人工智能的预言无不时刻提醒着人类!
据英国天空新闻等多家媒体报道,2018年3月14日史蒂芬·霍金去世,享年76岁。霍金于1942年1月8日出生于英国牛津,是现代最伟大的物理学家之一、20世纪享有国际盛誉的伟人之一。被世人誉为“宇宙之王”,作为剑桥大学数学及理论物理学系教授,当代最重要的广义相对论和宇宙论家,荣获英国剑桥大学卢卡斯数学教席,这是自然科学史上继牛顿和狄拉克之后荣誉最高的教席。
霍金在生命的最后几年,霍金一直在关注着人工智能等新科技的发展和对人类的影响。
他多次提醒人类,要尽量避免人类通过AI建造更高级的武器,进而摧毁人类。他提出,未来“人工智能可能毁掉人类”,人类需要建立有效机制,用逻辑和理性去控制未来可能出现的威胁,防止其威胁进一步上升。
霍金觉得,如果现在人们还不能看清未来,不能为未来的事情做好最坏打算,建立相对于人工智能更好地管理办法,人类最终都会败给人工智能,只不过是时间问题。
在《我,机器人》一书中,艾萨克·阿西莫夫提出了著名的“机器人三大定律”:
第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;
第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
可以说,阿西莫夫的这“三大定律”不断激发了人们对于人工智能安全性的新思考。技术最终将解放人类,前提是这个技术是受控可控的,必须牢牢地掌握在人类自己手中,而不是失控的技术,否则霍金的那些悲观预测也许真的要应验。
从2018年的人工智能发展来看,在围棋界AlphaGo已经没有对手了,但人类对人工智能的需求绝不会满足于在围棋赛场战胜最顶尖的世界冠军。“Alpha Go以前需要使用人类下围棋的数据,最近的Alpha Zero不需要人类对弈数据了,自己会生产数据。人工智能机器不需要外部数据,自己生产就够了需要满足三个条件:第一,集合是封闭的;第二,规则是完备的;第三,约束是有限的。
虽然这也是霍金的担忧之一,但它是时代的发展潮流,是不可逆的趋势。不管时代怎么发展,在一些重要领域,人工智能只能在我们社会中扮演辅助角色,最终决策权还是在人类手中。
所以总的来说,人工智能的发展属于不可逆转的好事,政府、社会、企业和个人都应未雨绸缪,积极拥抱新变革。
所以CDA为大家推荐人工智能工程师就业班,课程以实战案例出发,从自然语言处理、图像识别、语音识别、专家系统等多种典型应用入手,使CDA人工智能工程师就业班课程更能符合就业要求、企业要求。
我们的教学和服务,将助您走上IT行业就业金字塔的顶端岗位!
报名地址:http://www.cda.cn/kecheng/58.html
咨询电话:18510169390 赵老师