楼主: fumingxu
676 2

[学科前沿] 科教兴国-为什么剑桥出身的“AI教父”辛顿会很担心? [推广有奖]

泰斗

51%

还不是VIP/贵宾

-

TA的文库  其他...

经管朝花夕拾万花筒

行为决策+行为经济学+行为金融

威望
6
论坛币
198557 个
通用积分
38560.2928
学术水平
2511 点
热心指数
2986 点
信用等级
2477 点
经验
42750 点
帖子
20947
精华
11
在线时间
6224 小时
注册时间
2012-3-26
最后登录
2024-4-30

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

剑桥很有意思!在那儿呆过的人常常有这样一种感觉:剑,很锋利!桥,很温柔!剑桥的科技自不必说,牛顿、达尔文、麦克斯韦、爱丁顿......,剑桥的人文却也不让科技,拜伦、培根、弥尔顿、丁尼生......,反战反科技武器化是在剑桥历来也有传统,从罗素等人的反核、图灵/霍金/辛顿/哈萨比斯反AI危及人类化……尤其是辛顿的这次担心:AI究竟是阿拉丁神灯还是潘多拉盒子,AI若无约束,大家可见一斑:

客观而言,没有单独的AI,只有人机环境系统的AI。人机混合智能中存在着一些无形的或不可见的因素对交互过程产生影响的问题。这些因素可能包括用户的情感、体验、期望、文化背景等,以及机器的反应速度、界面设计、用户反馈等。这些因素不是存在或不存在的问题,而是存在于用户与机器交互的过程中,并对交互产生影响。因此,在人机混合智能中,需要考虑这些非存在的不足因素,以提高用户的交互体验和效果。

剑桥大学国王学院

相比于机器而言,人类感知的缺点是:1. 有限的感知范围:人类只能感知到有限的范围内的事物,如我们的肉眼只能看到可见光范围内的颜色。2. 容易受到主观因素影响:人类感知容易受到主观因素的影响,比如情绪、偏见、经验等。3. 容易出现错觉:人类感知容易出现错觉,比如光的折射、声音的反射等现象会影响我们的感知。4. 感知的稳定性不足:人类的感知并不总是稳定的,比如我们的视力会随着年龄的增长而下降,听力也会受到噪音等外界因素的影响。5. 无法感知某些事物:人类的感知并不是万能的,比如我们无法感知电磁波、紫外线、权力的危害等事物。

相比于人类而言,机器感知的缺点是:1. 机器感知的范围和准确性受限:机器感知的范围和准确性受限于其传感器和算法的能力。机器无法感知人类可以感知的一些事物,比如情感、文化、道德等。2. 机器感知容易受到环境影响:机器感知容易受到环境的影响,比如光线、噪声等因素会影响机器的感知准确性。3. 机器感知需要大量数据和复杂的算法:机器感知需要大量的数据和复杂的算法来训练和识别各种模式和特征,这需要耗费大量的时间和资源。4. 机器感知缺乏主观判断:机器无法像人类一样进行主观判断,不能考虑情感、文化、道德等因素,导致其在某些情况下无法做出正确的决策。5. 机器感知容易被攻击和欺骗:机器感知容易受到黑客攻击和欺骗,比如通过伪装、篡改数据等方式来误导机器的感知和决策。


艾萨克.牛顿

相比于机器而言,人类处理信息的缺点是什么?

1. 容易受到主观影响:人类融合信息容易受到主观影响,比如情感、偏见、经验等因素会影响人类的信息融合判断。2. 可能导致信息过载:人类融合信息可能导致信息过载,过多的信息可能会使人类无法做出正确的判断和决策。3. 需要大量时间和能量:人类融合信息需要大量的时间和能量来处理和分析各种信息来源,这可能会导致疲劳和认知负担。4. 信息融合可能存在矛盾和不一致性:不同来源的信息可能存在矛盾和不一致性,人类需要花费时间和精力来解决这些问题。5. 可能存在信息偏差:人类融合信息可能存在信息偏差,比如信息来源的可靠性和真实性等问题,这可能会导致错误的决策和判断。

相比于人类而言,机器处理信息的缺点是什么?

1. 受限于算法和数据的准确性:机器融合信息的准确性受限于其使用的算法和数据的准确性。如果算法或数据存在问题,可能会导致错误的决策和判断。2. 无法考虑情感和主观因素:机器无法像人类一样考虑情感和主观因素,可能会忽略重要的信息。3. 可能存在数据隐私问题:机器融合信息需要大量的数据,但这些数据可能包含个人隐私信息,如果未经过适当的保护,可能会导致数据泄露和滥用。4. 可能存在黑箱问题:机器融合信息的过程可能存在黑箱问题,即难以理解和解释机器所做出的决策和判断。5. 需要大量的计算资源和能源:机器融合信息需要大量的计算资源和能源来处理和分析各种信息来源,这可能会导致高昂的成本和能源消耗。


2023.1

相比于机器而言,人类决策的缺点是什么?

1. 情感影响:人类决策常常受到情感的干扰,导致决策过于主观,缺乏客观性和理性。2. 认知偏差:人类决策容易受到各种认知偏差的影响,如认知失调、选择支持偏差、确认偏差等,导致决策不够准确。3. 信息不全:人类决策常常受到信息不全的限制,导致决策过于片面,忽略了一些重要的因素。4. 习惯性思维:人类决策容易受到习惯性思维的影响,导致决策缺乏创新性和灵活性。5. 决策疲劳:人类在长时间决策过程中容易疲劳,导致决策质量下降。6. 群体决策的问题:群体决策容易受到个人偏见、集体思维、权威压力等因素的影响,导致决策结果不够客观和准确。

相比于人类而言,机器决策的缺点是什么?

1. 数据质量问题:机器决策的结果往往依赖于数据的质量和准确性。如果数据不准确或有误差,机器决策的结果可能会出现偏差。2. 缺乏人类判断力:机器决策采用的是算法和程序,缺乏人类的判断力和灵活性。在某些情况下,机器决策可能会导致不公平或不合理的结果。3. 缺乏情感因素:机器决策通常不考虑情感因素,无法体现人类的情感体验和情感需求。4. 容易被攻击:机器决策往往采用算法和程序,这些算法和程序可能会被攻击者利用,从而影响决策结果。5. 不适用于复杂情境:机器决策通常适用于简单和明确的情境,对于复杂的情境和问题,机器决策可能无法提供有效的解决方案。6. 难以解释:机器决策的结果往往难以解释,这可能会导致人们对决策结果的不信任和怀疑。


相比于机器而言,人类认知的缺点是什么?

1. 有限的工作记忆:人类的工作记忆容量有限,难以同时处理大量信息。2. 选择性偏见:人们倾向于寻找和接受符合自己观点的信息,而忽略或拒绝与之相矛盾的信息。3. 非理性决策:人类决策常常受到情感和偏见的影响,难以做出理性的决策。4. 认知失调:当人们的信念、态度或行为与他们的经验或现实不符时,会产生认知失调,导致不适和情感上的矛盾。5. 短期思维:人类往往会过度关注眼前的问题,忽略长远的影响和后果。6. 记忆和回忆的偏差:人们的记忆容易受到时间、情感和其他因素的影响,导致回忆偏差和记忆错误。7. 难以理解复杂问题:当问题变得越来越复杂时,人类的认知能力会受到限制,难以理解和解决问题。

相比于人类而言,机器认知的缺点是什么?

1. 缺乏创造性:机器认知是基于程序和算法的,缺乏创造性和想象力,无法自主创造新的想法或解决新的问题。2. 依赖数据:机器认知需要大量的数据来学习和做出决策,但如果数据质量不好或者缺乏代表性,机器认知的准确性就会受到影响。3. 缺乏情感和直觉:机器认知是基于逻辑和数据的,缺乏情感和直觉的能力,难以理解和处理人类情感和复杂的社会交互。4. 不具备人类独特的智能:机器认知只能处理特定的任务和问题,无法像人类一样具备广泛的知识和能力,如语言理解、创造性思维、自我意识等。5. 容易被误导:机器认知是基于数据训练的,如果数据存在偏差或者被恶意操控,机器认知的决策就会受到影响,容易被误导和攻击。6. 缺乏道德和伦理判断:机器认知只能根据程序和算法做出决策,缺乏道德和伦理判断的能力,可能会做出不符合社会价值观的决策。


相比于机器而言,人类态势感知的缺点是什么?


1. 有限的感知范围:人类的感知范围有限,无法覆盖所有的场景和区域。在某些情况下,人类可能未能察觉到潜在的风险和威胁。2. 受主观因素影响:人类的态势感知可能会受到个人情感、经验、偏见等因素的影响,导致判断和决策的偏差。3. 需要大量的时间和精力:人类的态势感知需要大量的时间和精力来观察、分析和判断各种信息来源,这可能会导致疲劳和认知负担。4. 可能存在信息过载:在信息爆炸的时代,人类可能会面临信息过载的问题,过多的信息可能会使人类无法做出正确的判断和决策。5. 可能存在安全风险:在某些情况下,人类的态势感知可能会涉及到安全风险,比如在危险区域进行观察和侦察,可能会导致人身安全问题。

相比于人类而言,机器态势感知的缺点是什么?

1. 硬件和软件成本高:机器态势感知需要使用高性能的硬件和软件,成本相对较高。2. 网络通信延迟:机器态势感知需要通过网络进行数据传输和处理,网络通信延迟可能会影响感知和响应的速度。3. 受限于算法和模型:机器态势感知的准确性和可靠性受限于算法和模型的质量,如果算法和模型不够精准和完善,可能会导致误判或漏判。4. 无法处理复杂场景:机器态势感知对于复杂的场景和情况可能无法处理,比如在极端天气、复杂地形或人群密集的环境下,机器可能会受到干扰或无法精准感知。5. 难以处理异常情况:机器态势感知对于异常情况的处理可能不如人类灵活,比如在出现未知的事件或不寻常的情况下,机器可能无法及时做出正确的响应和决策。6. 安全风险:机器态势感知需要连接到互联网或其他网络环境,可能会面临网络攻击和数据泄漏等安全风险。


总之,单纯的人工智能是不存在的,而人机混合智能则常常需要大量的数据支持,而这些数据包含了个人隐私信息,比如生物特征、个人偏好等,同样,如果这些数据被恶意使用或泄露,将严重威胁用户的隐私安全。还有,随着人工智能的发展,越来越多的机器将会替代人类工作,这有可能会导致很多人失去工作机会,从而导致社会不稳定。另外,人机混合智能可以使得人类和机器之间的界限变得模糊,如果人类和机器之间的利益产生冲突,将会导致严重后果,人机混合智能的算法可以被恶意攻击,从而导致系统失效或者被控制,再进一步讲,假如这些攻击者是恶意的,可能会对社会造成严重的威胁,同时,这些复杂性使得其对人、机、环境的控制变得更加困难,如果这种技术失控,将会导致无法预知的后果。

剑桥出身的辛顿之所以有这次的忧心忡忡,大概率是他感觉到AI双刃剑中潘多拉盒子的一面,即AI和人性的缺点、不足有可能使得人机环境系统失调,若无及时的约束和管控,极有可能造成人类社会失控之局面。然而,人类社会的稳定性和鲁棒性并不是弱不禁风、一触即倒的,熟话说的好,“魔高一尺,道高一丈”,未雨绸缪、居安思危将会一直伴随着人类文明的进化发展,现在发生的,过去已经发生过,而且还不止一次,估计这次也不会例外......

最后多说一句吧,当西方的科技解决不了自身带来的问题时,不妨可以把目光悄悄转向东方思想:“道之为物,惟恍惟惚....."

信息论的修正与完善是新智能出现的前提

引自-https://blog.sciencenet.cn/blog-40841-1387073.html



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:科教兴国 Science cenet 创造性思维 社会不稳定

已有 1 人评分经验 收起 理由
np84 + 100 精彩帖子

总评分: 经验 + 100   查看全部评分

沙发
marytwj 在职认证  发表于 2023-5-7 21:57:21 来自手机 |只看作者 |坛友微信交流群
谢谢分享呀

使用道具

藤椅
三重虫 发表于 2023-5-9 19:40:41 |只看作者 |坛友微信交流群
谢谢分享呀

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-1 13:09