楼主: 时光永痕
1294 0

[数据挖掘新闻] 臭名昭著的推车问题是引发AI伦理学争议最多的话题之一。让我们解开问题,看看我们能揭 [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)六级

3%

威望
0
论坛币
26 个
通用积分
57.2086
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34190 点
帖子
2733
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
臭名昭著的推车问题是引发AI伦理学争议最多的话题之一。让我们解开问题,看看我们能揭示什么。
逻辑上的起点需要阐明“ 台车问题”的内容。
事实证明,这是一个从伦理上激发思想的实验,其历史可以追溯到1900年代初。这样,这个话题已经存在了很长一段时间,并且最近已经与自动驾驶汽车的出现相关联。
简而言之,想象一下,有一辆手推车正从铁轨上驶下来,而前方有一把叉子。如果手推车继续沿目前的路线行驶,可惜的是,有人继续被困在铁轨上,他们将被撞倒并被杀死。
您正站在一个开关旁边,该开关将使您可以将手推车重定向到叉形轨道中,从而避免杀死该人。
显然,您大概会调用切换。
但是有一个可怕的转折,即分叉的轨道上还纠缠着某人,而改行手推车则可以杀死那个人。
这是那些双赢的情况之一。
无论您做出哪种选择,一个人都会被杀死。
您可能会想说您不必做出选择,因此您可以轻松回避整个问题。
并非如此,因为您什么都不做,实际上是在“同意”杀死在直路上的人。您似乎无法通过耸耸肩膀并选择不采取任何行动来避免自己的罪过,相反,您已陷入困境。
鉴于“无轨电车问题”的初步设置是一个输家,而您选择这两个选项时都会有一个赌注,因此它不会特别引发道德难题,因为每个结果都被视为相同。
通常会以各种方式更改此问题,以尝试查看您如何应对更具道德挑战性的情况。
例如,假设您能够辨别直行轨道上有一个孩子,而分叉轨道上有一个成年人。
现在怎么办?
好吧,您可能会试图证明使用开关来使手推车与成人叉起来的合理性,这样做的逻辑是成年人已经过了生活的实质部分,而孩子才刚刚开始。他们的生活,也许应该有一个更长寿的机会。
您觉得怎么样?
有些买入,有些则没有。
有些人可能会争辩说,每个人都有同等的生活“价值”,因此不宜预判儿童应在成年人死亡时生活。
有人认为成年人应该是活着的人,因为他们已经表明他们可以比小孩生存更长的时间(有关这些不同观点的更多信息,请参见此处的有关道德机器的讨论)。
这是另一种变化。
两者都是成年人,而分叉的人就是爱因斯坦。
这是否改变了您关于以哪种方式引导手推车的观点?
有人会说,使手推车远离爱因斯坦是“正确的”选择,挽救他并让他生活并不可避免地提供了他注定要提供的巨大见识(在这种情况下,我们假设这是一个年轻的成年人时刻) ,爱因斯坦)。
有人可能会说,不是那么快,他们想知道另一个成年人,一个直截了当的成年人,也许他们注定是同样伟大的人,或者对社会做出了更加显着的贡献(谁知道?) 。
无论如何,我认为您可以看到如何使用“台车问题”模板轻松地提出道德困境。
通常,流行的变体涉及卡在轨道上的人数。例如,假设有两个人被困在直行路径上,而只有一个人被卡在叉形路径上。
有人会说这是一个“容易”回答的变体,因为假定两个人的相处比仅仅挽救一个人是可以避免的。从这个意义上讲,您愿意考虑生活在某种程度上是可以累加的,而且生活越多,这种特定选择在道德上就越有利。
并非所有人都同意这种逻辑。
无论如何,我们现在已经将台车问题的症结放在了桌上。
我意识到您的最初反应很可能是一个有点有趣和发人深省的概念,但似乎过于抽象,没有任何实际用途。
有人提出反对意见,指出他们并没有想到自己会遇到这样的钝咸菜,而遇到手推车和人妖。
换挡。
一名消防员冲上了燃烧的建筑物。
建筑物中有一个人正从窗户上戳出来,刺痛的烟雾在他周围滚滚,并大喊着要救。
消防员该怎么办?
好吧,当然,我们希望消防员设法营救该名男子。
但是,等等,有一个孩子的声音,无法控制地尖叫,被困在燃烧的建筑物内的一间卧室里。
消防员必须选择要尝试抢救的人员,而消防员将没有时间救他们俩。
如果消防员选择救助该儿童,该男子将在火中丧生。如果消防员选择救助该人,孩子将屈服于大火。
这看起来很熟悉吗?
应该是因为它大致相当于台车问题。
关键是存在一些潜在的与现实生活相关的场景,这些场景展现了台车问题的基本参数和总体前提。
如上所述,从问题中取出手推车,并查看支撑情况的结构或元素(为便于参考,我们仍可将其称为“手推车问题”,但仍要卸下手推车并保留核心要素)。
我们有这个:
·存在生死攸关的严峻环境(更像生死攸关)
·所有结果都是可怕的(甚至什么也不做)并导致死亡
·时间短,涉及紧迫性和紧迫性
·选项极为有限,需要强制选择
您可能会争辩说没有“强迫选择”,因为在这些情况下总是有“不做任何选择”的选择,但是我们将假设面临困境的人知道正在发生的事情并意识到即使他们什么都不做,他们也在做出选择。
显然,如果面临选择的人不知道什么都不做的后果,那么也许可以说他们没有意识到他们是默认选择的。同样,对情况有误解的人可能会错误地认为他们不必做出选择。
假设所涉及的人完全知道什么都不做,并且必须选择不采取任何行动或不采取任何行动(我之所以强调这一点,是因为有时人们在思考手推车问题时会试图通过说什么都不做是“正??确”的选择,因为他们随后避免做出任何决定;选择不做实际上被认为是此设置中的决定)。
顺便说一句,在建筑物燃烧的情况下,如果消防员什么都不做,大概是男人和孩子都会死,所以这有点像提出的手推车问题的杀手,因此,消防员也许更能证明事实几乎肯定会做出选择。它与经典的台车问题不同,在于消防员有机会始终在以后指出,无论最终选择了哪种明显的选择,无所作为肯定比做出选择更糟糕。
还有一点,这不是所谓的霍布森选择方案,它有时被误导为台车问题。
霍布森的选择基于一位马主的历史故事,马主告诉那些想要马的人,他们可以选择最接近马door门的马,也可以不选任何马。这样一来,好的一面就是把那匹马当作马匹,而不利的一面就是你最终得不到一匹马。这是一种采用“要么保留,要么保留”风格的决策方案,并且肯定与“手推车问题”不同。
在所有背景知识都准备就绪的情况下,我们接下来可以考虑这似乎是与自动驾驶汽车相关的问题。
重点将放在基于AI的真正无人驾驶汽车上,这一措辞的含义值得弄清楚。
基于AI的无人驾驶汽车的作用
真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶过程中无需任何人工协助。
这些无人驾驶车辆被认为是4级和5级,而要求驾驶员共同分担驾驶努力的汽车通常被认为是2级或3级。共同承担驾驶任务的汽车被描述为半自动驾驶,通常包含各种自动附加组件,这些附加组件被称为ADAS(高级驾驶员辅助系统)。
5级还没有真正的无人驾驶汽车,我们甚至不知道这是否有可能实现,以及到达那里需要多长时间。
同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但4级研究人员正在通过非常狭窄和选择性的公共道路试验逐渐尝试吸引一些关注。指出在我们的高速公路和小路上发生)。
由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。
对于半自动驾驶汽车,重要的是必须预先警告公众最近出现的令人不安的方面,即尽管那些人类驾驶员一直在贴着2级或2级方向盘上睡着的视频, 3辆汽车,我们都需要避免被误认为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上转移开。
您是车辆驾驶行为的负责方,无论可能将多少自动化投入2级或3级。
无人驾驶汽车和手推车问题
对于4级和5级真正的无人驾驶车辆,不会有人类驾驶员参与驾驶任务。
所有乘客均为乘客。
AI正在驾驶。
这是一个棘手的问题:真正的自动驾驶汽车的AI是否必须在驾驶自动驾驶汽车的过程中做出台车问题的决策?
一些内部人士的反应是,这是一个荒谬的想法,完全被误导了,整个事件都被标记为虚假,并且与自动驾驶汽车无关。
真?
从通常给出的第一个前提开始,那就是在驾驶汽车的过程中不存在台车问题。
对于任何试图使用“从不发生”论点(几乎适用于任何事物)的人来说,他们发现自己处于摇摇欲坠,松散的基础上,因为只需证明存在,就可以证明“从不发生”是不正确的陈述。
我可以轻松地提供该存在证明。
仔细阅读有关撞车的新闻,这样做是一个例子,该新闻甚至在一个星期前就出现在新闻头条上:“在人行道上撞到行人的驾驶员正在转向避免撞车。”
真实世界的报告显示,驾驶员面对的一辆卡车突然意外地驶向他的前面,他发现自己不得不选择撞向另一辆车还是试图偏离该车,他显然也意识到附近有行人,他的转向使他进入了行人。
选择哪一个?
我相信您可以看到这很像台车问题。
如果他选择什么也不做,那可能是他撞上了另一辆车。如果他转弯,可能是要撞到行人。任何一种选择当然都是可怕的,但必须做出选择。
你们中的某些人可能会认为这不是一个生死攸关的选择,而且幸运的是,虽然受伤的行人并未真正丧生(至少如报告所述),但我认为您正在努力争取拒绝手推车问题。
可以轻易辩称死亡即将发生。
凡是开放的人都会同意,要做出可怕的选择,涉及到严峻的情况,选择有限,涉及时间紧迫性,否则总体上符合手推车问题(减去手推车)。
因此,对于那些“永不发生”阵营的人来说,这是许多例子中的一个,对此一词从来都不是公然错误的。
它确实发生了。
实际上,尝试衡量驾驶汽车时这种决策的频率是一件有趣的事情。仅在美国,有32000亿英里驱动每年,大约这样做2.25亿准许的司机,其结果是大约4万人死亡和230万点的伤害,由于汽车每年崩溃。
我们不知道有多少次撞车涉及手推车问题场景,但是我们确实知道据报道确实发生了撞车事件(如新闻报道所证明)。
在报告的这一方面,很有趣的是,显然,由于此类报告建议存在偏见,因此我们在解释任何有关车祸的故事和报道时应保持谨慎。
哥伦比亚新??闻评论》(Columbia Journalism Review)中讨论的一项研究指出,新闻记者经常引用驾驶员的话,而不是引用因驾驶行为而受到伤害的受害者(这在逻辑上是可以解释的,因为受害者要么难以接近自己所在的地方,医院,可能无能为力,或者不幸的是,他们已经死了,因此无法解释发生了什么。
您可能会认识到这种选择性关注是生存能力偏见,这是一种日常偏见,在这种偏见中,我们倾向于关注更容易获得的偏见,而忽略或忽视了那些较不容易发现或不明显的偏见。
对于汽车驾驶和车祸报告,我们需要牢记这一方面。
可能存在一些涉及台车问题的情况,幸存的参与者可能没有意识到已经发生过,或者不愿这样陈述,依此类推。从这个意义上讲,这可能是车祸中的台车问题被低估了。
公平地说,我们也可以质疑那些声称等于台车问题的人的真实性,并要谨慎地假设仅仅因为有人说是事实而已。从这个意义上讲,我们可能会注意潜在的过度报道。
总而言之,我们可以合理地拒绝所谓的“无轨电车问题”的说法。
更肯定地说,我们可以合理地接受并承认,在驾驶汽车时确实存在台车问题。
我说过了,而且我敢肯定那里有一些专家正在疯狂地沸腾。
无人驾驶汽车和手推车问题的处理
无论如何,有了我们的支持,我们希望可以同意人类驾驶员能够并且确实能够面对台车问题。
但是,只有人类驾驶员会遇到这种情况吗?
可以断言基于AI的驾驶系统很可能会遇到台车问题的情况,该系统应该驾驶汽车并以与人类驾驶者相同或更好的能力驾驶。
让我们仔细解决这个问题。
首先,请注意,这并不意味着仅AI驾驶系统会遇到台车问题,这有时会引起混淆。
有些人声称无轨电车问题只会发生在自动驾驶汽车上,但是希望这是明确的,这是人类驾驶员所面临的事情,我们将已知的方面扩展到我们认为自动驾驶汽车也将遇到的方面。
其次,有人认为我们的道路上将只有并且仅基于AI的真正自动驾驶汽车,因此,这些汽车将通过V2X进行电子通信和协调(请参阅此处的讨论)。可以避免出现台车问题的任何机会的时尚。
也许是这样,但这是一个乌托邦式的未来,我们不知道会不会发生。与此同时,在很长的一段时间内,无疑将有人类驱动的汽车和人工智能驱动的汽车的混合体,至少有几十年了,我们也不知道人们是否会放弃驾驶汽车的“正确”(这是一种荣幸,请参阅此处的讨论)。
这是许多从不台车的拥护者忽略的重要点。
这就是他们如何陷入困境的方法。
经常避免的是,基于AI的无人驾驶汽车“显然”在设计上差强人意,或者如果AI开发商发现自己遇到了台车问题,则本质上是AI开发人员的糟糕工作。
通常,这些相同的主张也与人们相信自动驾驶汽车导致的死亡人数为零有关。
正如我多次劝诫的,零死亡是零机会(请参阅此处的链接)。
这是一个崇高的目标,一个令人心动的愿望,但尽管如此,它还是对期望的误导和完全错误的确立。
问题是,如果有行人飞入街上,并且没有预警动作,同时无人驾驶汽车以每小时35英里的速度从街上驶下,则无法克服及时停车的物理原理仅仅是因为AI正在驾驶汽车。
通常的反驳是,AI 总是会事先检测到行人,但这是一个谬误,这意味着传感器将始终且完美地能够检测到这种情况,并且将始终在足够长的时间内完成自我检测开车可以避开行人。
我敢说,一个从两辆停放的汽车之间跑出来的孩子不会提供这样的机会。
我们再次进入了生存证明,这意味着在某些情况下,无论AI有多好,传感器有多好,仍然会有AI无法避免车祸的情况。
同样,可以用同样的方式辩称,无人驾驶自动驾驶汽车确实会遇到台车问题,这些自动驾驶汽车在我们的公共街道上,在人类驾驶员中间行驶,并靠近人类行人行驶。
关于由皮卡车截断的人类驾驶员的新闻报道绝对可能发生在自动驾驶汽车上。
这似乎是无可辩驳的。
如果您现在已经想到手推车问题可能会发生,并且在AI自动驾驶汽车中也可能发生,那么下一个方面就是AI会做什么。
假设AI卡在制动器上,然后正面撞向该皮卡车。
AI是否考虑了其他选择?
AI是否甚至考虑过转向道路的一侧并向上进入人行道(并进入行人)?
如果您是自动驾驶汽车制造商或汽车制造商,则需要非常非常非常谨慎地对待自己的答案。
我告诉你为什么。
您可能会说,AI仅被编程为做显而易见的事情,即踩刹车并试图减速。
我们可能会假设AI足够熟练,可以计算出尽管有制动,但AI仍会撞上皮卡车。
因此,“知道”即将发生车祸。
但是,如果你也说,AI并没有考虑其他选择,包括往上走的人行道上,这肯定似乎向人们展示了AI在做开车的工作不足,我们会预期一个人的司机尝试并评估替代方案以避免车祸。
从这个意义上讲,人工智能可能是不足的,也许不应该出现在我们的公共道路上。
您也睁你的法律责任,这是我一再声明是什么,最终将用于汽车和自驾车的汽车制造商(见我在一块巨大的曝光这个环节和这一个了)。
一旦无人驾驶汽车盛行,一旦撞上车祸,诉讼就将展开,并且已经有律师开始追捕那些财力雄厚,资金十亿美元的无人驾驶汽车制造商。科技和自动驾驶汽车。
同时,有些人可能会说AI确实考虑了其他选择,捍卫了AI系统的健壮性,包括它考虑在人行道上行走,但随后计算得出,行人可能受到了撞击,因此选择保持行进路线然后撞上了皮卡车。
哇,您刚刚承认AI陷入了台车问题场景。
欢迎收看。
结论
当驾驶员遇到手推车问题时,他们大概会考虑自己的潜在死亡或伤害,因此与经典的手推车问题有所不同,这是因为掷铁轨的人不会直接受到伤害(他们可能会遭受情感上的伤害,甚至法律后果,但不会造成人身伤害)。
我们可以合理地假设无人驾驶汽车的AI并不关心自身的幸福感(我不想偏离本文中的讨论并将我们带入正切,但有些人认为我们可能有一天会将人权归因于AI,请在此处的链接中查看我的分析)。
在任何情况下,自动驾驶汽车都可能载有乘客,这引入了无轨电车问题的第三个考虑因素。
这类似于添加第三个音轨和另一个前叉。
复杂性在某种程度上超出了传统的台车问题,因为AI现在必须考虑潜在的联合概率或不确定性水平,这涉及到在皮卡车的情况下可能会导致皮卡车死亡或受伤。提升驾驶员和自动驾驶汽车乘客的安全性,而不是行人和自动驾驶汽车可能造成的死亡或伤害。
也许这是类固醇的手推车问题。
是时候总结了。
对于那些在基于AI的自动驾驶汽车中否认存在台车问题的平坦地球人来说,沙尘暴视角不仅近视,而且您将是最容易达到法律目标的人提起诉讼
为什么这样?
因为存在“无轨电车问题”,这是一个众所周知且经常讨论的问题,但是您对此没有做任何事情,并且躲藏了它不存在的断言。
祝你好运。
对于你们当中那些稀有的地球人,您承认自动驾驶汽车存在台车问题,但认为这是稀有,边缘问题,极端情况。
告诉那些当您的基于AI的真正自动驾驶汽车撞到某人时遇难的人,这样做的确是无可争议的,最终将无可争议地发生。
同样,它不会保留任何合法的水。
然后,有个转机的地球人承认了台车问题,并且哀叹您现在很忙,以至于它不在优先列表上,并保证有一天,如果时间允许,您将处理它。
稀土地球人和全面发展地球人之间确实没有什么区别,无论哪种方式,当时间到了时,他们都将对陪审团和法官做出很多解释。
汽车制造商和自动驾驶技术公司应该做的是:
·制定关于台车问题的明智而明确的策略
·制定可行的计划,以发展AI来解决台车问题
·对AI进行适当的测试,以确定手推车问题的处理
·充分准备好AI功能后推出并监控使用情况
·调整并增强AI,以逐步改善手推车问题处理
希望这一讨论将唤醒平地人,并推动稀有地球人和全面发展的地球人,敦促他们对台车问题给予适当和适当的关注,并充分打造其AI驱动系统以应对这些问题。生死攸关的事情。
这是严肃的东西。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:臭名昭著 伦理学 Columbia Review 无人驾驶车

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-10-7 01:10