算法的表现通常会受训练集数据的影响,具体到自动驾驶这个问题就会存在电车难题,那么算法应该保全哪一方呢?MIT的研究人员调查了全球不同文化上万人的选择偏好,结果发现文化差异本身就会造成决策的不同,也就是说,就算是人工智能也需要考虑算法区域伦理,在不同的文化区中同一事件自动驾驶系统需要考虑当地风俗给出不同的对策。在真实统计模型的构建之中,微软小冰就曾经因为种族歧视及脏话而下线,而这篇文章则告诉我们,除了大是大非,文化差异也将会成为人工智能模型构建的重要考虑因素,而基于回答聚类构建的三大文化区也很有意思。
链接:https://www.nature.com/articles/s41586-018-0637-6