深度学习可解释性问题如何解决?图灵奖得主Bengio有一个解
今年 3 月,为深度学习做出巨大贡献的 Yoshua Bengio、Yann Lecun和Geofrey Hinton 一同获得了图灵奖。
在最近一次采访中,图灵奖得主Bengio再次再次警示了可解释因果关系对深度学习发展的重要性。
在他看来,除非深度学习能够超越模式识别并了解因果关系的更多信息,否则它将无法实现其全部潜力,也不会带来真正的AI革命。换句话说,深度学习需要开始知道事情发生的因果关系,这将使现有的 AI 系统更加智能,更加高效。
今年年初,他与其他研究者合作发表了《通过元迁移目标来学习理解因果关系》一文,提出了一种基于学习器适应稀疏分布变化速度的元学习因果结构,还生成了因果关系的综合数据集。
他们证明了因果结构可以通过连续变量和端到端的学习进行参数化。然后,本文探讨了如何将这些想法用于学习一种编码器,该编码器能将初级观察变量映射到未观察到的因果变量,从而导致更快的分布适应。它学习的是一种表示空间,在这种表示空间中,可以满足独立性以及微小和稀疏变化的假设。