首次基于神经架构搜索自动生成图卷积结构,刷新人体动作识别准确率
行为识别是一个很有价值且具有挑战性的研究课题,具有广泛的潜在应用,例如安全监控、人机交互和自动驾驶。如今,作为表观数据和深度数据的替代方法,骨骼数据已广泛用于动作识别中。一个重要的原因是骨骼数据传达的是人体运动的紧凑信息,因此它对于视点变化,遮挡物和自我遮挡等复杂环境具有鲁棒性。
由图卷积网络(GCN)推动的基于骨骼数据的人体动作识别由于其非欧氏结构数据具有强大的建模能力而备受关注。然而,许多现有的 GCN 方法都提供了预定义的图结构,这可能会丢失隐式的联合相关性。因此,探索更好的 GCN 架构则成为了亟需解决的问题。为了解决这些问题,Wei Peng等使用神经结构搜索(NAS)的思路,提出了第一个可自动化设计的 GCN,该模型可用于基于骨骼数据的行为识别。在充分研究节点之间的时空相关性之后,他们通过提供多个动态图模块来丰富搜索空间。此外引入了多跳模块,希望突破一阶逼近对表示能力的限制。