X-Dance 图像驱动舞蹈动作数据集 - Image-to-Video Animation 测试数据
一、数据集核心信息
数据来源:由南京大学联合腾讯、上海人工智能实验室于 2025 年发布,配套论文「SteadyDancer: Harmonized and Coherent Human Image Animation with First-Frame Preservation」,数据权威性与学术认可度高。
覆盖范围:包含 12 段驱动视频(8 段高动态舞蹈动作 + 4 段低幅度日常行为),覆盖运动模糊、遮挡、姿态剧变等非理想真实场景;配套多源参考图像(动漫角色、半身照、跨性别 / 跨风格人物、差异姿态图像),模拟空间结构不一致与时间起始不连续问题。
核心目标:聚焦图像驱动人体动画生成(Image-to-Video Animation),用于评估模型身份保持、时序连贯性与时空不对齐应对能力,适配真实场景算法测试需求。
二、适用场景与可用途径
学术研究:支撑计算机视觉、人体动画生成、视频合成等方向论文撰写,为模型鲁棒性与泛化能力实证研究提供专项测试数据。
技术开发:适配 Image-to-Video 算法优化、舞蹈动作生成模型训练与性能测试,助力解决真实场景中非理想条件下的动画生成痛点。
行业应用:助力影视动画制作、虚拟人舞蹈开发、短视频创意工具研发等领域,为技术落地提供高质量场景化测试数据支撑。
X-Dance 图像驱动舞蹈动作数据集
(85 Bytes, 需要: RMB 15 元)


雷达卡


京公网安备 11010802022788号







