楼主: CDA网校
596 8

关于具身智能「触觉」,你想知道的都在这篇综述里了 [推广有奖]

管理员

已卖:189份资源

泰斗

6%

还不是VIP/贵宾

-

威望
3
论坛币
132838 个
通用积分
13753.8932
学术水平
278 点
热心指数
286 点
信用等级
253 点
经验
233069 点
帖子
7248
精华
19
在线时间
4443 小时
注册时间
2019-9-13
最后登录
2026-4-8

初级热心勋章

楼主
CDA网校 学生认证  发表于 8 小时前 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

在具身智能的感知拼图中,触觉一直扮演着不可或缺却难以被完美量化的角色。它提供了视觉等远程传感器无法替代的关于接触几何、材料特性和交互动态的直接反馈。

随着大语言模型(LLM)、世界动作模型(WAM)和视觉 - 语言 - 动作(VLA)大模型的爆发,将触觉与视觉、语言相融合,以弥合物理交互与高级语义推理之间的鸿沟,已成为机器人领域的必然趋势

本文由香港科技大学(广州)熊辉教授团队牵头,联合灵心巧手(LinkerBot)以及西安交通大学、复旦大学、北京邮电大学、南京大学等,以《Tactile-based Multimodal Fusion in Embodied Intelligence: A Survey of Vision, Language, and Contact-Driven Paradigms》为主题,全面梳理并分析截至 2026 年第一季度的前沿研究,提出了一个涵盖多模态数据集、模型方法、传感器硬件和评估体系的层次分类法。本文将带你全面拆解这篇重磅综述的核心干货。

图 1. 多模态触觉融合综述的结构概述
图 1. 多模态触觉融合综述的结构概述

一、 为什么具身智能不可缺少触觉?

与视觉等远端模态不同,触觉提供了表面纹理、材料属性和接触动态的直接、近端反馈,这对于解决视觉模糊性至关重要。对于具身智能体而言,触觉反馈不仅仅是一种辅助模态,更是感知 - 行动闭环中的基本组成部分,触觉作为连接被动观察与主动物理交互的桥梁,能够提供关于物体几何形状、材质属性以及接触动力学最直接的反馈,这是远距离传感器无法替代的。在充满物理接触的环境中,这种多传感器线索的协同作用(尤其是视觉与触觉的协同),是构建稳健的感知和控制系统、使智能体能够真正在物理世界中进行精确操作和稳定抓取的关键。

图 2. 多模态触觉融合的代表性数据集和方法综述
图 2. 多模态触觉融合的代表性数据集和方法综述

二、底层逻辑:多模态触觉融合的四阶段 Pipeline

与视觉或语言不同,触觉信号是接触驱动的,只有在物理交互发生时才会产生。综述指出,现有的多模态触觉融合系统在底层基本都遵循一个严谨的四阶段处理流程:

  1. 物理转导与时空观察: 传感器将形变、力或振动等物理刺激转化为数字信号(如高维矩阵或图像串)。

  2. 特定模态表征学习: 针对不同模态使用专属的编码器(如用于视觉 / 触觉编码的 ResNet 或 ViT,用于自然语言编码的 OpenCLIP),将其转化为统一维度的潜在特征向量。

  3. 跨模态融合: 通过特征拼接、交叉注意力机制或对比学习对齐,将单模态特征融合成共享的联合表征。

  4. 具身解码与任务执行: 将融合后的特征输出为最终结果,比如物体类别、生成的文本描述或机器人的控制动作。

三、多模态触觉融合的全景蓝图

本综述创新性地提出了一个层次化分类体系,将多模态触觉融合系统地划分为三大支柱:多模态数据集、多模态方法和触觉传感器。

图 3. 2015 - 2026 年多模态触觉融合论文发表趋势。
图 3. 2015 - 2026 年多模态触觉融合论文发表趋势。

1. 数据集篇:从实验室单一配对走向真实世界的丰富语义

图 4. 基于触觉的多模态融合数据集的比较总结
图 4. 基于触觉的多模态融合数据集的比较总结

数据集是跨模态学习的 “燃料”。文章根据模态组成,将现有数据集的发展脉络划分为四大阶段:

  • 触觉 - 视觉 (T-V) 数据集: 早期(如 VT Dataset)主要关注受控环境下的机器人抓取;近期则向无约束的野外环境(如 Touch in the Wild)和复杂形变物体(如 TouchClothing)发展。

  • 触觉 - 语言 (T-L) 数据集: 旨在建立触觉与人类认知的桥梁。例如 PhysiCLEAR 记录了物体的软硬、粗糙度,而最新的 STOLA 则支持开放式的触觉常识推理,打破了过去只能依赖视觉进行语义接地的局限。

  • 触觉 - 视觉 - 语言 (T-V-L) 数据集: 迎合当前大模型趋势的终极形态。比如 Touch100k 包含了超 10 万个三模态对齐样本,不仅有短语标签,还有长文本自然语言描述,完美支持跨模态对齐。

  • 触觉 - 视觉 - 其他 (T-V-O) 数据集: 引入了动作、音频或本体感觉。著名的 ob jectFolder 系列结合了撞击音频;而 OmniViTac 等数据集则加入了动作序列,支持端到端的接触丰富型操作策略学习。

2. 方法论的三大范式:感知、生成与控制的全面进化

在算法层面,综述将数百篇前沿工作结构化为三个核心方向,并对其进行了详细的子任务拆解:

图 5. 多模态触觉融合与下游任务的一般范例
图 5. 多模态触觉融合与下游任务的一般范例

(1)多模态感知与识别

这是目前研究最广泛的范式,核心在于理解,具体包括四个子任务:

  • 多模态物体识别: 结合全局视觉和局部触觉,通过早期特征拼接或最新的 Transformer 联合查询机制(如 VHTformer),在视觉模糊(如透明物体)时依然能准确识别物体。

  • 属性与材料识别: 从早期的监督学习分类,进化到如今基于 CLIP 等大模型的零样本(Zero-shot)识别。模型(如 UniTouch)可以通过语言文本提示,直接推断物理材质。

  • 抓取成功 / 失败预测: 区别于抓取前的视觉规划,它利用接触后的实时触觉反馈(如滑动、受力分布)来判断抓取是否稳定,是机器人闭环控制的关键一环。

  • 跨模态检索与匹配: 作为评估表征对齐质量的标准任务,测试模型能否用一段触觉数据搜出对应的视觉图片或文字描述。

图 6. 多模态感知和识别的分类,包括多模态物体识别、多模态属性和材质识别、抓取成功或失败预测以及跨模态检索和匹配
图 6. 多模态感知和识别的分类,包括多模态物体识别、多模态属性和材质识别、抓取成功或失败预测以及跨模态检索和匹配

(2)跨模态生成与转换

不再局限于识别,而是让模型拥有跨感官的合成能力:

  • 视 - 触双向生成: 看到粗糙的岩石照片,模型能生成对应的触觉形变图;摸到材质,能反推物体的视觉纹理。

  • 语言 - 触觉翻译: 包含 “触觉转语言”(为接触生成自然语言 Caption,如 VTV-LLM)以及极具挑战的 “文本生成触觉”(Text-to-Tactile,仅靠一段文字描述合成物理触感数据)。

图 7. 多模态跨模态生成和转换的分类,包括视觉 - 触觉生成和翻译和语言 - 触觉生成和翻译
图 7. 多模态跨模态生成和转换的分类,包括视觉 - 触觉生成和翻译和语言 - 触觉生成和翻译

(3)多模态交互与操作

将感知直接与物理控制耦合,分为两大路径:

  • 多模态感知驱动的机器人操作: 结合触觉反馈进行精细装配(如插孔任务)或维持稳定抓取。例如,DexTac 利用精确的接触区域提示来完成注射器操作等高精度任务。

  • 语言指令下的多模态操作: 融合大语言模型的终极形态(VLA)。人类下达抽象指令(如 “轻轻抓住那个软物体”),系统联合语言语义、视觉几何与触觉实时反馈来生成连续动作。

图 8. 多模态交互和操作的分类,包括具有多模态感知的机器人操作和语言指令下的多模态操作
图 8. 多模态交互和操作的分类,包括具有多模态感知的机器人操作和语言指令下的多模态操作
图 9. 2026 年第一季度之前发表的多模态触觉融合方法综述
图 9. 2026 年第一季度之前发表的多模态触觉融合方法综述

3. 硬件篇:触觉传感器的多样化形态

触觉信号的质量直接受制于硬件设计与物理交互界面的形态。文章将触觉传感平台分为四类:

  • 可穿戴触觉系统: 主要用于捕捉人类交互先验,支持可扩展的数据收集和向机器人的技能转移。

  • 手持与指尖传感器: 提供局部高分辨率的接触感知,紧凑的体积使其非常适合直接集成到机器人末端执行器中。

  • 机器皮肤与多模态传感器贴片: 强调大面积可扩展性、机械顺应性和分布式感知,以支持机器人的全身接触感知。

  • 夹爪安装与集成传感器: 直接在操作界面集成感知能力,为闭环控制提供紧凑且共址的实时多模态反馈。

图 10. 具有代表性的触觉传感器
图 10. 具有代表性的触觉传感器

四、 尚未统一的大考:评估指标与基准

尽管发展迅速,但多模态触觉融合仍缺乏统一的基准,现有的评估协议高度依赖于特定任务。文章尖锐地指出了当前领域面临的四大核心挑战:

  • 数据碎片化与可扩展性瓶颈: 现有数据集往往是任务定制且依赖特定传感器的,规模远小于视觉 - 语言资源,这限制了基础模型的零样本迁移能力。

  • 模态不对齐与噪声干扰: 稀疏触觉输入与密集视觉 / 语言输入之间存在固有的时空不对齐,传感器漂移和视觉遮挡等现实问题会进一步削弱对齐的可靠性。

  • 软硬件集成壁垒: 触觉传感器形态各异且缺乏标准接口,其耐久性和功耗限制了与大型视觉 - 语言模型在具身系统中的实时闭环融合。

  • 评估与基准的不一致性: 指标碎片化,缺乏端到端的具身基准,难以综合评估模型在实际物理交互中的安全性和鲁棒性。

图 11. 多模态触觉融合评价指标综述
图 11. 多模态触觉融合评价指标综述

五、挑战与未来:通往通用具身智能之路

尽管进展迅速,多模态触觉融合仍面临着诸多亟待突破的瓶颈。目前的数据规模与大型语言模型的训练需求相比仍有巨大差距,且异构传感器之间缺乏统一的数据标准。同时在非结构化环境中,稀疏的触觉输入与密集的视觉或语言信息之间经常出现空间和时间上的不对齐。此外现有的评估指标往往局限于特定任务,缺乏一个能全面衡量触觉真实性、语义一致性和控制有效性的统一端到端基准测试。

对于未来,构建统一且可扩展的大规模数据集是打破发展瓶颈的关键所在。算法层面需要向层次化的融合架构演进,将触觉作为多模态推理的底层支撑。在硬件端,柔性、耐用且具备端侧处理能力的仿生触觉皮肤将极大拓展机器人的感知边界。通过将触觉反馈作为连续的监督信号直接嵌入决策闭环,具身智能系统必将从受控的实验室环境稳步迈向复杂多变的人类生活空间。

推荐学习书籍 《CDA一级教材》适合CDA一级考生备考,也适合业务及数据分析岗位的从业者提升自我。完整电子版已上线CDA网校,累计已有10万+在读~ !

免费加入阅读:https://edu.cda.cn/goods/show/3151?targetId=5147&preview=0

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


沙发
CDA网校 学生认证  发表于 7 小时前
在具身智能的感知拼图中,触觉一直扮演着不可或缺却难以被完美量化的角色。

藤椅
CDA网校 学生认证  发表于 7 小时前
它提供了视觉等远程传感器无法替代的关于接触几何、材料特性和交互动态的直接反馈。

板凳
CDA网校 学生认证  发表于 7 小时前
随着大语言模型(LLM)、世界动作模型(WAM)和视觉 - 语言 - 动作(VLA)大模型的爆发,将触觉与视觉、语言相融合,以弥合物理交互与高级语义推理之间的鸿沟,已成为机器人领域的必然趋势。

报纸
cre8 发表于 7 小时前

地板
redflame 发表于 6 小时前
感谢分享

7
walker12345 在职认证  学生认证  发表于 6 小时前
thanks for sharing

8
yiyijiayuan 在职认证  发表于 4 小时前
还是支持。

9
512661101 发表于 1 小时前
谢谢分享!

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-4-8 18:55