【资料图】
1月26日,国家地方共建人形机器人创新中心联合相关研究团队发布“白虎-VTouch”跨本体视触觉多模态数据集。该数据集包含超过60000分钟的机器人交互数据,涵盖视觉、触觉、关节位姿等多模态信息,是目前规模最大的同类开源数据集之一。
据悉,该数据集覆盖家政服务、工业制造、餐饮服务等日常场景,包含380余项任务类型,涉及500多种常见物品的操作数据,涵盖了轮臂机器人、双足机器人及手持智能终端等多种本体构型。通过系统采集真实物理交互过程中的触觉与视觉信息,该数据集能够为提升机器人对物理环境的理解能力、实现更精细稳定的操作提供数据支持。
在技术实现层面,研究团队建立了多机器人同步数据采集平台,能够同时支持十余种传感器的高带宽数据采集,并确保多模态数据的时序一致性。数据集采用的视触觉传感器可记录物体接触过程中的细微形变与压力分布变化。
目前,该数据集的首批6000分钟数据已在开源平台发布,相关技术文档与使用说明将陆续公开。研究团队表示,希望该数据集能够为机器人精细操作算法的研发提供基础资源,推动服务机器人在家庭助老、生活协助等场景中的实际应用能力提升。
(总台记者 张静)
(责任编辑:单晓冰)标签:
内容搜集整理于网络,不代表本站同意文章中的说法或者描述。文中陈述文字和内容未经本站证实,其全部或者部分内容、文字的真实性、完整性、及时性本站不做任何保证或者承诺,并且本站对内容资料不承担任何法律责任,请读者自行甄别。如因文章内容、版权和其他问题侵犯了您的合法权益请联系邮箱:5 146 761 13 @qq.com 进行删除处理,谢谢合作!