炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:贝壳财经)
新京报贝壳财经讯(记者韦博雅)12 月 18 日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型 XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP 最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用场景下能干活并且会干活,推动国内具身智能行业迈向“全自主、更好用”的新阶段。
本次开源的系列内容,是面向具身小脑能力的VLA模型XR-1,以及为XR-1等模型提供数据训练支持的RoboMIND 2.0和ArtVIP。
北京人形介绍,跨本体VLA模型 XR-1具备多场景、多本体、多任务特性,并且还拥有高泛化性等优势特点。背后的技术原理在于,XR-1具备跨数据源学习、跨模态对齐、跨本体控制三大核心支柱能力。首先,通过跨数据源学习让机器人能够利用海量人类视频进行训练,降低训练成本提升训练效率;其次,依靠跨模态对齐能够打破视觉和动作的隔阂,让机器人做到真正的知行合一;最后,借助跨本体控制可以让XR-1快速匹配不同类型、不同品牌的机器人本体。
北京人形首创的UVMC(多模态视动统一表征)技术是关键,它能够搭建起视觉与动作的映射桥梁,让机器人将看到的画面瞬间转化为身体的本能反应,像人类条件反射般自然做出正确的应对动作。XR-1的多构型预训练能力,使具身天工2.0具备全身多关节丝滑拟人控制,可实现大幅弯腰下蹲并精准抓取随机摆放的物料箱,完成复杂倒料任务
RoboMIND 2.0则在此前版本基础上进行了全面的升级。机器人操作轨迹数据增加到了30+万条、扩展了工业零件分拣、流水线设备、物理化学实验室、家庭厨房、家电交互等在内的11个涵盖工业、商用、家庭的场景,机器人本体、任务、技能数量也分别有了2倍以上的提升。同时,增加了1.2+万条带触觉操作数据支持训练VTLA、MLA模型,还可用于训练机器人大小脑模型,并开源了基于ArtVIP的大量仿真数据。
编辑 岳彩周
校对 卢茜