北京大学与智元机器人联合实验室发布OmniManip架构

发布日期:2025-01-24     39 次

1 月 23 日消息,如何将视觉语⾔基础模型(Vision  Language  Models,  VLMs)应⽤于机器⼈以实现通⽤操作是具身智能领域的⼀个核⼼问题,这⼀⽬标的实现受两⼤关键挑战制约:

VLM 缺少精确的 3D 理解能⼒:通过对⽐学习范式训练、仅以 2D 图像 / ⽂本作为输⼊的 VLM 的天然局限;

⽆法输出低层次动作:将 VLM 在机器⼈数据上进⾏微调以得到视觉 - 语⾔ - 动作(VLA)模型是⼀种有前景的解决⽅案,但⽬前仍受到数据收集成本和泛化能⼒的限制。

上海智元新创技术有限公司官方今日发文称,北⼤携⼿智元机器⼈团队提出 OmniManip 架构,基于以对象为中⼼的 3D 交互基元,将 VLM 的高层次推理能力转化为机器⼈的低层次高精度动作。

针对⼤模型幻觉问题和真实环境操作的不确定性,OmniManip 引⼊了 VLM 规划和机器⼈执⾏的双闭环系统设计,实现了操作性能突破。目前项⽬主⻚与论⽂已上线,代码与测试平台即将开源。

从智元机器人官方获悉,OmniManip 的关键设计包括:

基于 VLM 的任务解析:利⽤ VLM 强⼤的常识推理能⼒,将任务分解为多个结构化阶段(Stages),每个阶段明确指定了主动物体(Active)、被动物体(Passive)和动作类型(Action)。

以物体为中⼼的交互基元作为空间约束:通过 3D 基座模型⽣成任务相关物体的 3D 模型和规范化空间(canonical space),使 VLM 能够直接在该空间中采样 3D 交互基元,作为 Action 的空间约束,从⽽优化求解出 Active 物体在 Passive 物体规范坐标系下的⽬标交互姿态。

闭环 VLM 规划:将⽬标交互姿态下的 Active / Passive 物体渲染成图像,由 VLM 评估与重采样,实现 VLM 对⾃身规划结果的闭环调整。

闭环机器⼈执⾏:通过物体 6D 姿态跟踪器实时更新 Active / Passive 物体的位姿,转换为机械臂末端执⾏器的操作轨迹,实现闭环执⾏。

此外,OmniManip 具备通⽤泛化能⼒,不受特定场景和物体限制。团队已将其应⽤于数字资产⾃动标注 / 合成管道,实现⼤规模的机器⼈轨迹⾃动采集。该研究团队将开源泛化操作⼤规模数据集和对应的仿真评测基准。

据IT之家此前报道,以“天才少年”身份加入华为的稚晖君于 2022 年底宣布离职,创业智元机器人。2024 年 9 月 3 日,智元机器人完成 A++++++ 轮融资,估值已超过 70 亿元,得到了包括北汽、上汽、比亚迪在内的国内汽车巨头支持。

目前,智元机器人量产的第 1000 台通用具身机器人已于本月(1 月 6 日)正式下线,其中包括 731 台双足人形机器人(远征 A2 / 灵犀 X1)和 269 台轮式通用机器人(远征 A2-D / A2-W)。


0.png


上一篇: OpenAI推出首个智能体Operator
下一篇: 没有了!

为您精选

寻找更多销售、技术和解决方案的信息?

关于绿测

广州绿测电子科技有限公司(简称:绿测科技)成立于2015年11月,是一家专注于耕耘测试与测量行业的技术开发公司。绿测科技以“工程师的测试管家”的理念向广大客户提供专业的管家服务。绿测科技的研发部及工厂设立于广州番禺区,随着公司业务的发展,先后在广西南宁、深圳、广州南沙、香港等地设立了机构。绿测科技经过深耕测试与测量领域多年,组建了一支经验丰富的团队,可为广大客户提供品质过硬的产品及测试技术服务等支持。

绿测工场服务号
绿测工场服务号
绿测科技订阅号
绿测科技订阅号
020-2204 2442
Copyright @ 2015-2024 广州绿测电子科技有限公司 版权所有 E-mail:Sales@greentest.com.cn 粤ICP备18033302号