首页| 论坛| 搜索| 消息
主题:Figure AI 发布新 demo:两个机器人点头致意,我们一起把被子拉开
爱我中华发表于 2026-05-11 14:00
全球首次用单一神经网络实现多机器人协作 locomanipulation。作者|Li Yuan编辑|靖宇5 月 8 日晚,Figure AI 发布了新的 demo。卧室里,两台 Helix‑02 机器人在不到两分钟的时间里完成了整个房间的整理:开关门、挂衣服、收拾耳机、倒垃圾、推动椅子,最终把床上的被子整齐盖好。拉被子时,两台机器人互相「点头」,像在默契确认,然后同时开始施力,将被子平整拉开铺好。整个过程流畅而协调,每一个动作都显得像人类在互相配合。它们通过观察对方的动作,自行推测下一步,没有中心控制器,也没有显式通信。柔性物体操作的难题,也被它们稳定完成。Figure AI 称,这标志着全球首次用单一神经网络实现多机器人协作 locomanipulation:每台机器人独立运行模型,通过观察对方动作自主决定自己的动作。表面上,它们像人在默契配合,实则每一台都是独立判断。Figure AI 是目前世界上最贵的人形机器人公司,虽然也主打能干活的路线,但和国内大多数机器人公司,或国外 Physical Intelligence 等的轮式底盘+双臂的高效路线截然不同。演示中更让人惊艳的是,机器人能双足走路地干活,并互相配合完成任务。每一次演示的工作任务——如收拾实验室桌台、叠样板间被子——虽然不一定最难,但「像人在房间里走动、协作」的画面感极强,让人印象深刻。不过,这样的演示固然令人惊艳,也有批评声音认为这些协作可能依赖精心设计的初始状态和场景布置——表面上看似默契配合,其实可能只是短序列任务训练下的可预见行为。能否真正动态理解对方意图、长期落地协作,还需要进一步验证。近期 Figure AI 动作频繁:BotQ 工厂每小时产出一台 Figure 03,人形机器人累计交付量突破 350 台;Figure 4 进入后期设计,创始人称之为 iPhone 1 时刻。同时 Figure AI 也在考虑家庭场景使用。美国市场或按月订阅 400–600 美元,机器人占地小、可全天候自主运行。Figure AI 已成为世界上最昂贵的人形机器人公司,其技术动向值得关注。协作无疑是未来人形机器人的核心功能,但专注协作究竟是技能树点歪了,还是未来落地必不可少,Figure AI 可能会很快给出答案。01Helix‑02 卧室整洁演示Helix‑02 最新演示展示了两台机器人在共享家庭环境中的多任务协作能力。两台搭载 Helix‑02 系统的类人机器人,在不到两分钟的时间内协同完成了整个卧室的重置:从开门、晾衣、整理耳机、合上书本、清理垃圾、推椅子,到最具代表性的——共同铺床。Helix‑02 是 Figure AI 当前最先进的模型,也是之前演示过「用脚顶上洗碗机门」的那款。之前的文章中有详细介绍过。官方宣称 Helix 模型依赖超过 100 万小时的模拟与实地数据训练,目标是打造单一平台通用机器人,兼顾家庭和商业环境的适应性。Figure AI 在演示中强调了几项核心能力:全身控制一体化从上半身扩展到全身动作(locomotion + manipulation + balance),实现步态、平衡、步行与操作任务的协同。柔性物体与复杂动态交互处理可以应对整张床单这类无固定几何、状态不断变化的对象。新场景泛化能力无需任务特定控制器或专家策略,通过学习实现新环境的适应,而非依赖人工设计。本次演示的关键之一,是柔性物体操作。 实验室里,机器人通常处理刚性、几何已知的物体,如方盒、球体或简单工具。但床单、被套、布料没有固定形状,会不断折叠、滑落、遮挡。人类依赖多年触觉和视觉经验自然处理布料,而 Helix‑02 必须通过视觉和动作预测,持续估计布料状态,并生成下一步动作——这对实时感知和反馈控制提出了极高要求。另一个关键亮点,是单一神经网络驱动的多机器人协作 locomanipulation。 所有动作都由机器人自主生成:没有人工操作、没有中央调度。每台机器人通过自身摄像头观察环境,直接推断对方意图,并在极高频率下连续决策。就像两个人一起折叠被子,仅凭动作与视觉线索完成协作,无需显式通信或共享计划。在同一空间内工作时,每个动作都会影响对方正在处理的任务。机器人不能单纯执行预设动作,它必须把对方的运动轨迹、目光、手部位置和整体姿态当作动态输入,实时推断伙伴的目标。对于无固定形状和抓点的柔性床单,这尤其棘手:意图预测的微小误差会随着布料状态变化迅速放大。此外,视频还展示了机器人节奏感与高维决策能力。 在移动、抓握、保持平衡的同时,它们还能完成精细操作——比如把耳机挂到架子上、用脚踩垃圾桶踏板开盖。整个过程没有「脚本切换」,一切动作都由神经网络在几十毫秒内连续推断、决策。02机器人协作,独门技术还是技术树点歪了?Helix 并非首次展示多机器人协作。早在 2025 年 2 月,Figure AI 就发布了 Helix 模型的首次双机协作演示。两台搭载 Helix 系统的人形机器人在同一场景中完成任务,通过视觉感知和自然语言指令进行协同操作。演示中,机器人能把物体递到另一个机器人手里,然后让另一个机器人放进离他更近的整理位置。自己的位置收拾好了,也会等待另一个机器人先传递物品,再收拾。在技术圈,这一演示当时被普遍认为是一个重要突破。一方面,与此前大多数机器人仅展示「单机拾取摆放」不同,Helix 的协作展示真正涉及多机器人之间的互动与分工,机器人会根据空间位置、任务提示和视觉输入实时调整动作,这在当时的机器人控制演示中极为罕见。另一方面,也存在更谨慎甚至批判性的声音。部分技术人员指出,这类演示可能依赖精心设计的初始状态和场景布置,使机器人看似在「协作」,而实际上可能仅通过短序列任务训练应对可预见的环境变化,而非实现即时深度协同。此外,虽然两台机器人能完成表面上的合作动作,但它们的互动仍相对基础,距离真正动态推断对方意图并在开放环境中连续协作还有明显差距。这条技术演进线在 Helix‑02 这次的演示中一脉相承。从对方把东西放进自己手里,现在的演示中,两个机器人通过点头沟通,能够完成更高复杂度的任务了,未来可能能够迈向真正的视觉驱动、自主推断、连续互动。为什么只有 Figure AI 比较关注多机器人协作?原因除了技术难度,任务本身在工程上难度极高,而短期价值回报有限。在产业内已经落地的机器人,也比较少有协作。目前可商用的多机器人协作,大多属于低耦合、间接协作,或者在中心控制器指导下完成分工任务。但对 Figure AI 和那些想让机器人真正「干人活」的公司来说,要做到像视频里那样拉被子,多个机器人一起协作,是绕不开的事。03Figure AI 量产在即,即将迎来真正检验尽管 Helix‑02 的演示距离完全替代日常家务仍有差距,但每次 Figure AI 的展示都极具类人感——这不仅提升了公众关注度,也可能是吸引投资者青睐的重要原因之一。不过,技术能否走出实验室进入现实世界,最终还要接受市场和规模化落地的检验。未来几个季度将是验证其技术和商业路径能否落地的关键节点。近期 Figure AI 的动作格外密集,其中最引人瞩目的进展是生产线产能的实质性提升。在其位于加利福尼亚的 BotQ 制造基地,Figure 已成功将人形机器人生产节奏从每天 1 台提升到每小时 1 台——不到 120 天内实现了约24 倍的产能增长。这标志着从「原型制造」向「工业量产」迈出了关键一步,同时为大规模商业部署打下基础。BotQ 自 2025 年启用以来就定位为高产能制造工厂,目标年产能曾设定在约 12,000 台左右(即每小时约 1 台左右的量级),为后续进一步扩展到十万台级别做准备。在这一产能提升背后,有成熟的自动化生产线架构、定制制造执行软件覆盖 150 余个联网工位、严格的供应链质量控制,以及覆盖 80+ 项最
下一页 (1/2)
回帖(14):
14 # huwg
05-12 08:46
谢谢分享
13 # huwg
05-12 08:46
了解一下
12 # huwg
05-12 08:46
来看看
11 # z3960
05-12 05:42
了解信息
10 # z3960
05-12 05:42
看看消息
9 # 任逍遥
05-12 02:24
不错,了解了
8 # 任逍遥
05-12 02:24
也就看看
7 # 任逍遥
05-12 02:24
来看一下
6 # srwam
05-11 19:50
看后续
5 # srwam
05-11 19:50
了解一下

全部回帖(14)»
最新回帖
收藏本帖
发新帖