本文发布了 Open-H-Embodiment 及两款开源模型,为手术机器人 Physical AI 建立了可落地的数据与模型基础。
📝 详细摘要
这篇文章围绕医疗机器人给出了一次较完整的生态发布:Open-H-Embodiment 数据集(778 小时、多机器人形态、覆盖仿真到临床)、用于手术任务的 VLA 策略模型 GR00T-H,以及用于动作条件生成与数据增强的世界模型 Cosmos-H-Surgical-Simulator。除发布信息外,文章还提供了关键设计细节(如 embodiment projector、state dropout、相对 EEF 动作和元数据提示词)、效率对比数据,以及可直接复用的数据集、模型与仓库链接。尽管带有平台叙事色彩,但整体技术信息密度和实践价值都较高。
💡 主要观点
- Open-H-Embodiment 提供了面向医疗机器人自主能力的大规模社区数据基础。 数据覆盖手术、超声和结肠镜场景,横跨仿真、台架和真实流程,并包含多种机器人形态。
💬 文章金句
- Comprises 778 hours of CC-BY-4.0 healthcare robotics training data, largely surgical robotics, but also ultrasound and colonoscopy autonomy data.
- For 600 rollouts, it took only 40 minutes in simulation versus 2 days using real-world benchtop methods.
- The goal for version 2 of the Open-H-Embodiment effort is to move beyond perceptual control to reasoning-capable autonomy.
📊 文章信息
AI 评分:86
来源:Hugging Face Blog
作者:Sean Huver, Nigel Nelson, Lukas Zbinden, Mostafa Toloui
分类:人工智能
语言:英文
阅读时间:4 分钟
字数:779
标签: Physical AI, 医疗机器人, 手术机器人, Vision-Language-Action, 世界模型