不用數據採集了?跨維智能開源基於生成式仿真世界模型的具身智能工具鏈

來源: 更新:

專注於以Sim2Real技術爲核心的3D視覺產品和智能機器人研發企業跨維智能今天宣佈正式開源基於生成式仿真世界模型的具身智能工具鏈EmbodiChain。

據介紹,EmbodiChain能夠自動訓練VLA模型併成功真機部署的基於生成式仿真世界模型的具身智能工具鏈。它無需依賴真實數據,通過100%合成數據訓練VLA模型,就能直接部署於真實機器人,實現零樣本虛實遷移。

跨維智能表示,其目標是將EmbodiChain打造爲具身智能領域的“水電煤”,讓研究者擺脫數據採集的體力勞動與存儲壓力,推動具身智能研究和應用的加速落地。

基於端到端自動化流程,EmbodiChain融合生成式場景構建與智能體技能探索,打造“仿真-訓練-部署”的高效閉環;首創任務場景與訓練數據的自動化生成技術,讓高質量訓練流程的構建從數月縮短至數天;並構建了覆蓋自動場景生成、技能發現到真機驗證的全鏈路評估體系,爲具身智能模型的實用化提供了完整開源基準。

在大語言模型領域,海量互聯網文本數據催生了智能的湧現。但這一成功範式在機器人領域卻難以複製。核心矛盾在於數據的本質差異:LLM依賴的是存量數據的清洗,而具身智能需要的是符合物理規律的增量數據。物理時間的流逝與人力成本的邊界,始終限制着數據規模的突破。

而EmbodiChain的核心理念是“以生成替代採集”。它通過生成式仿真技術,構建了一條永不停歇的“在線數據流”,徹底摒棄了傳統“生成-存儲-讀取”的低效模式。其技術框架包含三大創新模塊:

世界生成:通過Real2Sim與Gen2Sim模塊,引擎能夠基於少量真實樣本或語言指令,自動生成物理一致的3D場景與任務環境,實現數據生產的完全自動化。

數據擴增與自我修復:系統不僅隨機化物理參數、增強視覺多樣性,還能在機器人任務失敗時自動生成修正軌跡,形成“錯誤-學習”的閉環機制,顯著提升模型魯棒性。

特權信息驅動:EmbodiChain提供真實世界中不可見的“上帝視角”信息(如物體掩碼、空間關係),迫使模型理解物理本質而非表面像素,這與Yann LeCun倡導的世界模型理念高度契合。

不同於Sora等 “視頻生成式世界模型”,EmbodiChain堅持3D交互式、物理精確的生成式仿真路線,通過提供特權信息(物體精確掩碼、空間關係、可供性標籤),迫使模型理解場景幾何與物理本質,而非僅擬合表面像素,確保訓練出的策略在真實世界中穩定可靠。

爲驗證生成式數據的有效性,跨維智能進行了極端測試:僅使用100%仿真數據訓練Sim2Real-VLA模型,完全摒棄真實數據。測試現實:該模型在真實環境中的操作成功率顯著領先於ACT、Diffusion Policy等依賴真實數據的方法,且在更換桌布、移動物體等干擾下表現出極強的魯棒性。這一結果證明,生成式仿真數據不僅可行,甚至可能因避免過擬合噪聲而優於傳統方法。

跨維智能後續還將逐步釋出由EmbodiChain自動訓練的VLA基座模型及多個具體任務的Examples,爲社區提供一套標準化的基礎設施。

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top