11月22日,2025開放原子開發(fā)者大會——具身智能分論壇暨具身機器人工作坊在北京順利舉辦。論壇聚焦具身智能核心議題,深度探討以開源生態(tài)破解具身智能應(yīng)用落地難題,匯聚具身智能領(lǐng)域優(yōu)質(zhì)開源項目與創(chuàng)新力量,充分彰顯開源協(xié)作已成為驅(qū)動具身智能技術(shù)創(chuàng)新、助力生態(tài)高質(zhì)量發(fā)展的核心力量。
DORA:10倍性能的數(shù)據(jù)流驅(qū)動機器人新范式
DORA社區(qū)技術(shù)負責(zé)人李揚介紹,DORA是面向AI原生時代的新一代機器人開發(fā)框架。框架依托Rust語言的內(nèi)存安全特性與零拷貝通信架構(gòu),在延遲控制與數(shù)據(jù)傳輸效率上實現(xiàn)數(shù)量級突破——相較于ROS2,其在大型數(shù)據(jù)包(>500KB)處理場景中展現(xiàn)出壓倒性性能優(yōu)勢,單機環(huán)境下50MB數(shù)據(jù)傳輸延遲可壓縮至100μs以內(nèi),為高帶寬傳感器數(shù)據(jù)、多模態(tài)AI推理等場景提供了底層性能保障。
架構(gòu)上,DORA以“數(shù)據(jù)流驅(qū)動”范式將系統(tǒng)抽象為可動態(tài)組合的有向圖,支持分布式部署與端邊云協(xié)同(基于Zenoh中間件),YAML聲明式配置簡化了多機部署流程。目前,DORA已與人形機器人(上海)有限公司深度合作,開源人形機器人“青龍”已納入其技術(shù)選型并完成初步集成。
生態(tài)方面,社區(qū)正持續(xù)豐富示例教程、適配硬件傳感器驅(qū)動、支持多模態(tài)/VLA大模型等,并通過開放原子大賽、校源行、工作坊、黑客松等活動,構(gòu)建活躍協(xié)作生態(tài),推動框架在多領(lǐng)域落地。
社區(qū)鏈接
https://github.com/dora-rs/dora
FlagScale:賦能具身智能的全棧訓(xùn)推框架
北京智源人工智能研究院AI框架研究員李志宇分享了FlagScale——一個大模型并行訓(xùn)練及推理框架,加速具身大模型全鏈路開發(fā)。該框架通過自動化技術(shù)實現(xiàn)跨芯片的自適應(yīng)計算,支持VLM大腦模型與VLA端到端模型的訓(xùn)推優(yōu)化。在數(shù)據(jù)處理上,F(xiàn)lagScale(Energon)相比原生Torch DataLoader將延遲降低90%;在顯存優(yōu)化上通過重計算與非均勻流水線并行實現(xiàn)154.81%端到端加速比。
推理部署是FlagScale的另一大創(chuàng)新。通過“多后端+多芯片”支持機制,框架兼容vLLM、SGLang等多種后端,同時支持英偉達、華為昇騰等多樣化芯片。推理量化加速采用混合量化策略,ViT采用全精度浮點計算,LLM采用INT8 Weight-Only量化,端到端推理延遲降低約30%。FlagScale強調(diào)開源協(xié)作和生態(tài)兼容,支持同一任務(wù)的不同加速引擎,相比缺省配置可獲得吞吐提升2%-20%。后續(xù)將通過FlagOS全棧優(yōu)化實現(xiàn)具身大模型的高效訓(xùn)練與推理,并支持適配更多國產(chǎn)芯片。
社區(qū)鏈接
https://github.com/flagos-ai/FlagScale
智元:數(shù)據(jù)與工程雙螺旋驅(qū)動的具身智能生態(tài)
智元機器人生態(tài)總監(jiān)胡曠以“數(shù)據(jù)與工程雙螺旋驅(qū)動”為題,介紹了智元以開源為核心構(gòu)建具身智能技術(shù)生態(tài),通過開源AgiBot World數(shù)據(jù)集、AimRT中間件以及具身智能操作系統(tǒng)靈渠OS,推動全球開發(fā)者協(xié)作創(chuàng)新;同時開放“采、訓(xùn)、測、推”一站式開發(fā)云平臺與多尺寸人形本體開發(fā)平臺,助力生態(tài)伙伴快速實現(xiàn)科研轉(zhuǎn)化與場景落地。智元堅信「開源是技術(shù)生態(tài)基石,開放是產(chǎn)業(yè)橋梁,協(xié)同加速具身智能走向現(xiàn)實場景」。
AgiBot World開源百萬真機數(shù)據(jù)集全域真實場景,全能硬件平臺,全程質(zhì)量把控等特點于一身,獲業(yè)界廣泛采用,如英偉達GR00T N1模型約80%訓(xùn)練所用真機數(shù)據(jù)來源于此;AimRT是一款面向現(xiàn)代機器人領(lǐng)域的運行時開發(fā)框架,致力于整合機器人端、邊、云等部署場景,提供了全面的插件開發(fā)接口,具有高度可擴展性;靈渠OS孵化自智元產(chǎn)品框架,立足具身智能機器人的全場景需求,構(gòu)建了“南向適配具身硬件、北向支撐智能應(yīng)用”的生態(tài)架構(gòu)。底層提供穩(wěn)定、高效的分布式群體實時通信、硬件抽象等基礎(chǔ)服務(wù)框架;上層開放智能體服務(wù)框架,支持交互、作業(yè)、運動等智能基座模型的標準化對接,降低應(yīng)用門檻;同時,提供豐富的工具鏈,涵蓋開發(fā)調(diào)試、仿真驗證、部署管理、數(shù)據(jù)錄制等能力,助力開發(fā)者快速構(gòu)建從虛擬仿真到實體部署的技術(shù)閉環(huán)。
社區(qū)鏈接
https://github.com/AimRT/AimRT
Alpha Platform:全場景具身智能仿真訓(xùn)練一體化平臺
中國科學(xué)院軟件研究所研究員張珩介紹,Alpha Platform是在AGIROS社區(qū)體系下推出的融合自研三維渲染引擎、高精度物理仿真引擎的泛具身智能仿真訓(xùn)練一體化平臺。核心引擎創(chuàng)新包括:AlphaRAY渲染引擎支持千萬級面片場景下200FPS+渲染性能,實現(xiàn)家庭/工廠/商超全場景覆蓋;AIphaPHY物理引擎通過毫秒級精度優(yōu)化,在連續(xù)碰撞檢測和復(fù)雜動力學(xué)仿真中顯著優(yōu)于MuJoCo和Isaac Sim;AlphaGEN提供5TB+場景數(shù)據(jù)與3000+三維物體資產(chǎn)。Alpha Platform平臺支持40+類機器人、10+類模型庫框架、20+類傳感器模擬,實現(xiàn)多智能體強化學(xué)習(xí)、模仿學(xué)習(xí)的全場景訓(xùn)練。特別地,平臺支持多關(guān)節(jié)、全身控制的高精度模擬,通過端到端訓(xùn)練流程實現(xiàn)從仿真到真實的遷移驗證。
Alpha Platform規(guī)劃2026年實現(xiàn)具身智能開發(fā)平臺的完整驗證與推廣,支持智能機器人同步仿真-訓(xùn)練-端部署,提供50套應(yīng)用場景模板,并推進國產(chǎn)芯片異構(gòu)算力資源的集群化調(diào)度。
社區(qū)鏈接
http://www.agiros.org.cn/
MJLAB:開源版IsaacLab的輕量級替代方案
昆侖巢機器人開放實驗室博士郭成凱介紹了MJLAB——一個將Isaac Lab的優(yōu)勢API與MuJoCo的簡潔性相結(jié)合、通過NVIDIA Warp加速語言提供GPU加速能力的開源機器人強化學(xué)習(xí)框架。該項目聚焦解決現(xiàn)有方案的痛點:相比Isaac Lab的沉重安裝、緩慢啟動和Omniverse開銷,MJLAB實現(xiàn)了快速迭代與輕量部署;相比MJX基于JAX的陡峭學(xué)習(xí)曲線,MJLAB降低了使用門檻??蚣苤苯犹峁㎝uJoCo物理控制能力,原生支持Unitree G1等主流機器人,內(nèi)置數(shù)據(jù)轉(zhuǎn)換工具將演示數(shù)據(jù)轉(zhuǎn)換為CSV格式,支持RL算法快速部署與ONNX模型導(dǎo)出,完整覆蓋從數(shù)據(jù)采集、模型訓(xùn)練到真機部署的全流程。
MJLAB采用輕量級設(shè)計理念,安裝簡潔,部署高效。項目提供完整的示例代碼與工作流程,通過uv run命令支持快速啟動演示、大規(guī)模并行訓(xùn)練(支持4096個環(huán)境同步仿真)和模型推理部署。這種設(shè)計方案使得MJLAB成為學(xué)術(shù)研究和工程實踐的理想選擇,降低了研究者的實驗成本。
社區(qū)鏈接
● https://github.com/mujocolab/mjlab
RCP:面向具身智能領(lǐng)域的基礎(chǔ)設(shè)施
阿里巴巴達摩院高級算法專家汪宇雷分享了RCP(Robotics Context Protocol)——首個實現(xiàn)并開源的機器人領(lǐng)域開放協(xié)議與框架。RCP采用端云協(xié)同、完全解耦、全棧設(shè)計理念,構(gòu)建現(xiàn)代機器人的基礎(chǔ)設(shè)施。通過Rynn樂云平臺的實踐驗證,已支持realman人形機器人、Lerobot SO100、Agile COBOT MAGIC、Franka FR3等多種本體。協(xié)議設(shè)計兼顧性能與易用門檻,支持本地調(diào)用模型與云端Agent平臺訪問的靈活架構(gòu),讓開發(fā)者可根據(jù)實際需求靈活選擇計算部署方案。
RCP正在快速迭代升級。2025年4月內(nèi)部提出概念,7月基于RynnRCP的樂云平臺beta上線,8月初RynnRCP 1.0開源。本次論壇期間宣布12月推出RynnRCP 2.0,將會支持完整的全鏈路部署。生態(tài)合作伙伴已涵蓋本體廠商、模組廠商、模型廠商等上下游全鏈,服務(wù)行業(yè)涉及物流倉儲、商業(yè)零售、醫(yī)療健康、工業(yè)制造等多個領(lǐng)域,形成從教科研到應(yīng)用的完整鏈條。
社區(qū)鏈接
https://github.com/alibaba-damo-academy/RynnRCP
Pelican-VL 1.0:具身智能的視覺語言大腦
北京人形機器人創(chuàng)新中心具身智能算法專家張怡介紹了Pelican-VL 1.0。該模型覆蓋7B、72B參數(shù)規(guī)模,是“最大規(guī)模的開源具身多模態(tài)大腦模型”。其核心優(yōu)勢在于深度整合海量數(shù)據(jù)與自適應(yīng)學(xué)習(xí)機制:并在由1000+ A800 GPU組成的集群上訓(xùn)練,單次檢查點訓(xùn)練耗費超過50,000 A800 GPU-小時;團隊從原始數(shù)據(jù)中蒸餾出包含數(shù)億token的高質(zhì)量元數(shù)據(jù)以做訓(xùn)練基石。在基線基礎(chǔ)上性能提升20.3%,超過同級別開源模型10.6%,成為開源具身性能最好的大腦模型。
得益于“刻意練習(xí)”DPPO訓(xùn)練范式,Pelican-VL就像一名刻苦鉆研的學(xué)生:每次訓(xùn)練循環(huán)都會“看視頻—自主練習(xí)—發(fā)現(xiàn)錯誤—糾正提升”。通過DPPO模仿人類元認知的學(xué)習(xí)方式,通過強化學(xué)習(xí)(RL)探索弱點、生成失敗樣本,再進行有針對性地監(jiān)督微調(diào)(SFT),讓模型不斷自我糾錯和迭代進步。
除了在各類評測集上的提升外,Pelican-VL 1.0可以接入多種核心下游任務(wù)包括:基于affordance的零樣本操縱(無需示例直接學(xué)習(xí)物體屬性),面向柔性易損物體的溫和自適應(yīng)抓?。ㄍㄟ^多模態(tài)感知推斷材質(zhì)特征),復(fù)雜場景下的長程任務(wù)規(guī)劃與推理。在空間理解、物理事實預(yù)測、長程任務(wù)推理、零樣本操縱等任務(wù)上性能全面超越同類模型,代表具身智能視覺語言模型的最新突破。項目訓(xùn)練評測已經(jīng)開源,以開源為引擎,持續(xù)推動具身智能技術(shù)突破與產(chǎn)業(yè)協(xié)同發(fā)展。
社區(qū)鏈接
https://pelican-vl.github.io/
OpenLoong:教育生態(tài)驅(qū)動的開源人形機器人矩陣
OpenLoong開源社區(qū)布道師朱華章介紹了OpenLoong社區(qū)構(gòu)建了覆蓋從教育、研究到產(chǎn)業(yè)的完整青龍機器人矩陣:青龍Nano(高60cm、重9kg的雙足教育平臺)、青龍Mini(研究開發(fā)平臺)、青龍-Butler(輪式服務(wù)機器人)等。社區(qū)強調(diào)教育生態(tài)共創(chuàng),面向300+相關(guān)院校專業(yè)提供本科與跨專業(yè)教育資源,建立從中學(xué)先導(dǎo)教育到高等教育的完整培養(yǎng)體系,并正逐步推出高性能芯片開發(fā)套件、算法模型商城、支持仿真到真實的完整工具鏈。
OpenLoong開源社區(qū)是全球領(lǐng)先的開源人形機器人社區(qū),由國家地方共建人形機器人創(chuàng)新中心(簡稱“國地中心”)發(fā)起,目前,社區(qū)已搭建包括開源論壇、技術(shù)博客、SIG技術(shù)興趣小組、線下技術(shù)沙龍等在內(nèi)的多元互動平臺,構(gòu)建起從開發(fā)者成長支持到產(chǎn)業(yè)協(xié)作共建的完整生態(tài)體系。國地中心現(xiàn)已發(fā)布全球首款全尺寸通用人形機器人開源公版機、首批人形機器人具身智能標準與語料數(shù)據(jù)倡議,同時建設(shè)了全國首個異構(gòu)人形機器人訓(xùn)練場,支持Isaac Gym和MuJoCo仿真,集成Humanoid Gym訓(xùn)練、Sim to Sim遷移、Sim2Real部署的完整流程還與上海大學(xué)共建了人形機器人聯(lián)合創(chuàng)新中心。社區(qū)力圖構(gòu)建“根-干-冠”的完整具身智能開發(fā)者生態(tài),從基礎(chǔ)工具到高級應(yīng)用,從教學(xué)資源到產(chǎn)業(yè)應(yīng)用。
社區(qū)鏈接
https://github.com/openloong
AlohaMini:低成本可升降的開源機器人本體
AlohaMini開源社區(qū)專家李一騰分享了一款專為具身智能場景打造、兼具低成本優(yōu)勢與高擴展性的開源雙臂機器人。該機器人標準版材料成本僅5000元,相當于一部手機,支持3D打印,可在60分鐘內(nèi)完成組裝。AlohaMini配備電動升降機構(gòu),0–60cm行程可實現(xiàn)從地面到桌面的靈活操作,擁有5機位感知系統(tǒng)(頂部、前、后與雙臂攝像頭),確保在具身智能數(shù)據(jù)采集與真實世界操控中具備高度可復(fù)現(xiàn)性。整機外觀簡潔現(xiàn)代,完全開源、全套可3D打印,每一個部件都可根據(jù)需求自由改造。
AlohaMini原生適配LeRobot生態(tài),開箱即可訓(xùn)練與部署,天然支持ACT、DP、Groot、Pi-0.5、SmolVLA等最新算法復(fù)現(xiàn)。在本次論壇現(xiàn)場還找到了志同道合的開源項目貢獻者,社區(qū)協(xié)作熱情高漲。該項目工作坊已被上海GDPS 2025 workshop大會邀請,GitHub上線首周即斬獲300+Star,憑借極高的性價比、開放性與完整的生態(tài),成為具身智能研究與教育的又一平臺。
社區(qū)鏈接
https://github.com/liyiteng/AlohaMini
實戰(zhàn)落地:工作坊打通“從代碼到真機”最后一公里
技術(shù)的價值最終要落地于實操。下午舉辦的“具身智能機器人動作全流程實操工作坊”成為開發(fā)者深度體驗開源技術(shù)的核心環(huán)節(jié)。3小時沉浸式編碼讓開發(fā)者如同“游戲通關(guān)”般循序漸進——從基礎(chǔ)的Hello World入門,逐步解鎖DORA框架的核心技能,最終親手編寫代碼驅(qū)動真實機械臂完成精準夾取任務(wù)。
本次實操不僅充分驗證了DORA框架低延遲、高易用性的核心技術(shù)優(yōu)勢,更讓開發(fā)者直觀體驗到“數(shù)據(jù)流驅(qū)動→模型推理→真機執(zhí)行”的端到端全鏈路閉環(huán)。與此同時,DORA社區(qū)打造的全天候互動展臺同步成為大會焦點,集中呈現(xiàn)了框架與開源鴻蒙、國產(chǎn)芯片的深度適配成果,開發(fā)者可現(xiàn)場實操體驗語音控制、實時翻譯等沉浸式人機交互功能,直觀感受技術(shù)落地價值。
開源聚智,加速進化
本次論壇的核心價值,在于呈現(xiàn)了一條“框架-訓(xùn)推-數(shù)據(jù)-仿真-協(xié)議-本體-教育”的多維度具身智能開源技術(shù)棧。從DORA與青龍機器人的集成,到FlagScale的多芯片適配,再到AlohaMini與LeRobot的生態(tài)聯(lián)動,開源協(xié)作正產(chǎn)生“1+1>2”的創(chuàng)新效應(yīng),打破技術(shù)壁壘,降低產(chǎn)業(yè)落地成本。
隨著開放原子開源基金會持續(xù)推動框架、數(shù)據(jù)、協(xié)議的開源協(xié)同,以及更多開發(fā)者的加入,具身智能從“實驗室”走向“家庭、工廠、商超”的路徑,正變得越來越清晰。讓我們一起開源聚智,加速具身智能的進化之路!
-
機器人
+關(guān)注
關(guān)注
213文章
31066瀏覽量
222135 -
開源
+關(guān)注
關(guān)注
3文章
4203瀏覽量
46109 -
具身智能
+關(guān)注
關(guān)注
0文章
387瀏覽量
855
原文標題:開源聚智,加速AGI落地:具身智能分論壇暨具身機器人工作坊技術(shù)全景回顧
文章出處:【微信號:開放原子,微信公眾號:開放原子】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
2025開放原子開發(fā)者大會具身智能分論壇成功舉辦
評論