91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大曉機器人開源空間智能通用模型ACE-Brain-0

商湯科技SenseTime ? 來源:大曉機器人 ? 2026-03-11 13:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:大曉機器人

近日,大曉機器人聯(lián)合上海交通大學、南洋理工大學、香港中文大學、香港大學等研究機構(gòu)共同推出以空間智能為底層框架、跨不同具身本體的通用基礎(chǔ)模型“ACE-Brain-0”,正式面向全行業(yè)開源。

ACE-Brain-0首次打破汽車、機器人、無人機等不同本體壁壘,貫穿空間認知、自動駕駛、低空感知、機器人交互,重新定義了物理世界智能的技術(shù)底層邏輯。其性能表現(xiàn)在涵蓋空間認知、自動駕駛、低空感知、具身交互的24 個核心 benchmark 中,19 個取得當前模型中的 SOTA(排名第一) 成績,全面大幅領(lǐng)先市場主流具身模型。ACE-Brain-0主要對標GPT-4o、Gemini 2.5-Pro、Qwen2.5-VL-7B-Inst、RoboBrain2.0-7B、MiMo-Embodied-7B等16個知名模型,將19個Benchmark具身模型最強基線準確率相對提升5%-97.8%。在衡量三維認知的MindCube,以82.1%的成績,較最好的開源模型(InternVL3-8B)提升了97.8%。

目前,上述模型已應(yīng)用于大曉機器人具身超級大腦模組A1,使搭載具身超級大腦A1的機器狗具備行業(yè)首創(chuàng)的端到端自主導航能力,并且基于VLA架構(gòu)實現(xiàn)云端智能交互,讓機器狗具備理解抽象指令、感知復雜環(huán)境、完成復雜任務(wù)的端到端閉環(huán)能力。

在城市人行道等復雜公共場景中,搭載ACE-Brain 的機器狗展現(xiàn)出卓越的導航與VLA能力。以圖片場景為例,面對“估算行人和摩托車間距、判斷是否有足夠空間導航通過”的需求,ACE-Brain賦能機器狗精準完成三大核心動作:

依托空間認知能力,可精準量化行人和摩托車間距約0.5米,為導航?jīng)Q策提供可靠依據(jù);通過視覺語言理解,清晰解析自然語言指令,實現(xiàn)“看—懂—判”的連貫交互,無需額外定制化指令;在導航?jīng)Q策中,既能判斷空間足夠通過,又主動提出“謹慎前行”的安全建議,兼顧效率與公共安全,適配復雜公共場景的移動需求。

搭載ACE-Brain 的機器狗,可精準識別前方車輛等障礙物,通過空間智能感知道路環(huán)境與目標位置,預(yù)判通行風險,主動判斷 “應(yīng)停下并安全繞行”,實現(xiàn)空間識別與目標預(yù)測的高效協(xié)同,保障復雜路況下的移動安全。

這種能力讓機器狗在擁擠人行道、復雜路況等場景中,運用強大的空間智能技術(shù)底座,通過3D 場景建模、幾何關(guān)系推理、空間定位等核心能力,既能精準感知環(huán)境,又能通過自然語言交互理解任務(wù),實現(xiàn)安全、高效的自主導航,為公共巡檢、應(yīng)急響應(yīng)等場景提供可靠支撐。

空間智能成為跨本體的“通用語言”

為了實現(xiàn)多任務(wù),傳統(tǒng)的辦法是把所有任務(wù)數(shù)據(jù)混在一起,然后訓練模型,盼望模型能夠自己悟出來;但是ACE-Brain的思路則更像教育學:先讓它建立“空間感”,學會理解世界中的前后左右、遠近高低、視角變化和位置等空間幾何關(guān)系,然后再去學不同任務(wù)中的具體技能。簡單來說,就是先學會“怎么看懂世界”,再學會“怎么完成相關(guān)的任務(wù)動作”。

大曉機器人團隊突破性發(fā)現(xiàn),無論自動駕駛車輛、低空無人機還是機器人,盡管形態(tài)差異巨大,但都依賴三大核心空間能力:三維空間結(jié)構(gòu)建模、幾何關(guān)系推理、場景演化預(yù)測。

基于上述共性,大曉機器人首次提出以空間智能作為跨具身形態(tài)的“通用語言”,成為用以連接不同物理域的統(tǒng)一認知支架,為通用具身智能找到統(tǒng)一底座。

c7ecbd68-1b85-11f1-90a1-92fbcf53809c.png

ACE-Brain-0架構(gòu)

為打造統(tǒng)一的空間智能認知支架,ACE-Brain-0以空間信息為多模態(tài)自回歸架構(gòu),實現(xiàn)了從單視角圖像到多視角視頻序列的認知統(tǒng)一處理。

在輸入層,兼容單圖、多圖、視頻等多模態(tài)視覺數(shù)據(jù),搭配自然語言指令作為任務(wù)條件,覆蓋所有具身場景的輸入需求;

在表征層,通過通用視覺編碼器提取領(lǐng)域無關(guān)的空間特征,經(jīng)MLP 投影器映射為語言模型可理解的視覺令牌,并按 “通用、空間、駕駛、航空、具身” 分類組織,確保空間信息的結(jié)構(gòu)化表達;

在推理層,由統(tǒng)一的LLM解碼器實現(xiàn)跨模態(tài)融合推理,將空間認知轉(zhuǎn)化為可遷移的統(tǒng)一表示,使不同具身場景的知識能基于空間邏輯自由流動。

這一設(shè)計的核心優(yōu)勢在于,無需為特定場景定制專用模塊,僅通過空間智能的“通用表征”,就實現(xiàn)了跨域知識的自然遷移,徹底改變了“一個場景一套模型”的傳統(tǒng)具身研發(fā)模式。

打造全新范式,解決跨本體訓練困境

傳統(tǒng)跨域訓練面臨兩大困境,一是聯(lián)合訓練易引發(fā)梯度干擾,導致各領(lǐng)域能力“稀釋”;二是序貫訓練則會出現(xiàn)災(zāi)難性遺忘,學了新技能丟了舊能力。大曉機器人首創(chuàng)Scaffold-Specialize-Reconcile(SSR)三階段訓練范式,通過“先建共識、再練專長、后融知識”的路徑,完美解決了這一矛盾。

首先,Scaffold(框架構(gòu)建)筑牢通用空間基礎(chǔ)。ACE-Brain-0利用大規(guī)??臻g智能數(shù)據(jù)集訓練空間專家模型,建立域無關(guān)的三維認知先驗。這一步就像為所有具身能力打造“通用地基”,讓后續(xù)領(lǐng)域訓練都能基于統(tǒng)一的空間認知框架展開,避免了各領(lǐng)域“從零開始學空間”的重復勞動。

第二步,Specialize(域?qū)>珜W習)實現(xiàn)隔離優(yōu)化和強化專長。在空間框架上,ACE-Brain-0分別獨立訓練自動駕駛專家、機器人專家等領(lǐng)域模型。每個領(lǐng)域?qū)<夷P蛢H在自身專屬數(shù)據(jù)集上微調(diào),避免不同本體數(shù)據(jù)帶來的梯度沖突,確保每個領(lǐng)域都能獲得充分的專業(yè)化能力。

最后一步,Reconcile(跨域知識調(diào)和)實現(xiàn)數(shù)據(jù)無關(guān)的參數(shù)級融合。ACE-Brain-0通過任務(wù)向量空間對齊技術(shù),在無需原始訓練數(shù)據(jù)的條件下,將各領(lǐng)域?qū)<业膮?shù)進行整合,從而同時聯(lián)合訓練中的優(yōu)化干擾和順序訓練導致的災(zāi)難性遺忘。

四大能力首次統(tǒng)一,打造“一腦多形”樣本

ACE-Brain-0首次在單一模型框架中實現(xiàn)四大核心具身能力的統(tǒng)一:空間認知、自動駕駛、低空感知、機器人交互。這一突破并非簡單的能力“拼接”,而是基于空間智能的深度融合,其技術(shù)關(guān)鍵在于“共享認知結(jié)構(gòu)”的構(gòu)建。

通過空間中心化建模,ACE-Brain-0讓不同具身場景的認知邏輯實現(xiàn)統(tǒng)一。自動駕駛中的“車距判斷”與機器人交互中的“抓取距離估算”,共享同一套空間距離推理機制;交通場景的“多視圖融合”與機器人的“多視角物體識別”,依托相同的跨視角空間對齊技術(shù)。

這種“共享認知結(jié)構(gòu)” 使得模型能在不同觀察視角、運動尺度與任務(wù)語義之間自由切換,實現(xiàn)跨域理解與推理能力的自然遷移。

刷新19個榜單具身模型SOTA

ACE-Brain-0在涵蓋空間認知、自動駕駛、低空感知、具身交互的 24 個核心 benchmark 中,對標GPT-4o、Gemini 2.5-Pro、Qwen2.5-VL-7B-Inst、RoboBrain2.0-7B、MiMo-Embodied-7B等16個知名模型,取得了19個當前具身模型中的SOTA(排名第一) 成績,同時將19個Benchmark具身模型最強基線準確率相對提升5%-97.8%,全面超越市場主流具身模型(如天工、北京智源、小米等)。

空間認知領(lǐng)域:

ACE-Brain-0參與了7項空間認知領(lǐng)域的權(quán)威基準評測,在具身智能模型陣營中斬獲5項 SOTA, VSI(視覺空間智能)、MMSI(多模態(tài)空間智能)、SITE(空間語言理解)、SAT(空間視角變換)、Mindcube(受限視角三維建模)代表了不同維度的核心空間能力。

其中VSI(視覺空間智能)綜合評估模型對空間布局、物體關(guān)系和尺度的理解與推理能力,ACE-Brain-0以63.3%的成績領(lǐng)跑具身模型,驗證了其空間認知的通用性;SAT(空間視角變換)考察從不同視角重構(gòu)空間布局的能力,ACE-Brain-0以92.0% 的成績,相較當前最好具身模型提升了16.9%,證明其在視角變換下的空間建模能力。

Mindcube(受限視角三維建模)評估有限視角下構(gòu)建三維心理空間的能力,ACE 82.1%的表現(xiàn)碾壓其他具身模型,較閉源模型 Gemini-2.5-Pro相對提升了42.5%,較最好的開源模型(InternVL3-8B)相對提升了97.8%,突破了遮擋和視角限制。

c8aeaf7c-1b85-11f1-90a1-92fbcf53809c.png

*代表基于上述模型復現(xiàn)/下劃線代表次優(yōu)表現(xiàn)/黑體代表最優(yōu)表現(xiàn)

自動駕駛領(lǐng)域:

ACE-Brain-0在5個自動駕駛benchmark 上均取得領(lǐng)先表現(xiàn),分別是MME-RealWorld(真實駕駛場景理解)、MAPLM(地圖與道路結(jié)構(gòu)理解)、DriveAction(駕駛行為理解)、NuscenesQA(多視圖動態(tài)場景理解)、NuPlanQA(規(guī)劃與交通規(guī)則理解),尤其在真實駕駛場景理解(MME-RealWorld)和規(guī)劃推理能力(NuPlanQA) 等關(guān)鍵能力上實現(xiàn)顯著提升。

其中MME-RealWorld(真實駕駛場景理解)主要評估模型在真實交通環(huán)境中的 多模態(tài)駕駛場景理解能力。ACE-Brain-0以71.2%的成績,相比當前最強具身大腦模型相對提升18%。

NuPlanQA(規(guī)劃與交通規(guī)則理解)重點考察模型在自動駕駛規(guī)劃任務(wù)中的 交通信號理解與車輛狀態(tài)推理能力。ACE-Brain-0取得91.7%的成績,決策正確率超越所有具身模型基線,較Pelican-VL-7B模型相對提升近10%。

c91c0da6-1b85-11f1-90a1-92fbcf53809c.png

*代表基于上述模型復現(xiàn)/下劃線代表次優(yōu)表現(xiàn)/黑體代表最優(yōu)表現(xiàn)

低空感知領(lǐng)域:

ACE-Brain-0在5個低空視覺benchmark上均取得顯著領(lǐng)先表現(xiàn),包括UrbanVideo-Bench(城市級無人機場景理解)AirCopBench(空中交通關(guān)系理解和多無人機視角協(xié)同理解)、AVI-Math(空中幾何推理與數(shù)值計算)、Airspatial-VQA(低空空間視覺問答)、HIRVQA(遙感視覺問答),尤其在城市級無人機場景理解(UrbanVideo-Bench)和空中交通關(guān)系推理(AirCopBench) 等關(guān)鍵能力上實現(xiàn)大幅提升。

其中UrbanVideo-Bench(城市級無人機場景理解)主要評估模型在城市級無人機視頻中的大尺度場景理解與地標識別能力。ACE-Brain-0以56.9%的成績,相比當前最強具身大腦模型相對提升51.7%。

AirCopBench(空中交通關(guān)系理解和多無人機視角協(xié)同理解)主要考察模型在復雜城市道路拓撲下的空中交通監(jiān)控與車輛關(guān)系推理能力。ACE-Brain-0以70.3%領(lǐng)跑具身模型,相比當前最強具身大腦模型相對提升35.4%。

AVI-Math(空中幾何推理與數(shù)值計算)主要評估模型在無人機視角下進行 幾何計算與結(jié)構(gòu)化數(shù)值推理能力。ACE-Brain-0相比當前最強具身大腦模型提升1.3個百分點,達35.0%。

c97a706c-1b85-11f1-90a1-92fbcf53809c.png

*代表基于上述模型復現(xiàn)/下劃線代表次優(yōu)表現(xiàn)/黑體代表最優(yōu)表現(xiàn)

具身交互領(lǐng)域:

ACE-Brain-0在4個具身benchmark上均表現(xiàn)出穩(wěn)定優(yōu)勢,包括RoboVQA(機器人操作理解)、EmbSpatial(具身空間理解)、EgoPlan-Bench2(具身任務(wù)規(guī)劃)、EB-Habitat(具身導航理解),尤其在機器人操作理解(RoboVQA)等關(guān)鍵能力上實現(xiàn)顯著突破

RoboVQA(機器人操作理解)主要評估模型對機器人操作行為與物體交互過程的理解能力。ACE-Brain-0以64.6%的成績遠超同類模型。

EmbSpatial(具身空間理解)主要評估模型在具身環(huán)境中的 空間關(guān)系理解與環(huán)境結(jié)構(gòu)認知能力。ACE-Brain-0成績達77.3%,相比當前最強具身大腦模型提升1個百分點。

EgoPlan-Bench2(具身任務(wù)規(guī)劃)主要考察模型在第一視角復雜任務(wù)中的長時序任務(wù)規(guī)劃能力。ACE-Brain-0成績達55.3%,相比當前最強具身大腦模型提升1.9個百分點。

EB-Habitat(具身導航理解)主要考察模型在仿真具身環(huán)境中的導航?jīng)Q策與完成完整任務(wù)的綜合能力。ACE-Brain-0成績達42.3%,相比當前最強具身大腦模型提升2.3個百分點。

c9dcc316-1b85-11f1-90a1-92fbcf53809c.png

*代表基于上述模型復現(xiàn)/下劃線代表次優(yōu)表現(xiàn)/黑體代表最優(yōu)表現(xiàn)

▎共享空間智能成為具身智能新世界觀

一個模型,一套參數(shù)同時在這些任務(wù)上的卓越表現(xiàn)非常有意義。它說明“空間優(yōu)先”不是一句漂亮口號,而是會真實改變跨形態(tài)學習效果的設(shè)計原則。尤其是具身交互那條曲線更耐人尋味:為什么直接學會失敗,而先學空間再學會成功?直觀上看,因為當智能體面對真實世界時,動作策略往往依賴于對環(huán)境結(jié)構(gòu)的正確理解。如果連空間關(guān)系都沒有穩(wěn)定學會,那么所謂“具身能力”就很容易變成表面模仿;反過來,如果先掌握了共享的空間骨架,再去學具體動作,就像先學會看地圖再學開車,很多問題會突然迎刃而解。

更重要的是,報告并沒有滿足于“實驗上可行”,還試圖回答:為什么空間真的適合做共同底座? 在附錄理論部分,報告把這個想法形式化為一個“可恢復的空間scaffold”:模型的內(nèi)部表示中,應(yīng)該存在一個形態(tài)無關(guān)的共享幾何變量,它承載三維布局、相對位姿、深度和拓撲等信息。如果訓練后這個共享變量能夠被穩(wěn)定“解碼”出來,那么它就不再只是一個模糊特征,而會變成跨不同身體都能復用的空間核心。理論中進一步指出,后續(xù)不同系統(tǒng)需要學習的,更多會是各自身體特有的感知、動力學和控制部分,而不是反復從零學習幾何世界。

這套理論把一個深奧問題講清楚了:為什么是“空間”,而不是別的? 因為空間不是一個普通任務(wù),它更像是所有物理智能共同依賴的坐標系。無論是車在車道中判斷前后左右,還是無人機從鳥瞰視角推理道路關(guān)系,還是機器人在房間里判斷物體位置,它們都必須先擁有一種內(nèi)部“空間地圖”。ACE-Brain-0就是把這種“內(nèi)部地圖”從隱含假設(shè)提升成了方法設(shè)計的起點。

這一技術(shù)路徑的領(lǐng)先性,不僅在于解決了當前具身AI 的核心痛點,更在于為未來通用物理世界智能的研發(fā)提供了可復用的底層框架。ACE-Brain 真正讓人興奮的地方,不是某一個分數(shù)超過了誰,而是它重新定義了“通用具身智能”應(yīng)該從哪里開始。過去我們常常把“通用”理解為一個模型會做很多任務(wù);而 ACE-Brain 讓人看到另一種可能:真正的“通用”,或許不是任務(wù)列表越來越長,而是先找到這些任務(wù)背后的共享結(jié)構(gòu)??臻g,就是它給出的答案。ACE-Brain提出了一種新的具身智能世界觀:不同身體不一定要從頭學起,它們可以先共享一個關(guān)于世界的空間理解,再在這個基礎(chǔ)上長出各自的能力。未來的具身智能體,無需再為單一形態(tài)定制模型,只需基于ACE-Brain的空間智能底座,就能快速適配新的物理本體與應(yīng)用場景。從自動駕駛到低空經(jīng)濟,從工業(yè)機器人到家庭服務(wù)設(shè)備,展現(xiàn)出面向真實物理世界多場景的平臺潛力。

該技術(shù)成果已上傳:

https://arxiv.org/abs/2603.03198

Project Page:

https://ace-brain-team.github.io/ACE-Brain-0

Code:

https://github.com/ACE-BRAIN-Team/ACE-Brain-0

Hugging Face:

https://huggingface.co/ACE-Brain/ACE-Brain-0-8B

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31106

    瀏覽量

    222393
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4218

    瀏覽量

    46188
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3757

    瀏覽量

    52129

原文標題:全球首創(chuàng),刷新19個SOTA!大曉機器人開源空間智能通用模型ACE-Brain-0

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    資訊速遞 | 具身智能PMC(籌)發(fā)布“零成本”開源鴻蒙智能機器人系統(tǒng)

    面向具身智能機器人系統(tǒng)與應(yīng)用開發(fā),Ubuntu 等操作系統(tǒng)可以用 ROS2 生態(tài)、機器人仿真器、英偉達算力。 然而在國產(chǎn)化方面,開源鴻蒙操作系統(tǒng)缺失 ROS2 支持、缺失與
    的頭像 發(fā)表于 01-05 16:24 ?455次閱讀
    資訊速遞 | 具身<b class='flag-5'>智能</b>PMC(籌)發(fā)布“零成本”<b class='flag-5'>開源</b>鴻蒙<b class='flag-5'>智能</b><b class='flag-5'>機器人</b>系統(tǒng)

    機器人發(fā)布開悟3.0,國產(chǎn)世界模型機器人擁有“超級大腦”

    機器人的使命就是讓每個機器人都擁有一個聰明的大腦,洞察萬物,學會與視覺精準交互。 ? 在此背景下,大機器人憑借其原創(chuàng)的“世界模型”技術(shù)體系
    的頭像 發(fā)表于 12-25 09:25 ?2533次閱讀
    大<b class='flag-5'>曉</b><b class='flag-5'>機器人</b>發(fā)布開悟3.0,國產(chǎn)世界<b class='flag-5'>模型</b>讓<b class='flag-5'>機器人</b>擁有“超級大腦”

    中科曙光與商湯科技、大機器人達成戰(zhàn)略合作

    12月18日,在首屆光合組織人工智能創(chuàng)新大會(HAIC2025)主論壇上,中科曙光與商湯科技、大機器人正式達成戰(zhàn)略合作。
    的頭像 發(fā)表于 12-23 15:10 ?424次閱讀

    商湯科技聯(lián)合創(chuàng)始剛擔任大機器人董事長

    機器人將于12月18日正式亮相,重磅發(fā)布多項全球領(lǐng)先的技術(shù)與產(chǎn)品陣列,并將推出首個國內(nèi)開源且實現(xiàn)商業(yè)應(yīng)用的“開悟”世界模型3.0,與行業(yè)伙伴一同構(gòu)建自主可控、開放共贏的產(chǎn)業(yè)體系。商
    的頭像 發(fā)表于 12-08 11:31 ?662次閱讀

    開源鴻蒙驅(qū)動機器人與AI產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式開源

    7月24日,2025開放原子開源生態(tài)大會——開源鴻蒙助力機器人與人工智能產(chǎn)業(yè)生態(tài)發(fā)展論壇在北京順利舉行,本次分論壇聚焦機器人和人工
    的頭像 發(fā)表于 07-26 14:20 ?1159次閱讀
    <b class='flag-5'>開源</b>鴻蒙驅(qū)動<b class='flag-5'>機器人</b>與AI產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式<b class='flag-5'>開源</b>

    工業(yè)機器人的特點

    的基礎(chǔ),也是三者的實現(xiàn)終端,智能制造裝備產(chǎn)業(yè)包括高檔數(shù)控機床、工業(yè)機器人、自動化成套生產(chǎn)線、精密儀器儀表、智能傳感器、汽車自動化焊接線、柔性自動化生產(chǎn)線、智能農(nóng)機、3D 打印機等領(lǐng)域。
    發(fā)表于 07-26 11:22

    全國首個開源鴻蒙機器人操作系統(tǒng) M-Robots OS 正式開源

    機器人操作系統(tǒng)M-RobotsOS,推動機器人行業(yè)生態(tài)融合、能力復用、智能協(xié)同。構(gòu)建機器人共通語言解決產(chǎn)業(yè)協(xié)同難題機器人行業(yè)正面臨兩大關(guān)鍵挑
    的頭像 發(fā)表于 07-24 10:56 ?1040次閱讀
    全國首個<b class='flag-5'>開源</b>鴻蒙<b class='flag-5'>機器人</b>操作系統(tǒng) M-Robots OS 正式<b class='flag-5'>開源</b>

    明遠智睿SSD2351開發(fā)板:語音機器人領(lǐng)域的變革力量

    在人工智能快速發(fā)展的今天,語音機器人逐漸成為人們生活和工作中的得力助手。明遠智睿SSD2351開發(fā)板憑借強大性能與豐富功能,為語音機器人的發(fā)展注入新動力,成為該領(lǐng)域的變革力量。 SSD2351開發(fā)板
    發(fā)表于 05-28 11:36

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓練到機器人部署的完整流程。 值得注意的是,深度學習模型的實時性對機器人計算資源提出了較高要求,優(yōu)化模型
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    ROS的全稱:Robot Operating System 機器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫,是通信總線,協(xié)調(diào)多個傳感器 為了解決機器人里各廠商模塊不通用的問題,讓
    發(fā)表于 04-30 01:05

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產(chǎn)品

    全球80多個國家和地區(qū)。 近日,大象機器人聯(lián)合進迭時空推出全球首款RISC-V全棧開源六軸機器臂“myCobot 280 RISC-V”,為開發(fā)者打造全新的機器人
    發(fā)表于 04-25 17:59

    NVIDIA Isaac GR00T N1開源人形機器人基礎(chǔ)模型+開源物理引擎Newton加速機器人開發(fā)

    NVIDIA Isaac GR00T N1開源人形機器人基礎(chǔ)模型+開源物理引擎Newton加速機器人開發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?1736次閱讀

    NVIDIA發(fā)布全球首個開源人形機器人基礎(chǔ)模型Isaac GR00T N1

    NVIDIA 宣布推出一系列全新技術(shù),助力人形機器人開發(fā)。其中包括全球首個開源且完全可定制的基礎(chǔ)模型NVIDIA Isaac GR00T N1,該模型可賦能
    的頭像 發(fā)表于 03-20 14:34 ?1731次閱讀

    英偉達GROOT N1 全球首個開源人形機器人基礎(chǔ)模型

    英偉達GROOT N1 全球首個開源人形機器人基礎(chǔ)大模型
    的頭像 發(fā)表于 03-20 11:05 ?2157次閱讀

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)?;瘮?shù)據(jù)平臺

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)模化數(shù)據(jù)平臺 隨著人工智能在語言處理和計算機視覺領(lǐng)域取得突破,機器人技術(shù)仍面臨現(xiàn)實場景泛化能力的挑戰(zhàn)。這一困境的核心在
    的頭像 發(fā)表于 03-12 11:42 ?1994次閱讀
    AgiBot World Colosseo:構(gòu)建<b class='flag-5'>通用機器人</b><b class='flag-5'>智能</b>的規(guī)模化數(shù)據(jù)平臺