91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind全新AI項(xiàng)目曝光:可控制各類機(jī)器人,數(shù)據(jù)集有望開源

jf_WZTOguxH ? 來源:AI前線 ? 2023-10-09 15:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepMind 的新項(xiàng)目是什么?

開發(fā)機(jī)器人技術(shù)的一大挑戰(zhàn),就在于必須投入大量精力來為每臺(tái)機(jī)器人、每項(xiàng)任務(wù)和每種環(huán)境訓(xùn)練機(jī)器學(xué)習(xí)模型。近日,谷歌 DeepMind 團(tuán)隊(duì)及其他 33 個(gè)研究機(jī)構(gòu)正共同發(fā)起新項(xiàng)目,旨在創(chuàng)建一套通用 AI 系統(tǒng)來應(yīng)對(duì)這個(gè)挑戰(zhàn)。據(jù)稱該系統(tǒng)能夠與不同類型的物理機(jī)器人協(xié)同運(yùn)作,成功執(zhí)行多種任務(wù)。

谷歌機(jī)器人部門高級(jí)軟件工程師 Pannag Sanketi 在采訪中表示,“我們觀察到,機(jī)器人在專項(xiàng)領(lǐng)域表現(xiàn)極佳,但在通用領(lǐng)域卻缺乏靈性。一般來講,大家需要為每項(xiàng)任務(wù)、每臺(tái)機(jī)器人和每種環(huán)境分別訓(xùn)練一套模型,從零開始調(diào)整每一個(gè)變量?!?/p>

為了克服這個(gè)問題,讓機(jī)器人的訓(xùn)練和部署變得更加輕松、快捷,谷歌 DeepMind 在名為 Open X-Embodiment 的大型共享數(shù)據(jù)庫項(xiàng)目中引入了兩大關(guān)鍵組件:一套包含了 22 種機(jī)器人類型數(shù)據(jù)的數(shù)據(jù)集,外加一系列能夠跨多種任務(wù)進(jìn)行技能遷移的模型 RT-1-X(這是一個(gè)源自 RT-1 的機(jī)器人變壓器模型)。為了開發(fā) Open X-Embodiment 數(shù)據(jù)集,研發(fā)人員在超過 100 萬個(gè)場(chǎng)景中展示了 500 多種技能和 150,000 項(xiàng)任務(wù),因此,該數(shù)據(jù)集也是同類中最全面的機(jī)器人數(shù)據(jù)集。

此外,研究人員還在機(jī)器人實(shí)驗(yàn)室和不同類型的物理裝置之上對(duì)模型進(jìn)行了測(cè)試,并發(fā)現(xiàn)與傳統(tǒng)機(jī)器人訓(xùn)練方法相比,新方案確實(shí)能取得更好的成績(jī)。

139c5730-666d-11ee-939d-92fbcf53809c.png

來自 Open X-Embodiment 數(shù)據(jù)集的樣本展示了 500 多種技能和 150,000 項(xiàng)任務(wù)。

13b3be70-666d-11ee-939d-92fbcf53809c.png

Open X-Embodiment 數(shù)據(jù)集結(jié)合了跨實(shí)施例、數(shù)據(jù)集和技能的數(shù)據(jù)。

結(jié)合機(jī)器人數(shù)據(jù)

通常來講,不同類型的機(jī)器人往往擁有獨(dú)特的傳感器和執(zhí)行器,所以需要配合專門的軟件模型。這就類似于不同生物體的大腦和神經(jīng)系統(tǒng)需要專門進(jìn)化,從而適應(yīng)該生物的身體結(jié)構(gòu)與所處環(huán)境。

但 Open X-Embodiment 的誕生卻出于這樣一條先驗(yàn)性的假設(shè):將來自不同機(jī)器人和任務(wù)的數(shù)據(jù)結(jié)合起來,就能創(chuàng)建一套優(yōu)于專用模型的通用模型,足以驅(qū)動(dòng)所有類型的機(jī)器人。這個(gè)概念在一定程度上受到大語言模型(LLM)的啟發(fā),即在使用大型通用數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),模型成果的匹配度甚至可以優(yōu)于在特定數(shù)據(jù)集上訓(xùn)練的小型針對(duì)性模型。而研究人員驚喜地發(fā)現(xiàn),此項(xiàng)原理果然也適用于機(jī)器人領(lǐng)域。

為了創(chuàng)建 Open X-Embodiment 數(shù)據(jù)集,研究團(tuán)隊(duì)收集了來自不同國(guó)家 20 個(gè)機(jī)構(gòu)的 22 臺(tái)機(jī)器人具身的真實(shí)數(shù)據(jù)。該數(shù)據(jù)集包含超 100 萬種情節(jié)(所謂情節(jié),是指機(jī)器人每次嘗試執(zhí)行任務(wù)時(shí)所采取的一系列動(dòng)作),其中具體涉及 500 多種技能和 15 萬個(gè)任務(wù)示例。

隨附的各模型均基于 Transformer,一套在大語言模型中也得以應(yīng)用的深度學(xué)習(xí)架構(gòu)。RT-1-X 建立在 Robotics Transformer 1(簡(jiǎn)稱 RT-1)之上,是一套適用于在真實(shí)環(huán)境下實(shí)現(xiàn)機(jī)器人技術(shù)規(guī)?;亩嗳蝿?wù)模型。RT-2-X 則建立在 RT-1 后繼者 RT-2 的基礎(chǔ)之上——RT-2 是一種視覺語言動(dòng)作(VLA)模型,能夠從機(jī)器人和網(wǎng)絡(luò)數(shù)據(jù)中學(xué)習(xí),并具備響應(yīng)自然語言命令的能力。

研究人員在五所不同研究實(shí)驗(yàn)室的五臺(tái)常用機(jī)器人上測(cè)試了 RT-1-X 對(duì)各類任務(wù)的執(zhí)行能力。與針對(duì)這些機(jī)器人開發(fā)的專用模型相比,RT-1-X 在拾取和移動(dòng)物體、以及開門等任務(wù)上的成功率高出 50%。該模型還能將技能遷移至多種不同環(huán)境,這也是在特定視覺場(chǎng)景下訓(xùn)練出的專用模型所做不到的。由此可見,由不同示例集訓(xùn)練而成的模型在大多數(shù)任務(wù)中都優(yōu)于專用模型。論文還提到,此模型適用于從機(jī)械手臂到四足動(dòng)物在內(nèi)的多種機(jī)器人。

加州大學(xué)伯克利分校副教授、論文聯(lián)合作者 Sergey Levine 寫道,“對(duì)于任何曾有機(jī)器人研究經(jīng)驗(yàn)的朋友來說,都能意識(shí)到這是多么了不起:這類模型「從來」就沒能第一次就嘗試成功,但這個(gè)模型卻做到了?!?/p>

13c8a75e-666d-11ee-939d-92fbcf53809c.png

值得注意的是,即使是規(guī)模較小的 RT-1-X 模型,也實(shí)現(xiàn)了對(duì)各實(shí)驗(yàn)室內(nèi)部專用模型的超越!對(duì)于任何曾有機(jī)器人研究經(jīng)驗(yàn)的朋友來說,都能意識(shí)到這是多么了不起:這類模型“從來”就沒能第一次就嘗試成功,但這個(gè)模型卻做到了。

在應(yīng)急技能和處理訓(xùn)練數(shù)據(jù)集中未涉及的新任務(wù)方面,RT-2-X 的成功率可達(dá) RT-2 的 3 倍。具體來講,RT-2-X 在需要空間認(rèn)知的任務(wù)上表現(xiàn)出更好的性能,例如理解“將蘋果放到布旁邊”和“將蘋果放到布上”兩種要求間的區(qū)別。

研究人員在 Open X 和 RT-X 的發(fā)布博文中寫道,“我們的結(jié)果表明,與其他平臺(tái)的數(shù)據(jù)進(jìn)行聯(lián)合訓(xùn)練之后,RT-2-X 獲得了原始數(shù)據(jù)集中并不具備的額外技能,使其能夠執(zhí)行前所未見的新任務(wù)。”

步步邁向機(jī)器人研究的新未來

展望未來,科學(xué)家們正在考慮將這些進(jìn)展與 DeepMind 開發(fā)的自我改進(jìn)模型 RoboCat 的見解相結(jié)合,希望探索出新的研究方向。RoboCat 能夠?qū)W會(huì)在不同機(jī)械臂上執(zhí)行各種任務(wù),然后自動(dòng)設(shè)計(jì)出新的訓(xùn)練數(shù)據(jù)以提高自身性能。

Sanketi 認(rèn)為,另一個(gè)潛在的研究方向,也可能是進(jìn)一步研究不同數(shù)據(jù)集間的混合會(huì)如何影響跨機(jī)器人具身的能力泛化與改進(jìn)效果。

該團(tuán)隊(duì)目前已經(jīng)開源了 Open X-Embodiment 數(shù)據(jù)集和小型 RT-1-X 模型,但并未公開 RT-2-X 模型。

Sanketi 總結(jié)道,“我們相信,這些工具將改變機(jī)器人的訓(xùn)練方式,并加速該領(lǐng)域的研究進(jìn)展。我們希望開源相關(guān)數(shù)據(jù),并提供安全但受限的模型以減少障礙、加速研究。機(jī)器人技術(shù)的未來離不開機(jī)器人之間的相互學(xué)習(xí),而這一切的前提,首先要求研究人員之間能夠相互學(xué)習(xí)?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31153

    瀏覽量

    222727
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40160

    瀏覽量

    301770
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1238

    瀏覽量

    26222
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    12337

原文標(biāo)題:DeepMind 全新 AI 項(xiàng)目曝光:可控制各類機(jī)器人,數(shù)據(jù)集有望開源

文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    你好,我是StackChan,超可愛的社區(qū)共創(chuàng)開源AI桌面機(jī)器人!

    StackChan登場(chǎng)MeetStackChanStackChan是一款開源AI桌面機(jī)器人。它可以陪你玩,陪你聊,還支持開源共創(chuàng)與DIY擴(kuò)展,配合App與
    的頭像 發(fā)表于 12-26 17:28 ?2756次閱讀
    你好,我是StackChan,超可愛的社區(qū)共創(chuàng)<b class='flag-5'>開源</b><b class='flag-5'>AI</b>桌面<b class='flag-5'>機(jī)器人</b>!

    探索RISC-V在機(jī)器人領(lǐng)域的潛力

    應(yīng)用,特別是機(jī)器人操作系統(tǒng)領(lǐng)域的可行性。MUSE Pi Pro以其強(qiáng)大的K1 AI CPU和官方對(duì)主流開源軟件棧的積極適配,成為了一個(gè)非常有吸引力的選擇。 二、 硬件初窺:性能小鋼炮 MUSE Pi Pro
    發(fā)表于 12-03 14:40

    高精度機(jī)器人控制的核心——基于 MYD-LT536 開發(fā)板的精密運(yùn)動(dòng)控制方案

    ISP多媒體接口,適合構(gòu)建機(jī)器人視覺-運(yùn)動(dòng)融合系統(tǒng),實(shí)現(xiàn)工件識(shí)別與動(dòng)態(tài)定位。 3. 支持閉環(huán)控制與誤差校正 可結(jié)合高分辨率編碼器反饋數(shù)據(jù),運(yùn)行機(jī)器人閉環(huán)
    發(fā)表于 11-14 15:48

    NVIDIA推出面向語言、機(jī)器人和生物學(xué)的全新開源AI技術(shù)

    NVIDIA 秉持對(duì)開源的長(zhǎng)期承諾,推出了面向語言、機(jī)器人和生物學(xué)的全新開源 AI 技術(shù),為構(gòu)建開源生態(tài)系統(tǒng)做出貢獻(xiàn),擴(kuò)展
    的頭像 發(fā)表于 11-06 11:49 ?1117次閱讀

    RK3576機(jī)器人核心:三屏異顯+八路攝像頭,重塑機(jī)器人交互與感知

    、遠(yuǎn)程作業(yè)機(jī)器人、特種檢測(cè)機(jī)器人· 多攝像頭輸入:通過多路攝像頭無死角監(jiān)控作業(yè)現(xiàn)場(chǎng),實(shí)現(xiàn)精準(zhǔn)操作與安全監(jiān)控?!?多屏顯示:將不同視角的畫面、傳感器數(shù)據(jù)、控制界面分別顯示,幫助操作員遠(yuǎn)程
    發(fā)表于 10-29 16:41

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    科研人員及開發(fā)者打造功能更強(qiáng)大、適應(yīng)性更強(qiáng)的機(jī)器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機(jī)器人賦予接近人類的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?3107次閱讀
    NVIDIA 利用<b class='flag-5'>全新開源</b>模型與仿真庫加速<b class='flag-5'>機(jī)器人</b>研發(fā)進(jìn)程

    機(jī)器人競(jìng)技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    2025 世界人形機(jī)器人運(yùn)動(dòng)會(huì)于 8 月 17 日?qǐng)A滿收官,賽場(chǎng)上機(jī)器人在跑步、跳躍、抓取等項(xiàng)目中的精彩表現(xiàn),背后是運(yùn)動(dòng)控制、環(huán)境感知等技術(shù)的迭代升級(jí)。而在這些技術(shù)中,磁傳感器芯片憑借
    發(fā)表于 08-26 10:02

    開源鴻蒙驅(qū)動(dòng)機(jī)器人AI產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式開源

    M-RobotsOS項(xiàng)目發(fā)布儀式等重要環(huán)節(jié),匯聚全球開發(fā)者智慧,全力打造機(jī)器人領(lǐng)域的新生態(tài),促進(jìn)產(chǎn)業(yè)鏈上下游企業(yè)的協(xié)同創(chuàng)新發(fā)展。開放原子開源基金會(huì)理事長(zhǎng)程曉明程曉明
    的頭像 發(fā)表于 07-26 14:20 ?1190次閱讀
    <b class='flag-5'>開源</b>鴻蒙驅(qū)動(dòng)<b class='flag-5'>機(jī)器人</b>與<b class='flag-5'>AI</b>產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式<b class='flag-5'>開源</b>

    全國(guó)首個(gè)開源鴻蒙機(jī)器人操作系統(tǒng) M-Robots OS 正式開源

    機(jī)器人操作系統(tǒng)M-RobotsOS,推動(dòng)機(jī)器人行業(yè)生態(tài)融合、能力復(fù)用、智能協(xié)同。構(gòu)建機(jī)器人共通語言解決產(chǎn)業(yè)協(xié)同難題機(jī)器人行業(yè)正面臨兩大關(guān)鍵挑戰(zhàn):一方面,傳統(tǒng)通用操
    的頭像 發(fā)表于 07-24 10:56 ?1062次閱讀
    全國(guó)首個(gè)<b class='flag-5'>開源</b>鴻蒙<b class='flag-5'>機(jī)器人</b>操作系統(tǒng) M-Robots OS 正式<b class='flag-5'>開源</b>

    盤點(diǎn)#機(jī)器人開發(fā)平臺(tái)

    Athena機(jī)器人****開發(fā)平臺(tái)思嵐推出Athena機(jī)器人開發(fā)平臺(tái),有望主導(dǎo)機(jī)器人開發(fā)平臺(tái)未來市場(chǎng)-電子發(fā)燒友網(wǎng)AUTO CUBEROS機(jī)器人
    發(fā)表于 05-13 15:02

    自制一個(gè)支持AI 控制的無刷平衡車機(jī)器人開源項(xiàng)目D-BOT全攻略

    今天給大家介紹一款創(chuàng)意桌面機(jī)器人——D-BOT!它不僅是一個(gè)功能強(qiáng)大的平衡車機(jī)器人,也是一個(gè)融合了AI控制、3D建模與PCB設(shè)計(jì)的開源
    發(fā)表于 04-28 11:45

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】+內(nèi)容初識(shí)

    、Gazebo仿真(含RGBD相機(jī)/激光雷達(dá)仿真)、實(shí)物機(jī)器人運(yùn)動(dòng)控制,實(shí)現(xiàn)\"仿真→實(shí)物\"的無縫銜接 高階應(yīng)用篇(7-9章) 聚焦視覺SLAM、自主導(dǎo)航等前沿場(chǎng)景,提供完整項(xiàng)目鏈路(如
    發(fā)表于 04-27 11:24

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    末端執(zhí)行器。 全棧開源 從RISC-V指令、芯片SDK到機(jī)器人控制代碼100%開放,開發(fā)者可自由定制算法與控制邏輯。 官方apt倉(cāng)庫提供d
    發(fā)表于 04-25 17:59

    NVIDIA推出開源物理AI數(shù)據(jù)

    標(biāo)準(zhǔn)化合成數(shù)據(jù)的初始版本預(yù)計(jì)將成為世界上最大的此類數(shù)據(jù),目前已作為開源版本提供給機(jī)器人開發(fā)人員。
    的頭像 發(fā)表于 03-24 17:52 ?1068次閱讀

    NVIDIA 發(fā)布全球首個(gè)開源人形機(jī)器人基礎(chǔ)模型 Isaac GR00T N1——并推出加速機(jī)器人開發(fā)的仿真框架

    推出完全可定制的 GR00T N1 基礎(chǔ)模型,為人形機(jī)器人賦予通用技能與推理技能 NVIDIA、Google DeepMind 和 Disney Research 合作開發(fā)新一代開源物理引擎
    發(fā)表于 03-19 09:30 ?727次閱讀
    NVIDIA 發(fā)布全球首個(gè)<b class='flag-5'>開源</b>人形<b class='flag-5'>機(jī)器人</b>基礎(chǔ)模型 Isaac GR00T N1——并推出加速<b class='flag-5'>機(jī)器人</b>開發(fā)的仿真框架