91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI 大模型邁向多模態(tài),助力具身智能與機器人實現(xiàn)創(chuàng)新

半導(dǎo)體芯科技SiSC ? 來源:半導(dǎo)體芯科技SiSC ? 作者:半導(dǎo)體芯科技SiS ? 2024-10-29 17:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Arm 物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁 馬健

你聽過莫拉維克悖論 (Moravec's paradox) 嗎?該悖論指出,對于人工智能 (AI) 系統(tǒng)而言,高級推理只需非常少的計算能力,而實現(xiàn)人類習(xí)以為常的感知運動技能卻需要耗費巨大的計算資源。實質(zhì)上,與人類本能可以完成的基本感官任務(wù)相比,復(fù)雜的邏輯任務(wù)對 AI 而言更加容易。這一悖論凸顯了現(xiàn)階段的 AI 與人類認(rèn)知能力之間的差異。

人本來就是多模態(tài)的。我們每個人就像一個智能終端,通常需要去學(xué)校上課接受學(xué)識熏陶(訓(xùn)練),但訓(xùn)練與學(xué)習(xí)的目的和結(jié)果是我們有能力自主工作和生活,而不需要總是依賴外部的指令和控制。

我們通過視覺、語言、聲音、觸覺、味覺和嗅覺等多種感官模式來了解周圍的世界,進而審時度勢,進行分析、推理、決斷并采取行動。

經(jīng)過多年的傳感器融合和 AI 演進,機器人現(xiàn)階段基本上都配備有多模態(tài)傳感器。隨著我們?yōu)闄C器人等邊緣設(shè)備帶來更多的計算能力,這些設(shè)備正變得愈加智能,它們能夠感知周圍環(huán)境,理解并以自然語言進行溝通,通過數(shù)字傳感界面獲得觸覺,以及通過加速計、陀螺儀與磁力計等的組合,來感知機器人的比力、角速度,甚至機器人周圍的磁場。

邁入機器人和機器認(rèn)知的新時代

在 Transformer 和大語言模型 (LLM) 出現(xiàn)之前,要在 AI 中實現(xiàn)多模態(tài),通常需要用到多個負(fù)責(zé)不同類型數(shù)據(jù)(文本、圖像、音頻)的單獨模型,并通過復(fù)雜的過程對不同模態(tài)進行集成。

而在 Transformer 模型和 LLM 出現(xiàn)后,多模態(tài)變得更加集成化,使得單個模型可以同時處理和理解多種數(shù)據(jù)類型,從而產(chǎn)生對環(huán)境綜合感知能力更強大的 AI 系統(tǒng)。這一轉(zhuǎn)變大大提高了多模態(tài) AI 應(yīng)用的效率和有效性。

雖然 GPT-3 等 LLM 主要以文本為基礎(chǔ),但業(yè)界已朝著多模態(tài)取得了快速進展。從 OpenAI 的 CLIP 和 DALL·E,到現(xiàn)在的 Sora 和 GPT-4o,都是向多模態(tài)和更自然的人機交互邁進的模型范例。例如,CLIP 可理解與自然語言配對的圖像,從而在視覺和文本信息之間架起橋梁;DALL·E 旨在根據(jù)文本描述生成圖像。我們看到 Google Gemini 模型也經(jīng)歷了類似的演進。

2024 年,多模態(tài)演進加速發(fā)展。今年二月,OpenAI 發(fā)布了 Sora,它可以根據(jù)文本描述生成逼真或富有想象力的視頻。仔細(xì)想想,這可以為構(gòu)建通用世界模擬器提供一條頗有前景的道路,或成為訓(xùn)練機器人的重要工具。三個月后,GPT-4o 顯著提高了人機交互的性能,并且能夠在音頻、視覺和文本之間實時推理。綜合利用文本、視覺和音頻信息來端到端地訓(xùn)練一個新模型,消除從輸入模態(tài)到文本,再從文本到輸出模態(tài)的兩次模態(tài)轉(zhuǎn)換,進而大幅提升性能。

在今年二月的同一周,谷歌發(fā)布了 Gemini 1.5,將上下文長度大幅擴展至 100 萬個詞元 (Token)。這意味著 1.5 Pro 可以一次性處理大量信息,包括一小時的視頻、11 小時的音頻、包含超過三萬多行代碼或 70 萬個單詞的代碼庫。Gemini 1.5 基于谷歌對 Transformer 和混合專家架構(gòu) (MoE) 的領(lǐng)先研究而構(gòu)建,并對可在邊緣側(cè)部署的 2B 和 7B 模型進行了開源。在五月舉行的 Google I/O 大會上,除了將上下文長度增加一倍,并發(fā)布一系列生成式 AI 工具和應(yīng)用,谷歌還探討了 Project Astra 的未來愿景,這是一款通用的 AI 助手,可以處理多模態(tài)信息,理解用戶所處的上下文,并在對話中非常自然地與人交互。

作為開源 LLM Llama 背后的公司,Meta 也加入了通用人工智能 (AGI) 的賽道。

這種真正的多模態(tài)性大大提高了機器智能水平,將為許多行業(yè)帶來新的范式。

例如,機器人的用途曾經(jīng)非常單一,它們具備一些傳感器和運動能力,但一般來說,它們沒有“大腦”來學(xué)習(xí)新事物,無法適應(yīng)非結(jié)構(gòu)化和陌生環(huán)境。

多模態(tài) LLM 有望改變機器人的分析、推理和學(xué)習(xí)能力,使機器人從專用轉(zhuǎn)向通用。PC、服務(wù)器和智能手機都是通用計算平臺中的佼佼者,它們可以運行許多不同種類的軟件應(yīng)用來實現(xiàn)豐富多彩的功能。通用化將有助于擴大規(guī)模,產(chǎn)生規(guī)模化的經(jīng)濟效應(yīng),價格也能隨著規(guī)模擴大而大幅降低,進而被更多領(lǐng)域采用,從而形成一個良性循環(huán)。

Elon Musk 很早就注意到了通用技術(shù)的優(yōu)勢,特斯拉的機器人從 2022 年的 Bumblebee 發(fā)展到 2023 年三月宣布的 Optimus Gen 1 和 2023 年年底的 Gen 2,其通用型和學(xué)習(xí)能力不斷提高。在過去的 6 至 12 個月里,我們見證了機器人和人形機器人領(lǐng)域所取得的一系列突破。

下一代機器人和具身智能背后的新技術(shù)

毋庸置疑的是我們在具身智能達(dá)到量產(chǎn)方面還有很多工作要做。我們需要更輕便的設(shè)計、更長的運行時間,以及速度更快、功能更強大的邊緣計算平臺來處理和融合傳感器數(shù)據(jù)信息,從而做出及時決策和控制行動。

而且我們正朝著創(chuàng)造人形機器人的方向發(fā)展,人類文明數(shù)千年,產(chǎn)生出無處不在的專為人類設(shè)計的環(huán)境,而人形機器人系統(tǒng)由于形體與人們類似,有望能夠在人類生存的環(huán)境中駕輕就熟地與人類和環(huán)境互動并執(zhí)行所需的操作。這些系統(tǒng)將非常適合處理臟污、危險和枯燥的工作,例如患者護理和康復(fù)、酒店業(yè)的服務(wù)工作、教育領(lǐng)域的教具或?qū)W伴,以及進行災(zāi)難響應(yīng)和有害物質(zhì)處理等危險任務(wù)。此類應(yīng)用利用人形機器人類人的屬性來促進人機自然交互,在以人為中心的空間中行動,并執(zhí)行傳統(tǒng)機器人通常難以完成的任務(wù)。

許多 AI 和機器人企業(yè)圍繞如何訓(xùn)練機器人在非結(jié)構(gòu)化的新環(huán)境中更好地進行推理和規(guī)劃,展開了新的研究與協(xié)作。作為機器人的新“大腦”,預(yù)先經(jīng)過大量數(shù)據(jù)訓(xùn)練的模型具有出色的泛化能力,使得機器人能做到見怪不怪,更全面地理解環(huán)境,根據(jù)感官反饋調(diào)整動作和行動,在各種動態(tài)環(huán)境中優(yōu)化性能。

舉一個有趣的例子,Boston Dynamics 的機器狗 Spot 可以在博物館里當(dāng)導(dǎo)游。Spot 能夠與參觀者互動,向他們介紹各種展品,并回答他們的問題。這可能有點難以置信,但在該用例中,比起確保事實正確,Spot 的娛樂性、互動性和細(xì)膩微妙的表演更加重要。

Robotics Transformer:機器人的新大腦

Robotics Transformer (RT) 正在快速發(fā)展,它可以將多模態(tài)輸入直接轉(zhuǎn)化為行動編碼。在執(zhí)行曾經(jīng)見過的任務(wù)時,谷歌 DeepMind 的 RT-2 較上一代的 RT-1 表現(xiàn)一樣出色,成功率接近 100%。但是,使用 PaLM-E(面向機器人的具身多模態(tài)語言模型)和 PaLI-X(大規(guī)模多語言視覺和語言模型,并非專為機器人設(shè)計)訓(xùn)練后,RT-2 具有更出色的泛化能力,在未曾見過的任務(wù)中的表現(xiàn)優(yōu)于 RT-1。

微軟推出了大語言和視覺助手 LLaVA。LLaVA 最初是為基于文本的任務(wù)設(shè)計的,它利用 GPT-4 的強大功能創(chuàng)建了多模態(tài)指令遵循數(shù)據(jù)的新范式,將文本和視覺組件無縫集成,這對機器人任務(wù)非常有用。LLaVA 一經(jīng)推出,就創(chuàng)下了多模態(tài)聊天和科學(xué)問答任務(wù)的新紀(jì)錄,已超出人類平均能力。

正如此前提到的,特斯拉進軍人形機器人和 AI 通用機器人領(lǐng)域的意義重大,不僅因為它是為實現(xiàn)規(guī)?;土慨a(chǎn)而設(shè)計的,而且因為特斯拉為汽車設(shè)計的 Autopilot 的強大完全自動駕駛 (FSD) 技術(shù)基礎(chǔ)可用于機器人。特斯拉也擁有智能制造用例,可以將 Optimus 應(yīng)用于其新能源汽車的生產(chǎn)過程。

Arm 是未來機器人技術(shù)的基石

Arm 認(rèn)為機器人腦,包括“大腦”和“小腦”,應(yīng)該是異構(gòu) AI 計算系統(tǒng),以提供出色的性能、實時響應(yīng)和高能效。

wKgaoWcgqlOAAMQUAAFtGsVAdLg728.jpg

機器人技術(shù)涉及的任務(wù)范圍廣泛,包括基本的計算(比如向電機發(fā)送和接收信號)、先進的數(shù)據(jù)處理(比如圖像和傳感器數(shù)據(jù)解讀),以及運行前文提到的多模態(tài) LLM。CPU 非常適合執(zhí)行通用任務(wù),而 AI 加速器和 GPU 可以更高效地處理并行處理任務(wù),如機器學(xué)習(xí) (ML) 和圖形處理。還可以集成圖像信號處理器和視頻編解碼器等額外加速器,從而增強機器人的視覺能力和存儲/傳輸效率。此外,CPU 還應(yīng)該具備實時響應(yīng)能力,并且需要能夠運行 LinuxROS 軟件包等操作系統(tǒng)

當(dāng)擴展到機器人軟件堆棧時,操作系統(tǒng)層可能還需要一個能夠可靠處理時間關(guān)鍵型任務(wù)的實時操作系統(tǒng) (RTOS),以及針對機器人定制的 Linux 發(fā)行版,如 ROS,它可以提供專為異構(gòu)計算集群設(shè)計的服務(wù)。我們相信,SystemReady 和 PSA Certified 等由 Arm 發(fā)起的標(biāo)準(zhǔn)和認(rèn)證計劃將幫助擴大機器人軟件的開發(fā)規(guī)模。SystemReady 旨在確保標(biāo)準(zhǔn)的 Rich OS 發(fā)行版能夠在各類基于 Arm 架構(gòu)的系統(tǒng)級芯片 (SoC) 上運行,而 PSA Certified 有助于簡化安全實現(xiàn)方案,以滿足區(qū)域安全和監(jiān)管法規(guī)對互聯(lián)設(shè)備的要求。

大型多模態(tài)模型和生成式 AI 的進步預(yù)示著 AI 機器人和人形機器人的發(fā)展進入了新紀(jì)元。在這個新時代,要使機器人技術(shù)成為主流,除了 AI 計算和生態(tài)系統(tǒng),能效、安全性和功能安全必不可少。Arm 處理器已廣泛應(yīng)用于機器人領(lǐng)域,我們期待與生態(tài)系統(tǒng)密切合作,使 Arm 成為未來 AI 機器人的基石。

【近期會議】

10月30-31日,由寬禁帶半導(dǎo)體國家工程研究中心主辦的“化合物半導(dǎo)體先進技術(shù)及應(yīng)用大會”將首次與大家在江蘇·常州相見,邀您齊聚常州新城希爾頓酒店,解耦產(chǎn)業(yè)鏈?zhǔn)袌霾季郑ttps://w.lwc.cn/s/uueAru

11月28-29日,“第二屆半導(dǎo)體先進封測產(chǎn)業(yè)技術(shù)創(chuàng)新大會”將再次與各位相見于廈門,秉承“延續(xù)去年,創(chuàng)新今年”的思想,仍將由云天半導(dǎo)體與廈門大學(xué)聯(lián)合主辦,雅時國際商訊承辦,邀您齊聚廈門·海滄融信華邑酒店共探行業(yè)發(fā)展!誠邀您報名參會:https://w.lwc.cn/s/n6FFne


聲明:本網(wǎng)站部分文章轉(zhuǎn)載自網(wǎng)絡(luò),轉(zhuǎn)發(fā)僅為更大范圍傳播。 轉(zhuǎn)載文章版權(quán)歸原作者所有,如有異議,請聯(lián)系我們修改或刪除。聯(lián)系郵箱:viviz@actintl.com.hk, 電話:0755-25988573

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31296

    瀏覽量

    223287
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40642

    瀏覽量

    302298
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3719

    瀏覽量

    5250
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華清遠(yuǎn)見AI全棧工程師課程重磅升級!新增智能機器人+大模型課程深度強化,搶占AI高薪崗位!

    華清遠(yuǎn)見人工智能全棧工程師實戰(zhàn)課歷經(jīng)6年打磨,緊跟AI技術(shù)迭代實時更新——2024年大模型風(fēng)口興起便同步融入課程,2025年隨著模態(tài)技術(shù)成
    的頭像 發(fā)表于 03-25 14:16 ?688次閱讀
    華清遠(yuǎn)見<b class='flag-5'>AI</b>全棧工程師課程重磅升級!新增<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b><b class='flag-5'>機器人</b>+大<b class='flag-5'>模型</b>課程深度強化,搶占<b class='flag-5'>AI</b>高薪崗位!

    破解柔性生產(chǎn)難題:知識驅(qū)動智能工業(yè)機器人的實戰(zhàn)應(yīng)用指南

    在工業(yè)4.0邁向工業(yè)5.0的進程中,傳統(tǒng)的“固定編程”機器人已無法滿足品種、小批量、高柔性的生產(chǎn)需求。隨著人工智能與模型技術(shù)的爆發(fā),
    的頭像 發(fā)表于 03-06 15:49 ?236次閱讀
    破解柔性生產(chǎn)難題:知識驅(qū)動<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>工業(yè)<b class='flag-5'>機器人</b>的實戰(zhàn)應(yīng)用指南

    智能在工業(yè)巡檢場景落地方案粗淺解析

    旗晟智能實現(xiàn)智能機器人應(yīng)用及系統(tǒng)創(chuàng)新,
    的頭像 發(fā)表于 01-26 15:30 ?264次閱讀
    <b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>在工業(yè)巡檢場景落地方案粗淺解析

    openKylin與OpenLoong共推智能產(chǎn)業(yè)落地

    近年來,隨著AI模型、傳感器技術(shù)和機器人硬件的進步,智能(Embodied
    的頭像 發(fā)表于 01-24 14:27 ?2096次閱讀

    智能交流會

    。展會匯聚 90%+ 核心部件國產(chǎn)化供應(yīng)鏈,可快速實現(xiàn)技術(shù)落地,坐享粵港澳大灣區(qū) “機器人谷” 核心紅利。 2 、同期展聯(lián)動 與工業(yè)自動化展、機器視覺展同期舉辦,形成 “感知(視覺)
    發(fā)表于 01-22 09:55

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    和探索;人類級別的理解能力;常識推理;現(xiàn)實世界的知識整合。 3、測試時計算 測試時計算(TTC)是指在模型推理階段利用額外的計算資源來提升泛化性能。 4、智能與滲透式
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+智能芯片

    智能技術(shù)的關(guān)鍵要求: 1、基于憶阻器的感存算一體化技術(shù) 牛。都可以情感生成了。 2、智能的執(zhí)行控制 目前,AI運動控制的研究主要集中在:
    發(fā)表于 09-18 11:45

    打造家庭AI服務(wù)機器人,啟幕生活新次元

    在全球人工智能與機器人產(chǎn)業(yè)深度融合的浪潮中,上海開普勒機器人有限公司憑借其分層模型VLA+(視覺-語言-行動)的導(dǎo)航與
    的頭像 發(fā)表于 09-17 17:02 ?708次閱讀

    聚焦前沿,賦能AI教學(xué)!華清遠(yuǎn)見第32屆全國高校人工智能師資班(模態(tài)模型智能)圓滿落幕!

    2025年7月21日至25日,由華清遠(yuǎn)見教育科技集團傾力打造的第32屆“全國高校人工智能師資培訓(xùn)班(模態(tài)模型
    的頭像 發(fā)表于 07-30 15:06 ?1425次閱讀
    聚焦前沿,賦能<b class='flag-5'>AI</b>教學(xué)!華清遠(yuǎn)見第32屆全國高校人工<b class='flag-5'>智能</b>師資班(<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>與<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>)圓滿落幕!

    阿普奇加入江蘇省智能機器人產(chǎn)業(yè)聯(lián)盟,成為理事單位

    6 月 28 日,江蘇省智能機器人產(chǎn)業(yè)聯(lián)盟成立儀式暨產(chǎn)業(yè)創(chuàng)新發(fā)展對接會在南京隆重舉辦,標(biāo)志著江蘇
    的頭像 發(fā)表于 07-02 14:42 ?1092次閱讀
    阿普奇加入江蘇省<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b><b class='flag-5'>機器人</b>產(chǎn)業(yè)聯(lián)盟,成為理事單位

    聽得見、想得通、做得到:移遠(yuǎn)通信攜手逐際動力,發(fā)布Robrain AI機器人解決方案

    智能加速進化、機器人邁向自主交互的關(guān)鍵階段,“自主決策”能力與“
    發(fā)表于 06-19 10:28 ?1685次閱讀
    聽得見、想得通、做得到:移遠(yuǎn)通信攜手逐際動力,發(fā)布Robrain <b class='flag-5'>AI</b><b class='flag-5'>機器人</b>解決方案

    瑞可達(dá)榮獲智能機器人技術(shù)先鋒獎

    技術(shù)創(chuàng)新與應(yīng)用落地的發(fā)展路徑,推動智能機器人產(chǎn)業(yè)邁向新的高度。在科技飛速發(fā)展的當(dāng)下,
    的頭像 發(fā)表于 06-16 18:09 ?1353次閱讀

    工業(yè)機器人的未來發(fā)展方向:富唯智能智能重構(gòu)人機協(xié)作新范式

    在制造業(yè)智能化轉(zhuǎn)型的深水區(qū),工業(yè)機器人正從“機械執(zhí)行者”向“自主決策者”進化。傳統(tǒng)工業(yè)機器人依賴固定編程與剛性路徑的局限性日益凸顯,而工業(yè)機器人的未來發(fā)展方向正朝著
    的頭像 發(fā)表于 05-06 16:32 ?849次閱讀

    智能時代來臨,靈途科技助力人形機器人“感知升級”

    、驅(qū)動系統(tǒng)與AI算法的落地應(yīng)用,展覽與沙龍雙線并行,全面呈現(xiàn)人形機器人的前沿進展。 作為智能核心零部件供應(yīng)商,靈途科技攜多款自研高性能光
    的頭像 發(fā)表于 04-28 09:31 ?774次閱讀
    <b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>時代來臨,靈途科技<b class='flag-5'>助力</b>人形<b class='flag-5'>機器人</b>“感知升級”

    智能機器人控制器的創(chuàng)新未來需要高效、可靠、易用的控制方案

    智能化浪潮席卷全球的今天,智能機器人正逐步從工業(yè)場景邁向更廣闊的應(yīng)用領(lǐng)域。作為這一領(lǐng)域的核
    的頭像 發(fā)表于 04-15 17:00 ?795次閱讀