91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器人也會擁有觸覺分析能力

新機(jī)器視覺 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2020-12-28 13:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人類善于利用手指觸覺來感知物體的物理特性(包括質(zhì)量、重心、轉(zhuǎn)動慣量、表面摩擦等),從而完成高難度的控制任務(wù)。在不遠(yuǎn)的將來,機(jī)器人也會擁有觸覺分析能力。在剛剛結(jié)束的機(jī)器人頂會 IROS 2020 上,上海交大 & MIT 聯(lián)合項(xiàng)目 SwingBot 為我們展示了如何讓機(jī)器人通過觸覺傳感器來學(xué)習(xí)感知物體復(fù)雜的物理特性(tactile exploration),從而完成一個(gè)高難度的甩筆任務(wù)(in-hand object swing-up)。該工作也摘得此次大會的最佳論文獎項(xiàng)。

IROS2020 最佳論文獎項(xiàng)。來源 iros2020.org (http://iros2020.org/) 下圖為機(jī)器人觸覺分析的流程通過握著物體旋轉(zhuǎn)一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實(shí)現(xiàn)甩筆。

該項(xiàng)目通過對多種觸覺探索動作的信息融合,讓機(jī)器人端到端的去學(xué)習(xí)概括手中物體的物理特性,并依靠這個(gè)物理特征來實(shí)現(xiàn)高難度的手上控制任務(wù)(in-hand swing-up)。更多的詳細(xì)內(nèi)容可以訪問論文原文和項(xiàng)目主頁:

論文鏈接:http://gelsight.csail.mit.edu/swingbot/IROS2020_SwingBot.pdf

項(xiàng)目地址:http://gelsight.csail.mit.edu/swingbot/

高精度、低成本的觸覺傳感器 研究人員使用的是一款名為 GelSight 的機(jī)器人觸覺傳感器,該傳感器也發(fā)明于此 MIT 項(xiàng)目組(指導(dǎo)教授:Edward Adelson)。區(qū)別于傳統(tǒng)觸覺傳感器依賴于稀疏的電極陣列(基于電阻 / 電容 ),GelSight 是一個(gè)基于光學(xué)的觸覺傳感器,通過一個(gè)微型相機(jī)來拍攝接觸面的三維幾何形變,可以返回高精度的觸覺信息(見下圖是 GelSight 重建的奧利奧餅干表面)。 更值得一提的是,因?yàn)橹恍枰粋€(gè)低成本的微型攝像頭和一個(gè)樹莓派控制器,GelSight 的制作總成本只有 100 美金(700 元),遠(yuǎn)低于市面上的其他觸覺傳感器。

GelSight 觸覺信息效果圖。來源:[2] 在本篇工作中,研究人員將 GelSight 安裝在了機(jī)器人二爪夾具的一側(cè),通過在傳感器上標(biāo)定靶點(diǎn)和重建三維信息,高密度的力學(xué)反饋可以以每秒60幀的速度實(shí)時(shí)傳輸出來。

基于多種觸覺探索動作的物理特性分析能力 人類可以通過多種觸覺探索動作(觸摸、甩、掂量)來概括手上物體的物理特性(重量、光滑程度、重心位置等)[1],而且人類并不需要測量這些物理參數(shù)的精確數(shù)值,而是用自己的經(jīng)驗(yàn)結(jié)合觸覺手感來實(shí)現(xiàn)對手中物體高難度的控制。 受這個(gè)觀察的啟發(fā),該項(xiàng)目的研究人員首先提出了一個(gè)多觸覺探索的信息融合模型(Information fusion model for multiple tactile exploration actions),該模型的目的是整合不同的機(jī)器人觸覺探索動作信息到一個(gè)共同的物理特性特征空間(Physical embedding)中,從而實(shí)現(xiàn)對物體多種物理特性(質(zhì)量、重心位置、轉(zhuǎn)動慣量和摩擦力)的概括能力。

多觸覺探索動作的信息融合模型。來源:論文 研究人員為機(jī)器人設(shè)計(jì)了兩種基礎(chǔ)的探索動作:(1)緊握物體并旋轉(zhuǎn)一定角度(in-hand tilting)和(2)放松緊握狀態(tài)并抖動物體(in-hand shaking)。動作(1)的觸覺反饋信息會通過一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)來輸出一個(gè)一維的特征向量;動作(2)的抖動因?yàn)槭菚r(shí)序信息,會用一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)來處理獲得相應(yīng)的特征。這兩個(gè)特征信息通過拼接和一個(gè)由若干多層感知器(MLP)組成的融合模型進(jìn)行整合,得到一個(gè)低維的物理特征概括(physical feature embedding)。 區(qū)別于逐個(gè)測量每種不同的物理特性,這種信息整合模型的一大優(yōu)勢是可以根據(jù)任務(wù)來自主調(diào)節(jié)對不同物理信息的關(guān)注程度,因?yàn)楹芏嗳蝿?wù)是無法明確分析出是哪一種物理特性起到了主導(dǎo)作用,而使用該方法可以讓機(jī)器人自主地學(xué)習(xí)并選擇需要的物理信息。此外,這兩個(gè)觸覺探索動作加起來只需要 7 秒的時(shí)間,相比于用精密的儀器來逐個(gè)測量物體的質(zhì)量和摩擦力等,該方法的效率也有很大的提升,并且不需要額外的測量儀器的輔助,更接近人類的觸覺感知能力。 此外,為了讓機(jī)器人自主學(xué)習(xí)選擇最需要的物理信息,研究人員接著提出了一個(gè)控制預(yù)測模型,該模型通過輸入先前獲得的物理特征向量和機(jī)器人控制參數(shù),來預(yù)測最終物體會被甩到的角度。在訓(xùn)練過程中,整個(gè)流程是用一個(gè)端到端(end-to-end)的訓(xùn)練算法來實(shí)現(xiàn)的。研究人員設(shè)計(jì)了一個(gè)機(jī)器人自動采集數(shù)據(jù)的系統(tǒng),并且 3D 打印了可以隨意調(diào)節(jié)物理特性的模型來采集數(shù)據(jù),具體如下兩個(gè)動圖所示:

可變物理特性的模板物體。

數(shù)據(jù)收集流程。 研究人員讓機(jī)器人自主采集了1350次甩筆的數(shù)據(jù),其中包含了27個(gè)不同物理特性的物體。在測試的時(shí)候,研究人員額外選擇了6個(gè)訓(xùn)練數(shù)據(jù)中不包含(unseen)的新物體,機(jī)器人需要通過觸覺探索模型來確定未知物體的物理特性,并根據(jù)任務(wù)要求的最終甩到的角度,來選擇一套成功率最高的控制參數(shù)。 實(shí)驗(yàn)成果 研究人員首先對比了使用和不使用多觸覺探索融合算法對預(yù)測控制模型準(zhǔn)確率的影響(數(shù)值越低,準(zhǔn)確度越高),其中融合算法(Comb.)在已知和未知物體上的預(yù)測誤差率都遠(yuǎn)低于不使用觸覺信息(None)。此外融合算法(Comb.)的表現(xiàn)也比單一使用一種觸覺探索動作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

4d1a018e-4699-11eb-8b86-12bb97331649.png

以下是機(jī)器人在測試過程中,通過使用多觸覺探索融合算法來實(shí)現(xiàn)對未知物體(unseen objects)的物理特性探索和上甩效果(swing-up)。第一個(gè)任務(wù)要求將物體上甩至相對于傳感器 90 度的角度位置:

第二個(gè)任務(wù)要求將物體上甩至相對于傳感器 180 度的位置:

研究人員緊接著探索融合算法學(xué)習(xí)到的物理特征空間到底包含哪些信息。他們用一組額外的多層感知器來回歸(regression)每一個(gè)物理特性的具體參數(shù),并計(jì)算誤差百分比(數(shù)值越低,準(zhǔn)確度越高)。 如下表所示,可以發(fā)現(xiàn)第一個(gè)旋轉(zhuǎn)動作(Tilting)對物體的質(zhì)量(Mass)、重心(Center of mass)和轉(zhuǎn)動慣量(Moment of inertia)的信息捕捉更準(zhǔn)確。而第二個(gè)搖晃動作(Shaking)對物體接觸部分的摩擦力(Friction)的把握更準(zhǔn)。將兩種探索動作融合的算法(Combined)取得了最好的回歸準(zhǔn)確率。

53d885b8-4699-11eb-8b86-12bb97331649.png

最后研究人員進(jìn)一步探索所學(xué)習(xí)到的物理特征空間是如何能夠做到對未知物體依然適用的。他們可視化了6個(gè)未知物體的數(shù)據(jù)分布并展示在了下圖 (b) 中,其中 x 軸表示控制參數(shù),y 軸表示最終上甩的角度。在圖 (a) 中,研究人員用 PCA 提取了每個(gè)采樣中網(wǎng)絡(luò)輸出的物理特征向量的主成分(2 維)并可視化在這個(gè)二維點(diǎn)圖中。觀察可以發(fā)現(xiàn),如果兩個(gè)物體的控制策略相近(例如物體 5 和物體 6),他們的物理特征間距也會越近,而兩個(gè)物體的控制策略相差較大(例如物體 1 和物體 4),則在特征空間上的間距也會更大。

物理特征可視化。來源:論文 作者介紹

本項(xiàng)目的共同第一作者是:

王辰(Chen Wang): 本科畢業(yè)于上海交通大學(xué),師從盧策吾教授。他即將前往 Stanford 攻讀計(jì)算機(jī)博士學(xué)位,該項(xiàng)目是其在 MIT 暑研期間完成的。個(gè)人主頁:http://www.chenwangjeremy.net

王少雄(Shaoxiong Wang):MIT CSAIL 博士生四年級,師從 Prof. Edward Adelson(此項(xiàng)目指導(dǎo)教授),本科畢業(yè)于清華大學(xué)。個(gè)人主頁:http://shaoxiongwang.com/

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 控制器
    +關(guān)注

    關(guān)注

    114

    文章

    17788

    瀏覽量

    193105
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31074

    瀏覽量

    222189
  • 觸覺傳感器
    +關(guān)注

    關(guān)注

    4

    文章

    121

    瀏覽量

    10401

原文標(biāo)題:機(jī)器人也能「甩筆」,擁有觸覺分析能力,上交&MIT獲IROS 2020最佳論文獎

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Robotiq推出適用于 2F 自適應(yīng)夾爪的觸覺傳感指尖, 為具身智能 (Physical AI) 注入“觸覺能力

    ?(Physical?AI)?系統(tǒng)帶來關(guān)鍵的“觸覺”感知能力。通過集成觸覺傳感,Robotiq?讓機(jī)器人不僅能夠“看見”世界,更能夠“觸摸、理解并可靠地與真實(shí)世界互動”。2F-85 夾
    的頭像 發(fā)表于 01-29 10:47 ?6w次閱讀
    Robotiq推出適用于 2F 自適應(yīng)夾爪的<b class='flag-5'>觸覺</b>傳感指尖, 為具身智能 (Physical AI) 注入“<b class='flag-5'>觸覺</b>”<b class='flag-5'>能力</b>

    2026電子皮膚賦能具身智能機(jī)器人專題論壇即將召開,共同探索觸覺感知新未來

    、空間分辨率及多功能集成方面取得了顯著突破。電子皮膚通過模仿生物皮膚的多模態(tài)感知能力,賦予機(jī)器人觸覺、溫感乃至痛覺,是機(jī)器人邁向真正‘智能’的關(guān)鍵一步。 “第二屆
    的頭像 發(fā)表于 12-29 18:49 ?1200次閱讀
    2026電子皮膚賦能具身智能<b class='flag-5'>機(jī)器人</b>專題論壇即將召開,共同探索<b class='flag-5'>觸覺</b>感知新未來

    大曉機(jī)器人發(fā)布開悟3.0,國產(chǎn)世界模型讓機(jī)器人擁有“超級大腦”

    機(jī)器人的使命就是讓每個(gè)機(jī)器人擁有一個(gè)聰明的大腦,洞察萬物,學(xué)會與視覺精準(zhǔn)交互。 ? 在此背景下,大曉機(jī)器人憑借其原創(chuàng)的“世界模型”技術(shù)體系,正快速崛起為具身智能領(lǐng)域的關(guān)鍵推動者。就在
    的頭像 發(fā)表于 12-25 09:25 ?2515次閱讀
    大曉<b class='flag-5'>機(jī)器人</b>發(fā)布開悟3.0,國產(chǎn)世界模型讓<b class='flag-5'>機(jī)器人</b><b class='flag-5'>擁有</b>“超級大腦”

    時(shí)識科技類腦視觸覺方案破解機(jī)器人靈巧操作難題

    當(dāng)前,機(jī)器人要實(shí)現(xiàn)如人類般靈巧的操作,其觸覺感知系統(tǒng)正面臨三大核心瓶頸:功耗高導(dǎo)致續(xù)航受限,數(shù)據(jù)量大引發(fā)延遲響應(yīng),以及系統(tǒng)復(fù)雜制約集成部署。這些因素共同限制了機(jī)器人在精細(xì)操作、人機(jī)安全交互等場景下的應(yīng)用深度與廣度。
    的頭像 發(fā)表于 11-08 15:39 ?2150次閱讀
    時(shí)識科技類腦視<b class='flag-5'>觸覺</b>方案破解<b class='flag-5'>機(jī)器人</b>靈巧操作難題

    RK3576機(jī)器人核心:三屏異顯+八路攝像頭,重塑機(jī)器人交互與感知

    瑞芯微RK3576 AIoT處理器處理器憑借其卓越的多屏異顯與8路攝像頭接入能力,為機(jī)器人領(lǐng)域帶來革新。米爾電子MYD-LR3576開發(fā)板實(shí)測數(shù)據(jù)顯示,在高負(fù)載下CPU占用僅34%,完美實(shí)現(xiàn)多路視覺
    發(fā)表于 10-29 16:41

    小蘿卜機(jī)器人的故事

    代替, LED, 有大佬感興趣, 一起關(guān)注和討論代碼, 這個(gè)機(jī)器人知名度不高, 可是是機(jī)器人的原型, 如果開放接口, 定位和無線充電, 不失為未來的禮物。 讓我們?yōu)樾√}卜工程師的, 自掏腰包救蘿卜
    發(fā)表于 10-23 05:24

    人形機(jī)器人傳感器產(chǎn)業(yè)鏈最新分析:力、觸覺、IMU、視覺傳感器為主流?。ㄈ妫?/a>

    環(huán)境的視覺、觸覺、力覺,到維持自身平衡與定位的慣性測量等,各類傳感器的性能與技術(shù)進(jìn)步直接決定了人形機(jī)器人的智能化水平與應(yīng)用場景拓展能力。當(dāng)前,人形機(jī)器人傳感器行業(yè)迎來發(fā)展機(jī)遇,政策支持
    的頭像 發(fā)表于 10-11 18:38 ?12.2w次閱讀
    人形<b class='flag-5'>機(jī)器人</b>傳感器產(chǎn)業(yè)鏈最新<b class='flag-5'>分析</b>:力、<b class='flag-5'>觸覺</b>、IMU、視覺傳感器為主流?。ㄈ妫? />    </a>
</div>                              <div   id=

    INDEMIND解鎖陪伴機(jī)器人能力新邊界

    從2D感知到3D感知,從單一語音到多模態(tài)交互,解鎖陪伴機(jī)器人能力新邊界。
    的頭像 發(fā)表于 10-09 14:25 ?657次閱讀

    機(jī)器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    支撐機(jī)器人競技能力的核心力量,深刻改變著競技機(jī)器人能力邊界。 磁傳感器芯片為機(jī)器人運(yùn)動提供 “精準(zhǔn)導(dǎo)航”。在動態(tài)平衡系統(tǒng)中,像昆泰芯 K
    發(fā)表于 08-26 10:02

    工業(yè)機(jī)器人的特點(diǎn)

    機(jī)器人是關(guān)鍵。工業(yè)互聯(lián)網(wǎng)是通過端上的數(shù)據(jù)傳輸,經(jīng)過大數(shù)據(jù)分析和云計(jì)算處理,再進(jìn)行智能化決策的一整個(gè)過程,其中端的數(shù)據(jù)傳輸是基礎(chǔ)。工業(yè)互聯(lián)網(wǎng)的端包括機(jī)器人、傳感器等一切線下連接端口。因此發(fā)展工業(yè)
    發(fā)表于 07-26 11:22

    機(jī)器人看點(diǎn):越疆機(jī)器人正式發(fā)布六足仿生機(jī)器狗 智元公布機(jī)器人運(yùn)動控制模型專利

    ”具身機(jī)器人平臺的企業(yè)。 此前越疆機(jī)器人發(fā)布的六足仿生機(jī)器狗是集“認(rèn)知、動作、機(jī)動”三大核心能力于一體的創(chuàng)新產(chǎn)品,而且六足架構(gòu)既具備優(yōu)于四足結(jié)構(gòu)的穩(wěn)定性和負(fù)載
    的頭像 發(fā)表于 07-09 15:03 ?2226次閱讀

    南京工業(yè)大學(xué):仿生觸覺傳感系統(tǒng)讓機(jī)器人擁有“人類指尖”般的細(xì)膩感知

    ? 想象一下,未來的機(jī)器人不僅能靈活抓取物體,還能像人類一樣感知絲綢的順滑、砂紙的粗糙,甚至區(qū)分不同面料的細(xì)微紋理。這一切的關(guān)鍵在于“觸覺”。近日,南京工業(yè)大學(xué)黃維院士、孫庚志教授,安徽工程大學(xué)鄭賢
    的頭像 發(fā)表于 06-14 17:32 ?879次閱讀
    南京工業(yè)大學(xué):仿生<b class='flag-5'>觸覺</b>傳感系統(tǒng)讓<b class='flag-5'>機(jī)器人</b><b class='flag-5'>擁有</b>“人類指尖”般的細(xì)膩感知

    明遠(yuǎn)智睿SSD2351開發(fā)板:語音機(jī)器人領(lǐng)域的變革力量

    的四核1.4GHz處理器具備強(qiáng)勁的運(yùn)算性能,能夠高效處理語音機(jī)器人運(yùn)行過程中的復(fù)雜任務(wù)。語音識別和合成需要大量的計(jì)算資源,該處理器可以快速對語音信號進(jìn)行分析、處理和轉(zhuǎn)換。在實(shí)時(shí)語音交互場景中,無論是
    發(fā)表于 05-28 11:36

    盤點(diǎn)#機(jī)器人開發(fā)平臺

    地瓜機(jī)器人RDK X5開發(fā)套件地瓜機(jī)器人RDK X5開發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機(jī)器人開發(fā)套件 Kria KR260機(jī)器人開發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    詳細(xì)介紹機(jī)場智能指路機(jī)器人的工作原理

    負(fù)責(zé)接收旅客的語音指令,以便機(jī)器人理解旅客的需求。 環(huán)境感知與信息融合 :這些傳感器收集到的信息進(jìn)行融合處理。例如,激光雷達(dá)提供的距離信息和攝像頭捕捉的視覺信息相結(jié)合,能讓機(jī)器人更準(zhǔn)確地識別周圍環(huán)境
    發(fā)表于 05-10 18:26