91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

抓取作業(yè)機器人3D視覺系統(tǒng)的設計

MEMS ? 來源:YXQ ? 2019-07-25 08:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來,機器人自動化領域越來越多地應用3D視覺技術對目標物體進行定位。本文主要研究3D視覺技術在機器人抓取作業(yè)中的應用,總結了3D視覺技術在識別、定位物體時面臨的挑戰(zhàn),給出了抓取作業(yè)機器人3D視覺系統(tǒng)的設計方法,歸納了現(xiàn)有的3D表面成像方法和視覺處理算法,最后給出一個結合3D視覺技術對白色抽屜紙盒進行抓取分揀的實際應用案例。

1 引言

隨著經(jīng)濟的發(fā)展與科技的進步,人們越來越多地將自動化技術應用到生產(chǎn)與生活中,與此同時,也對自動化技術提出了更高的要求。近十年來,工業(yè)機器人的普及使得機器人自動化得到了更廣泛的應用和關注。很多機器人系統(tǒng)已經(jīng)集成了視覺系統(tǒng),利用機器視覺技術實現(xiàn)檢測、識別、定位等功能,為后續(xù)的機器人運動提供必要的信息。

在許多自動化應用場合中,如自動化分揀、裝配、拆垛、碼垛、上料等過程中,工業(yè)機器人經(jīng)常被用來進行抓取作業(yè)。要完成抓取操作,機器人系統(tǒng)可能需要完成目標感知、運動規(guī)劃、抓取規(guī)劃等一系列任務。視覺系統(tǒng)在機器人抓取作業(yè)中的作用就是識別、定位目標物體,為機器人提供目標物體的類型與位姿信息。其中,位姿估計的精度關系到抓取的成功率與精度,是非常重要的技術參數(shù)。

3D視覺技術作為新興的技術領域還存在很多亟待解決的問題,但2D視覺已不能滿足空間抓取的應用要求。與2D視覺相比,3D視覺技術的優(yōu)點有:

(1)3D視覺可以提供目標物體6DOF的位姿數(shù)據(jù),而2D視覺僅能提供平面內3DOF的位姿數(shù)據(jù);

(2)3D視覺能給出目標物體的深度信息或物體表面的點云信息。

但與此同時,3D視覺技術在機器人抓取應用中仍然面臨許多挑戰(zhàn):

(1)點云空洞:用3D相機捕捉反光、透明、網(wǎng)狀物體表面的點云信息,經(jīng)常會出現(xiàn)數(shù)據(jù)的丟失,丟失的點云數(shù)據(jù)形成了點云空洞;

(2)點云粘連:多個物體雜亂堆放或者兩個物體表面靠近擺放時,不同物體表面的點云會粘連在一起,這就涉及到如何穩(wěn)定、準確地進行點云分割;

(3)點云密度不一致:物體表面與3D相機之間的相對位姿、物體表面的顏色均會影響點云的密度,使得目標場景的點云密度不一致,這在一定程度上給點云處理算法帶來了困難;

(4)視野局限:有限的相機視角、遮擋和陰影效果,都會阻礙3D相機獲得抓取目標的表面全貌,進而阻礙對抓取目標的識別;

(5)速度:3D視覺的原理要求其處理的數(shù)據(jù)量較大。3D相機的分辨率越高,所采集的點云質量越好,越能表征物體表面更細微的幾何特征,但相應地帶來的數(shù)據(jù)量就越大。為了適應實際應用需要,如何提高3D相機獲取目標場景點云的速度、點云處理算法的速度仍是需要研究的課題。

此外,相機傳感器的噪聲,點云分割噪聲,光照條件的變化,物體的顏色等諸多因素都是3D視覺技術所面臨的問題。

本文主要研究3D視覺技術在機器人抓取作業(yè)中的應用。文章第二部分介紹抓取作業(yè)機器人3D視覺系統(tǒng)的設計,包括視覺設備的選擇、與機械設計的關系;第三部分介紹幾種3D表面成像技術;第四部分介紹3D視覺處理算法,包括點云分割、3D匹配等;第五部分給出一個實際應用案例:工業(yè)機器人結合3D視覺分揀白色抽屜紙盒;第六部分為總結。

2 抓取作業(yè)機器人3D視覺系統(tǒng)的設計

2.1 3D相機的選擇

圖1 3D相機的選擇

選擇3D相機時需要考慮相機與目標場景之間的距離以及目標場景的尺寸。目標場景最好位于相機的中間視場附近,不超出近視場和遠視場的邊界,即目標場景的高度不超出測量范圍。

3D相機的成像精度需要滿足應用場景的抓取精度要求。通常,工作距離越大,3D相機的視場越大,但成像的精度越低。此外,相機的分辨率、點云的獲取速度也是評價3D成像系統(tǒng)的重要指標。其中,相機的分辨率決定了點云數(shù)據(jù)量的大小及其對物體細節(jié)的表征程度,關系到點云處理算法的設計。點云的獲取時間加上點云處理算法的執(zhí)行時間必須滿足抓取應用的節(jié)拍要求。

此外,相機的性價比、系統(tǒng)的可靠性也是選擇相機時需要考量的因素。

2.2 光源、遮光板的選擇

為了避免外界環(huán)境光對視覺系統(tǒng)的影響、保證視覺系統(tǒng)的穩(wěn)定性,有時需要外加光源和遮光板。外加的光源不能影響3D相機成像。

2.3 視覺系統(tǒng)對機械設計的要求

當相機固定安裝時,機器人需要手持標定板做手眼標定。為了方便進行手眼標定,可設計專門的Tool抓持標定板,留出足夠的空間以保證標定板在手眼標定過程中不會與機器人發(fā)生干涉。相機固定安裝的優(yōu)點是,對Tool位姿進行變更后,無需再做機器人手眼標定。

當機器人手持相機拍照時,一般要求抓取作業(yè)Tool(夾具、吸盤)不遮擋相機的視野。

3 3D表面成像技術

3D表面成像/重構/測量技術,可用于測量物體表面上點的(x,y,z)坐標,測量結果可表示為深度圖{zij=(xi,yj),i=1,2,…,L,j=1,2,…,M}。除了測量三維坐標,3D表面成像系統(tǒng)也可輸出物體表面空間點的其他光學特征值,如反射率、顏色等。這時的點云測量結果可一般表示為{Pi=(xi,yi,zi,fj),i=1,2,…,N},其中,fi為一向量,代表第i個點的光學特征值。如常見的RGB-D(紅綠藍-深度)測量數(shù)據(jù)可表示為{Pi=(xi,yi,zi,ri,gi,bi),i=1,2,…,N}。

目前,常見的3D表面成像技術有:雙目立體視覺(binocular stereo vision),多目立體視覺(multi-view stereo vision),線結構光三角測量(laser triangulation with sheet of light),編碼結構光三角測量(encoded structured light),飛行時間深度測量(time of flight),聚焦深度測量(depthfrom focus),光度立體視覺(photometric stereovision)。

3.1 雙目立體視覺(binocular stereo vision)

使用兩個相機拍攝同一個目標場景,通過匹配場景內同一物理目標點投影到兩幅圖像中的像點(同源點),測量得到該點的空間三維坐標。雙目立體視覺的主要任務是雙目系統(tǒng)的標定和同源點的匹配。其中,同源點的匹配(立體匹配,stereo matching)方法有相關法、多重網(wǎng)格法和多掃描線法。這些方法都依賴于目標場景的紋理、結構等特征,因此若能主動制造特征,如投射隨機分布的散斑圖案、編碼結構光等圖案,則能變被動為主動,通過增強匹配的魯棒性,使方法具有普適性。

圖2 雙目立體視覺原理示意圖

3.2 線結構光三角測量(laser triangulation with sheet of light)

線激光器投射出的光平面照射到物體表面上會形成表征其輪廓的亮線,這些窄亮的細線通常被稱為光條。線結構光三角測量的基本思想是:通過相機拍攝線結構光發(fā)射器所照射的目標物體,得到物體表面上光條中心位置的一系列3D坐標。因此,目標物體與線結構光成像系統(tǒng)之間做相對運動并在多個不同位置進行拍照測量,才能獲得目標物體完整的3D表面輪廓。

線結構光三角測量的主要任務是:標定相機及其與光平面之間的相對位姿,標定目標物體與成像系統(tǒng)之間的相對運動,提取光條的中心點。

圖3 線結構光三角測量原理示意圖

3.3 編碼結構光三角測量(encoded structured light)

編碼結構光激光器向目標物體投射經(jīng)過特殊設計的編碼圖案,基于不同的圖案編碼方法,相機可能需要拍攝一幅或多幅被激光器照射的目標物體表面圖像,通過對比圖像上經(jīng)過物體表面調制的編碼光圖案與未調制的編碼光圖案可以測量獲得目標表面的3D形貌。與線結構光三角測量相比,只要編碼光能夠照射到整個物體表面,物體與成像系統(tǒng)之間無需做相對運動即可獲取物體表面的幾何全貌。

圖4 編碼結構光原理示意圖

3.4 飛行時間深度測量(time of flight)

傳感器向目標物體發(fā)射經(jīng)過調制的近紅外光脈沖,然后再接收從物體表面反射回來的光脈沖,通過計算返回脈沖與發(fā)射脈沖之間的相位差即可測出目標物體的深度。

3.5 聚焦深度測量(depth from focus)

由于相機的景深有限,在某物距下,目標物體表面上只有一部分點能夠在成像平面上清晰成像。聚焦深度測量利用這一原理,通過拍攝不同物距下同一物體的多幅圖像,提取圖像上清晰成像的像點位置,計算得到物體表面上各點的深度坐標。聚焦深度測量技術的精度一般高于雙目立體視覺和線結構光三角測量,但因其需要配合遠心鏡頭或顯微鏡頭使用,只適于對小尺寸物體進行測量。

3.6 光度立體視覺(photometric stereo vision)

物體表面反射光量的多少取決于該表面與光源和觀察者之間的相對姿態(tài)。采用不同的角度對靜止目標物體進行照明,在每個照明角度下,使用同一臺相機在同一個固定視角下拍攝一幅圖像,光度立體視覺技術使用這組圖像估計出目標物體表面的法向量。目前,機器人抓取應用中使用的3D相機主要采用3.1 ~ 3.4中的成像原理。

4 3D視覺處理算法

按照不同的功能,3D視覺處理算法可分為:

4.1 點云濾波

點云的濾波(filter)算法主要用于點云數(shù)據(jù)的預處理,可實現(xiàn)去噪、平滑、采樣、特征提取等功能。濾波方法有:雙邊濾波、高斯濾波、條件濾波、隨機采樣一致性濾波等。

4.2 點云特征估計

4.2.1 點云局部特征估計

點云的局部特征(local feature)估計算法用于估計點云中一點或一點周圍數(shù)個鄰近點的特征值。這些特征包括法向量、曲率、邊界、點特征直方圖(PFH)、快速點特征直方圖(FPFH)、視角特征直方圖(VFH)、NARF描述子、旋轉投影統(tǒng)計特征(Rotational Projection Statistics)等。

4.2.2 點云整體特征估計

點云的整體特征(global feature)估計算法用于估計某個點云集合的特征,如點云的表面積、最小外接盒、最大直徑、截面曲線等。

4.3 點云關鍵點提取

關鍵點(key point),也稱為興趣點,因為具有某種特點,可依照預先定義的標準被穩(wěn)定地識別出來。點云關鍵點的提取算法有:Harris3D、ISS3D、NARF、SIFT、SUSAN、Trajkovic3D。

4.4 點云配準

由于遮擋等原因,為了獲得完整的目標表面3D點云,常常需要從不同的視角對同一目標物體進行掃描。點云配準(registration)技術是將這些點云數(shù)據(jù)兩兩進行匹配,計算它們之間互相重疊的部分,將它們拼接在一起,獲得更全面的目標物體表面點云。點云配準算法有最近點迭代法(ICP)。

4.5 點云分割

點云分割(segmentation)算法用于將點云數(shù)據(jù)分割成不同的子集。依據(jù)應用需求,可采用不同的分割方法,如平面分割、柱面分割、歐幾里得聚類提取、超體聚類分割、區(qū)域生長分割、基于最小割的點云分割、基于法向量差的點云分割等。除了上述的3D點云分割方法,點云的分割也可結合2D圖像進行。先在2D圖像上應用邊緣提取、深度學習等算法,然后再對點云進行分割。

4.6 三維匹配

三維匹配(3D matching)算法的功能是在搜索數(shù)據(jù)中找到目標物體并確定它的3D位姿,其中,搜索數(shù)據(jù)可以是3D點云或2D圖像。三維匹配算法可分為基于形狀的3D匹配、基于表面的3D匹配和可變形表面的3D匹配。

4.7 點云擬合

如果某個點云子集為已知的幾何形狀,如平面、柱面、球面,可利用點云擬合算法進行擬合求出相應的位姿和幾何參數(shù)信息。

此外,點云處理算法還包括k維樹、八叉樹等方法。

在機器人抓取作業(yè)中,視覺的重要任務之一是目標物體位姿的估計。要估計位姿,正確地分割點云是前提。通常,綜合利用4.1~4.4中的方法,然后再對點云進行分割,最后利用三維匹配或點云擬合估計出目標物體的位姿。

5 實際案例研究

5.1 白色抽屜紙盒機器人3D視覺分揀

任務描述:料框內雜亂堆放著不同型號的白色抽屜紙盒,并且這些紙盒的各個表面的長寬尺寸各不相同。3D視覺系統(tǒng)通過識別紙盒表面的尺寸將不同型號的紙盒區(qū)分開來,再由機器人將它們分別分揀到不同的料框中。

5.1.1 視覺系統(tǒng)設計

長方形鐵質料框的尺寸為500 X 385 X 180 mm,壁厚為1.5 mm,為避免反光并增加視覺對比度,在料框表面噴涂啞光黑漆。3D相機采用固定安裝,在長方形料框的正上方進行拍攝??紤]到ABB 2600機器人的工作范圍,3D相機距離料框底部的高度需大于1000 mm并盡可能取小值。

綜合考慮各種因素,這里選用Ensenso N20-1202-16-BL相機,該相機的工作原理是投射散斑紋理的雙目立體視覺技術,其分辨率為1280 X 1024像素,最小、最大和最佳工作距離分別為1100 mm、2200 mm、1400 mm。料框底部距離相機的距離設計為1400 mm,在該距離下3D相機的Z向分辨率為1.037 mm,能夠滿足四個真空吸盤的抓取精度要求;紙盒的最大堆疊高度不超過230 mm,Ensenso N20-1202-16-BL在1150mm工作距離下的視野范圍為572.90 X 497.96 mm,能夠滿足視野要求。為避免環(huán)境光的影響,在相機頂部上方安裝遮光板,在相機旁邊加設白色光源。

圖5 白色抽屜盒分揀場景示意圖

5.1.2 視覺方法描述

為了識別紙盒表面的長寬尺寸、估計紙盒表面的位姿,就需要對紙盒表面的3D點云進行正確分割。這里將2D圖像處理技術與3D點云處理技術相結合:首先,相機接收到觸發(fā)信號,打開散斑投影儀拍攝一幅3D點云圖像;然后,關閉散斑投影儀,拍攝一幅左相機矯正灰度圖像。Ensenso通過計算左相機矯正圖像上各像素點的空間3D坐標,生成一幅3D點云圖像。因而,Ensenso所拍攝的3D點云圖像(有三個通道,其像素值分別代表X,Y,Z坐標)上各點的像素值與左相機矯正圖像上同一位置的像素值是一一對應的,可通過分割左相機矯正圖像來實現(xiàn)紙盒表面3D點云的分割。

視覺程序設計思路:

首先,利用邊緣提取、邊緣連接、腐蝕、膨脹等算法在左相機矯正圖像上分割出不同的紙盒表面區(qū)域;

然后,取每個區(qū)域所對應的3D點云,估計這片點云的厚度,若厚度小于閾值t,則認為這片點云代表了一個紙盒表面的幾何形貌,計算這片點云的3D最小外接盒區(qū)域,即可估算得到紙盒表面的長寬尺寸、中心位置與姿態(tài);若厚度大于閾值t,則認為2D圖像分割失敗,這片點云至少代表兩個紙盒表面的幾何形貌,這時先根據(jù)點云的法向量、曲率等特征對其進行3D分割,然后再進入上述的厚度判斷與尺寸、位姿的計算程序。為了縮短程序執(zhí)行時間,對點云做3D分割之前,預先對其進行采樣以減少數(shù)據(jù)量。

檢查紙盒表面上方是否有遮擋,過濾掉上方有遮擋的結果,防止抓取過程中發(fā)生碰撞或損壞。

最后,將處理結果按照表面中心高度、姿態(tài)方向和表面尺寸進行綜合排序,輸出到機器人抓取路徑規(guī)劃程序當中。路徑規(guī)劃程序根據(jù)視覺輸出的結果引導機器人運動并控制夾具動作。

5.1.3 視覺算法處理結果

如圖6(左上)所示,料框中散亂堆放著三種型號的白色抽屜紙盒,由視覺程序輸出的紙盒表面尺寸與位姿的排序結果如表1所示??梢钥闯?,視覺程序沒有給出被遮擋紙盒表面的計算結果。

圖6左上:Ensenso左相機矯正灰度圖;右上:3D點云渲染效果圖;左下:排序輸出結果;右下:5#紙盒表面點云圖

表1 白抽屜盒視覺算法輸出結果

經(jīng)過測試,在該視覺系統(tǒng)下,紙盒表面尺寸的測量誤差小于5 mm,表面中心定位誤差小于2 mm,表面姿態(tài)估計誤差小于5度。使用intel i7-6820HQ CPU、主頻2.7GHz的LenovoP50筆記本計算機,視覺處理時間為3~5 s。

6 總結

本文主要研究3D視覺技術在機器人抓取作業(yè)中的應用,歸納了3D視覺技術在機器人抓取作業(yè)中面臨的挑戰(zhàn),對機器人抓取視覺系統(tǒng)的設計方法進行了總結,搜集了當前主要的3D成像技術及3D視覺算法,最后給出了應用案例。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 工業(yè)機器人

    關注

    91

    文章

    3533

    瀏覽量

    98154
  • 3D視覺
    +關注

    關注

    4

    文章

    481

    瀏覽量

    29212

原文標題:3D視覺技術在機器人抓取作業(yè)中的應用

文章出處:【微信號:MEMSensor,微信公眾號:MEMS】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    人形機器人 3D 視覺路線之爭:激光雷達、雙目和 3D - ToF 誰更勝一籌?

    電子發(fā)燒友網(wǎng)報道(文 / 吳子鵬)在人形機器人的設計方案中,3D 視覺技術是實現(xiàn)環(huán)境感知與智能化決策的核心支撐之一。它能夠助力人形機器人完成環(huán)境感知與建模、動態(tài)目標檢測與跟蹤、物體操作
    的頭像 發(fā)表于 04-15 00:14 ?4073次閱讀

    索尼FCB-EV9500M MIPI輸出:機器人視覺系統(tǒng)的革新引擎

    在工業(yè)自動化與智能服務機器人快速發(fā)展的今天,視覺系統(tǒng)已成為機器人感知環(huán)境、執(zhí)行任務的核心組件。索尼FCB-EV9500M作為一款搭載MIPI接口的一體化高清攝像機模組,憑借其卓越的圖像質量、低延遲
    的頭像 發(fā)表于 02-26 10:27 ?161次閱讀

    基于3D視覺引導的移動式復合機器人設計:智能自動化革命的核心技術

    潛力,推動智能自動化的未來發(fā)展。 關鍵詞: 3D視覺引導,移動式復合機器人,智能制造,機器人設計,視覺導航,復合
    的頭像 發(fā)表于 01-20 16:24 ?274次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>視覺</b>引導的移動式復合<b class='flag-5'>機器人</b>設計:智能自動化革命的核心技術

    2025 3D機器視覺的發(fā)展趨勢

    迭代與應用拓展成為市場的主要推動力:·技術升級:視覺系統(tǒng)從單一任務的2D相機向多功能3D相機進化。過去用2D相機完成單一任務,如今用戶更愿意為能自動化多流程的
    的頭像 發(fā)表于 12-10 17:25 ?1260次閱讀
    2025 <b class='flag-5'>3D</b><b class='flag-5'>機器</b><b class='flag-5'>視覺</b>的發(fā)展趨勢

    3D 視覺系統(tǒng)供應商全景解析:技術迭代與國產(chǎn)力量的崛起

    3D 視覺系統(tǒng)供應商全景解析:技術迭代與國產(chǎn)力量的崛起 在智能制造浪潮下,3D 視覺系統(tǒng)已從高端工業(yè)裝備的 “選配項” 變?yōu)樽詣踊a(chǎn)線的 “標配項”。作為
    的頭像 發(fā)表于 11-21 13:33 ?399次閱讀

    變焦、高速、高清:索尼FCB-ER9500機芯如何重塑機器人視覺

    在現(xiàn)代化工業(yè)車間里,一臺搭載了新型視覺系統(tǒng)機器人正精準地檢測著精密零部件的微小瑕疵,這是工業(yè)自動化領域正在發(fā)生的變革場景。 工業(yè)機器人正逐漸成為智能制造的核心力量,而視覺系統(tǒng)作為
    的頭像 發(fā)表于 11-13 09:39 ?705次閱讀

    RK3576機器人核心:三屏異顯+八路攝像頭,重塑機器人交互與感知

    。· 多路MIPI-CSI接口:原生支持接入多個攝像頭,為構建多目視覺系統(tǒng)打下堅實基礎,滿足機器人全方位感知需求。 RK3576在機器人領域的核心應用場景特種作業(yè)與工程
    發(fā)表于 10-29 16:41

    奧比中光領跑韓國機器人3D視覺市場

    近日,國際權威行業(yè)研究機構Interact Analysis發(fā)布《韓國商用及工業(yè)移動機器人3D視覺市場分析》報告(以下簡稱“報告”)。數(shù)據(jù)顯示,奧比中光在韓國商用和工業(yè)移動機器人
    的頭像 發(fā)表于 10-23 16:27 ?715次閱讀

    15分鐘快速部署,復合機器人如何重塑“上下料機器人哪家好”的行業(yè)答案

    富唯智能復合機器人突破傳統(tǒng)技術邊界,將協(xié)作機器人、移動機器人視覺引導技術深度融合。其搭載的ICD系列核心控制器,實現(xiàn)了對整個系統(tǒng)的一體化控
    的頭像 發(fā)表于 10-17 16:18 ?263次閱讀
    15分鐘快速部署,復合<b class='flag-5'>機器人</b>如何重塑“上下料<b class='flag-5'>機器人</b>哪家好”的行業(yè)答案

    iTOF技術,多樣化的3D視覺應用

    。 ◆ 應用2—機艙內的 3D 傳感 應用3—自主移動機器人 (AMR) 在室外(~150,000 勒克斯)和黑暗環(huán)境中進行障礙物檢測。 高分辨率能力,可準確檢測細長物體,例如椅腿。 低抖動和低誤差
    發(fā)表于 09-05 07:24

    3D ToF能成為人形機器人的核心傳感器嗎?

    。 ? 其中,三維感知技術是機器人感知系統(tǒng)的核心支撐技術之一。近年來,3D ToF(Time of Flight,飛行時間)技術以其實時性強、結構簡單、成本逐漸降低等優(yōu)勢,正在成為機器人
    的頭像 發(fā)表于 08-11 03:30 ?4479次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎算法的應用

    相機標定是視覺系統(tǒng)的基石,直接影響后續(xù)圖像處理的精度。書中詳細介紹了單目和雙目相機的標定流程,包括標定板的使用、參數(shù)優(yōu)化以及標定文件的應用。 實際應用中,標定誤差可能導致機器人定位偏差,因此標定過程
    發(fā)表于 05-03 19:41

    復合機器人抓取精度的影響因素及提升策略

    復合機器人結合了移動機器人(如AGV)和機械臂的功能,廣泛應用于物流、制造等領域。抓取精度是其核心性能指標之一,直接影響作業(yè)效率和產(chǎn)品質量。本文將探討復合
    的頭像 發(fā)表于 04-12 11:15 ?1029次閱讀

    昨日,杭州3D視覺傳感器公司獲數(shù)億元融資!

    零部件、智能化軟件系統(tǒng)等,本輪融資將重點投向3D視覺傳感器深化研發(fā)、人形機器人AI技術攻關、全球化供應鏈及服務體系升級。 為機器人裝上“智慧
    的頭像 發(fā)表于 04-08 18:13 ?1340次閱讀
    昨日,杭州<b class='flag-5'>3D</b><b class='flag-5'>視覺</b>傳感器公司獲數(shù)億元融資!