91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一種基于圖像的三維重建方法

新機(jī)器視覺 ? 來源:計(jì)算機(jī)視覺工坊 ? 2023-04-12 18:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹

當(dāng)前,對于一個(gè)場景的快速重建是重要的,目標(biāo)是實(shí)現(xiàn)一個(gè)快速的、全面的三維重建模型。可以應(yīng)用于野外的林業(yè)資源保護(hù)、火災(zāi)和地震的災(zāi)后搶救、邊境安防、油田或者海上平臺油氣設(shè)施、電力設(shè)施監(jiān)測都有十分重要的價(jià)值。

現(xiàn)在對于野外覆蓋常用衛(wèi)星。對衛(wèi)星來說,存在分辨率不足的問題,無法清晰構(gòu)建出野外的三維場景。而對于較精確的雷達(dá)激光掃描重建,既有造價(jià)昂貴的缺點(diǎn),又十分笨重,在野外環(huán)境中進(jìn)行三維重建十分不方便。

隨著自動控制、無線傳輸?shù)燃夹g(shù)的發(fā)展,無人機(jī)的應(yīng)用領(lǐng)域也越來越多。無人機(jī)具備成木低,應(yīng)用范圍廣,機(jī)動性能好,降低野外作業(yè)人員危險(xiǎn)等優(yōu)點(diǎn)。因此基于圖像的三維重建方法是解決上述問題的有效手段。

三維重建一直以來就是國內(nèi)外學(xué)者研宄的熱點(diǎn)問題,并取得了一些重大的成果。華盛頓大學(xué)的GRAIL實(shí)驗(yàn)室,采用多核并行技術(shù)耗時(shí)21小時(shí)完成了對羅馬城的稀疏點(diǎn)云的重建,成功地實(shí)現(xiàn)了對海量數(shù)據(jù)的大場景稀疏點(diǎn)云的三維重建[1-2]。吳常常實(shí)現(xiàn)的VisualSFM算法是較為完善的開源視覺重建算法[3],在該算法使用多核捆綁調(diào)整[4]進(jìn)行參數(shù)優(yōu)化。但是,其對于紋理較弱的場景,不能進(jìn)行三維重建。

基于深度學(xué)習(xí)的方法已經(jīng)引起了人們的廣泛關(guān)注,并在圖像處理中得到了廣泛的應(yīng)用。一些研究者提出了基于深度神經(jīng)網(wǎng)絡(luò)的三維重建算法。Ummenhofer等人中提出的 DeMoN 給出了從連續(xù)的無約束圖像對中恢復(fù)圖像深度和相機(jī)運(yùn)動的端到端神經(jīng)網(wǎng)絡(luò)[5],并且還可以輸出表面法線、匹配對之間的光流,該框架由多個(gè)編碼器-解碼器組成。該網(wǎng)絡(luò)只單純利用兩個(gè)圖像之間的RGB信息而沒有利用幾何信息進(jìn)行估計(jì),三維重建準(zhǔn)確度較低,效果不好。

總體框架

本文介紹的方法,整體流程圖如圖1所示。

f61a245c-d824-11ed-bfe3-dac502259ad0.png

圖1.整體流程圖

具體步驟如下:

步驟1:首先要對無人機(jī)的飛行路徑進(jìn)行之字形規(guī)劃,無人機(jī)拍攝的正射影像可以完全覆蓋所需拍攝的場景,進(jìn)而獲取精確、詳細(xì)的圖像序列,無人機(jī)在拍攝圖像的過程中,實(shí)時(shí)的將圖片與RTK信息回傳給地面站。

步驟2:地面站接收無人機(jī)拍攝的圖片后,將圖片按順序進(jìn)行排列,并將圖像按照每20張分成一個(gè)簇。

步驟3:對每個(gè)簇中的圖片進(jìn)行提取特征點(diǎn),并對特征點(diǎn)進(jìn)行描述。

步驟4:接著進(jìn)行特征匹配,使用濾波算法來剔除匹配錯(cuò)誤的特征點(diǎn)。

步驟5:通過運(yùn)動恢復(fù)結(jié)構(gòu)技術(shù)獲取相近圖像之間的對應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。

步驟6:圖像中包含GPS信息,利用光束法平差來優(yōu)化相機(jī)姿態(tài)參數(shù),得到各個(gè)圖像簇的稀疏點(diǎn)云。

步驟7:然后,通過恢復(fù)每張圖像的深度圖,基于深度圖融合的方法,將這些深度圖融合,得到各個(gè)圖像簇的稠密點(diǎn)云。

步驟8:最后,將各個(gè)圖像簇的稠密點(diǎn)云進(jìn)行融合,得到整個(gè)場景的三維信息。

具體步驟:

首先,確定無人機(jī)拍攝野外場景的具體范圍,并對無人機(jī)的飛行路徑進(jìn)行規(guī)劃,這里選用之字形往返式的規(guī)劃路徑方式。這種方式對于無人機(jī)的飛行具有簡單、便捷的特點(diǎn),飛行路線大多都是直線,轉(zhuǎn)彎的次數(shù)較少,消耗的能量也較少,并且可以完全覆蓋所需要拍攝的場景。

此外,無人機(jī)所搭載的相機(jī)也有一定的要求,需要使用帶有RTK載波相位差分技術(shù)的照相機(jī),無人機(jī)在拍攝場景時(shí),同時(shí)可以記錄拍攝點(diǎn)位的GPS信息。

在無人機(jī)拍攝的圖像后,需要將圖像以及相應(yīng)的RTK信息實(shí)時(shí)回傳給地面站。

地面站在接收到無人機(jī)拍攝的圖片后,將圖片按順序進(jìn)行排列,這種有序的圖像序列,為后續(xù)的特征匹配節(jié)省很多時(shí)間。

如圖2所示,圖片按順序排列好之后,將圖片按照每20張分成一個(gè)簇,后續(xù)就是對圖像簇進(jìn)行操作,各個(gè)圖像簇之間并行處理,提高效率。

f6233fba-d824-11ed-bfe3-dac502259ad0.png

圖2. 圖像分簇

對每個(gè)簇中的圖片進(jìn)行提取特征點(diǎn),這里提取SIFT特征點(diǎn),因?yàn)镾IFT特征具有區(qū)分性好,對旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對視角變化、仿射變換、噪聲也保持一定程度的穩(wěn)定性等優(yōu)點(diǎn),因此這里使用SIFT特征提取算子對圖像集進(jìn)行特征提取。

提取了圖像的特征點(diǎn)之后,需要對圖像進(jìn)特征匹配。在接收圖像后已經(jīng)對圖像順序進(jìn)行了排序,在特征匹配階段,只需要對各個(gè)圖像簇中相鄰的兩幅圖像進(jìn)行特征匹配,對于n張輸入圖像,能夠?qū)⑵ヅ潆A段的時(shí)間復(fù)雜度從O(n2)降低到O(n)。

對于特征匹配,包括多種兩兩圖像之間的匹配算法可供選擇。對于基于標(biāo)量的特征描述符,有暴力匹配、近似最近鄰匹配、層級哈希匹配和快速層級哈希匹配四種方式。對于二進(jìn)制描述符,主要為暴力匹配。暴力匹配對參考圖像中的每個(gè)特征點(diǎn),在另一幅待匹配圖上計(jì)算所有特征點(diǎn)和該點(diǎn)歐式距離,再利用距離比等條件進(jìn)行剔除,最終得到匹配集。該方法時(shí)間復(fù)雜度較高,搜索效率較低。

近似最近鄰匹配的方法針對大數(shù)據(jù)集時(shí)它的效果要好于暴力匹配。層級哈希匹配和快速層級哈希匹配主要是利用局部敏感哈希將一個(gè)圖像上的特征點(diǎn)映射成為一個(gè)哈希編碼,在利用SIFT特征計(jì)算兩幅圖像之間的匹配的時(shí)候,對于第一幅圖像上的某個(gè)特征點(diǎn),搜索第二幅圖像上和該特征點(diǎn)哈希編碼的漢明距離小于某個(gè)閾值的特征點(diǎn),然后根據(jù)SIFT特征描述符的相似性和比率測試確定最終的匹配。

其中快速層級哈希匹配在速度上更快,利用預(yù)先計(jì)算好的散列區(qū)域,提升了匹配速度。所以, 這里采用快速層級哈希匹配處理兩幅圖像之間的匹配問題。

在匹配的過程中,會存在一些誤匹配的情況,這對后期的三維重建會產(chǎn)生很大的影響,所以這里需要剔除匹配錯(cuò)誤的特征點(diǎn),這里采用RANSAC(Random Sample Consensus,隨機(jī)抽樣一致)算法來剔除誤匹配的點(diǎn)。RANSAC算法可以從一組包含“外點(diǎn)”的觀測數(shù)據(jù)集中,通過迭代方式估計(jì)數(shù)學(xué)模型的參數(shù),進(jìn)而剔除誤匹配的點(diǎn)。

RANSAC算法的具體步驟:

(1)首先從數(shù)據(jù)集中隨機(jī)選出一組局內(nèi)點(diǎn)(其數(shù)目要保證能夠求解出模型的所有參數(shù)),計(jì)算出一套模型參數(shù)。

(2)用得到的模型去測試其他所有的數(shù)據(jù)點(diǎn),如果某點(diǎn)的誤差在設(shè)定的誤差閾值之內(nèi),就判定其為局內(nèi)點(diǎn),否則為局外點(diǎn),只保留目前為止局內(nèi)點(diǎn)數(shù)目最多的模型,將其記錄為最佳模型。

(3)重復(fù)執(zhí)行1,2步足夠的次數(shù)(即達(dá)到預(yù)設(shè)的迭代次數(shù))后,使用最佳模型對應(yīng)的局內(nèi)點(diǎn)來最終求解模型參數(shù),該步可以使用最小二乘法等優(yōu)化算法。

(4)最后可以通過估計(jì)局內(nèi)點(diǎn)與模型的錯(cuò)誤率來評估模型。

在得到圖像中特征點(diǎn)的匹配關(guān)系后,通過運(yùn)動恢復(fù)結(jié)構(gòu)技術(shù)來計(jì)算相鄰圖像之間的對應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。

因?yàn)闊o人機(jī)拍攝的圖像中包含有GPS信息,利用圖像和GPS間的約束,使用光束法平差對相機(jī)的姿態(tài)位置進(jìn)行優(yōu)化調(diào)整,得到準(zhǔn)確的相機(jī)位姿以及場景路標(biāo)點(diǎn)。這里使用全局式SFM(Structure from motion,運(yùn)動恢復(fù)結(jié)構(gòu))來輸出各個(gè)圖像簇的稀疏點(diǎn)云,因?yàn)槿质絊FM的重建速度相比于增量式SFM和層級式SFM的重建速度都快,并且重建效果可以達(dá)到要求。通過這種方式生成的稀疏點(diǎn)云具有尺寸及地理編碼信息。

通過計(jì)算出每張圖像的深度圖,利用深度圖融合,來生成三維稠密點(diǎn)云?;谏疃葓D融合的方法,需要首先將每張圖像對應(yīng)起來,即通過旋轉(zhuǎn)、平移等坐標(biāo)變換對兩張圖像進(jìn)行匹配,這些對應(yīng)信息可以從SFM結(jié)果得到,然后再根據(jù)同一個(gè)空間點(diǎn)在各個(gè)深度圖中對應(yīng)的深度信息來共同恢復(fù)該空間點(diǎn)的三維位置。如果融合后的點(diǎn)云數(shù)量過多,還需要進(jìn)行三維點(diǎn)云精簡處理,進(jìn)而得到各個(gè)圖像簇的稠密點(diǎn)云。

根據(jù)各所述稠密深度圖對應(yīng)的位移及所述旋轉(zhuǎn)關(guān)系,對各個(gè)圖像簇對應(yīng)的稠密點(diǎn)云進(jìn)行融合,在融合的過程中需要剔除一些重疊的點(diǎn)云,進(jìn)而得到整個(gè)場景的三維信息。

總結(jié)

本文介紹了基于圖像的三維重建方法。首先通過無人機(jī)按照規(guī)劃好的路線拍攝圖片,無人機(jī)在拍攝完圖片的過程中,將圖片實(shí)時(shí)的回傳給地面。在地面端接收無人機(jī)回傳的圖片,將接收的圖像按順序進(jìn)行排列,并將圖像按照每20張作為一個(gè)簇,分別對每簇中的圖像進(jìn)行提取特征點(diǎn),并對特征點(diǎn)進(jìn)行描述。

接著進(jìn)行特征匹配,使用濾波算法來剔除匹配錯(cuò)誤的特征點(diǎn)。根據(jù)匹配的特征點(diǎn),通過運(yùn)動恢復(fù)結(jié)構(gòu)技術(shù)獲取相鄰圖像之間的對應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。進(jìn)而利用光束法平差來優(yōu)化相機(jī)姿態(tài)參數(shù),得到各個(gè)圖像簇的稀疏點(diǎn)云。然后,通過恢復(fù)每張圖像的深度圖,基于深度圖融合的方法,將這些深度圖融合,得到各個(gè)圖像簇的稠密點(diǎn)云。最后將各個(gè)圖像簇的稠密點(diǎn)云進(jìn)行融合,得到整個(gè)場景的三維信息。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1218

    瀏覽量

    43391
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3953

    瀏覽量

    142612
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    831

    瀏覽量

    61938
  • 無人機(jī)
    +關(guān)注

    關(guān)注

    236

    文章

    11298

    瀏覽量

    195622
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    979

    文章

    4469

    瀏覽量

    196506

原文標(biāo)題:一文帶你理解基于圖像的三維重建

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    淺談三維原子探針的跨領(lǐng)域應(yīng)用

    原子探針斷層掃描(APT,也叫三維原子探針)是一種三維分析技術(shù),能看清原子級的成分分布,空間分辨率達(dá)到亞納米,成分靈敏度是 ppm 級。它提供的三維成分?jǐn)?shù)據(jù),和透射電子顯微鏡(TEM)
    的頭像 發(fā)表于 01-20 15:33 ?300次閱讀
    淺談<b class='flag-5'>三維</b>原子探針的跨領(lǐng)域應(yīng)用

    文讀懂 | 三維視覺領(lǐng)域國家級制造業(yè)單項(xiàng)冠軍——先臨三維的品牌布局

    先臨三維科技股份有限公司成立于2004年,是三維視覺領(lǐng)域國家級制造業(yè)單項(xiàng)冠軍、國家專精特新“小巨人”企業(yè)。公司專注于高精度三維視覺軟、硬件的研發(fā)和應(yīng)用,致力于成為具有全球影響力的三維
    的頭像 發(fā)表于 11-11 14:55 ?691次閱讀
    <b class='flag-5'>一</b>文讀懂 | <b class='flag-5'>三維</b>視覺領(lǐng)域國家級制造業(yè)單項(xiàng)冠軍——先臨<b class='flag-5'>三維</b>的品牌布局

    從“重建”到“可用”:aiSim3DGS方案如何閉環(huán)自動駕駛仿真場景?

    3DGaussianSplatting(3DGS)憑借高效渲染與逼真場景還原能力,逐漸成為三維重建與仿真領(lǐng)域的焦點(diǎn)。然而,實(shí)際應(yīng)用中,如何將多源異構(gòu)數(shù)據(jù)高效轉(zhuǎn)化為可用的3DGS場景,如
    的頭像 發(fā)表于 10-24 17:33 ?28次閱讀
    從“<b class='flag-5'>重建</b>”到“可用”:aiSim3DGS方案如何閉環(huán)自動駕駛仿真場景?

    一種基于多次觀測融合的可交互三維高斯場景重建框架

    在計(jì)算機(jī)視覺和機(jī)器人領(lǐng)域,如何完整、真實(shí)地重建個(gè)可交互的三維場景,直是個(gè)難題。傳統(tǒng)方法往往
    的頭像 發(fā)表于 09-29 11:12 ?657次閱讀
    <b class='flag-5'>一種</b>基于多次觀測融合的可交互<b class='flag-5'>三維</b>高斯場景<b class='flag-5'>重建</b>框架

    NVIDIA助力湯元科技突破智能駕駛數(shù)據(jù)獲取與生成瓶頸

    蘇州湯元科技有限公司(以下簡稱“湯元科技”)是家專注于三維重建與世界模型的科技公司,為自動駕駛與具身智能提供高質(zhì)量、多樣化的訓(xùn)練數(shù)據(jù)。通過將自研的世界模型技術(shù)與 NVIDIA Cosmos 結(jié)合,實(shí)現(xiàn)真實(shí)物理世界的三維重建、場
    的頭像 發(fā)表于 09-06 15:16 ?1478次閱讀

    請幫幫我:AutoCAD三維顯示問題,和人正常視角相背

    AutoCAD三維顯示問題,和人正常視角相背 AutoCAD三維顯示問題,和人正常視角相背
    發(fā)表于 08-14 09:50

    航天宏圖全棧式3DGS實(shí)景三維重建系統(tǒng)解決方案

    表達(dá)的核心技術(shù),通過相機(jī)、傳感器等設(shè)備獲取物理空間數(shù)據(jù),并結(jié)合計(jì)算機(jī)視覺與圖形學(xué)算法,將二圖像轉(zhuǎn)換為三維模型。目前,主流的三維重建方法包括
    的頭像 發(fā)表于 06-27 09:28 ?1649次閱讀
    航天宏圖全棧式3DGS實(shí)景<b class='flag-5'>三維重建</b>系統(tǒng)解決方案

    激光三維掃描技術(shù):無噴粉條件下高反光表面三維重建的光學(xué)原理與應(yīng)用

    高反光表面的三維重建是工業(yè)檢測、文化遺產(chǎn)保護(hù)等領(lǐng)域的關(guān)鍵技術(shù)瓶頸。傳統(tǒng)激光掃描依賴噴粉增強(qiáng)漫反射,但會對精密器件或文物造成不可逆損傷。本文通過融合結(jié)構(gòu)光調(diào)制、偏振分析及多視角協(xié)同技術(shù),構(gòu)建無噴粉測量
    的頭像 發(fā)表于 06-25 10:19 ?892次閱讀

    非接觸式激光三維掃描應(yīng)對鏡面反射表面的無噴粉測量方案:原理與創(chuàng)新

    鏡面反射表面的三維測量直是光學(xué)檢測領(lǐng)域的技術(shù)難點(diǎn),傳統(tǒng)激光掃描因鏡面反射導(dǎo)致的光斑畸變、相位模糊等問題,常需依賴噴粉處理以改善漫反射特性,這對精密器件或文物保護(hù)等場景構(gòu)成限制。本文提出一種融合相位
    的頭像 發(fā)表于 06-24 13:10 ?613次閱讀
    非接觸式激光<b class='flag-5'>三維</b>掃描應(yīng)對鏡面反射表面的無噴粉測量方案:原理與創(chuàng)新

    VirtualLab:光學(xué)系統(tǒng)的三維可視化

    配置文件”并選擇“系統(tǒng):三維”作為結(jié)果,然后運(yùn)行模擬。 2.點(diǎn)擊視圖系統(tǒng)(僅三維顯示組件,沒有光傳播)。 系統(tǒng):三維(光線結(jié)果配置文件)和三維系統(tǒng)視圖 這兩種
    發(fā)表于 05-30 08:45

    三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析

    仍未得到探索。本文提出一種基于立體相機(jī)的三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)LSG-SLAM。通過在EuRoC數(shù)據(jù)集上的廣泛評估,LSG-SLAM展示了其在大規(guī)模室外場景中的優(yōu)越性能。在KITTI數(shù)據(jù)集上,LSG-SLAM達(dá)到了優(yōu)于現(xiàn)有神經(jīng)網(wǎng)絡(luò)、基于3DGS以及傳統(tǒng)
    的頭像 發(fā)表于 05-27 14:13 ?1567次閱讀
    <b class='flag-5'>三維</b>高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析

    三維表面輪廓儀的維護(hù)保養(yǎng)是確保其長期穩(wěn)定運(yùn)行的關(guān)鍵

    三維表面輪廓儀是一種高精度測量設(shè)備,用于非接觸式或接觸式測量物體表面的三維形貌、粗糙度、臺階高度、紋理特征等參數(shù)。維護(hù)保養(yǎng)對于保持其高精度測量能力至關(guān)重要。
    發(fā)表于 05-21 14:53 ?0次下載

    數(shù)字孿生 × 爆炸動畫 × 三維拆解

    三維場景中實(shí)現(xiàn)模型零件爆炸效果是一種常見且非常實(shí)用的視覺技術(shù),廣泛應(yīng)用于產(chǎn)品設(shè)計(jì)演示、機(jī)械運(yùn)動模擬、建筑可視化等多個(gè)領(lǐng)域。
    的頭像 發(fā)表于 05-19 15:11 ?683次閱讀
    數(shù)字孿生 × 爆炸動畫 × <b class='flag-5'>三維</b>拆解

    奧比中光助力創(chuàng)想三維登頂世界消費(fèi)級3D掃描儀市場

    Lite及Raptor Pro提供基于自研多核異構(gòu)三維重建芯片技術(shù)的軟硬件引擎,助力戰(zhàn)略合作伙伴創(chuàng)想三維登頂世界消費(fèi)級3D掃描儀市場。
    的頭像 發(fā)表于 04-11 11:38 ?1522次閱讀

    一種基于基礎(chǔ)模型對齊的自監(jiān)督三維空間理解方法

    三維空間理解是推動自動駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實(shí)現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語義占據(jù)預(yù)測 (Semantic Occupancy Prediction) 對三維場景進(jìn)行精準(zhǔn)的體素級建模。然而,當(dāng)前主流方法嚴(yán)重依賴大
    的頭像 發(fā)表于 03-18 15:01 ?972次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)模型對齊的自監(jiān)督<b class='flag-5'>三維</b>空間理解<b class='flag-5'>方法</b>