91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通用視覺GPT時(shí)刻來臨?智源推出通用分割模型SegGPT

3D視覺工坊 ? 來源:機(jī)器之心 ? 2023-04-09 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT 引發(fā)了語言大模型狂潮,AI 另一個(gè)重大領(lǐng)域 —— 視覺 —— 的 GPT 時(shí)刻何時(shí)到來?

前兩天,機(jī)器之心介紹了Meta 最新研究成果Segment Anything Model (SAM)。該研究引起了AI社區(qū)廣泛討論。

而據(jù)我們所知,幾乎同一時(shí)間,智源研究院視覺團(tuán)隊(duì)也推出通用分割模型 SegGPT(Segment Everything In Context)—— 利用視覺提示(prompt)完成任意分割任務(wù)的通用視覺模型。

a611a0e8-d63a-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/abs/2304.03284

代碼地址:https://github.com/baaivision/Painter

Demo:https://huggingface.co/spaces/BAAI/SegGPT

SegGPT 與 Meta AI 圖像分割基礎(chǔ)模型 SAM 同時(shí)發(fā)布,兩者的差異在于 :

SegGPT “一通百通”:給出一個(gè)或幾個(gè)示例圖像和意圖掩碼,模型就能 get 用戶意圖,“有樣學(xué)樣” 地完成類似分割任務(wù)。用戶在畫面上標(biāo)注識別一類物體,即可批量化識別分割同類物體,無論是在當(dāng)前畫面還是其他畫面或視頻環(huán)境中。

SAM “一觸即通”:通過一個(gè)點(diǎn)或邊界框,在待預(yù)測圖片上給出交互提示,識別分割畫面上的指定物體。

無論是 “一觸即通” 還是 “一通百通”,都意味著視覺模型已經(jīng) “理解” 了圖像結(jié)構(gòu)。SAM 精細(xì)標(biāo)注能力與 SegGPT 的通用分割標(biāo)注能力相結(jié)合,能把任意圖像從像素陣列解析為視覺結(jié)構(gòu)單元,像生物視覺那樣理解任意場景,通用視覺 GPT 曙光乍現(xiàn)。

SegGPT 是智源通用視覺模型 Painter(CVPR 2023)的衍生模型,針對分割一切物體的目標(biāo)做出優(yōu)化。SegGPT 訓(xùn)練完成后無需微調(diào),只需提供示例即可自動推理并完成對應(yīng)分割任務(wù),包括圖像和視頻中的實(shí)例、類別、零部件、輪廓、文本、人臉等等。

該模型具有以下優(yōu)勢能力:

1. 通用能力:SegGPT 具有上下文推理能力,模型能夠根據(jù)提供的分割示例(prompt),對預(yù)測進(jìn)行自適應(yīng)的調(diào)整,實(shí)現(xiàn)對 “everything” 的分割,包括實(shí)例、類別、零部件、輪廓、文本、人臉、醫(yī)學(xué)圖像、遙感圖像等。

2. 靈活推理能力:支持任意數(shù)量的 prompt;支持針對特定場景的 tuned prompt;可以用不同顏色的 mask 表示不同目標(biāo),實(shí)現(xiàn)并行分割推理。

3. 自動視頻分割和追蹤能力:以第一幀圖像和對應(yīng)的物體掩碼作為上下文示例,SegGPT 能夠自動對后續(xù)視頻幀進(jìn)行分割,并且可以用掩碼的顏色作為物體的 ID,實(shí)現(xiàn)自動追蹤。

案例展示

1. 作者在廣泛的任務(wù)上對 SegGPT 進(jìn)行了評估,包括少樣本語義分割、視頻對象分割、語義分割和全景分割。下圖中具體展示了 SegGPT 在實(shí)例、類別、零部件、輪廓、文本和任意形狀物體上的分割結(jié)果。

a633f49a-d63a-11ed-bfe3-dac502259ad0.png

a699ce8c-d63a-11ed-bfe3-dac502259ad0.png

2. 標(biāo)注出一個(gè)畫面中的彩虹(上圖),可批量化分割其他畫面中的彩虹(下圖)

a6c4b84a-d63a-11ed-bfe3-dac502259ad0.gif

3. 用畫筆大致圈出行星環(huán)帶(上圖),在預(yù)測圖中準(zhǔn)確輸出目標(biāo)圖像中的行星環(huán)帶(下圖)。

a70d0168-d63a-11ed-bfe3-dac502259ad0.png

a74d39f4-d63a-11ed-bfe3-dac502259ad0.png

4. SegGPT 能夠根據(jù)用戶提供的宇航員頭盔掩碼這一上下文(左圖),在新的圖片中預(yù)測出對應(yīng)的宇航員頭盔區(qū)域(右圖)。

a774d70c-d63a-11ed-bfe3-dac502259ad0.png

訓(xùn)練方法

SegGPT 將不同的分割任務(wù)統(tǒng)一到一個(gè)通用的上下文學(xué)習(xí)框架中,通過將各類分割數(shù)據(jù)轉(zhuǎn)換為相同格式的圖像來統(tǒng)一各式各樣的數(shù)據(jù)形式。

具體來說,SegGPT 的訓(xùn)練被定義為一個(gè)上下文著色問題,對于每個(gè)數(shù)據(jù)樣本都有隨機(jī)的顏色映射。目標(biāo)是根據(jù)上下文完成各種任務(wù),而不是依賴于特定的顏色。訓(xùn)練后,SegGPT 可以通過上下文推理在圖像或視頻中執(zhí)行任意分割任務(wù),例如實(shí)例、類別、零部件、輪廓、文本等。

a7ad7cce-d63a-11ed-bfe3-dac502259ad0.png

Test-time techniques

如何通過 test-time techniques 解鎖各種能力是通用模型的一大亮點(diǎn)。SegGPT 論文中提出了多個(gè)技術(shù)來解鎖和增強(qiáng)各類分割能力,比如下圖所示的不同的 context ensemble 方法。所提出的 Feature Ensemble 方法可以支持任意數(shù)量的 prompt 示例,實(shí)現(xiàn)豐儉由人的推理效果。

a7c3990a-d63a-11ed-bfe3-dac502259ad0.png

此外,SegGPT 還支持對特定場景優(yōu)化專用 prompt 提示。對于針對性的使用場景,SegGPT 可以通過 prompt tuning 得到對應(yīng) prompt,無需更新模型參數(shù)來適用于特定場景。比如,針對某一數(shù)據(jù)集自動構(gòu)建一個(gè)對應(yīng)的 prompt,或者針對一個(gè)房間來構(gòu)建專用 prompt。如下圖所示:

a7e70282-d63a-11ed-bfe3-dac502259ad0.png

結(jié)果展示

模型只需少數(shù) prompt 示例,在 COCO 和 PASCAL 數(shù)據(jù)集上取得最優(yōu)性能。SegGPT 顯示出強(qiáng)大的零樣本場景遷移能力,比如在少樣本語義分割測試集 FSS-1000 上,在無需訓(xùn)練的情況下取得 state-of-the-art 性能。

a813d762-d63a-11ed-bfe3-dac502259ad0.png

a82daffc-d63a-11ed-bfe3-dac502259ad0.png

無需視頻訓(xùn)練數(shù)據(jù),SegGPT 可直接進(jìn)行視頻物體分割,并取得和針對視頻物體分割專門優(yōu)化的模型相當(dāng)?shù)男阅堋?/p>

a8585856-d63a-11ed-bfe3-dac502259ad0.png

以下是基于 tuned prompt 在語義分割和實(shí)例分割任務(wù)上的效果展示:

a8836b54-d63a-11ed-bfe3-dac502259ad0.png

a8b520a4-d63a-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39707

    瀏覽量

    301312
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16868

原文標(biāo)題:通用視覺GPT時(shí)刻來臨?智源推出通用分割模型SegGPT

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼在發(fā)布會上直言:“這不僅是模型的升級,更是通往通用人工智能(AGI)的關(guān)鍵里程碑。” ? ? GPT-5:集成模型,
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    上海交大發(fā)布國產(chǎn)光學(xué)大模型Optics GPT

    電子發(fā)燒友網(wǎng)綜合報(bào)道 1月25日,上海交通大學(xué)正式推出光學(xué)領(lǐng)域垂直大語言模型——Optics GPT(光學(xué)大模型),這是一款完全自主研發(fā)的國產(chǎn)模型
    的頭像 發(fā)表于 01-26 09:59 ?1099次閱讀
    上海交大發(fā)布國產(chǎn)光學(xué)大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬張圖像上訓(xùn)練了超過10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對SAM官方開源倉庫的模型和算法進(jìn)行移植
    的頭像 發(fā)表于 01-12 16:17 ?298次閱讀
    SAM(<b class='flag-5'>通用</b>圖像<b class='flag-5'>分割</b>基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測發(fā)現(xiàn)OpenAI新發(fā)布的GPT-5.1大
    的頭像 發(fā)表于 11-13 15:49 ?701次閱讀

    成都匯陽投資關(guān)于大模型白熱化,應(yīng)用加速分化

    ? ? ? ?大模型: 加速多模態(tài)研發(fā) ,閉模型逐步逆襲開源 多模態(tài)技術(shù)路線尚未收斂 , 國內(nèi)外大模型廠商持續(xù)刷新 SOAT。 圖片領(lǐng)域 ,GPT
    的頭像 發(fā)表于 09-09 09:30 ?912次閱讀

    【RA4M2-SENSOR】3、使用GPT定時(shí)器-PWM輸出

    GPT介紹 通用 PWM 定時(shí)器(GPT,General PWM Timer)是 RA MCU 的其中一種 32/16 位的定時(shí)器外設(shè)。 在 GPT 當(dāng)中,可分為
    發(fā)表于 09-01 15:20

    商湯科技多模態(tài)通用智能戰(zhàn)略思考

    時(shí)間是最好的試金石,AI領(lǐng)域尤其如此。當(dāng)行業(yè)熱議大模型走向時(shí),商湯早已錨定“多模態(tài)通用智能”——這是我們以深厚研究積累和實(shí)踐反復(fù)驗(yàn)證的可行路徑。
    的頭像 發(fā)表于 08-14 09:33 ?1178次閱讀

    晶振8m和24m通用

    晶振8MHz和24MHz一般情況下不通用,這是由它們在電路中的作用以及電路對頻率的要求決定的
    的頭像 發(fā)表于 07-22 15:57 ?1434次閱讀
    無<b class='flag-5'>源</b>晶振8m和24m<b class='flag-5'>通用</b>嗎

    圖像信號分析處理卡設(shè)計(jì)原理圖:536-基于FMC接口的XCZU7EV 通用PCIe卡 視覺處理卡 工業(yè)控制卡

    XCZU7EV 通用PCIe卡 , 圖像信號分析處理卡 , 視覺處理卡 , 工業(yè)控制卡 , 存儲擴(kuò)展卡
    的頭像 發(fā)表于 07-08 10:47 ?1256次閱讀
    圖像信號分析處理卡設(shè)計(jì)原理圖:536-基于FMC接口的XCZU7EV <b class='flag-5'>通用</b>PCIe卡 <b class='flag-5'>視覺</b>處理卡 工業(yè)控制卡

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點(diǎn)原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割的項(xiàng)目設(shè)計(jì)。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    基于FMC接口的XCZU7EV?通用PCIe卡

    基于通用PCIe ,實(shí)現(xiàn)FMC的數(shù)據(jù)接口和主控計(jì)算,廣泛應(yīng)用于工業(yè)控制,檢測,視覺處理。支持工業(yè)級溫度工作。
    的頭像 發(fā)表于 05-07 09:10 ?927次閱讀
    基于FMC接口的XCZU7EV?<b class='flag-5'>通用</b>PCIe卡

    ?VLM(視覺語言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :處理文本輸入/輸出,如GPT、BE
    的頭像 發(fā)表于 03-17 15:32 ?8796次閱讀
    ?VLM(<b class='flag-5'>視覺</b>語言<b class='flag-5'>模型</b>)?詳細(xì)解析

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)模化數(shù)據(jù)平臺

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)?;瘮?shù)據(jù)平臺 隨著人工智能在語言處理和計(jì)算機(jī)視覺領(lǐng)域取得突破,機(jī)器人技術(shù)仍面臨現(xiàn)實(shí)場景泛化能力的挑戰(zhàn)。這一困境的核心在于高質(zhì)量機(jī)器人
    的頭像 發(fā)表于 03-12 11:42 ?1976次閱讀
    AgiBot World Colosseo:構(gòu)建<b class='flag-5'>通用</b>機(jī)器人智能的規(guī)?;瘮?shù)據(jù)平臺

    BlackBerry QNX推出通用嵌入式開發(fā)平臺

    BlackBerry有限公司(紐交所代碼:BB;多倫多證券交易所代碼:BB)旗下部門QNX今日宣布推出QNX 通用嵌入式開發(fā)平臺(General Embedded Development
    的頭像 發(fā)表于 03-11 16:04 ?1184次閱讀

    ??低?b class='flag-5'>推出視覺模型系列攝像機(jī)

    依托??涤^瀾大模型技術(shù)體系,海康威視將大模型能力直接部署至端側(cè),推出一系列視覺模型攝像機(jī)。
    的頭像 發(fā)表于 03-05 14:06 ?1521次閱讀