91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

如意 ? 來(lái)源:機(jī)器之心Pro ? 作者:機(jī)器之心Pro ? 2020-07-07 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于 AI 目標(biāo)檢測(cè)系統(tǒng)生成的對(duì)抗樣本可以使穿戴者面對(duì)攝像頭「隱身」。

由美國(guó)東北大學(xué)林雪研究組,MIT-IBM Watson AI Lab 和 MIT 聯(lián)合研發(fā)的這款基于對(duì)抗樣本設(shè)計(jì)的 T-shirt (adversarial T-shirt),讓大家對(duì)當(dāng)下深度神經(jīng)網(wǎng)絡(luò)的現(xiàn)實(shí)安全意義引發(fā)更深入的探討。目前該文章已經(jīng)被 ECCV 2020 會(huì)議收錄為 spotlight paper(焦點(diǎn)文章)。

在人臉識(shí)別和目標(biāo)檢測(cè)越來(lái)越普及的今天,如果說(shuō)有一件衣服能讓你在 AI 檢測(cè)系統(tǒng)中「消失無(wú)形」,請(qǐng)不要感到驚訝。

熟悉Adversarial Machine Learning(對(duì)抗性機(jī)器學(xué)習(xí))的朋友可能不會(huì)覺(jué)得陌生,早在 2013 年由 Christian Szegedy 等人就在論文 Intriguing properties of neural networks 中首次提出了 Adversarial Examples(對(duì)抗樣本)的概念。而下面這張將大熊貓變成長(zhǎng)臂猿的示例圖也多次出現(xiàn)在多種深度學(xué)習(xí)課程中。

很顯然,人眼一般無(wú)法感知到對(duì)抗樣本的存在,但是對(duì)于基于深度學(xué)習(xí)的 AI 系統(tǒng)而言,這些微小的擾動(dòng)卻是致命的。

隨著科研人員對(duì)神經(jīng)網(wǎng)絡(luò)的研究,針對(duì)神經(jīng)網(wǎng)絡(luò)的 Adversarial Attack(對(duì)抗攻擊)也越來(lái)越強(qiáng)大,然而大多數(shù)的研究還停留在數(shù)字領(lǐng)域?qū)用?。Jiajun Lu 等人也在 2017 年認(rèn)為:現(xiàn)實(shí)世界中不需要擔(dān)心對(duì)抗樣本(NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles)。

他們通過(guò)大量實(shí)驗(yàn)證明,單純地將在數(shù)字世界里生成的對(duì)抗樣本通過(guò)打印再通過(guò)相機(jī)的捕捉,是無(wú)法對(duì) AI 檢測(cè)系統(tǒng)造成影響的。這也證明了現(xiàn)實(shí)世界中的對(duì)抗樣本生成是較為困難的,主要原因歸于以下幾點(diǎn):

像素變化過(guò)于細(xì)微,無(wú)法通過(guò)打印機(jī)表現(xiàn)出來(lái):我們熟知的對(duì)抗樣本,通常對(duì)圖像修改的規(guī)模有一定的限制,例如限制修改像素的個(gè)數(shù),或總體像素修改大小。而打印的過(guò)程往往無(wú)法對(duì)極小的像素值的改變做出響應(yīng),這使得很多對(duì)于對(duì)抗樣本非常有用的信息通過(guò)打印機(jī)的打印損失掉了。

通過(guò)相機(jī)的捕捉會(huì)再次改變對(duì)抗樣本:這也很好理解,因?yàn)橄鄼C(jī)自身成像的原理,以及對(duì)目標(biāo)捕捉能力的限制,相機(jī)無(wú)法將數(shù)字領(lǐng)域通過(guò)打印得到的結(jié)果再次完美地還原回?cái)?shù)字領(lǐng)域。

環(huán)境和目標(biāo)本身發(fā)生變化:這一點(diǎn)是至關(guān)重要的。對(duì)抗樣本在生成階段可能只考慮了十分有限的環(huán)境及目標(biāo)的多樣性,從而該樣本在現(xiàn)實(shí)中效果會(huì)大大降低。

近年來(lái),Mahmood Sharif 等人(Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition.)首次在現(xiàn)實(shí)世界中,通過(guò)一個(gè)精心設(shè)計(jì)的眼鏡框,可以人臉檢測(cè)系統(tǒng)對(duì)佩戴者做出錯(cuò)誤的判斷。但這項(xiàng)研究對(duì)佩戴者的角度和離攝像頭的距離都有嚴(yán)格的要求。之后 Kevin Eykholt 等人(Robust Physical-World Attacks on Deep Learning Visual Classification)對(duì) stop sign(交通停止符號(hào))進(jìn)行了攻擊。通過(guò)給 stop sign 上面貼上生成的對(duì)抗樣本,可以使得 stop sign 被目標(biāo)檢測(cè)或分類系統(tǒng)識(shí)別成限速 80 的標(biāo)志!這也使得社會(huì)和媒體對(duì)神經(jīng)網(wǎng)絡(luò)的安全性引發(fā)了很大的探討。

然而,這些研究都還沒(méi)有觸及到柔性物體的對(duì)抗樣本生成??梢院苋菀椎叵胂蟮?,鏡框或者 stop sign 都是典型的剛性物體,不易發(fā)生形變且這個(gè)類別本身沒(méi)有很大的變化性,但是 T 恤不同,人類自身的姿態(tài),動(dòng)作都會(huì)影響它的形態(tài),這對(duì)攻擊目標(biāo)檢測(cè)系統(tǒng)的人類類別產(chǎn)生了很大的困擾。

最近的一些工作例如 Simen Thys 等人(Fooling automated surveillance cameras: adversarial patches to attack person detection)通過(guò)將對(duì)抗樣本打印到一個(gè)紙板上掛在人身前也可以成功在特定環(huán)境下攻擊目標(biāo)檢測(cè)器,但是卻沒(méi)有 T 恤上的圖案顯得自然且對(duì)對(duì)抗樣本的形變和運(yùn)動(dòng)中的目標(biāo)沒(méi)有進(jìn)行研究。

來(lái)自美國(guó)東北大學(xué),MIT-IBM Watson AI Lab 和 MIT 聯(lián)合研發(fā)的這款 Adversarial T-shirt 試圖解決上述問(wèn)題,并在對(duì)抗 YOLOV2 和 Faster R-CNN(兩種非常普及的目標(biāo)檢測(cè)系統(tǒng))中取得了較好的效果。通過(guò)采集實(shí)驗(yàn)者穿上這件 Adversarial T-shirt 進(jìn)行多個(gè)場(chǎng)景和姿態(tài)的視頻采集,在 YOLOV2 中,可以達(dá)到 57% 的攻擊成功率,相較而言,YOLOV2 對(duì)沒(méi)有穿 Adversarial T-shirt 的人類目標(biāo)的檢測(cè)成功率為 97%。

設(shè)計(jì)原理

從多個(gè)已有的成功的攻擊算法中得到啟發(fā),研究者們通過(guò)一種叫 EOT (Expectation over Transformation) 的算法,將可能發(fā)生在現(xiàn)實(shí)世界中的多種 Transformation(轉(zhuǎn)換)通過(guò)模擬和求期望來(lái)擬合現(xiàn)實(shí)。這些轉(zhuǎn)換一般包括:縮放、旋轉(zhuǎn)、模糊、光線變化和隨機(jī)噪聲等。利用 EOT,我們可以對(duì)剛性物體進(jìn)行對(duì)抗樣本的生成。

但是當(dāng)研究者們僅僅使用 EOT,將得到的對(duì)抗樣本打印到一件 T 恤上時(shí),僅僅只能達(dá)到 19% 的攻擊成功率。這其中的主要原因就是文章上述提到的,人類的姿態(tài)會(huì)使對(duì)抗樣本產(chǎn)生褶皺,而這種褶皺是無(wú)法通過(guò)已有的 EOT 進(jìn)行模擬的。而對(duì)抗樣本自身也是非常脆弱的,一旦部分信息丟失往往會(huì)導(dǎo)致整個(gè)樣本失去效力。

基于以上觀察,研究者們利用一種叫做 thin plate spline (TPS) 的變化來(lái)模擬衣服的褶皺規(guī)律。這種變化需要記錄一些 anchor points(錨點(diǎn))數(shù)據(jù)來(lái)擬合變化。于是研究者將一個(gè)棋盤(pán)格樣式的圖案打印到 T 恤上來(lái)記錄棋盤(pán)格中的每個(gè)方塊角的坐標(biāo)信息,如下圖所示:

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

這些錨點(diǎn)的坐標(biāo)可以通過(guò)特定的算法自動(dòng)得到無(wú)需手動(dòng)標(biāo)記。這樣一個(gè)人工構(gòu)建的 TPS 變化被加入了傳統(tǒng)的 EOT 算法。這使得生成的對(duì)抗樣本具備抗褶皺擾動(dòng)的能力。

除此之外,研究者們還針對(duì)光線和攝像頭可能引起的潛在變化利用一種色譜圖進(jìn)行的模擬,如下圖所示:(a)數(shù)字領(lǐng)域中的色譜圖;(b)該圖通過(guò)打印機(jī)打印到 T 恤只會(huì)在通過(guò)相機(jī)捕捉到的結(jié)果;(c)通過(guò)映射 a-b 學(xué)到的一種色彩變換。

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

基于學(xué)習(xí)出的色彩變化系統(tǒng),使得生成的對(duì)抗樣本能最大限度的接近現(xiàn)實(shí)。最終該方法的整體框架如下:

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

通過(guò)增強(qiáng)的 EOT 和顏色轉(zhuǎn)換系統(tǒng),最小化 YOLOV2 的檢測(cè)置信度,最終得到一個(gè)對(duì)抗樣本。

除此之外,研究者們也第一次嘗試了 ensemble attack (多模型攻擊)。利用一張對(duì)抗樣本同時(shí)攻擊兩個(gè)目標(biāo)檢測(cè)系統(tǒng) YOLOV2 和 Faster R-CNN。結(jié)果顯示不同于傳統(tǒng)的加權(quán)平均的攻擊方,利用魯棒優(yōu)化技術(shù)可以提高對(duì)兩個(gè)目標(biāo)檢測(cè)系統(tǒng)的平均攻擊成功率。

實(shí)驗(yàn)結(jié)果

首先,研究者們?cè)跀?shù)字領(lǐng)域做了基礎(chǔ)的比較試驗(yàn),結(jié)果發(fā)現(xiàn)相較于非剛性變化—仿射變換,TPS 變化可以將攻擊成功率在 YOLOV2 上從 48% 提升到 74%,在 Faster R-CNN 上由 34% 提升到 61%!這證明了對(duì)于柔性物體,加入 TPS 變化的必要性。

之后研究人員將這些對(duì)抗樣本打印到白色 T 恤上,讓穿戴者在不同場(chǎng)合以各種姿態(tài)移動(dòng)并對(duì)其錄制視頻。最后將采集到的所有視頻送入目標(biāo)檢測(cè)系統(tǒng)進(jìn)行檢測(cè),統(tǒng)計(jì)攻擊成功率。

如下面的動(dòng)圖所示:

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

最終,在現(xiàn)實(shí)世界中,該方法利用 TPS 生成的樣本對(duì)抗 YOLOV2 可以達(dá)到 57% 的攻擊成功率,相較而言,僅使用仿射變換只能達(dá)到 37% 攻擊成功率。

除此之外,研究者們還做了非常詳盡的 ablation study:針對(duì)不同場(chǎng)景,距離,角度,穿戴者姿勢(shì)進(jìn)行研究。

Adversarial T-shirt可讓你在AI目標(biāo)檢測(cè)系統(tǒng)中“消失無(wú)形”

結(jié)果顯示,提出的方法對(duì)距離的遠(yuǎn)近和角度變化較為敏感,對(duì)不同的穿戴者和背景環(huán)境變化表現(xiàn)出的差異不大。

關(guān)于 AI 安全的更多討論

生成對(duì)抗樣本其實(shí)和深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是同根同源的。通過(guò)大量樣本學(xué)習(xí)得到的深度神經(jīng)網(wǎng)絡(luò)幾乎是必然的存在大量的對(duì)抗樣本。就像無(wú)數(shù)從事 Adversarial Machine Learning(對(duì)抗性機(jī)器學(xué)習(xí))的研究者一樣,大家充分意識(shí)到了神經(jīng)網(wǎng)絡(luò)的脆弱性和易攻擊性。但是這并沒(méi)有阻礙我們對(duì)深度學(xué)習(xí)的進(jìn)一步研究和思考,因?yàn)檫@種特殊且奇妙的現(xiàn)象來(lái)源于神經(jīng)網(wǎng)絡(luò)本身,且形成原因至今沒(méi)有明確的定論。而如何構(gòu)建更加魯棒的神經(jīng)網(wǎng)絡(luò)也是目前該領(lǐng)域的 open issue。

該研究旨在通過(guò)指出這種特性,以及它有可能造成的社會(huì)潛在危害從而讓更多的人意識(shí)到神經(jīng)網(wǎng)絡(luò)的安全問(wèn)題,最終目的是幫助 AI 領(lǐng)域構(gòu)建更加魯棒的神經(jīng)網(wǎng)絡(luò)從而可以對(duì)這些對(duì)抗樣本不再如此敏感。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測(cè)系統(tǒng)
    +關(guān)注

    關(guān)注

    3

    文章

    1000

    瀏覽量

    45513
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40201

    瀏覽量

    301842
  • 隱身技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    10

    瀏覽量

    8080
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    YOLO5目標(biāo)檢測(cè)方案-基于米爾RK3576開(kāi)發(fā)板

    本文基于米爾MYD-LR3576開(kāi)發(fā)板,詳細(xì)記錄了如何利用500萬(wàn)像素USB攝像頭實(shí)現(xiàn)640×640分辨率的YOLO5s目標(biāo)檢測(cè),并將結(jié)果實(shí)時(shí)輸出至1080P屏幕的全流程。通過(guò)系統(tǒng)級(jí)的軟硬件協(xié)同優(yōu)化
    發(fā)表于 01-22 19:21

    AI功能(SC171開(kāi)發(fā)套件V3)2026版

    AI功能(SC171開(kāi)發(fā)套件V3)2026版 序列 課程名稱 視頻課程時(shí)長(zhǎng) 視頻課程鏈接 課件鏈接 工程源碼 1 人體目標(biāo)檢測(cè)(Yolov5)案例----基于SC171開(kāi)發(fā)套件V3 8分19秒
    發(fā)表于 01-15 11:18

    使用ROHM Solist-AI技術(shù)讓你在MCU上玩轉(zhuǎn)AI

    今天,人工智能 (AI) 正在以超乎想象的速度迅猛發(fā)展,在這一大背景下,有兩大趨勢(shì)特別值得關(guān)注:一個(gè)趨勢(shì)是近兩年基于大模型的生成式AI的狂飆突進(jìn),向我們展示著AI的無(wú)限可能;另一趨勢(shì)則是AI
    的頭像 發(fā)表于 12-24 14:26 ?1210次閱讀
    使用ROHM Solist-<b class='flag-5'>AI</b>技術(shù)<b class='flag-5'>讓你在</b>MCU上玩轉(zhuǎn)<b class='flag-5'>AI</b>

    基于迅為RK3588開(kāi)發(fā)板實(shí)現(xiàn)高性能機(jī)器狗主控解決方案-?AI能力實(shí)戰(zhàn):YOLOv5目標(biāo)檢測(cè)例程

    基于迅為RK3588開(kāi)發(fā)板實(shí)現(xiàn)高性能機(jī)器狗主控解決方案-?AI能力實(shí)戰(zhàn):YOLOv5目標(biāo)檢測(cè)例程
    的頭像 發(fā)表于 11-28 11:32 ?1562次閱讀
    基于迅為RK3588開(kāi)發(fā)板實(shí)現(xiàn)高性能機(jī)器狗主控解決方案-?<b class='flag-5'>AI</b>能力實(shí)戰(zhàn):YOLOv5<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>例程

    VS680 HDMI AI分析解決方案 #目標(biāo)識(shí)別 #視頻翻譯 #AI #芯片

    AI
    深蕾半導(dǎo)體
    發(fā)布于 :2025年11月12日 10:29:33

    【CPKCOR-RA8D1】關(guān)于AI人臉檢測(cè)移植遇到的一些問(wèn)題

    這篇經(jīng)驗(yàn)分享記錄了我在把官方的人臉檢測(cè)功能遷移并集成到官方屏幕顯示項(xiàng)目中時(shí)遇到的問(wèn)題、排查思路與最終解決方案。目標(biāo)硬件是 CPKCOR-RA8D1B(RA8D1 MCU)核心板
    發(fā)表于 10-31 13:39

    【CPKCOR-RA8D1】AI人臉檢測(cè)

    ; #include \"app_config.h\" /* AI 檢測(cè)結(jié)果結(jié)構(gòu)體 */ typedef struct ai_detection_point_t { signed
    發(fā)表于 10-29 17:59

    工業(yè)視覺(jué)網(wǎng)關(guān):RK3576賦能多路檢測(cè)與邊緣AI

    ,將 “多路檢測(cè) + 硬編硬解 + 邊緣AI + MES集成” 融為一體:在保障畫(huà)質(zhì)與時(shí)延的同時(shí),顯著降低系統(tǒng)復(fù)雜度與總體成本,并以數(shù)據(jù)閉環(huán)驅(qū)動(dòng)良率持續(xù)提升。
    發(fā)表于 10-16 17:56

    AI賦能6G與衛(wèi)星通信:開(kāi)啟智能天網(wǎng)新時(shí)代

    展示的AI網(wǎng)絡(luò)優(yōu)化系統(tǒng),AI成功預(yù)測(cè)了大型活動(dòng)的流量高峰,提前30分鐘動(dòng)態(tài)調(diào)整基站資源,確保了100萬(wàn)用戶同時(shí)在線的流暢體驗(yàn),網(wǎng)絡(luò)延遲保持在1毫秒以下。 這種網(wǎng)絡(luò)優(yōu)化能力,使6G網(wǎng)絡(luò)
    發(fā)表于 10-11 16:01

    在K230,如何使用AI Demo的object_detect_yolov8n,YOLOV8多目標(biāo)檢測(cè)模型?

    在K230的AI開(kāi)發(fā)教程文檔,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉(cāng)庫(kù)里可以看到源碼 我想請(qǐng)問(wèn)各位大佬,如何使用這個(gè)程序?如何更改程序,替換為我自己的數(shù)據(jù)集和訓(xùn)練后的模型?
    發(fā)表于 08-07 06:48

    性能飛躍 慧視8核+32T算力平臺(tái)讓目標(biāo)檢測(cè)幀率提升20倍

    RK3588平臺(tái)6.0TOPS的算力在檢測(cè)識(shí)別領(lǐng)域已經(jīng)能滿足絕大多數(shù)場(chǎng)景的要求,但在少數(shù)應(yīng)用場(chǎng)景,需要更高算力,以實(shí)現(xiàn)更快、更穩(wěn)定、更精準(zhǔn)的檢測(cè)效果。慧視Viztra-T32AI算力
    的頭像 發(fā)表于 06-10 17:55 ?1509次閱讀
    性能飛躍 慧視8核+32<b class='flag-5'>T</b>算力平臺(tái)讓<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>幀率提升20倍

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一個(gè)關(guān)鍵任務(wù),它不僅需要識(shí)別圖像存在哪些對(duì)象,還需要定位這些對(duì)象的位置。具體來(lái)說(shuō),目標(biāo)檢測(cè)算法會(huì)輸出每個(gè)檢測(cè)到的對(duì)
    發(fā)表于 06-06 14:43

    《DNESP32S3使用指南-IDF版_V1.6》第六十章 貓臉檢測(cè)實(shí)驗(yàn)

    \"); /* 此處是在圖像繪畫(huà)檢測(cè)效果 */ draw_detection_result((uint16_t *)face_ai_frameI->buf
    發(fā)表于 04-01 09:28

    軒轅智駕紅外目標(biāo)檢測(cè)算法在汽車領(lǐng)域的應(yīng)用

    AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測(cè)算法取得了重大突破,其中紅外目標(biāo)檢測(cè)算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性
    的頭像 發(fā)表于 03-27 15:55 ?1002次閱讀

    《DNESP32S3使用指南-IDF版_V1.6》第五十八章 人臉檢測(cè)實(shí)驗(yàn)

    第五十八章 人臉檢測(cè)實(shí)驗(yàn) 人臉檢測(cè)是一種基于人工智能(AI)的計(jì)算機(jī)技術(shù),用于在數(shù)字圖像查找和識(shí)別人臉。人臉檢測(cè)技術(shù)可應(yīng)用于各個(gè)領(lǐng)域,包括
    發(fā)表于 03-24 09:34