91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么AI感知和人類的感知很難比較

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-10-10 14:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

正文字?jǐn)?shù):3268 閱讀時(shí)長:8分鐘

這篇文章是我們對人工智能研究論文的評論的一部分,這是一系列探索人工智能最新發(fā)現(xiàn)的文章。

人類層面的表現(xiàn)。人類層面的準(zhǔn)確性。無論是面部識(shí)別、物體檢測還是問題回答,這些術(shù)語都是你能從開發(fā)人工智能系統(tǒng)的公司經(jīng)常聽到的。值得稱道的是,近年來出現(xiàn)了許多由人工智能算法驅(qū)動(dòng)的偉大產(chǎn)品,這主要?dú)w功于機(jī)器學(xué)習(xí)深度學(xué)習(xí)的進(jìn)步。 但是這些比較中的許多只考慮了在有限的數(shù)據(jù)集上測試深度學(xué)習(xí)算法的最終結(jié)果。這種方法會(huì)對人工智能系統(tǒng)產(chǎn)生錯(cuò)誤的預(yù)期,并在它們被賦予關(guān)鍵任務(wù)時(shí)產(chǎn)生危險(xiǎn)的結(jié)果。

在最近的一項(xiàng)研究中,一組來自德國不同組織和大學(xué)的研究人員強(qiáng)調(diào)了評估深度學(xué)習(xí)在處理視覺數(shù)據(jù)方面所面臨的挑戰(zhàn)。在他們題為《比較人類和機(jī)器感知的臭名昭著的困難》的論文中,研究人員強(qiáng)調(diào)了目前比較深層神經(jīng)網(wǎng)絡(luò)和人類視覺系統(tǒng)的方法中存在的問題。

在他們的研究中,這位科學(xué)家進(jìn)行了一系列的實(shí)驗(yàn),深入挖掘深度學(xué)習(xí)結(jié)果的表層,并將其與人類視覺系統(tǒng)的工作進(jìn)行了比較。他們的發(fā)現(xiàn)提醒我們,在將人工智能與人類進(jìn)行比較時(shí),我們必須保持謹(jǐn)慎,即使它在相同的任務(wù)上表現(xiàn)出相同或更好的表現(xiàn)。 人類和計(jì)算機(jī)視覺的復(fù)雜性 在似乎無休止的重建人類感知能力的探索中,目前為止,目前為止,深度學(xué)習(xí)中的計(jì)算機(jī)視覺領(lǐng)域取得了最有利的結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種常用于計(jì)算機(jī)視覺深度學(xué)習(xí)算法的體系結(jié)構(gòu),它可以完成傳統(tǒng)軟件難以完成的任務(wù)。

然而,將神經(jīng)網(wǎng)絡(luò)與人類的感知能力進(jìn)行比較仍然是一個(gè)挑戰(zhàn)。這在一定程度上是因?yàn)槲覀儗θ祟惖囊曈X系統(tǒng)和大腦還有很多東西要學(xué)習(xí)的地方。深度學(xué)習(xí)系統(tǒng)的復(fù)雜工作方式也使問題更加復(fù)雜。深層神經(jīng)網(wǎng)絡(luò)以非常復(fù)雜的方式工作,而這些方式往往會(huì)使它們自己的創(chuàng)造者感到困惑。 近年來,一個(gè)研究機(jī)構(gòu)試圖評估神經(jīng)網(wǎng)絡(luò)的內(nèi)部工作原理及其在處理現(xiàn)實(shí)世界中情況的魯棒性。德國研究人員在他們的論文中寫道:“盡管進(jìn)行了大量的研究,但比較人類和機(jī)器的感知并不簡單?!薄? 在科學(xué)家們的研究中,它們重點(diǎn)集中在三個(gè)領(lǐng)域來測量人類和深度神經(jīng)網(wǎng)絡(luò)如何處理視覺數(shù)據(jù)。

神經(jīng)網(wǎng)絡(luò)如何感知輪廓? 第一個(gè)測試涉及輪廓檢測。在這個(gè)實(shí)驗(yàn)中,人類和人工智能參與者都必須說明出一幅圖像是否包含封閉輪廓線。..這里的目標(biāo)是了解深度學(xué)習(xí)算法是否能夠?qū)W習(xí)閉合和開放形狀的概念,以及它們是否能夠在各種情況下檢測到它們。

你能分辨出上面哪個(gè)圖像包含一個(gè)閉合的形狀嗎? 對人類來說,一個(gè)封閉的輪廓兩側(cè)有許多開放的輪廓,這在視覺上是非常突出的。相比之下,探測封閉的等高線對 DNNs 來說可能比較困難,因?yàn)樗鼈兛赡苄枰h(yuǎn)距離的等高線整合”研究人員寫道。 在實(shí)驗(yàn)中,科學(xué)家們使用了ResNet-50,一種由微軟人工智能研究人員開發(fā)的流行卷積神經(jīng)網(wǎng)絡(luò)。他們使用遷移學(xué)習(xí)在 14000 張閉合和開放輪廓圖像上調(diào)整人工智能模型。 然后,他們在各種類似訓(xùn)練數(shù)據(jù)的例子上測試人工智能,并逐漸向其他方向轉(zhuǎn)移。最初的發(fā)現(xiàn)表明,一個(gè)訓(xùn)練有素的神經(jīng)網(wǎng)絡(luò)似乎掌握了封閉輪廓的概念。盡管該網(wǎng)絡(luò)是在只包含有直線形狀的數(shù)據(jù)集上訓(xùn)練的,但它也可以在曲線上表現(xiàn)良好。 科學(xué)家們寫道:“這些結(jié)果表明,我們的模型確實(shí)學(xué)習(xí)了開放和閉合輪廓的概念,并執(zhí)行了類似于人類的輪廓整合過程?!?

ResNet神經(jīng)網(wǎng)絡(luò)能夠檢測出各種開放的和封閉的輪廓圖像,盡管只訓(xùn)練了直線樣本的訓(xùn)練。 然而,進(jìn)一步的研究表明,其他不影響人的行為的變化降低了人工智能模型結(jié)果的準(zhǔn)確性。例如,改變線條的顏色和寬度會(huì)導(dǎo)致深度學(xué)習(xí)模型的精度突然下降。當(dāng)形狀變大到一定尺寸時(shí),模型似乎也很難檢測到形狀。

當(dāng)看到包含不同顏色和厚度的線條的圖像,以及形狀大于訓(xùn)練集的圖像時(shí),ResNet-50 神經(jīng)網(wǎng)絡(luò)就會(huì)掙扎。 神經(jīng)網(wǎng)絡(luò)對對抗干擾也非常敏感,精心設(shè)計(jì)的變化是肉眼看不到,但會(huì)破壞機(jī)器學(xué)習(xí)系統(tǒng)的行為。

右邊的圖像經(jīng)過了對抗性的干擾,也就是人類察覺不到的噪聲。對于人眼來說,這兩個(gè)圖像是相同的。但是對于神經(jīng)網(wǎng)絡(luò)來說,它們是不同的圖像。 為了進(jìn)一步研究人工智能的決策過程,科學(xué)家們使用了特征包網(wǎng)絡(luò)(bag-of - feature network),這是一種試圖定位有助于深度學(xué)習(xí)模型決策的數(shù)據(jù)位的技術(shù)。研究人員發(fā)現(xiàn),分析證明了“確實(shí)存在一些局部特征,比如端點(diǎn)與短邊的結(jié)合,這些特征通常可以給出正確的類標(biāo)簽?!薄?機(jī)器學(xué)習(xí)能推理圖像嗎? 第二個(gè)實(shí)驗(yàn)測試了深度學(xué)習(xí)算法在抽象視覺推理中的能力。實(shí)驗(yàn)所用的數(shù)據(jù)是基于綜合視覺推理測試(SVRT),在這個(gè)測試中,人工智能必須回答需要理解圖片中不同形狀之間關(guān)系的問題。測試包括相同-不同的任務(wù)(例如,圖片中的兩個(gè)形狀是否相同?)以及空間任務(wù)(例如,較小的形狀是否位于較大形狀的中心?)。人類的觀察者很容易解決這些問題。

SVRT 挑戰(zhàn)要求參與的 AI 解決相同-不同和空間的任務(wù)。 在他們的實(shí)驗(yàn)中,研究人員使用ResNet-50 測試了它在不同大小的訓(xùn)練數(shù)據(jù)集上的表現(xiàn)。結(jié)果表明,在28000個(gè)樣本上進(jìn)行微調(diào)優(yōu)化的預(yù)訓(xùn)練模型在相同的不同任務(wù)和空間任務(wù)上都表現(xiàn)良好。(之前的實(shí)驗(yàn)將一個(gè)非常小的神經(jīng)網(wǎng)絡(luò)訓(xùn)練成一百萬張圖像。)隨著研究人員減少訓(xùn)練樣本的數(shù)量,人工智能的性能下降,但是在相同的不同任務(wù)中下降的速度更快。

“同-異任務(wù)比空間推理任務(wù)需要更多的訓(xùn)練樣本”,研究人員寫道,并補(bǔ)充道,“這不能作為前饋神經(jīng)網(wǎng)絡(luò)和人類視覺系統(tǒng)之間存在系統(tǒng)性差異的證據(jù)?!? 研究人員指出,人類的視覺系統(tǒng)天生就預(yù)先訓(xùn)練過大量抽象的視覺推理任務(wù)。這使得在低數(shù)據(jù)的情況下測試深度學(xué)習(xí)模型是不公平的,而且?guī)缀醪豢赡艿贸鲫P(guān)于人類和人工智能的內(nèi)部信息處理差異的可靠結(jié)論。 研究人員寫道:“很有可能,對這兩種任務(wù)從零開始訓(xùn)練的人類視覺系統(tǒng),在樣本效率方面表現(xiàn)出與 ResNet-50 類似的差異?!?。 測量深度學(xué)習(xí)的認(rèn)知差距 識(shí)別差距是視覺系統(tǒng)中最有趣的測試之一??紤]以下圖像,在不向下滾動(dòng)的前提下,你能告訴我它是什么嗎?

下面是同一圖像的縮小視圖。毫無疑問這是只貓。如果我給你看圖像的另一部分(也許是耳朵)的特寫鏡頭,你可能有更大的機(jī)會(huì)預(yù)測圖像中的內(nèi)容。我們?nèi)祟愋枰吹揭欢〝?shù)量的整體形狀和圖案才能識(shí)別圖像中的物體。放大得越多,刪除的特征越多,就越難區(qū)分圖像中的內(nèi)容。

根據(jù)它們所包含的特征,貓圖像不同部分的特寫鏡頭會(huì)對我們的感知產(chǎn)生不同的影響。 深度學(xué)習(xí)系統(tǒng)也以特征為基礎(chǔ),但它們的工作方式更為微妙。神經(jīng)網(wǎng)絡(luò)有時(shí)會(huì)發(fā)現(xiàn)人眼看不到的微小特征,但即使在非常近距離放大時(shí)也能檢測到。 在最后的實(shí)驗(yàn)中,研究人員試圖通過逐漸放大圖像來測量深度神經(jīng)網(wǎng)絡(luò)的識(shí)別差距,直到人工智能模型的精度開始大幅下降。 此前的實(shí)驗(yàn)表明,人的圖像識(shí)別缺口與深度神經(jīng)網(wǎng)絡(luò)存在很大的差異。但在他們的論文中,研究人員指出,之前大多數(shù)關(guān)于神經(jīng)網(wǎng)絡(luò)識(shí)別缺口的測試都是基于人類選擇的圖像補(bǔ)丁。這些斑塊有利于人類的視覺系統(tǒng)。 當(dāng)他們在“機(jī)器選擇”的補(bǔ)丁上測試他們的深度學(xué)習(xí)模型時(shí),研究人員得到的結(jié)果顯示人類和人工智能有著相似的差距。

識(shí)別間隙測試評估放大圖像如何影響人工智能的精度 研究人員寫道:“這些結(jié)果凸顯了在完全相同的基礎(chǔ)上測試人類和機(jī)器的重要性,以及在實(shí)驗(yàn)設(shè)計(jì)中避免人類偏見的重要性?!薄H撕蜋C(jī)器之間的所有條件、指令和程序都應(yīng)該盡可能接近,以確保所有觀察到的差異都是由于內(nèi)在不同的決策策略,而不是由于測試程序的差異。” 縮小人工智能與人類智能之間的差距 隨著我們的人工智能系統(tǒng)變得越來越復(fù)雜,我們將不得不開發(fā)更復(fù)雜的方法來測試它們。該領(lǐng)域先前的研究表明,許多用于測量計(jì)算機(jī)視覺系統(tǒng)精度的流行基準(zhǔn)是誤導(dǎo)性的。德國研究人員的這項(xiàng)工作是許多嘗試測量人工智能和更好地量化人工智能和人類智能之間的區(qū)別的努力之一。他們得出的結(jié)論可以為未來的人工智能研究提供方向。

研究人員寫道:“在人類和機(jī)器的比較研究中,最主要的挑戰(zhàn)似乎是人類內(nèi)部強(qiáng)烈的解釋偏見。”?!斑m當(dāng)?shù)姆治龉ぞ吆蛷V泛的交叉檢查(如網(wǎng)絡(luò)架構(gòu)的變化、實(shí)驗(yàn)程序的校準(zhǔn)、泛化測試、對抗性例子和受限網(wǎng)絡(luò)的測試)有助于對發(fā)現(xiàn)的解釋合理化,并將這種內(nèi)部偏見放到正確的角度??偠灾?,在比較人類和機(jī)器的感知時(shí),必須注意不要強(qiáng)加我們?nèi)祟惖南到y(tǒng)性偏見。”

原文標(biāo)題:為什么AI感知與人類感知很難直接比較?

文章出處:【微信公眾號(hào):LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40007

    瀏覽量

    301665
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50129

    瀏覽量

    265710

原文標(biāo)題:為什么AI感知與人類感知很難直接比較?

文章出處:【微信號(hào):livevideostack,微信公眾號(hào):LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    論馬斯克的預(yù)言:AI使人類邊緣化

    當(dāng)?shù)貢r(shí)間3月11日,在“Abundance Summit”科技峰會(huì)上,馬斯克談及AI進(jìn)展時(shí)表示,AI已經(jīng)進(jìn)入自我改進(jìn)階段,在超高量級AI面前,人類終將走向邊緣化。以下是對這一預(yù)言的相關(guān)
    發(fā)表于 03-14 05:27

    開啟無限心智,為AI時(shí)代鑄就智能感知系統(tǒng)

    正如當(dāng)年蒸汽機(jī)“徹底擺脫對水力的依賴”,鋼鐵造就了摩天大樓和超級城市一樣,AI智能體正在擺脫對人類感官的依賴,逐漸賦予機(jī)器人靈魂。 智能機(jī)器人正在依靠各類傳感器自主感知周圍的世界,實(shí)現(xiàn)具身智能的形態(tài)。
    的頭像 發(fā)表于 01-22 14:45 ?580次閱讀
    開啟無限心智,為<b class='flag-5'>AI</b>時(shí)代鑄就智能<b class='flag-5'>感知</b>系統(tǒng)

    歐菲光與廣和通聯(lián)合首發(fā)ToF+雙目感知定位模塊

    11月,歐菲光與廣和通共研共創(chuàng),首發(fā)ToF+雙目感知定位模塊,即將批量交付,將機(jī)器視覺感知與端側(cè)AI模型進(jìn)行融合,實(shí)現(xiàn)新一代智能割草機(jī)在深度估算與定位感知性能的全面躍升,為其智能化升級
    的頭像 發(fā)表于 11-07 15:43 ?523次閱讀

    2025瑞聲科技感知技術(shù)峰會(huì)成功舉辦

    2025年10月28日,「想象例外」AAC感知技術(shù)峰會(huì)在西塘良壤酒店成功舉辦。本次峰會(huì)以“感知智能,場景共生”為主題,首次系統(tǒng)性提出了“AI原生體驗(yàn)”的感知技術(shù)理念,完整呈現(xiàn)了AAC瑞
    的頭像 發(fā)表于 11-03 09:13 ?609次閱讀

    安富利解析智能駕駛中的感知與決策技術(shù)

    當(dāng)汽車開始像人類一樣感知世界、做出決策,一場由AI驅(qū)動(dòng)的交通革命已悄然發(fā)生。
    的頭像 發(fā)表于 10-31 10:37 ?886次閱讀

    思嵐科技推出新一代全集成AI空間感知系統(tǒng)Aurora S

    我們非常榮幸地通知大家:思嵐新一代全集成AI空間感知系統(tǒng)——Aurora S正式發(fā)布!
    的頭像 發(fā)表于 10-14 15:39 ?1028次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+具身智能芯片

    控制器等。 具身智能常見的感知模塊往往被稱為智能傳感器,就是在原有的傳感器上加入一定的AI功能,從而可以模擬人類的5種基本感覺:視覺、聽覺、觸覺、嗅覺和味覺。 1、輸入端的數(shù)據(jù)壓縮 輸入端常用的數(shù)據(jù)壓縮
    發(fā)表于 09-18 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    是一種快速反應(yīng)能力,是直接的感知;靈感是一種通過思考和探索獲得的創(chuàng)造性想法,是一種創(chuàng)意。 AI怎么模擬直覺與靈感呢?四、AI代替人類的假說 這可能嗎? 用機(jī)器來生成假說: 1、直接生成
    發(fā)表于 09-17 11:45

    聲智科技聲學(xué)模型賦予AI感知物理世界

    也一致認(rèn)為,賦予AI感知物理世界的能力是實(shí)現(xiàn)真正智能的關(guān)鍵一步。要讓AI真正融入現(xiàn)實(shí)世界,除了需要“眼睛”(計(jì)算機(jī)視覺),“耳朵”(聲音感知)同樣至關(guān)重要。
    的頭像 發(fā)表于 09-02 17:46 ?1464次閱讀

    如何確保自動(dòng)駕駛汽車感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛汽車想要自動(dòng)駕駛,首先要做的就是能對周邊環(huán)境實(shí)現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動(dòng)駕駛汽車如何在復(fù)雜、快速變化的道路環(huán)境中做到感知的精確又可靠? 自動(dòng)駕駛
    的頭像 發(fā)表于 08-23 15:06 ?1704次閱讀
    如何確保自動(dòng)駕駛汽車<b class='flag-5'>感知</b>的準(zhǔn)確性?

    動(dòng)態(tài)感知+智能決策,一文解讀 AI 場景組網(wǎng)下的動(dòng)態(tài)智能選路技術(shù)

    、零丟包——迫使網(wǎng)絡(luò)必須進(jìn)行一場深刻的智能進(jìn)化,從被動(dòng)的基礎(chǔ)設(shè)施轉(zhuǎn)變?yōu)槔斫鈽I(yè)務(wù)、感知狀態(tài)、智能決策的“AI感知網(wǎng)絡(luò)”。
    的頭像 發(fā)表于 06-20 15:01 ?1590次閱讀
    動(dòng)態(tài)<b class='flag-5'>感知</b>+智能決策,一文解讀 <b class='flag-5'>AI</b> 場景組網(wǎng)下的動(dòng)態(tài)智能選路技術(shù)

    深度感知的應(yīng)用和主要方法

    近年來,3D 感知技術(shù)越來越多地應(yīng)用于各行各業(yè),尤其是工業(yè)自動(dòng)化、機(jī)器人、自動(dòng)駕駛、醫(yī)療保健、AR/VR 和安全領(lǐng)域。3D 感知是用于捕捉環(huán)境與物體三維形狀并進(jìn)行數(shù)字化處理的技術(shù)的統(tǒng)稱,而深度感知在其中起著關(guān)鍵作用。
    的頭像 發(fā)表于 05-15 17:17 ?1189次閱讀

    溫度采集模塊在線感知環(huán)境變化

    溫度采集模塊作為環(huán)境監(jiān)測系統(tǒng)的核心感知單元,正以數(shù)字化觸角深入人類活動(dòng)的各個(gè)領(lǐng)域。這種由高精度傳感器、智能處理單元和無線通信技術(shù)構(gòu)成的微型化設(shè)備,通過持續(xù)采集溫度參數(shù),構(gòu)建起環(huán)境監(jiān)測網(wǎng)絡(luò)的感知
    的頭像 發(fā)表于 05-14 14:40 ?820次閱讀

    高德發(fā)布AI導(dǎo)航智能體:高速駕車場景下可感知車道級交通流變化

    4 月 14 日消息,高德地圖今日宣布推出基于地圖的 AI 導(dǎo)航智能體(NaviAgent)。據(jù)技術(shù)負(fù)責(zé)人介紹,其核心架構(gòu)采用 Planner-Executor 模式,通過感知、規(guī)劃、執(zhí)行、表達(dá)四大
    的頭像 發(fā)表于 04-15 18:28 ?956次閱讀
    高德發(fā)布<b class='flag-5'>AI</b>導(dǎo)航智能體:高速駕車場景下可<b class='flag-5'>感知</b>車道級交通流變化

    研究基于多功能離子纖維傳感器系統(tǒng)的物體識(shí)別和抓取的人工觸覺感知

    人類觸覺感知是一種復(fù)雜的感覺系統(tǒng),它依賴于皮膚中的感覺受體來接收外部刺激,轉(zhuǎn)換信號(hào),隨后通過神經(jīng)系統(tǒng)分析和識(shí)別這些信號(hào)。傳遞到大腦皮層的觸覺信息在特定區(qū)域經(jīng)歷復(fù)雜的處理。例如,體感皮層感知身體
    的頭像 發(fā)表于 03-24 18:22 ?953次閱讀
    研究基于多功能離子纖維傳感器系統(tǒng)的物體識(shí)別和抓取的人工觸覺<b class='flag-5'>感知</b>