91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“深度學(xué)習(xí)”成為正常操作,網(wǎng)絡(luò)架構(gòu)的革命?

mK5P_AItists ? 來(lái)源:人工智能學(xué)家 ? 2019-11-24 07:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2013年才舉辦第一屆的ICLR(The International Conference on Learning Representations)發(fā)展迅猛,如今已成為是最重要的國(guó)際機(jī)器學(xué)習(xí)會(huì)議之一,甚至可以和ICML,NeurIPS和CVPR這些老牌著名會(huì)議相提并論。

2020年會(huì)議定于明年4月26日舉行,但是論文提交截止日期已經(jīng)過(guò)去了。這次會(huì)議共提交了2585份論文,比2019年多了約1000份論文。

今年提交論文:

https://openreview.net/group?id=ICLR.cc/2020/Conference

按照這個(gè)速度估計(jì),24年后,論文提交數(shù)量將達(dá)到10萬(wàn)份。

我們分析了過(guò)去三年里ICLR所有提交的論文的摘要和關(guān)鍵詞,來(lái)看看哪些是新的風(fēng)口,而哪些議題正在消逝。今年,28%的論文使用或聲稱使用了最新的算法,所以準(zhǔn)備接受大量的機(jī)器學(xué)習(xí)知識(shí)撲面而來(lái)吧!

深度學(xué)習(xí)”成為正常操作

計(jì)算機(jī)視覺(jué)或自然語(yǔ)言處理中使用深度學(xué)習(xí),如今就好像魚在水中生活一樣必要而且自然。深度學(xué)習(xí)徹底改變了機(jī)器學(xué)習(xí),它現(xiàn)在幾乎存在于機(jī)器學(xué)習(xí)的所有領(lǐng)域,甚至那些不太起眼的地方,比如在時(shí)間序列分析或需求預(yù)測(cè)也可以看到它的身影。

可以說(shuō)深度學(xué)習(xí)已經(jīng)不再是一個(gè)前沿話題,而成了機(jī)器學(xué)習(xí)的正常操作。這也解釋了為什么在關(guān)鍵詞中提及深度學(xué)習(xí)的數(shù)量有所減少——從2018年的19%下降到了2020年的11%。

網(wǎng)絡(luò)架構(gòu)的革命?

神經(jīng)網(wǎng)絡(luò)(GNN,Graph Neural Networks)是這一年最熱門的話題之一。GNN是用于圖結(jié)構(gòu)數(shù)據(jù)的深度學(xué)習(xí)架構(gòu)。在醫(yī)學(xué)、社交網(wǎng)絡(luò)分類和動(dòng)態(tài)交互對(duì)象行為建模等應(yīng)用中,GNN展示了其巨大優(yōu)勢(shì)。關(guān)于GNN的論文數(shù)量的空前增長(zhǎng),從2018年的12篇發(fā)展到了2020年的111篇!

寂靜的GAN

GAN是近些年最流行的話題,但是這個(gè)被稱之為“近二十年來(lái)機(jī)器學(xué)習(xí)領(lǐng)域最酷的想法”似乎已經(jīng)被利用殆盡。生成對(duì)抗網(wǎng)絡(luò)(GAN,Generative Adversarial Networks)能夠模擬任何數(shù)據(jù)分布,從而創(chuàng)造出令人印象深刻的全新人工圖像,但是GAN的火熱程度在下降。盡管最近由于deepfake等事件使得GAN一度在媒體報(bào)道中十分流行,但是從數(shù)據(jù)看它確實(shí)不如當(dāng)年了。

讓機(jī)器來(lái)設(shè)計(jì)你的機(jī)器學(xué)習(xí)?

為你的神經(jīng)網(wǎng)絡(luò)找到一個(gè)合適的架構(gòu)實(shí)在是一件令人頭禿的事。但是,不要害怕:神經(jīng)體系結(jié)構(gòu)搜索(NAS,Neural Architecture Search)來(lái)幫你。NAS是一個(gè)可以自動(dòng)構(gòu)建網(wǎng)絡(luò)架構(gòu)的方法。它已經(jīng)被用于一些最新的算法中用于提升圖像分類、對(duì)象識(shí)別或模型分割的效果。關(guān)于NAS的論文從2018年的僅僅5篇增長(zhǎng)到2020年的47篇。

強(qiáng)化學(xué)習(xí)表現(xiàn)穩(wěn)定

關(guān)于強(qiáng)化學(xué)習(xí)(RL,Reinforcement Learning)的論文占比基本保持不變。人們對(duì)這個(gè)話題的討論熱度不減——今年主要探討了強(qiáng)化學(xué)習(xí)在自動(dòng)駕駛汽車、AlphaStar在《星際爭(zhēng)霸》上的成功以及機(jī)器人技術(shù)的進(jìn)步上的應(yīng)用。強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)穩(wěn)定分支,而且原因足夠充分:人們相信RL會(huì)在未來(lái)大有可為。

關(guān)于強(qiáng)化學(xué)習(xí)的一篇干貨指南:

https://deepsense.ai/what-is-reinforcement-learning-the-complete-guide/

下一個(gè)風(fēng)口在哪里?

以上只是機(jī)器學(xué)習(xí)發(fā)展趨勢(shì)的一個(gè)縮影。明年的風(fēng)口會(huì)在哪里呢?這恐怕即使是最深度的神經(jīng)網(wǎng)絡(luò)也難以預(yù)測(cè)。但是人們對(duì)于機(jī)器學(xué)習(xí)的熱情仍然是上漲的,這也倒逼著研究人員提出更具創(chuàng)造性的觀點(diǎn)。有鑒于此,我們認(rèn)為未來(lái)會(huì)有更多創(chuàng)造性的想法涌現(xiàn)出來(lái),即使機(jī)器學(xué)習(xí)的趨勢(shì)發(fā)生了180度的大轉(zhuǎn)彎,也不必感到驚訝。

更完整的近三年論文研究趨勢(shì)見(jiàn)下圖:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:從ICLR提交論文看機(jī)器學(xué)習(xí)的趨勢(shì)和風(fēng)口

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型
    的頭像 發(fā)表于 01-07 15:37 ?218次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    零信任網(wǎng)絡(luò)架構(gòu)是什么及零信任的發(fā)展趨勢(shì)

    隨著信息化和數(shù)字化的快速發(fā)展,網(wǎng)絡(luò)安全已經(jīng)成為各個(gè)組織和企業(yè)面對(duì)的重要挑戰(zhàn)。傳統(tǒng)的安全防護(hù)體系往往側(cè)重于外部威脅的防范,但這種方法已逐漸暴露出許多不足,尤其是在面對(duì)內(nèi)外部環(huán)境快速變化和復(fù)雜網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-29 15:43 ?892次閱讀

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境中均可正常工作。 測(cè)量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過(guò)深度學(xué)習(xí)短時(shí)間內(nèi)深度
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開(kāi)發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開(kāi)發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    學(xué)習(xí)物聯(lián)網(wǎng)怎么入門?

    聯(lián)網(wǎng)的基本概念和技術(shù)是學(xué)習(xí)物聯(lián)網(wǎng)的重要第一步。物聯(lián)網(wǎng)是指互聯(lián)網(wǎng)上的物品相互連接,通過(guò)網(wǎng)絡(luò)實(shí)現(xiàn)信息交流和共享的一種技術(shù)。學(xué)習(xí)物聯(lián)網(wǎng)需要了解物聯(lián)網(wǎng)的基本概念,如物聯(lián)網(wǎng)的架構(gòu)、物聯(lián)網(wǎng)的協(xié)議、
    發(fā)表于 10-14 10:34

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開(kāi)源RISC-V的AI加速器 RISC-V是一種開(kāi)源、模塊化的指令集架構(gòu)(ISA)。優(yōu)勢(shì)如下: ①模塊化特性②標(biāo)準(zhǔn)接口③開(kāi)源
    發(fā)表于 09-12 17:30

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?920次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1050次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4215次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1255次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    革命性神經(jīng)形態(tài)微控制器 ?**Pulsar**? 的深度技術(shù)解讀

    以下是對(duì)荷蘭公司Innatera推出的革命性神經(jīng)形態(tài)微控制器 ? Pulsar ? 的深度技術(shù)解讀,結(jié)合其架構(gòu)設(shè)計(jì)、性能突破、應(yīng)用場(chǎng)景及產(chǎn)業(yè)意義進(jìn)行綜合分析: 一、核心技術(shù)原理:神經(jīng)形態(tài)架構(gòu)
    的頭像 發(fā)表于 06-07 13:06 ?1694次閱讀
    <b class='flag-5'>革命</b>性神經(jīng)形態(tài)微控制器 ?**Pulsar**? 的<b class='flag-5'>深度</b>技術(shù)解讀

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算
    的頭像 發(fā)表于 05-30 10:36 ?1888次閱讀
    GPU<b class='flag-5'>架構(gòu)</b><b class='flag-5'>深度</b>解析

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1530次閱讀

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開(kāi)發(fā)的大型軟件庫(kù),它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1226次閱讀
    用樹(shù)莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!