91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)之父 Yoshua Bengio , Yann LeCun 以及 Geoffrey Hinton 獲得了2018年的圖靈獎(jiǎng)

8g3K_AI_Thinker ? 來(lái)源:lp ? 2019-04-02 15:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2019年3月27日 ——ACM 宣布,深度學(xué)習(xí)之父Yoshua Bengio,Yann LeCun以及Geoffrey Hinton獲得了2018年的圖靈獎(jiǎng),被稱為“計(jì)算機(jī)領(lǐng)域的諾貝爾獎(jiǎng)”。

左:Geoffrey Hinton

中:Yann LeCun

右:Yoshua Bengio

今天,深度學(xué)習(xí)已經(jīng)成為了人工智能技術(shù)領(lǐng)域最重要的技術(shù)之一。三位達(dá)人三位大神獲得這個(gè)獎(jiǎng)?wù)媸菦](méi)有什么懸念。

三位科學(xué)家發(fā)明了深度學(xué)習(xí)的基本概念,在實(shí)驗(yàn)中發(fā)現(xiàn)了驚人的結(jié)果,也在工程領(lǐng)域做出了重要突破,幫助深度神經(jīng)網(wǎng)絡(luò)獲得實(shí)際應(yīng)用。

在 ACM 的公告中,Hinton最重要的貢獻(xiàn)來(lái)自他1986年發(fā)明反向傳播的論文 “Learning Internal Representations by Error Propagation”;1983年發(fā)明的玻爾茲曼機(jī)(Boltzmann Machines),以及2012年對(duì)卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)。

Hinton 和他的學(xué)生 Alex Krizhevsky 以及 Ilya Sutskever 通過(guò) Rectified Linear Neurons 和 Dropout Regularization 改進(jìn)了卷積神經(jīng)網(wǎng)絡(luò),并在著名的 ImageNet 評(píng)測(cè)中取得了很好的成績(jī),在計(jì)算機(jī)視覺(jué)領(lǐng)域掀起一場(chǎng)革命。

Bengio的貢獻(xiàn)主要在1990年代發(fā)明的Probabilistic models of sequences。他把神經(jīng)網(wǎng)絡(luò)和概率模型(例如隱馬爾可夫模型)結(jié)合在一起,并和 AT&T 公司合作,用新技術(shù)識(shí)別手寫的支票?,F(xiàn)代深度學(xué)習(xí)技術(shù)中的語(yǔ)音識(shí)別也是這些概念的擴(kuò)展。

此外 Bengio 還于2000年還發(fā)表了劃時(shí)代的論文“A Neural Probabilistic Language Model”,使用高維詞向量來(lái)表征自然語(yǔ)言。他的團(tuán)隊(duì)還引入了注意力機(jī)制,讓機(jī)器翻譯獲得突破,也成為了讓深度學(xué)習(xí)處理序列的重要技術(shù)。

Yann LeCun的代表貢獻(xiàn)之一是卷積神經(jīng)網(wǎng)絡(luò)。1980年代,LeCun 發(fā)明了卷積神經(jīng)網(wǎng)絡(luò),現(xiàn)在已經(jīng)成為了機(jī)器學(xué)習(xí)領(lǐng)域的基礎(chǔ)技術(shù)之一,也讓深度學(xué)習(xí)效率更高。1980年代末期,Yan LeCun 在多倫多大學(xué)和貝爾實(shí)驗(yàn)室工作期間,首次將卷積神經(jīng)網(wǎng)絡(luò)用于手寫數(shù)字識(shí)別。

今天,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成為了業(yè)界標(biāo)準(zhǔn)技術(shù),廣泛用于計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別、語(yǔ)音合成、圖片合成,以及自然語(yǔ)言處理等學(xué)術(shù)方向,以及自動(dòng)駕駛、醫(yī)學(xué)圖片識(shí)別、語(yǔ)音助手、信息過(guò)濾等工業(yè)應(yīng)用方向。

LeCun 的第二個(gè)重要貢獻(xiàn)是改進(jìn)了反向傳播算法。他提出了一個(gè)早期的反向傳播算法 backprop,也根據(jù)變分原理給出了一個(gè)簡(jiǎn)潔的推導(dǎo)。他的工作讓反向傳播算法更快,比如描述了兩個(gè)簡(jiǎn)單的方法可以減少學(xué)習(xí)時(shí)間。

LeCun 第三個(gè)貢獻(xiàn)是拓展了神經(jīng)網(wǎng)絡(luò)的應(yīng)用范圍。他把神經(jīng)網(wǎng)絡(luò)變成了一個(gè)可以完成大量不同任務(wù)的計(jì)算模型。他早期引進(jìn)的一些工作現(xiàn)在已經(jīng)成為了人工智能的基礎(chǔ)概念。

例如,在圖片識(shí)別領(lǐng)域,他研究了如何讓神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)層次特征,這一方法現(xiàn)在已經(jīng)用于很多日常的識(shí)別任務(wù)。他們還提出了可以操作結(jié)構(gòu)數(shù)據(jù)(例如圖數(shù)據(jù))的深度學(xué)習(xí)架構(gòu)。

Geoffrey Hinton

反向傳播:在 1986 年與 David Rumelhart 和 Ronald Williams 共同撰寫的 “Learning Internal Representations by Error Propagation” 一文中,Hinton 證明了反向傳播算法允許神經(jīng)網(wǎng)絡(luò)發(fā)現(xiàn)自己的數(shù)據(jù)內(nèi)部表示,這使得使用神經(jīng)網(wǎng)絡(luò)成為可能網(wǎng)絡(luò)解決以前被認(rèn)為超出其范圍的問(wèn)題。如今,反向傳播算法是大多數(shù)神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)。

玻爾茲曼機(jī)(Boltzmann Machines):1983 年,Hinton 與 Terrence Sejnowski 一起發(fā)明了玻爾茲曼機(jī),這是第一個(gè)能夠?qū)W習(xí)不屬于輸入或輸出的神經(jīng)元內(nèi)部表示的神經(jīng)網(wǎng)絡(luò)之一。

卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn):2012 年,Hinton 和他的學(xué)生 Alex Krizhevsky 以及 Ilya Sutskever 通過(guò) Rectified Linear Neurons 和 Dropout Regularization 改進(jìn)了卷積神經(jīng)網(wǎng)絡(luò),并在著名的 ImageNet 評(píng)測(cè)中將對(duì)象識(shí)別的錯(cuò)誤率減半,在計(jì)算機(jī)視覺(jué)領(lǐng)域掀起一場(chǎng)革命。

Yoshua Bengio

序列的概率模型:在 20 世紀(jì) 90 年代,Bengio 將神經(jīng)網(wǎng)絡(luò)與序列的概率模型相結(jié)合,例如隱馬爾可夫模型。這些想法被納入 AT&T / NCR 用于閱讀手寫支票中,被認(rèn)為是 20 世紀(jì) 90 年代神經(jīng)網(wǎng)絡(luò)研究的巔峰之作。現(xiàn)代深度學(xué)習(xí)語(yǔ)音識(shí)別系統(tǒng)也是這些概念的擴(kuò)展。

高維詞匯嵌入和關(guān)注:2000 年,Bengio 撰寫了具有里程碑意義的論文“A Neural Probabilistic Language Model”,它引入了高維詞向量作為詞義的表示。Bengio 的見(jiàn)解對(duì)自然語(yǔ)言處理任務(wù)產(chǎn)生了巨大而持久的影響,包括語(yǔ)言翻譯、問(wèn)答和視覺(jué)問(wèn)答。他的團(tuán)隊(duì)還引入了注意力機(jī)制,這種機(jī)制促使了機(jī)器翻譯的突破,并構(gòu)成了深度學(xué)習(xí)的序列處理的關(guān)鍵組成部分。

生成性對(duì)抗網(wǎng)絡(luò):自 2010 年以來(lái),Bengio 關(guān)于生成性深度學(xué)習(xí)的論文,特別是與 Ian Goodfellow 共同開(kāi)發(fā)的生成性對(duì)抗網(wǎng)絡(luò)(GAN),引發(fā)了計(jì)算機(jī)視覺(jué)和計(jì)算機(jī)圖形學(xué)的革命。

Yann LeCun

卷積神經(jīng)網(wǎng)絡(luò):在 20 世紀(jì) 80 年代,LeCun 研發(fā)了卷積神經(jīng)網(wǎng)絡(luò),現(xiàn)已成為該領(lǐng)域的基本理論基礎(chǔ)。其讓深度學(xué)習(xí)更有效。在 20 世紀(jì) 80 年代后期,多倫多大學(xué)和貝爾實(shí)驗(yàn)室工作期間,LeCun 是第一個(gè)在手寫數(shù)字圖像上訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的人。如今,卷積神經(jīng)網(wǎng)絡(luò)是計(jì)算機(jī)視覺(jué)以及語(yǔ)音識(shí)別、語(yǔ)音合成、圖像合成和自然語(yǔ)言處理的行業(yè)標(biāo)準(zhǔn)。它們用于各種應(yīng)用,包括自動(dòng)駕駛、醫(yī)學(xué)圖像分析、語(yǔ)音激活助手和信息過(guò)濾。

改進(jìn)反向傳播算法:LeCun 提出了一個(gè)早期的反向傳播算法 backprop,并根據(jù)變分原理對(duì)其進(jìn)行了簡(jiǎn)潔的推導(dǎo)。他的工作讓加快了反向傳播算,包括描述兩種加速學(xué)習(xí)時(shí)間的簡(jiǎn)單方法。

拓寬神經(jīng)網(wǎng)絡(luò)的視野:LeCun 還將神經(jīng)網(wǎng)絡(luò)作為可以完成更為廣泛任務(wù)的計(jì)算模型,其早期工作現(xiàn)已成為 AI 的基礎(chǔ)概念。例如,在圖像識(shí)別領(lǐng)域,他研究了如何在神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)分層特征表示,這個(gè)理念現(xiàn)在通常用于許多識(shí)別任務(wù)中。與 LéonBottou 一起,他還提出了學(xué)習(xí)系統(tǒng)可以構(gòu)建為復(fù)雜的模塊網(wǎng)絡(luò),其中通過(guò)自動(dòng)區(qū)分來(lái)執(zhí)行反向傳播,目前在每個(gè)現(xiàn)代深度學(xué)習(xí)軟件中得到使用。他們還提出了可以操作結(jié)構(gòu)化數(shù)據(jù)的深度學(xué)習(xí)架構(gòu),例如圖形。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15533
  • 圖靈
    +關(guān)注

    關(guān)注

    1

    文章

    41

    瀏覽量

    10055
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124447

原文標(biāo)題:說(shuō)說(shuō)圖靈獎(jiǎng)的深度學(xué)習(xí)「三教父」驚世貢獻(xiàn)

文章出處:【微信號(hào):AI_Thinker,微信公眾號(hào):人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    世強(qiáng)硬創(chuàng)平臺(tái)斬獲國(guó)民技術(shù)2025度戰(zhàn)略合作貢獻(xiàn)獎(jiǎng)和市場(chǎng)先鋒獎(jiǎng)

    20262月4日,在國(guó)民技術(shù)隆重舉辦的“2026合作伙伴發(fā)展大會(huì)”上,世強(qiáng)硬創(chuàng)平臺(tái)憑借多年來(lái)與國(guó)民技術(shù)的深度戰(zhàn)略協(xié)作、出色的市場(chǎng)開(kāi)拓與技術(shù)服務(wù)能力,成功斬獲兩項(xiàng)重量級(jí)年度殊榮:戰(zhàn)略合作貢獻(xiàn)獎(jiǎng)和市場(chǎng)先鋒
    的頭像 發(fā)表于 03-03 14:35 ?348次閱讀

    TDK榮獲科睿唯安2026度全球百?gòu)?qiáng)創(chuàng)新機(jī)構(gòu)

    TDK株式會(huì)社(TSE:6762)于近期被評(píng)為科睿唯安2026度全球百?gòu)?qiáng)創(chuàng)新機(jī)構(gòu),其在影響力以及獨(dú)特性方面獲得了極高的評(píng)價(jià)。這是 TDK 第十二次、也是連續(xù)第九榮登榜單。
    的頭像 發(fā)表于 01-29 10:17 ?319次閱讀

    能點(diǎn)科技榮獲科沃斯集團(tuán)2025度質(zhì)量燈塔獎(jiǎng)

    在2026科沃斯集團(tuán)供應(yīng)商大會(huì)上,我司憑借卓越的產(chǎn)品品質(zhì)與深度的合作價(jià)值,榮膺“質(zhì)量燈塔獎(jiǎng)”。
    的頭像 發(fā)表于 01-23 16:43 ?895次閱讀

    太極半導(dǎo)體榮獲得一微電子2025度長(zhǎng)期戰(zhàn)略合作獎(jiǎng)及優(yōu)秀質(zhì)量獎(jiǎng)

    20261月19日,得一電子股份有限公司(以下簡(jiǎn)稱“得一微電子”)向太極半導(dǎo)體(蘇州)有限公司(以下簡(jiǎn)稱“太極半導(dǎo)體”)頒發(fā)了2025度“長(zhǎng)期戰(zhàn)略合作獎(jiǎng)”及“年度優(yōu)秀質(zhì)量獎(jiǎng)”,以表
    的頭像 發(fā)表于 01-21 17:16 ?752次閱讀

    華陽(yáng)通用榮獲理想汽車2025度鏈接共贏獎(jiǎng)

    近日,ADAYO華陽(yáng)集團(tuán)旗下全資子公司華陽(yáng)通用榮獲理想汽車頒發(fā)的2025度“鏈接共贏獎(jiǎng)”獎(jiǎng)項(xiàng)。在理想汽車的深度集成項(xiàng)目中,華陽(yáng)通用以精誠(chéng)合作的協(xié)同精神、專業(yè)高效的組織協(xié)作、精益求精的質(zhì)量管控及持續(xù)的價(jià)值創(chuàng)造,有力支持理想汽車達(dá)
    的頭像 發(fā)表于 01-16 17:37 ?1116次閱讀

    共達(dá)電聲榮膺財(cái)聯(lián)社2025度最具投資價(jià)值獎(jiǎng)

    202512月,共達(dá)電聲股份有限公司(股票代碼:002655)憑借卓越的綜合實(shí)力與持續(xù)的價(jià)值創(chuàng)造能力,榮獲"最具投資價(jià)值獎(jiǎng)"。這一榮譽(yù)的獲得,不僅是對(duì)公司過(guò)往成績(jī)的肯定,更是
    的頭像 發(fā)表于 01-08 17:22 ?1289次閱讀

    維信諾榮膺vivo 2025度優(yōu)秀質(zhì)量獎(jiǎng)與最佳交付獎(jiǎng)

    12月18日,vivo 2025商業(yè)伙伴質(zhì)量溝通會(huì)圓滿落幕。維信諾憑借卓越的產(chǎn)品品質(zhì)與高效穩(wěn)定的交付能力,連續(xù)兩斬獲vivo“優(yōu)秀質(zhì)量獎(jiǎng)”、“最佳交付獎(jiǎng)”雙項(xiàng)殊榮,是OLED領(lǐng)域唯一獲得
    的頭像 發(fā)表于 12-29 16:57 ?725次閱讀

    AI教父Hinton對(duì)話云天勵(lì)飛陳寧

    在大模型步入深水區(qū)的當(dāng)下,AI 的下一個(gè)臨界點(diǎn)究竟在哪里?在 2025 GIS 全球創(chuàng)新峰會(huì)現(xiàn)場(chǎng),深度學(xué)習(xí)奠基人、“AI 教父” Geoffrey Hinton 與云天勵(lì)飛董事長(zhǎng)兼 C
    的頭像 發(fā)表于 12-03 14:04 ?717次閱讀

    TE Connectivity榮膺2025全球電子成就獎(jiǎng)之年度創(chuàng)新產(chǎn)品獎(jiǎng)

    還在為無(wú)線網(wǎng)絡(luò)的覆蓋盲點(diǎn)和性能不穩(wěn)而煩惱嗎?TE Connectivity(以下簡(jiǎn)稱“TE”)的這款產(chǎn)品剛剛獲得了行業(yè)權(quán)威的認(rèn)可,或許能為您提供一種值得信賴的選擇——
    的頭像 發(fā)表于 12-03 10:38 ?524次閱讀

    學(xué)習(xí)強(qiáng)國(guó)深度報(bào)道 RT-Thread“1+X+N”戰(zhàn)略,國(guó)產(chǎn)操作系統(tǒng)賦能高端制造引關(guān)注|媒體視角

    近日,國(guó)產(chǎn)嵌入式操作系統(tǒng)領(lǐng)軍企業(yè)RT-Thread睿賽德在工博會(huì)發(fā)布的“1+X+N”戰(zhàn)略體系,獲得了國(guó)家級(jí)權(quán)威媒體平臺(tái)“學(xué)習(xí)強(qiáng)國(guó)”的重點(diǎn)報(bào)道。該報(bào)道從產(chǎn)業(yè)高度深入剖析了RT-Thread睿賽德以自主
    的頭像 發(fā)表于 09-29 17:37 ?1226次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>強(qiáng)國(guó)<b class='flag-5'>深度</b>報(bào)道 RT-Thread“1+X+N”戰(zhàn)略,國(guó)產(chǎn)操作系統(tǒng)賦能高端制造引關(guān)注|媒體視角

    賽格導(dǎo)航榮獲2024度汽車電子科學(xué)技術(shù)獎(jiǎng)突出創(chuàng)新產(chǎn)品獎(jiǎng)

    近日,第十四屆國(guó)際汽車電子產(chǎn)業(yè)峰會(huì)暨2024度汽車電子科學(xué)技術(shù)獎(jiǎng)頒獎(jiǎng)典禮在深圳圓滿落幕。賽格導(dǎo)航“空天地一體車載北斗精準(zhǔn)通信系統(tǒng)”憑借其在北斗導(dǎo)航與智能網(wǎng)聯(lián)汽車深度融合領(lǐng)域的創(chuàng)新成果,榮獲“突出創(chuàng)新產(chǎn)品
    的頭像 發(fā)表于 07-03 18:07 ?1247次閱讀

    世界模型:多模態(tài)融合+因果推理,解鎖AI認(rèn)知邊界

    ,自然地學(xué)習(xí)世界運(yùn)作方式的知識(shí)。深度學(xué)習(xí)之父 Yann LeCun 認(rèn)為,世界模型是通往通用人工
    的頭像 發(fā)表于 06-23 04:49 ?4106次閱讀

    連續(xù)四!Splashtop 再度榮膺 TrustRadius 最高評(píng)分獎(jiǎng)

    、統(tǒng)一端點(diǎn)管理、遠(yuǎn)程監(jiān)控與管理和遠(yuǎn)程訪問(wèn)四大類別均獲最高評(píng)分,表明其在性能表現(xiàn)、可靠性和用戶滿意度方面的杰出表現(xiàn)獲得了全球客戶的一致認(rèn)可。連續(xù)四獲獎(jiǎng),是用戶最有力的
    的頭像 發(fā)表于 06-17 17:36 ?1098次閱讀
    連續(xù)四<b class='flag-5'>年</b>!Splashtop 再度榮膺 TrustRadius 最高評(píng)分<b class='flag-5'>獎(jiǎng)</b>

    喜訊丨時(shí)擎科技榮獲2025 GAS科創(chuàng)獎(jiǎng)-技術(shù)進(jìn)步獎(jiǎng)

    在2025“GAS消費(fèi)電子科創(chuàng)獎(jiǎng)”評(píng)選中,時(shí)擎智能科技(上海)有限公司憑借自主研發(fā)的“基于深度學(xué)習(xí)的音頻降噪技術(shù)”,在技術(shù)創(chuàng)新性、設(shè)計(jì)創(chuàng)新性、工藝創(chuàng)新性、智能化創(chuàng)新性及原創(chuàng)性五大維度
    的頭像 發(fā)表于 03-27 10:03 ?1036次閱讀
    喜訊丨時(shí)擎科技榮獲2025 GAS科創(chuàng)<b class='flag-5'>獎(jiǎng)</b>-技術(shù)進(jìn)步<b class='flag-5'>獎(jiǎng)</b>

    永磁同步電機(jī)二階迭代學(xué)習(xí)控制

    針對(duì)永磁同步電機(jī)存在的周期性脈動(dòng)問(wèn)題,提出了一種二階 PD-型迭代學(xué)習(xí)控制策略,該算法能夠 有效實(shí)現(xiàn)最優(yōu)跟蹤控制 。利用卷積的推廣 Young 不等式,獲得了系統(tǒng)跟蹤誤差在 Lebesgue-p
    發(fā)表于 03-26 14:28