91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICML 2019的論文入選結(jié)果已經(jīng)出爐,你的論文中了嗎?

DPVg_AI_era ? 來源:lq ? 2019-04-24 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ICML 2019的錄取結(jié)果昨天已經(jīng)出爐,許多投稿者在Twitter發(fā)表“中了”的消息,新智元摘選了幾篇不錯(cuò)的ICML中獎(jiǎng)?wù)撐模↖an Goodfellow等人的論文,一起來先睹為快吧!

昨天,ICML 2019的論文入選結(jié)果已經(jīng)出爐,你的論文中了嗎?

來自Reddit的討論貼

盡管完整錄取列表尚未公開,不過已經(jīng)有許多投稿者在Twitter發(fā)表“中了”的消息。

下面,新智元摘選了幾篇不錯(cuò)的ICML中獎(jiǎng)?wù)撐模黄饋硐榷脼榭彀伞?/p>

5篇ICML 2019論文推薦

首先介紹來自加州大學(xué)圣地亞哥分校Yao Qin、Garrison Cottrell和前谷歌大腦Ian Goodfellow等人的論文,在這篇論文中,研究人員提出了語音識別的對抗樣本。

1、Imperceptible, Robust, and Targeted Adversarial Examples for Automatic Speech Recognition

https://arxiv.org/abs/1903.10346

作者:Yao Qin, Nicholas Carlini, Ian Goodfellow, Garrison Cottrell, Colin Raffel

對抗樣本(adversarial examples)是一種專門設(shè)計(jì)的輸入,其目的是使機(jī)器學(xué)習(xí)模型產(chǎn)生錯(cuò)誤的輸出。

對抗樣本在圖像領(lǐng)域已經(jīng)得到了廣泛的研究。在圖像領(lǐng)域中,可以通過對圖像進(jìn)行細(xì)微的修改來產(chǎn)生對抗樣本,從而導(dǎo)致分類錯(cuò)誤,這在物理世界中具有實(shí)用價(jià)值。

但是,目前應(yīng)用于語音識別系統(tǒng)的有針對性的對抗樣本卻缺乏這兩種特性:人類可以很容易地識別對抗性干擾,并在通過揚(yáng)聲器播放時(shí)它們并不生效。

本研究在這兩個(gè)方面都取得了進(jìn)展。首先,我們利用聽覺掩碼(auditory masking)的心理聲學(xué)原理,在人類聽不到的音頻區(qū)域添加對抗擾動(dòng),開發(fā)出有效的、不易察覺的音頻對抗樣本(通過人類研究得到驗(yàn)證),同時(shí)對任意完整的句子保持100%的針對性成功率。

接下來,我們通過構(gòu)造在應(yīng)用于真實(shí)的模擬環(huán)境扭曲后仍然有效的擾動(dòng),從而在物理世界的無線音頻對抗樣本方面取得了進(jìn)展。

2、TensorFuzz: Debugging Neural Networks with Coverage-Guided Fuzzing

https://arxiv.org/abs/1807.10875

作者:Augustus Odena, Ian Goodfellow

眾所周知,由于各種原因,機(jī)器學(xué)習(xí)模型難以調(diào)試(debug)或解釋。這造成了最近機(jī)器學(xué)習(xí)的 “可重復(fù)性危機(jī)”(reproducibility crisis)—— 對難以調(diào)試的技術(shù)做出可靠的實(shí)驗(yàn)結(jié)論是很棘手的。

神經(jīng)網(wǎng)絡(luò)又特別難以 debug,因?yàn)榧词故窍鄬χ苯拥年P(guān)于神經(jīng)網(wǎng)絡(luò)的形式問題,解決的計(jì)算成本也很高,而且神經(jīng)網(wǎng)絡(luò)的軟件實(shí)現(xiàn)可能與理論模型有很大的差異。

在這項(xiàng)工作中,我們利用傳統(tǒng)軟件工程中的一種技術(shù) —— 覆蓋引導(dǎo)模糊測試(coverage guided fuzzing,CGF),并將其應(yīng)用于神經(jīng)網(wǎng)絡(luò)的測試。

具體來說,這項(xiàng)工作有以下貢獻(xiàn):

我們對神經(jīng)網(wǎng)絡(luò)引入了 CGF 的概念,并描述了如何用快速近似最近鄰算法( fast approximate nearest neighbors algorithms)以通用的方式檢查覆蓋率。

我們開源了一個(gè)名為 TensorFuzz 的 CGF 軟件庫。

我們使用 TensorFuzz 在已訓(xùn)練的神經(jīng)網(wǎng)絡(luò)中查找數(shù)值問題,在神經(jīng)網(wǎng)絡(luò)及其量化版本之間查找分歧,以及在字符級語言模型中查找不良行為。

圖:fuzzing 主循環(huán)的簡略描述。左:模糊測試程序圖,表示數(shù)據(jù)的 flow。右:用算法的形式描述了模糊測試過程的主循環(huán)。

相關(guān)閱讀:

谷歌大腦開源 TensorFuzz,自動(dòng) Debug 神經(jīng)網(wǎng)絡(luò)!

接下來介紹的論文來自羅格斯大學(xué)Han Zhang和Dimitris Metaxas,以及谷歌大腦的 Ian Goodfellow 和 Augustus Odena,在這篇論文中,他們提出“自注意力生成對抗網(wǎng)絡(luò)”(SAGAN),將自注意力機(jī)制(self-attention mechanism)引入到卷積 GAN 中,作為卷積的補(bǔ)充,取得了最優(yōu)的結(jié)果。

3、Self-Attention Generative Adversarial Networks

arxiv.org/abs/1805.08318

作者:Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena

在這篇論文中,我們提出自注意力生成對抗網(wǎng)絡(luò)( Self-Attention Generative Adversarial Network ,SAGAN)。SAGAN 允許對圖像生成任務(wù)進(jìn)行注意力驅(qū)動(dòng)、長相關(guān)性的建模。傳統(tǒng)的卷積 GAN 生成的高分辨率細(xì)節(jié)僅作為在低分辨率特征圖上的空間局部點(diǎn)的函數(shù)。在 SAGAN 中,可以使用來自所有特征位置的線索來生成細(xì)節(jié)。此外,鑒別器可以檢查圖像的遠(yuǎn)端部分的高度詳細(xì)的特征彼此一致。此外,最近的研究表明,生成器條件會影響 GAN 的性能。

利用這些發(fā)現(xiàn),我們將譜歸一化到 GAN 生成器中,并發(fā)現(xiàn)這改進(jìn)了訓(xùn)練動(dòng)態(tài)。我們提出的 SAGAN 達(dá)到了最優(yōu)的結(jié)果,將 Inception score 從當(dāng)前最高的 36.8 提高到 52.52,并且在具有挑戰(zhàn)性的 ImageNet 數(shù)據(jù)集上將 Frechet Inception distance 從 27.62 降低到 18.65。注意力層的可視化表明,生成器利用與對象形狀相對應(yīng)的鄰域,而不是固定形狀的局部區(qū)域。

相關(guān)閱讀:

Ian Goodfellow 等提出自注意力 GAN,ImageNet 圖像合成獲最優(yōu)結(jié)果!

接下來推薦的論文來自東京大學(xué)的Kenta Oono和Taiji Suzuki,這篇論文有41頁,對于會議論文來說確實(shí)有點(diǎn)長。

4、Approximation and Non-parametric Estimation of ResNet-type Convolutional Neural Networks

arxiv.org/abs/1903.10047

作者:Kenta Oono, Taiji Suzuki

卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在多個(gè)函數(shù)類中均能達(dá)到最優(yōu)逼近和估計(jì)誤差率(在minimax意義上)。然而,由于包括Holder類在內(nèi)的重要函數(shù)類的稀疏約束,以往分析的最優(yōu)CNN的范圍過于廣泛,難以通過優(yōu)化獲得。

我們證明了一個(gè)ResNet類型的CNN可以在更合理的情況下在這些類別中獲得minimax最優(yōu)錯(cuò)誤率——它可以是密集的,它的寬度、通道大小和過濾器大小相對于樣本大小是恒定的。

其核心思想是,只要神經(jīng)網(wǎng)絡(luò)具有 extit{block-sparse}結(jié)構(gòu),我們就可以通過定制的CNN來復(fù)制全連接神經(jīng)網(wǎng)絡(luò)(FNN)的學(xué)習(xí)能力。從某種意義上說,我們的理論是通用的,我們可以自動(dòng)地將block-sparse FNN所實(shí)現(xiàn)的任何近似率轉(zhuǎn)換成CNN的近似率。作為應(yīng)用,我們使用相同策略推導(dǎo)出針對Barron類和H?lder類的CNN的近似誤差和估計(jì)誤差。

5、Imitation Learning from Imperfect Demonstration

https://arxiv.org/abs/1901.09387

作者:Yueh-Hua Wu, Nontawat Charoenphakdee, Han Bao, Voot Tangkaratt, Masashi Sugiyama

模仿學(xué)習(xí)(Imitation learning, IL)的目的是通過演示學(xué)習(xí)最優(yōu)策略。然而,由于收集最優(yōu)示例的成本很高,因此此類演示通常并不完美。為了有效地從不完美的演示中學(xué)習(xí),我們提出了一種新的方法,利用置信評分(confidence scores)來描述演示的質(zhì)量。更具體地說,我們提出了兩種基于confidence的IL方法,即兩步的重要性加權(quán)IL (2IWIL)和具有不完美演示和置信度的生成對抗性IL (IC-GAIL)。我們證明了,僅給出一小部分次優(yōu)演示的置信度得分在理論上和經(jīng)驗(yàn)上都顯著提高了 IL 的性能。

更多ICML 2019錄取論文

1、Heterogeneous Model Reuse via Optimizing Multiparty Multiclass Margin

作者:吳西竹,周志華,柳松

2、Importance Sampling Policy Evaluation with an Estimated Behavior Policy

arxiv.org/abs/1806.01347

作者:Josiah Hanna, Scott Niekum, Peter Stone

3、Extrapolating Beyond Suboptimal Demonstrations via Inverse Reinforcement Learning from Observations

arxiv.org/abs/1904.06387

作者:Daniel S. Brown, Wonjoon Goo, Prabhat Nagarajan, Scott Niekum

4、Global Convergence of Block Coordinate Descent in Deep Learning

arxiv.org/abs/1803.00225

作者:Jinshan Zeng, Tim Tsz-Kit Lau, Shaobo Lin, Yuan Yao

5、Learn-to-Grow for addressing Catastrophic Forgetting in Continual Machine Learning

https://arxiv.org/abs/1904.00310

作者:Xilai Li, Yingbo Zhou, Tianfu Wu, Richard Socher, Caiming Xiong

6、Imitating Latent Policies from Observation

https://arxiv.org/abs/1805.07914

Ashley D. Edwards,Himanshu Sahni,Yannick Schroecker,Charles L. Isbell

7、Using Pre-Training Can Improve Model Robustness and Uncertainty

arxiv.org/abs/1901.09960

作者:Dan Hendrycks, Kimin Lee, Mantas Mazeika

8、Hyperbolic Disk Embeddings for Directed Acyclic Graphs

arxiv.org/abs/1902.04335

作者:Ryota Suzuki, Ryusuke Takahama, Shun Onoda

9、Finding Options that Minimize Planning Time

arxiv.org/abs/1810.07311

作者:Yuu Jinnai, David Abel, D Ellis Hershkowitz, Michael Littman, George Konidaris

10、Discovering Options for Exploration by Minimizing Cover Time

https://arxiv.org/abs/1903.00606

作者:Yuu Jinnai, Jee Won Park, David Abel, George Konidaris

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    107945
  • 語音識別
    +關(guān)注

    關(guān)注

    39

    文章

    1812

    瀏覽量

    116126
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    15425

原文標(biāo)題:ICML 2019錄取結(jié)果出爐,Ian Goodfellow等入選論文推薦

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    地平線11篇論文強(qiáng)勢入選CVPR 2026

    論文收錄結(jié)果。地平線憑借深厚的技術(shù)積淀與前瞻的科研布局,共有11篇論文成功入選,覆蓋端到端自動(dòng)駕駛、3D重建、世界模型、具身智能等多個(gè)核心領(lǐng)域,充分彰顯地平線在前沿技術(shù)領(lǐng)域的頂尖研發(fā)水
    的頭像 發(fā)表于 03-18 15:18 ?304次閱讀
    地平線11篇<b class='flag-5'>論文</b>強(qiáng)勢<b class='flag-5'>入選</b>CVPR 2026

    小鵬汽車與北京大學(xué)研究論文成功入選AAAI 2026

    近日,AAAI 2026公布了論文錄用結(jié)果,該會議是人工智能領(lǐng)域的國際頂級會議之一。據(jù)悉,AAAI 2026共收到23,680份論文投稿,其中4,167篇論文被錄用,錄用率僅為17.6
    的頭像 發(fā)表于 01-04 11:22 ?667次閱讀
    小鵬汽車與北京大學(xué)研究<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>AAAI 2026

    MediaTek多篇論文入選全球前沿國際學(xué)術(shù)會議

    MediaTek 宣布,今年旗下多篇論文入選 ISSCC、NeurIPS、CVPR、ICLR、ICML、ICC、CLOBECOM 等全球半導(dǎo)體、人工智能及通信領(lǐng)域的前沿國際學(xué)術(shù)會議。此外
    的頭像 發(fā)表于 12-02 14:43 ?660次閱讀

    地平線五篇論文入選NeurIPS 2025與AAAI 2026

    近日,兩大頂級學(xué)術(shù)會議錄用結(jié)果相繼揭曉,地平線憑借在機(jī)器人算法領(lǐng)域的深度鉆研,共有5篇論文從全球數(shù)萬份投稿中脫穎而出,分別入選NeurIPS 2025與AAAI 2026。
    的頭像 發(fā)表于 11-27 11:39 ?1167次閱讀
    地平線五篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>NeurIPS 2025與AAAI 2026

    后摩智能六篇論文入選四大國際頂會

    2025年以來,后摩智能在多項(xiàng)前沿研究領(lǐng)域取得突破性進(jìn)展,近期在NeurIPS、ICCV、AAAI、ACMMM四大國際頂會上有 6 篇論文入選。致力于大模型的推理優(yōu)化、微調(diào)、部署等關(guān)鍵技術(shù)難題,為大模型的性能優(yōu)化與跨場景應(yīng)用提供了系統(tǒng)化解決方案。
    的頭像 發(fā)表于 11-24 16:42 ?1315次閱讀
    后摩智能六篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>四大國際頂會

    理想汽車12篇論文入選全球五大AI頂會

    2025年三季度以來,理想汽車基座模型團(tuán)隊(duì)在國際頂級AI學(xué)術(shù)會議上取得重大突破,共有12篇高質(zhì)量研究論文入選AAAI、NeurIPS、EMNLP、ACM MM、ICCV五大頂會。
    的頭像 發(fā)表于 11-21 14:44 ?817次閱讀
    理想汽車12篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>全球五大AI頂會

    Nullmax端到端軌跡規(guī)劃論文入選AAAI 2026

    11月8日,全球人工智能頂會 AAAI 2026 公布論文錄用結(jié)果,Nullmax 研發(fā)團(tuán)隊(duì)的端到端軌跡規(guī)劃論文成功入選。該論文創(chuàng)新提出一種
    的頭像 發(fā)表于 11-12 10:53 ?908次閱讀

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會議 ——2025 年計(jì)算語言學(xué)與自然語言處理國際會議(EMNLP 2025)公布論文錄用結(jié)果,云知聲提交的《面向門診病歷生成的高質(zhì)量醫(yī)患對話合成技術(shù)
    的頭像 發(fā)表于 11-10 17:30 ?836次閱讀
    云知聲<b class='flag-5'>論文</b><b class='flag-5'>入選</b>自然語言處理頂會EMNLP 2025

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇論文入選NeurIPS 2025

    近日,機(jī)器學(xué)習(xí)與計(jì)算神經(jīng)科學(xué)領(lǐng)域全球頂級學(xué)術(shù)頂級會議NeurIPS 2025公布論文錄用結(jié)果,思必馳-上海交大聯(lián)合實(shí)驗(yàn)室共有5篇論文被收錄。NeurIPS(Conference on Neural
    的頭像 發(fā)表于 10-23 15:24 ?916次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>NeurIPS 2025

    發(fā)文,我獎(jiǎng)勵(lì)!Aigtek安泰電子新周期論文獎(jiǎng)勵(lì)活動(dòng)正式開啟!

    各位客戶積極參與!01活動(dòng)時(shí)間即日起至2026年7月31日02活動(dòng)內(nèi)容凡訂購或使用Aigtek安泰電子產(chǎn)品的新老用戶,在SCI期刊上發(fā)表論文,且在論文中注明使用“
    的頭像 發(fā)表于 07-31 19:07 ?776次閱讀
    <b class='flag-5'>你</b>發(fā)文,我獎(jiǎng)勵(lì)!Aigtek安泰電子新周期<b class='flag-5'>論文</b>獎(jiǎng)勵(lì)活動(dòng)正式開啟!

    格靈深瞳六篇論文入選ICCV 2025

    近日,國際頂級會議ICCV 2025(計(jì)算機(jī)視覺國際大會)公布論文錄用結(jié)果,格靈深瞳團(tuán)隊(duì)共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?1594次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國際計(jì)算機(jī)視覺大會)公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來自自動(dòng)駕駛團(tuán)隊(duì),3篇來自基座模型團(tuán)隊(duì)。ICCV作為計(jì)算機(jī)視覺領(lǐng)域的頂級學(xué)術(shù)會議,每兩
    的頭像 發(fā)表于 07-03 13:58 ?1162次閱讀

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    ICML(International Conference on Machine Learning)是機(jī)器學(xué)習(xí)領(lǐng)域的頂級學(xué)術(shù)會議之一,由國際機(jī)器學(xué)習(xí)學(xué)會(IMLS)主辦,被中國計(jì)算機(jī)學(xué)會認(rèn)定為A類
    的頭像 發(fā)表于 06-16 09:23 ?1527次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b><b class='flag-5'>ICML</b> 2025

    后摩智能四篇論文入選三大國際頂會

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際頂會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際頂會,面向大模型的編碼、量化
    的頭像 發(fā)表于 05-29 15:37 ?1370次閱讀

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?1351次閱讀
    云知聲四篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>自然語言處理頂會ACL 2025