91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一年一度的NeurIPS又開(kāi)始啦!寒冷的蒙特利爾將開(kāi)啟AI模式

nlfO_thejiangme ? 來(lái)源:lq ? 2018-12-04 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一年一度的NeurIPS又開(kāi)始啦!寒冷的蒙特利爾這一周將開(kāi)啟AI模式,來(lái)自世界各地的研究人員、相關(guān)企業(yè)和學(xué)者將齊聚這里探討AI的最新進(jìn)展和未來(lái)發(fā)展。

為期七天的會(huì)議將帶來(lái)一系列豐富的主題演講、論文口頭報(bào)告、海報(bào)展示、demo展示等內(nèi)容。我們?yōu)楦魑恍』锇閹?lái)了今天即將舉行教程部分的內(nèi)容概覽,以及即將到來(lái)的Oral口頭報(bào)告的精彩內(nèi)容預(yù)告。

Tutorials 新理論新方法新技術(shù)

Adversarial Robustness: Theory and Practice

來(lái)自CMU和MIT的研究人員將對(duì)于如何實(shí)現(xiàn)真正可靠和魯棒的機(jī)器學(xué)習(xí)系統(tǒng)進(jìn)行講解。這一教程首先對(duì)這一領(lǐng)域存在的關(guān)鍵挑戰(zhàn)進(jìn)行了綜述,并集中在對(duì)抗魯棒性這一問(wèn)題上進(jìn)行深入細(xì)致的分析。將從理論和實(shí)踐角度討論這一問(wèn)題的各個(gè)方面,并將展示近年來(lái)一些經(jīng)過(guò)驗(yàn)證的有效做法。

Scalable Bayesian Inference

來(lái)自杜克大學(xué)的研究人員將帶來(lái)利用貝葉斯統(tǒng)計(jì)方法應(yīng)用于大規(guī)模數(shù)據(jù)集分析的前沿方法。教程將集中與兩個(gè)方面,首先是應(yīng)用于大規(guī)模數(shù)據(jù)的算法,其次是處理超高維度數(shù)據(jù)的手段。教程首先將回顧經(jīng)典的大樣本近似后驗(yàn)分布方法(拉普拉斯方法和貝葉斯中心極限定理),隨后轉(zhuǎn)向利用馬爾科夫蒙特卡洛算法那的概念與實(shí)踐方法。主要的注意力將放在如何在保證精度的情況下,快速的獲取大規(guī)模數(shù)據(jù)集的后驗(yàn)。

Visualization for Machine Learning

對(duì)于機(jī)器學(xué)習(xí)來(lái)說(shuō),可視化是幫助我們理解算法和數(shù)據(jù)的有效手段。這一教程將概覽目前的機(jī)器學(xué)習(xí)可視化方法,如何在研究的不同階段使用合適的可視化方法:分析訓(xùn)練數(shù)據(jù)、理解模型、測(cè)試模型分析等。同時(shí)還將探索可視化在教育以及非技術(shù)領(lǐng)域的應(yīng)用價(jià)值。

Unsupervised Deep Learning

非監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)領(lǐng)域起到越來(lái)越重要的作用,其最主要的挑戰(zhàn)在于如何確定目標(biāo)函數(shù)。這一教程將提供一種概率模型的方法,它將對(duì)數(shù)據(jù)進(jìn)行盡可能的壓縮。同時(shí)教程還將提供包括非歸一化的基于能量的方法、自監(jiān)督算法以及生成模型等方法。

Automatic Machine Learning

機(jī)器學(xué)習(xí)的成功最開(kāi)始依賴(lài)于人類(lèi)的經(jīng)驗(yàn),需要經(jīng)驗(yàn)豐富的研究人員構(gòu)建復(fù)雜的特征工程和選擇合適的機(jī)器學(xué)習(xí)方法、架構(gòu)并詳細(xì)的調(diào)節(jié)各種超參數(shù)。但自動(dòng)機(jī)器學(xué)習(xí)的出現(xiàn)將逐漸改變這一狀況,通過(guò)機(jī)器學(xué)習(xí)和優(yōu)化方法來(lái)提供一種無(wú)須專(zhuān)業(yè)知識(shí)就可以使用的模型。這一領(lǐng)域十分廣泛,包含了超參數(shù)優(yōu)化、神經(jīng)網(wǎng)絡(luò)搜索、元學(xué)習(xí)和遷移學(xué)習(xí)等方向。這一教程將概述目前前沿的方法和技術(shù)。

Statistical Learning Theory: a Hitchhiker's Guide

這一教程將展示統(tǒng)計(jì)學(xué)習(xí)如何評(píng)估和實(shí)現(xiàn)學(xué)習(xí)系統(tǒng),通過(guò)強(qiáng)調(diào)算法如何從結(jié)果中獲得反饋來(lái)提升性能,并理解其極限。這一教程主要為希望進(jìn)一步了解統(tǒng)計(jì)學(xué)習(xí)的研究人員準(zhǔn)備。

此外還有以下教程等待著各位熱愛(ài)學(xué)習(xí)的小伙伴們:

Common Pitfalls for Studying the Human Side of Machine Learning

Counterfactual Inference

Negative Dependence, Stable Polynomials, and All That

Oral 報(bào)告前沿進(jìn)展

Oral部分的演講往往會(huì)帶來(lái)很多優(yōu)秀的研究成果。下面讓我們一起來(lái)看看有哪些有趣的報(bào)告吧!

Learning to Reconstruct Shapes from Unseen Classes

從單張圖片重建未知物體。來(lái)自MIT的研究人員設(shè)計(jì)了一種稱(chēng)為Generalizable Reconstraction(GenRe)的算法,來(lái)從訓(xùn)練數(shù)據(jù)中抽取更多一般的與類(lèi)別無(wú)關(guān)的形狀信息。通過(guò)結(jié)合了可見(jiàn)表面的2.5D表示、可見(jiàn)和不可見(jiàn)表面的球形表示以及三位體素表示來(lái)探索了3D形狀如何得到2D圖片的過(guò)程,并成功的利用訓(xùn)練的網(wǎng)絡(luò)從單張圖片中恢復(fù)出訓(xùn)練集中不存在物體的三維形狀。

文章中提出的模型有三部分構(gòu)成:首先是一個(gè)從深度估計(jì)器;隨后是一個(gè)球面圖像補(bǔ)全網(wǎng)絡(luò),最后是一個(gè)體素精煉網(wǎng)絡(luò)。最后通過(guò)體素和深度圖的疊加來(lái)實(shí)現(xiàn)3D形狀輸出。

下圖是網(wǎng)絡(luò)的預(yù)測(cè),網(wǎng)絡(luò)僅僅在汽車(chē)、飛機(jī)和椅子的數(shù)據(jù)上進(jìn)行了訓(xùn)練,這表明模型已經(jīng)學(xué)習(xí)到了形狀的通用表示。

Discovery of Latent 3D Keypoints via End-to-end Geometric Reasoning

泰國(guó)科技學(xué)院和谷歌的研究人員提出了利用端到端的幾何推理方法發(fā)現(xiàn)潛在的3D關(guān)鍵點(diǎn)。這篇文章中,研究人員提出了KeyPointNet幾何推理框架來(lái)學(xué)習(xí)優(yōu)化每一類(lèi)特定的3D關(guān)鍵點(diǎn)及其檢測(cè)器。這一框架在3D位姿估計(jì)任務(wù)中可以搜尋到一組最優(yōu)的關(guān)鍵點(diǎn)集來(lái)重建某個(gè)物體在兩個(gè)視角下的相對(duì)位姿。

同時(shí)它可以從不同視角的圖像中發(fā)現(xiàn)幾何和語(yǔ)義上一致的關(guān)鍵點(diǎn),并在位姿估計(jì)任務(wù)中超越了全監(jiān)督學(xué)習(xí)的網(wǎng)絡(luò)表現(xiàn)。訓(xùn)練過(guò)程和推理過(guò)程如下,其中兩個(gè)視角下的剛體變換作為監(jiān)督信號(hào),網(wǎng)絡(luò)優(yōu)化得到了一組在兩個(gè)視角下都一致的關(guān)鍵點(diǎn)。

網(wǎng)絡(luò)得到的關(guān)鍵點(diǎn)如上圖所示

Isolating Sources of Disentanglement in VAEs

多倫多大學(xué)向量學(xué)院的研究人員研究了隱變量間整體相關(guān)性,發(fā)現(xiàn)了解構(gòu)的變分下界可以用于解釋?duì)?VAE用于學(xué)習(xí)解耦隱變量的能力,它鼓勵(lì)模型尋找統(tǒng)計(jì)上相互獨(dú)立的因素。隨后提出了一種稱(chēng)為β-TCVAE(total correlation VAE)的算法用于代替β-VAE來(lái)學(xué)習(xí)解耦的隱變量。最后研究人員還提出了一個(gè)與類(lèi)別無(wú)關(guān)的解耦計(jì)量指標(biāo)MIG(mutual information gap)?;谶@一算法訓(xùn)練的模型顯示了解耦和整體相關(guān)性間的強(qiáng)烈關(guān)系。

上圖顯示了利用這種算法對(duì)于隱空間變量結(jié)構(gòu)的學(xué)習(xí)和效果

Policy Optimization via Importance Sampling

來(lái)自米蘭理工的研究人員們提出了一種基于重要性采樣的策略?xún)?yōu)化方法。這篇文章中提出了一種新穎的不基于模型測(cè)策略搜索算法POIS(Policy Optimization via Importance Sampling),可以用于基于行為或者基于參數(shù)的方式。在這一研究中,研究人員首先得到高置信度的重要性采樣估計(jì),隨后定義了代理目標(biāo)函數(shù)來(lái)進(jìn)行線(xiàn)下優(yōu)化,最終在一系列連續(xù)控制任務(wù)中進(jìn)行了線(xiàn)性和深度策略的測(cè)試。

Neuronal Capacity

來(lái)自加州大學(xué)歐文分校的研究人員認(rèn)為,學(xué)習(xí)機(jī)器的能力可以被定義為它可以執(zhí)行函數(shù)數(shù)量的對(duì)數(shù)。在這一工作中,研究人員回顧了已有的工作并推導(dǎo)出了新的結(jié)果,同時(shí)對(duì)多種神經(jīng)模型的容量進(jìn)行了計(jì)算:包括線(xiàn)性和多項(xiàng)式閾值門(mén)、線(xiàn)性和多項(xiàng)式受限閾值門(mén)以及ReLU神經(jīng)元,同時(shí)還推導(dǎo)了一些網(wǎng)絡(luò)的容量。

上圖是不同布爾函數(shù)在N個(gè)變量下的分級(jí)容量圖。

Dendritic cortical microcircuits approximate the backpropagation algorithm

來(lái)自伯爾尼、蒙特利爾大學(xué)的研究人員提出了利用樹(shù)突皮質(zhì)微電(回)路來(lái)近似反向傳播的方法。在這篇文章中研究人員們基于簡(jiǎn)化的輸入間隔引入了一種多層神經(jīng)網(wǎng)絡(luò)模型,它可以基于誤差驅(qū)動(dòng)突觸可塑性適應(yīng)網(wǎng)絡(luò)的全局輸出。與先前方法不同的是,這種模型不需要分成幾個(gè)部分,突觸學(xué)習(xí)是通過(guò)局域樹(shù)突的連續(xù)誤差信號(hào)驅(qū)動(dòng)的。這一誤差信號(hào)來(lái)自于預(yù)測(cè)信號(hào)和實(shí)際信號(hào)不匹配的時(shí)候,通過(guò)簡(jiǎn)單地使用樹(shù)突間隔,這一模型可以表示神經(jīng)元的誤差和正?;顒?dòng)。研究人員還將其用于回歸和分類(lèi)任務(wù)中,并發(fā)現(xiàn)它可以近似誤差反向計(jì)算的BP算法。

圖中顯示了樹(shù)突皮質(zhì)近似bp算法的原理。

A Retrieve-and-Edit Framework for Predicting Structured Outputs

斯坦福的研究人員實(shí)現(xiàn)了可以預(yù)測(cè)結(jié)構(gòu)化輸出的檢索-編輯框架。對(duì)于生成源代碼這樣復(fù)雜的結(jié)構(gòu)化輸出任務(wù)來(lái)說(shuō),通過(guò)對(duì)已有的代碼進(jìn)行編輯比從零開(kāi)始生成容易的多?;谶@樣的想法,研究人員提出了一種新的框架:首先根據(jù)輸入檢索出訓(xùn)練樣本,隨后對(duì)其進(jìn)行編輯得到期望的輸出結(jié)果。這種方法無(wú)需復(fù)雜的手工度量或與編輯器進(jìn)行聯(lián)調(diào),計(jì)算高效適應(yīng)性強(qiáng)。作者表示這一框架可以用于任何基礎(chǔ)框架之上,并在Github Python代碼和Hearthstone card上取得了優(yōu)異的結(jié)果。

框架如上圖所示

顯示一些基于檢索-編輯框架生成的源碼。

Model-Agnostic Private Learning

牛津大學(xué)的研究人員在神經(jīng)科學(xué)的啟發(fā)下研究了如何實(shí)現(xiàn)知識(shí)泛化(一般化)的能力,在本文中提出為了一般化結(jié)構(gòu)化的知識(shí)、表示世界結(jié)構(gòu)的知識(shí)(例如世界中的實(shí)體間的相互關(guān)系)需要與實(shí)體自身的表示進(jìn)行分離。研究表明,在這一觀點(diǎn)的指導(dǎo)下、利用層級(jí)和記憶實(shí)現(xiàn)的神經(jīng)網(wǎng)絡(luò)可以學(xué)到記憶的統(tǒng)計(jì)信息并泛化結(jié)構(gòu)化知識(shí),同時(shí)空間認(rèn)知能力是更一般化組織原則的實(shí)例。

結(jié)構(gòu)化與傳感信息的獨(dú)立表示在銜接編碼中結(jié)合。右圖顯示了模型需要從不同的域中抽取出一般化的統(tǒng)計(jì)信息。

除此之外,還有包括學(xué)習(xí)理論、優(yōu)化過(guò)程、強(qiáng)化學(xué)習(xí)、采樣、近似和各個(gè)領(lǐng)域詳盡的理論分析。感興趣的小伙伴可以在這里找到更多的Oral報(bào)告:https://neurips.cc/Conferences/2018/Schedule?type=Oral

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:寒冷冬日NeurIPS熱力來(lái)襲,Tutorials、Oral內(nèi)容一覽

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門(mén)創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    益登科技原廠Supermicro和江波龍參展MWC 2026

    20263月2日至5日,MWC 2026在西班牙巴塞羅那舉行,這場(chǎng)一年一度的電子產(chǎn)業(yè)盛會(huì)成為全球電子產(chǎn)業(yè)的閃亮舞臺(tái),匯聚全球科技領(lǐng)域巨頭與創(chuàng)新力量為世界展示極具吸引力的AI未來(lái)。
    的頭像 發(fā)表于 03-06 14:32 ?452次閱讀

    匯川技術(shù)董事長(zhǎng)朱興明2026年度演講實(shí)錄

    一年一度的新年演講,又和大家見(jiàn)面了。今天,我把匯川的實(shí)踐和我的思考分享給大家,我先重點(diǎn)講這兩我推進(jìn)的項(xiàng)核心工作:打造“人腦工程”,升級(jí)多數(shù)員工的認(rèn)知“操作系統(tǒng)”。
    的頭像 發(fā)表于 02-02 09:41 ?785次閱讀

    2026,思持續(xù)深耕RISC - V與AI

    的技術(shù)創(chuàng)新,和以AI數(shù)據(jù)中心、具身智能、新能源汽車(chē)、工業(yè)智能、衛(wèi)星通信、AI眼鏡等為代表的新興應(yīng)用,開(kāi)啟輪的技術(shù)和應(yīng)用革命。過(guò)去的一年
    的頭像 發(fā)表于 12-23 10:58 ?5136次閱讀
    2026<b class='flag-5'>年</b>,思<b class='flag-5'>爾</b>芯<b class='flag-5'>將</b>持續(xù)深耕RISC - V與<b class='flag-5'>AI</b>

    安富榮獲歌集團(tuán)2025年度最佳協(xié)同獎(jiǎng)

    ,榮獲全球智能硬件與精密制造領(lǐng)軍企業(yè)——歌集團(tuán)頒發(fā)的2025年度“最佳協(xié)同獎(jiǎng)”。該獎(jiǎng)項(xiàng)旨在表彰那些在合作中表現(xiàn)突出、深度融入客戶(hù)價(jià)值鏈的核心伙伴。安富中國(guó)區(qū)總裁董花出席大會(huì)并代表公司領(lǐng)獎(jiǎng)。
    的頭像 發(fā)表于 12-10 14:44 ?732次閱讀

    Verosoft發(fā)布mobiMentor AI

    Verosoft發(fā)布mobiMentor AI:首款專(zhuān)為“完成真實(shí)維護(hù)任務(wù)”而生的智能體AI 語(yǔ)音驅(qū)動(dòng)執(zhí)行、智能自動(dòng)化與經(jīng)過(guò)維護(hù)訓(xùn)練的智能體,使工業(yè)領(lǐng)域達(dá)到全新生產(chǎn)力水平。 蒙特利爾2025
    的頭像 發(fā)表于 11-20 09:31 ?134次閱讀
    Verosoft發(fā)布mobiMentor <b class='flag-5'>AI</b>

    增19%!中美歐等法規(guī)出手,這顆傳感器迎來(lái)全球爆發(fā)潮

    ? ? 增19%!中美歐等法規(guī)出臺(tái),這顆傳感器迎爆發(fā)浪潮 ? ? 201610月,聯(lián)合國(guó)關(guān)于《〈關(guān)于消耗臭氧層物質(zhì)的蒙特利爾議定書(shū)〉基加利修正案》在盧旺達(dá)基加利通過(guò),并于 2019
    的頭像 發(fā)表于 10-28 18:08 ?1390次閱讀
    <b class='flag-5'>年</b>增19%!中美歐等法規(guī)出手,這顆傳感器迎來(lái)全球爆發(fā)潮

    《國(guó)際人工智能安全報(bào)告》發(fā)布首份關(guān)鍵更新

    蒙特利爾202510月17日 /美通社/ -- 《國(guó)際人工智能安全報(bào)告》首次關(guān)鍵更新已發(fā)布,就先進(jìn)人工智能的能力與風(fēng)險(xiǎn)提供了最新信息。 該報(bào)告由圖靈獎(jiǎng)得主、計(jì)算機(jī)科學(xué)家Yoshua Bengio
    的頭像 發(fā)表于 10-17 04:20 ?504次閱讀

    AI賦能6G與衛(wèi)星通信:開(kāi)啟智能天網(wǎng)新時(shí)代

    開(kāi)啟個(gè)全新的通信時(shí)代。它不僅讓衛(wèi)星通信更加可靠、高效,更讓全球通信網(wǎng)絡(luò)真正實(shí)現(xiàn)\"無(wú)縫覆蓋\"。 在未來(lái)的智慧城市中,AI+6G+衛(wèi)星提供無(wú)處不在的高速連接,支持自動(dòng)駕駛、遠(yuǎn)程
    發(fā)表于 10-11 16:01

    高通攜手合作伙伴啟動(dòng)AI加速計(jì)劃

    今日,2025驍龍峰會(huì)·中國(guó)在北京正式啟幕。在高通公司成立40周、高通植根中國(guó)發(fā)展30之際,一年一度的引領(lǐng)行業(yè)發(fā)展的科技盛會(huì)——驍龍峰會(huì)在夏威夷和北京兩地同步舉行。
    的頭像 發(fā)表于 09-29 14:06 ?1187次閱讀

    維信諾亮相2025上海顯示技術(shù)及應(yīng)用創(chuàng)新展

    2025被稱(chēng)作“AI顯示元年”。8月7-9日,一年一度的顯示盛會(huì)國(guó)際(上海)顯示技術(shù)及應(yīng)用創(chuàng)新展(DIC EXPO)舉辦,主題為“AI·顯示,再謀新篇”。
    的頭像 發(fā)表于 08-08 16:34 ?3682次閱讀

    聚焦“AI時(shí)代的設(shè)計(jì)師” 阿里設(shè)計(jì)D20全球設(shè)計(jì)院長(zhǎng)峰會(huì)在杭召開(kāi)

    此前,7月11日-12日,全中國(guó)乃至全球的優(yōu)秀設(shè)計(jì)師都匯聚到了阿里巴巴全球總部,共赴一年一度的D20全球設(shè)計(jì)院長(zhǎng)峰會(huì)。
    的頭像 發(fā)表于 07-24 18:16 ?942次閱讀

    Kneron耐能邀您相約2025臺(tái)北電腦展

    一年一度的全球頂尖科技盛會(huì),2025臺(tái)北電腦展(COMPUTEX)以“AI Next”為主題,匯聚全球科技巨頭與創(chuàng)新力量盛大來(lái)襲。
    的頭像 發(fā)表于 05-21 11:29 ?932次閱讀

    艾為電子助力聯(lián)想Lecoo斗戰(zhàn)者G1 AI拍攝眼鏡發(fā)布

    近日,在一年一度的聯(lián)想創(chuàng)新科技大會(huì)上,聯(lián)想Lecoo(來(lái)酷)斗戰(zhàn)者G1拍攝AI眼鏡、聯(lián)想V1 AR智能眼鏡正式發(fā)布。
    的頭像 發(fā)表于 05-16 15:13 ?1350次閱讀
    艾為電子助力聯(lián)想Lecoo斗戰(zhàn)者G1 <b class='flag-5'>AI</b>拍攝眼鏡發(fā)布

    圖讀懂德明2024年度報(bào)告

    圖讀懂德明2024年度報(bào)告
    的頭像 發(fā)表于 04-25 22:42 ?701次閱讀
    <b class='flag-5'>一</b>圖讀懂德明<b class='flag-5'>利</b>2024<b class='flag-5'>年度</b>報(bào)告

    晶科鑫亮相2025慕尼黑上海電子展

    2025 4 月 15 日,備受矚目的慕尼黑上海電子展(electronica China)在上海新國(guó)際博覽中心盛大開(kāi)展!這場(chǎng)行業(yè)盛會(huì)一年一度,始終是電子領(lǐng)域的焦點(diǎn),此次也不例外。
    的頭像 發(fā)表于 04-16 17:04 ?990次閱讀