91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讀懂NeurIPS2019最佳機(jī)器學(xué)習(xí)論文

倩倩 ? 來(lái)源:讀芯術(shù) ? 2020-01-16 09:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

NeurIPS是全球頂級(jí)的機(jī)器學(xué)習(xí)會(huì)議。沒有其他研究會(huì)議可以吸引6000多位該領(lǐng)域內(nèi)真正的精英同時(shí)參加。如果你非常想了解機(jī)器學(xué)習(xí)最新的研究進(jìn)展,就需要關(guān)注NeurIPS。

每年,NeurIPS都會(huì)為機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)研究論文頒發(fā)各類獎(jiǎng)項(xiàng)??紤]到這些論文的前沿水平,它們對(duì)于大多數(shù)人來(lái)說(shuō)通?;逎y懂。

但是不用擔(dān)心!我瀏覽了這些優(yōu)秀論文,并在本文總結(jié)了要點(diǎn)!我的目的是通過(guò)將關(guān)鍵的機(jī)器學(xué)習(xí)概念分解為大眾易于理解的小點(diǎn)來(lái)幫助你了解每篇論文的本質(zhì)。

以下是我將介紹的三個(gè)NeurIPS2019最佳論文的獎(jiǎng)項(xiàng):

最佳論文獎(jiǎng)

杰出新方向論文獎(jiǎng)

經(jīng)典論文獎(jiǎng)

讓我們深入了解吧!

NeurIPS 2019最佳論文獎(jiǎng)

在NeurIPS 2019上獲得的最佳論文獎(jiǎng)是:

具有Massart噪聲的半空間的獨(dú)立分布的PAC學(xué)習(xí)(Distribution-Independent PAC Learning of Halfspaces with MassartNoise)

這是一篇非常好的論文!這讓我開始思考機(jī)器學(xué)習(xí)中的一個(gè)基本概念:噪聲和分布。這需要對(duì)論文本身進(jìn)行大量研究,我將盡力解釋論文的要點(diǎn)而不使其變得復(fù)雜。

我們先重述標(biāo)題。本文的研究討論了一種用于學(xué)習(xí)半空間的算法,該算法在與分布無(wú)關(guān)的PAC模型中使用,且研究的半空間具有Massart噪聲。該算法是該領(lǐng)域中最有效的算法。

本文的關(guān)鍵術(shù)語(yǔ)如下。

回顧布爾函數(shù)和二進(jìn)制分類的概念。本質(zhì)上,

一個(gè)半空間是一個(gè)布爾函數(shù),其中兩個(gè)類(正樣本和負(fù)樣本)由一個(gè)超平面分開。由于超平面是線性的,因此它也被稱為線性閾值函數(shù)(LTF)。

在數(shù)學(xué)上,線性閾值函數(shù)或半空間是一個(gè)閾值函數(shù),可以由以某個(gè)閾值T為邊界的輸入?yún)?shù)的線性方程表示。布爾函數(shù)如果具有以下形式,則為線性閾值函數(shù):

其中:

是權(quán)重

是特征

表示給出實(shí)數(shù)符號(hào)的符號(hào)函數(shù)

是閾值

我們也可以將LTF稱為感知器(此處需要使用神經(jīng)網(wǎng)絡(luò)知識(shí)?。?。

PAC(Probably Approximately Correct)模型是二分類的標(biāo)準(zhǔn)模型之一。

“Massart噪聲條件,或僅僅是Massart噪聲,是每個(gè)樣本/記錄的標(biāo)簽以學(xué)習(xí)算法未知的很小概率進(jìn)行的翻轉(zhuǎn)?!?/p>

翻轉(zhuǎn)的可能性受某個(gè)始終小于1/2的因子n的限制。為了找到使得誤分類錯(cuò)誤較小的假設(shè),我們?cè)谙惹暗恼撐闹羞M(jìn)行了各種嘗試來(lái)限制錯(cuò)誤以及與數(shù)據(jù)噪聲相關(guān)的風(fēng)險(xiǎn)。

這項(xiàng)研究在確定樣本復(fù)雜性的同時(shí),證明了多項(xiàng)式時(shí)間(1/epsilon)的額外風(fēng)險(xiǎn)等于Massart噪聲水平加上epsilon。

本文是邁向僅實(shí)現(xiàn)ε過(guò)量風(fēng)險(xiǎn)這一目標(biāo)的巨大飛躍。

獲得NeurIPS杰出論文獎(jiǎng)提名的其他論文:

1. Besov IPM損耗下GAN的非參數(shù)密度估計(jì)和收斂速度(Nonparametric Density Estimation & Convergence Rates for GANs under Besov IPM Losses)

2. 快速準(zhǔn)確的最小均方求解(Fast andAccurate Least-Mean-Squares Solvers)

NeurIPS 2019杰出新方向論文

今年的NeurIPS2019為獲獎(jiǎng)?wù)撐脑O(shè)置了一個(gè)新獎(jiǎng)項(xiàng)杰出新方向論文獎(jiǎng)。用主辦方的話來(lái)說(shuō): “該獎(jiǎng)項(xiàng)旨在表彰為未來(lái)研究建立新途徑的杰出工作?!?/p>

該獎(jiǎng)項(xiàng)的獲獎(jiǎng)文章是 ——《一致收斂性可能無(wú)法解釋深度學(xué)習(xí)中的泛化性》(Uniform convergence may be unable to explain generalization in deeplearning)

今年我最喜歡的論文之一!本文從理論和實(shí)踐兩個(gè)方面闡述了當(dāng)前的深度學(xué)習(xí)算法無(wú)法解釋深度神經(jīng)網(wǎng)絡(luò)中的泛化。讓我們來(lái)更詳細(xì)地了解這一點(diǎn)。

一致收斂性可能無(wú)法解釋深度學(xué)習(xí)中的泛化性(Uniform convergence may be unable to explain generalization in deeplearning)

大型網(wǎng)絡(luò)很好地概括了看不見的訓(xùn)練數(shù)據(jù),盡管這些數(shù)據(jù)已被訓(xùn)練為完全適合隨機(jī)標(biāo)記。但是,當(dāng)特征數(shù)量大于訓(xùn)練樣本的數(shù)量時(shí),這些網(wǎng)絡(luò)的表現(xiàn)就沒那么好了。

盡管如此,它們?nèi)匀粸槲覀兲峁┝俗钚碌男阅苤笜?biāo)。這也表明這些超參數(shù)化模型過(guò)度地依賴參數(shù)計(jì)數(shù)而沒有考慮批量大小的變化。如果我們遵循泛化的基本方程:

測(cè)試誤差 – 訓(xùn)練誤差 《= 泛化界限

對(duì)于上面的方程式,我們采用所有假設(shè)的集合,并嘗試最小化復(fù)雜度并使這些界限盡可能地窄。

迄今為止的研究都集中于通過(guò)獲取假設(shè)類別的相關(guān)子集來(lái)收緊界限。在完善這些約束方面也有很多開創(chuàng)性的研究,所有這些都基于統(tǒng)一收斂的概念。

但是,本文解釋這些算法可能出現(xiàn)的兩種情況:

太大,并且其復(fù)雜度隨參數(shù)數(shù)量而增加;

很小,但是在修改后的網(wǎng)絡(luò)上設(shè)計(jì)而來(lái)

“該論文定義了一組用于泛化界限的標(biāo)準(zhǔn),并通過(guò)一組演示實(shí)驗(yàn)證明統(tǒng)一收斂為何無(wú)法完全解釋深度學(xué)習(xí)中的泛化?!?/p>

泛化界限如下:

1. 理想情況下必須 《1(空)

2. 隨著寬度的增加變小

3. 適用于由SGD(隨機(jī)梯度下降)學(xué)習(xí)的網(wǎng)絡(luò)

4. 隨著隨機(jī)翻轉(zhuǎn)的訓(xùn)練標(biāo)簽的比例而增加

5. 應(yīng)該與數(shù)據(jù)集大小成反比

之前提到的實(shí)驗(yàn)是在MNIST數(shù)據(jù)集上使用三種類型的過(guò)度參數(shù)化模型(均在SGD算法上進(jìn)行訓(xùn)練)完成的:

1. 線性分類器

2. 具有ReLU的寬神經(jīng)網(wǎng)絡(luò)

3. 具有固定隱藏權(quán)重的無(wú)限寬度神經(jīng)網(wǎng)絡(luò)

本文繼而演示了針對(duì)不同訓(xùn)練集大小的不同超參數(shù)設(shè)置。

“一個(gè)非常有趣的發(fā)現(xiàn)是,盡管測(cè)試集誤差隨訓(xùn)練集大小的增加而減小,但泛化界限實(shí)際上卻有所增加。 ”

如果網(wǎng)絡(luò)只是記住了我們不斷添加到訓(xùn)練集中的數(shù)據(jù)點(diǎn),該怎么辦?

以研究人員給出的例子為例。對(duì)于一個(gè)擁有1000個(gè)維度的數(shù)據(jù)集的分類任務(wù),使用SGD訓(xùn)練具有1個(gè)隱藏層ReLU和10萬(wàn)個(gè)單位的超參數(shù)化模型。訓(xùn)練集大小的增加可提高泛化性并減少測(cè)試集錯(cuò)誤。

盡管進(jìn)行了泛化,它們?nèi)匀蛔C明了決策邊界非常復(fù)雜。這是它們違背統(tǒng)一收斂思想的地方。

因此,即使對(duì)于線性分類器,統(tǒng)一收斂也不能完全解釋泛化。實(shí)際上,當(dāng)增加樣本數(shù)量時(shí),這可以認(rèn)為是導(dǎo)致界限增加的一個(gè)因素!

盡管先前的研究已將發(fā)展深度網(wǎng)絡(luò)的方向朝著依賴于算法的方向發(fā)展(以便堅(jiān)持一致收斂),但本文提出了開發(fā)不依賴于算法的技術(shù)的需求,這些技術(shù)不會(huì)局限于一致收斂來(lái)解釋泛化。

我們可以清楚地知道,為什么該機(jī)器學(xué)習(xí)研究論文在NeurIPS 2019上獲得了杰出新方向論文獎(jiǎng)。

研究人員已經(jīng)表明,僅僅用一致收斂不足以解釋深度學(xué)習(xí)中的泛化。同樣,不可能達(dá)到滿足所有5個(gè)標(biāo)準(zhǔn)的小界限。這開辟了一個(gè)全新的研究領(lǐng)域來(lái)探索可能解釋泛化的其他工具。

NeurIPS在杰出新方向論文獎(jiǎng)上的其他提名包括:

1. 端到端:表征的梯度隔離學(xué)習(xí)(Putting AnEnd to End-to-End: Gradient-Isolated Learning of Representations)

2. 場(chǎng)景表示網(wǎng)絡(luò):連續(xù)的3D-結(jié)構(gòu)感知神經(jīng)場(chǎng)景表示(SceneRepresentation Networks: Continuous 3D-Structure-Aware Neural SceneRepresentations)

NeurIPS 2019的經(jīng)典論文獎(jiǎng)

每年,NeurIPS還會(huì)獎(jiǎng)勵(lì)10年前在大會(huì)上發(fā)表的一篇論文,該論文對(duì)該領(lǐng)域的貢獻(xiàn)產(chǎn)生了深遠(yuǎn)的影響(也是廣受歡迎的論文)。

今年,“經(jīng)典論文獎(jiǎng)”授予了LinXiao寫作的“正則隨機(jī)學(xué)習(xí)和在線優(yōu)化的雙重平均法”。這項(xiàng)研究基于基本概念,這些基本概念為眾所周知的現(xiàn)代機(jī)器學(xué)習(xí)奠定了基礎(chǔ)。

正則隨機(jī)學(xué)習(xí)和在線優(yōu)化的雙重平均法(Dual Averaging Method for Regularized Stochastic Learning and OnlineOptimization)

讓我們分解一下這篇極佳的論文中涵蓋的四個(gè)關(guān)鍵概念:

隨機(jī)梯度下降:隨機(jī)梯度下降已經(jīng)正式成為機(jī)器學(xué)習(xí)中的最優(yōu)化方法。它可以通過(guò)以下隨機(jī)優(yōu)化來(lái)實(shí)現(xiàn)?;仡橲GD和大樣本隨機(jī)優(yōu)化方程——這里,w是權(quán)重向量,z是輸入特征向量。對(duì)于t = 0,1,2…

在線凸優(yōu)化:另一項(xiàng)開創(chuàng)性的研究。它被模擬為游戲,玩家將嘗試預(yù)測(cè)權(quán)重向量,并在每個(gè)t處計(jì)算出最終的損失。主要目的是最大程度地減少這種損失——結(jié)果與我們使用隨機(jī)梯度下降進(jìn)行優(yōu)化的方式非常相似

壓縮學(xué)習(xí):這包括套索回歸,L1正則化最小二乘和其他混合正則化方案

近端梯度法:與早期的技術(shù)相比,這是一種減少損耗且仍保留凸度的更快的方法

盡管先前的研究開發(fā)了一種收斂到O(1/t)的有效算法,但數(shù)據(jù)稀疏性是在那之前一直被忽略的一個(gè)因素。本文提出了一種新的正則化技術(shù),稱為正則化雙重平均法(RDA),用于解決在線凸優(yōu)化問題。

當(dāng)時(shí),這些凸優(yōu)化問題效率不高,特別是在可伸縮性方面。

這項(xiàng)研究提出了一種批處理優(yōu)化的新方法。這意味著最初僅提供一些獨(dú)立樣本,并且基于這些樣本(在當(dāng)前時(shí)間t)計(jì)算權(quán)重向量。相對(duì)于當(dāng)前權(quán)重向量的損失與次梯度一起計(jì)算。并在迭代中(在時(shí)間t + 1)再次使用它。

具體而言,在RDA中,考慮了平均次梯度,而不是當(dāng)前的次梯度。

“當(dāng)時(shí),對(duì)于稀疏的MNIST數(shù)據(jù)集,此方法比SGD和其他流行技術(shù)獲得了更好的結(jié)果。實(shí)際上,隨著稀疏度的增加,RDA方法也具有明顯更好的結(jié)果。”

在進(jìn)一步研究上述方法的多篇論文中,如流形識(shí)別、加速RDA等,都證明了這篇論文被授予經(jīng)典論文獎(jiǎng)是當(dāng)之無(wú)愧。

結(jié)語(yǔ)

NeurIPS 2019再次成為了一次極富教育意義和啟發(fā)性的會(huì)議。我對(duì)杰出新方向論文獎(jiǎng)以及它如何解決深度學(xué)習(xí)中的泛化問題特別感興趣。

哪一篇機(jī)器學(xué)習(xí)研究論文引起了你的注意?或者是否有其他的論文,讓你想要去嘗試或者啟發(fā)了你?請(qǐng)?jiān)谙旅娴脑u(píng)論區(qū)中告訴我們吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 二進(jìn)制
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    43106
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4419

    瀏覽量

    67683
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8558

    瀏覽量

    137085
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能4篇論文入選人工智能頂會(huì)ICLR 2026

    繼斬獲NeurIPS、ICCV、AAAI、ACMMM四大頂會(huì)認(rèn)可后,后摩智能再傳捷報(bào)——4篇論文成功入選國(guó)際頂級(jí)人工智能會(huì)議ICLR 2026(International Conference
    的頭像 發(fā)表于 02-09 14:18 ?830次閱讀

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-04 14:44 ?580次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?264次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    MediaTek多篇論文入選全球前沿國(guó)際學(xué)術(shù)會(huì)議

    MediaTek 宣布,今年旗下多篇論文入選 ISSCC、NeurIPS、CVPR、ICLR、ICML、ICC、CLOBECOM 等全球半導(dǎo)體、人工智能及通信領(lǐng)域的前沿國(guó)際學(xué)術(shù)會(huì)議。此外
    的頭像 發(fā)表于 12-02 14:43 ?671次閱讀

    地平線五篇論文入選NeurIPS 2025與AAAI 2026

    近日,兩大頂級(jí)學(xué)術(shù)會(huì)議錄用結(jié)果相繼揭曉,地平線憑借在機(jī)器人算法領(lǐng)域的深度鉆研,共有5篇論文從全球數(shù)萬(wàn)份投稿中脫穎而出,分別入選NeurIPS 2025與AAAI 2026。
    的頭像 發(fā)表于 11-27 11:39 ?1204次閱讀
    地平線五篇<b class='flag-5'>論文</b>入選<b class='flag-5'>NeurIPS</b> 2025與AAAI 2026

    后摩智能六篇論文入選四大國(guó)際頂會(huì)

    2025年以來(lái),后摩智能在多項(xiàng)前沿研究領(lǐng)域取得突破性進(jìn)展,近期在NeurIPS、ICCV、AAAI、ACMMM四大國(guó)際頂會(huì)上有 6 篇論文入選。致力于大模型的推理優(yōu)化、微調(diào)、部署等關(guān)鍵技術(shù)難題,為大模型的性能優(yōu)化與跨場(chǎng)景應(yīng)用提供了系統(tǒng)化解決方案。
    的頭像 發(fā)表于 11-24 16:42 ?1329次閱讀
    后摩智能六篇<b class='flag-5'>論文</b>入選四大國(guó)際頂會(huì)

    理想汽車12篇論文入選全球五大AI頂會(huì)

    2025年三季度以來(lái),理想汽車基座模型團(tuán)隊(duì)在國(guó)際頂級(jí)AI學(xué)術(shù)會(huì)議上取得重大突破,共有12篇高質(zhì)量研究論文入選AAAI、NeurIPS、EMNLP、ACM MM、ICCV五大頂會(huì)。
    的頭像 發(fā)表于 11-21 14:44 ?842次閱讀
    理想汽車12篇<b class='flag-5'>論文</b>入選全球五大AI頂會(huì)

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇論文入選NeurIPS 2025

    近日,機(jī)器學(xué)習(xí)與計(jì)算神經(jīng)科學(xué)領(lǐng)域全球頂級(jí)學(xué)術(shù)頂級(jí)會(huì)議NeurIPS 2025公布論文錄用結(jié)果,思必馳-上海交大聯(lián)合實(shí)驗(yàn)室共有5篇論文被收錄。
    的頭像 發(fā)表于 10-23 15:24 ?935次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇<b class='flag-5'>論文</b>入選<b class='flag-5'>NeurIPS</b> 2025

    易控智駕與中科院端到端自動(dòng)駕駛方案入選CoRL 2025

    近日,旨在分享和探討機(jī)器人技術(shù)與機(jī)器學(xué)習(xí)交叉領(lǐng)域最新進(jìn)展的國(guó)際頂級(jí)機(jī)器人學(xué)習(xí)會(huì)議CoRL 2025 (Conference on Robot Learning)
    的頭像 發(fā)表于 08-18 14:43 ?2435次閱讀
    易控智駕與中科院端到端自動(dòng)駕駛方案入選CoRL 2025

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?2971次閱讀

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文獎(jiǎng)

    》,成功榮獲第52屆計(jì)算機(jī)體系結(jié)構(gòu)國(guó)際研討會(huì)(ISCA)最佳論文獎(jiǎng)。作為國(guó)內(nèi)學(xué)術(shù)機(jī)構(gòu)在該會(huì)議上的首次獲獎(jiǎng)成果,其核心創(chuàng)新聚焦于邊緣側(cè)大語(yǔ)言模型(LLM)推理加速架構(gòu)的關(guān)鍵技術(shù)突破,為解決邊緣設(shè)備高效LLM推理難題提供了創(chuàng)新性方案。
    的頭像 發(fā)表于 07-05 11:21 ?2336次閱讀

    機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    騰訊會(huì)議---六月直播 1.機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用 2.COMSOL聲學(xué)多物理場(chǎng)仿真技術(shù)與應(yīng)用 3.超表面逆向設(shè)計(jì)及前沿應(yīng)用(從基礎(chǔ)入門到論文復(fù)現(xiàn)) 4.智能光學(xué)計(jì)算成像技術(shù)
    的頭像 發(fā)表于 06-04 17:59 ?675次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    STM32+Android實(shí)現(xiàn)的智能家政機(jī)器人電路代碼論文及項(xiàng)目源碼

    STM32+Android實(shí)現(xiàn)的智能家政機(jī)器人電路代碼論文及項(xiàng)目部分截圖:
    發(fā)表于 05-28 21:22

    老板必修課:如何用NotebookLM 在上下班路上吃透一篇科技論文?

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 作為私營(yíng)企業(yè)主,每天的工作都非常繁忙,真正能學(xué)習(xí)的時(shí)間,可能就是在開車上下班或去拜訪客戶的路上。 作為科技企業(yè)的領(lǐng)航人,堅(jiān)持學(xué)習(xí)并深入理解先進(jìn)技術(shù),是非
    的頭像 發(fā)表于 05-07 16:13 ?736次閱讀
    老板必修課:如何用NotebookLM 在上下班路上吃透一篇科技<b class='flag-5'>論文</b>?

    一圖讀懂德明利2024年度報(bào)告

    一圖讀懂德明利2024年度報(bào)告
    的頭像 發(fā)表于 04-25 22:42 ?681次閱讀
    一圖<b class='flag-5'>讀懂</b>德明利2024年度報(bào)告