91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

約翰·卡馬克:學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)這一周

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:鄧佳佳 ? 2018-03-21 16:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


熟悉電子游戲的讀者也許聽(tīng)說(shuō)過(guò)約翰·卡馬克(John Carmack),在游戲領(lǐng)域,這個(gè)名字稱(chēng)得上是偶像級(jí)別的存在:3D引擎之父、第一人稱(chēng)射擊游戲教父、電腦怪才……和那個(gè)時(shí)代的科技大牛一樣,他自學(xué)成才,考上名校,繼而輟學(xué)入職,投身游戲軟件開(kāi)發(fā)。他是個(gè)兼具數(shù)學(xué)家和哲學(xué)家氣質(zhì)的程序員,也是個(gè)只想寫(xiě)出好代碼的純粹的天才。那么,面對(duì)洶涌而來(lái)的人工智能浪潮,這位老一輩的程序員會(huì)有什么看法呢?

經(jīng)歷了一周努力學(xué)習(xí),近日,約翰·卡馬克在他的Facebook上發(fā)表了一篇名為1-week experience learning neural networks from scratch的學(xué)習(xí)心得,引起了網(wǎng)友的廣泛關(guān)注,以下是論智編譯的原文

隔了這么多年后,我終于找了一個(gè)遠(yuǎn)離工作事務(wù)紛擾的角落,撿起編程,以一個(gè)隱居者的心態(tài)學(xué)習(xí)了一周。在過(guò)去的幾年里,我的妻子一直慷慨地提供給我這樣的環(huán)境,但我始終無(wú)法從工作中脫身,連休假期間都不得安寧。

而現(xiàn)在,隨著我在Oculuss中工作進(jìn)展的變化,我想從頭開(kāi)始用C++編寫(xiě)一些神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)。我計(jì)劃挑選的操作系統(tǒng)是標(biāo)準(zhǔn)、準(zhǔn)確的OpenBSD,有人說(shuō)我的選擇太隨意了,可事實(shí)證明它確實(shí)沒(méi)問(wèn)題。

說(shuō)實(shí)在的,雖然我一直很欣賞OpenBSD的想法——這是一個(gè)相對(duì)簡(jiǎn)單同時(shí)又頗具見(jiàn)地的操作系統(tǒng),它目標(biāo)精準(zhǔn),重視程式碼的品質(zhì)和工藝,但之前我并沒(méi)有用過(guò)它。Linux什么都好,可惜的是這些優(yōu)點(diǎn)它都沒(méi)有。

這倒也不是說(shuō)我是個(gè)UNIX geek。我最喜歡的還是Windows的Visual Studio,所以其實(shí)我完全可以回避這些問(wèn)題。我只是單純覺(jué)得在老式UNIX風(fēng)格下進(jìn)行長(zhǎng)達(dá)一周的沉浸式工作會(huì)很有趣,即使進(jìn)度會(huì)慢一些。這是復(fù)古計(jì)算的一次冒險(xiǎn)——是fvwm & vi,而不是vim,是BSD vi。

而且我并沒(méi)有真正探索完整個(gè)系統(tǒng),因?yàn)槲野?5%的時(shí)間都花在基礎(chǔ)的 vi/make/gdb 操作上了。我很喜歡那些實(shí)用的幫助手冊(cè)頁(yè)面,雖然一直在摸索自己能在這個(gè)系統(tǒng)里做什么,但我實(shí)在不想上網(wǎng)直接搜。試想一下,我是在查閱30幾年前的老東西,如Tektronix terminal的手冊(cè),這簡(jiǎn)直不能更有趣。

有一點(diǎn)讓我比較驚訝,就是OpenBSD對(duì)C++的支持有點(diǎn)爛。G++不支持C++11,LLVM C++也不能很好地和gdb配合使用。我做gdb時(shí)系統(tǒng)崩了幾次,我懷疑是C++導(dǎo)致的。當(dāng)然,你不用跟我說(shuō)它可以升級(jí),我就想用最基礎(chǔ)的操作系統(tǒng)。

現(xiàn)在回過(guò)頭來(lái)看,我應(yīng)該是完全復(fù)古了,而且寫(xiě)的東西完全符合ANSI C標(biāo)準(zhǔn)。和許多老程序員一樣,有幾天我會(huì)忍不住反思:也許C++并沒(méi)有我們想得那么好……雖然我還喜歡很多其他的東西,但用普通的C語(yǔ)言寫(xiě)個(gè)小項(xiàng)目還難不倒我。當(dāng)然,如果還有下次的話,我會(huì)試試Emacs,這是另一個(gè)我沒(méi)怎么接觸過(guò)的領(lǐng)域。

在這之前,我其實(shí)已經(jīng)對(duì)大多數(shù)機(jī)器學(xué)習(xí)算法有了成熟的了解,而且也做過(guò)一些線性分類(lèi)器和決策樹(shù)之類(lèi)的工作。但出于某些原因,我還沒(méi)碰過(guò)神經(jīng)網(wǎng)絡(luò),這在某種程度上可能是因?yàn)?a target="_blank">深度學(xué)習(xí)太時(shí)髦了,導(dǎo)致我對(duì)它持保守意見(jiàn),或許也有一些反思性的偏見(jiàn)。我還不能接受“把所有東西丟進(jìn)神經(jīng)網(wǎng)絡(luò)里,然后讓它自己整理”這種套路。

而本著復(fù)古主義精神,我打印了幾篇Yann LeCun的舊論文,然后脫機(jī)工作,假裝自己正身處某地的山間小屋,但現(xiàn)實(shí)是——我還是偷偷在YouTube上看了不少斯坦福CS231N的視頻,并從中學(xué)到了很多東西。我一般很少看這種演講視頻,會(huì)覺(jué)得有點(diǎn)浪費(fèi)時(shí)間,但這樣“見(jiàn)風(fēng)使舵”的感覺(jué)也不賴(lài)。

我其實(shí)不認(rèn)為自己對(duì)神經(jīng)網(wǎng)絡(luò)有什么獨(dú)特的想法和建議,但就個(gè)人體驗(yàn)而言,這是高效的一周,因?yàn)槲野褧?shū)本上的知識(shí)固化成了真實(shí)經(jīng)驗(yàn)。我的實(shí)踐模式也很常規(guī):先用hacky代碼寫(xiě)一版,再根據(jù)視頻教程重寫(xiě)一個(gè)全新的、整潔的版本,所以兩者可以交叉檢查,不斷優(yōu)化。

我也曾在反向傳播上反復(fù)跌倒了好幾次,最后得出的經(jīng)驗(yàn)是比較數(shù)值差異非常重要!但很有趣的一點(diǎn)是,即使每個(gè)部分好像都錯(cuò)得離譜,神經(jīng)網(wǎng)絡(luò)似乎還是能正常訓(xùn)練的——甚至只要大多數(shù)時(shí)候符號(hào)是正確的,它就能不斷進(jìn)步。

對(duì)于最終得到的多層神經(jīng)網(wǎng)絡(luò)代碼,我是很滿意的,也產(chǎn)生了未來(lái)繼續(xù)完善的想法。是的,對(duì)于這類(lèi)非常嚴(yán)肅的問(wèn)題,我一般會(huì)直接用已有的第三方庫(kù),但在過(guò)去的一周內(nèi),很多時(shí)候我會(huì)自己寫(xiě)單獨(dú)的.cpp文件和.h文件進(jìn)行編譯,這也很方便。

現(xiàn)在我的CNN代碼還需要優(yōu)化,我大概會(huì)花幾天時(shí)間做出一個(gè)干凈、靈活的實(shí)現(xiàn)。之前我把沒(méi)加進(jìn)卷積的初始神經(jīng)網(wǎng)絡(luò)放到MNIST上測(cè)試時(shí),發(fā)現(xiàn)它居然比LeCun論文里的結(jié)果更好——單個(gè)包含100個(gè)節(jié)點(diǎn)的隱藏層在測(cè)試集上的error是2%,論文里的網(wǎng)絡(luò)更廣更深,但它的error有3%。這個(gè)發(fā)現(xiàn)有點(diǎn)出乎我的意料,最后我總結(jié)的原因是激活函數(shù)——ReLU和Softmax。

如果要說(shuō)這一周的學(xué)習(xí)有什么最精彩的心得,那應(yīng)該就是神經(jīng)網(wǎng)絡(luò)非常簡(jiǎn)單,它只需寥寥幾行代碼就能實(shí)現(xiàn)突破性的進(jìn)步。我覺(jué)得這和圖形學(xué)中的光線追蹤有異曲同工之妙,只要我們有足夠的數(shù)據(jù)、時(shí)間和耐心,追蹤與光學(xué)表面發(fā)生交互作用的光線,得到光線經(jīng)過(guò)路徑的物理模型,我們就能生成最先進(jìn)的圖像。

同樣的,通過(guò)探索一系列訓(xùn)練參數(shù),我也對(duì) overtraining/generalization/regularization 有了更深的理解。回家的前一夜,我開(kāi)心地調(diào)起了超參數(shù)。為了保持專(zhuān)注,“訓(xùn)練”肯定比“編譯”更糟糕!

小結(jié)

讀了約翰·卡馬克的心得,不知各位讀者獲得了怎樣的體驗(yàn)。作為一名成功的資深程序員,卡馬克一直以來(lái)對(duì)編程的嚴(yán)苛要求是大家有目共睹的,而他這次抽出一周時(shí)間,以這么復(fù)古的形式學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),這樣的娛樂(lè)精神堪稱(chēng)業(yè)界清流。這項(xiàng)“新技能”可能不會(huì)給他帶來(lái)世俗的快樂(lè),但在代碼中創(chuàng)造世界的樂(lè)趣使他感到幸福,卡馬克還是那個(gè)卡馬克。

除此之外,許多國(guó)外讀者又對(duì)深度學(xué)習(xí)的理論基礎(chǔ)產(chǎn)生了擔(dān)憂。正如文中所說(shuō)的:“即使每個(gè)部分好像都錯(cuò)得離譜,神經(jīng)網(wǎng)絡(luò)還是能正常訓(xùn)練——甚至只要大多數(shù)時(shí)候符號(hào)是正確的,它還能不斷進(jìn)步”。就梯度下降而言,理論上我們想要的是不斷走“下坡路”,走“上坡路”的結(jié)果注定是不理想的。但從長(zhǎng)遠(yuǎn)來(lái)看,如果兩者都能提高模型預(yù)測(cè)的結(jié)果,那走下坡的意義又在哪里?

這個(gè)領(lǐng)域內(nèi)的所有人都在追求各種進(jìn)步,擔(dān)當(dāng)他們被問(wèn)及為什么,大多數(shù)答案只是“just work”,如果只看結(jié)果,我們又該怎么判斷哪些是真正重要的東西?也許對(duì)于什么是“進(jìn)步”,我們也需要重新設(shè)定一個(gè)更嚴(yán)格的標(biāo)準(zhǔn)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    108000
  • 電子游戲
    +關(guān)注

    關(guān)注

    0

    文章

    39

    瀏覽量

    10257
  • 程序員
    +關(guān)注

    關(guān)注

    4

    文章

    956

    瀏覽量

    30971

原文標(biāo)題:約翰·卡馬克(John Carmack):學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)這一周

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎?

    我想知道為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎,請(qǐng)問(wèn)?您能否舉些關(guān)于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?378次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)為CNN,是種專(zhuān)門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2143次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    :Dropout層隨機(jī)跳過(guò)神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過(guò)隨機(jī)制造缺陷進(jìn)行訓(xùn)練提升整個(gè)神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策略:
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的
    的頭像 發(fā)表于 09-28 10:03 ?1404次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1202次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概念對(duì)非專(zhuān)業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?961次閱讀
    如何在機(jī)器視覺(jué)中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    ,在定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1392次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開(kāi)
    的頭像 發(fā)表于 04-07 11:33 ?1283次閱讀