91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

誰用NumPy手推了一大波ML模型?

新機(jī)器視覺 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-11-18 14:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


	

NumPy作為 Python 生態(tài)中最受歡迎的科學(xué)計(jì)算包,很多讀者已經(jīng)非常熟悉它了。

它為 Python 提供高效率的多維數(shù)組計(jì)算,并提供了一系列高等數(shù)學(xué)函數(shù),我們可以快速搭建模型的整個(gè)計(jì)算流程。毫不負(fù)責(zé)任地說,NumPy 就是現(xiàn)代深度學(xué)習(xí)框架的「爸爸」。

盡管目前使用 NumPy 寫模型已經(jīng)不是主流,但這種方式依然不失為是理解底層架構(gòu)和深度學(xué)習(xí)原理的好方法。最近,來自普林斯頓的一位博士后將 NumPy 實(shí)現(xiàn)的所有機(jī)器學(xué)習(xí)模型全部開源,超過 3 萬行代碼、30 多個(gè)模型,并提供了相應(yīng)的論文和一些實(shí)現(xiàn)的測試效果。

項(xiàng)目地址:https://github.com/ddbourgin/numpy-ml

粗略估計(jì),該項(xiàng)目大約有 30 個(gè)主要機(jī)器學(xué)習(xí)模型,此外還有 15 個(gè)用于預(yù)處理和計(jì)算的小工具,全部.py 文件數(shù)量有 62 個(gè)之多。平均每個(gè)模型的代碼行數(shù)在 500 行以上,在神經(jīng)網(wǎng)絡(luò)模型的 layer.py 文件中,代碼行數(shù)接近 4000。

這,應(yīng)該是目前用 NumPy 手寫機(jī)器學(xué)習(xí)模型的「最高境界」吧。

誰用 NumPy 手推了一大波 ML 模型?通過項(xiàng)目的代碼目錄,我們能發(fā)現(xiàn),作者基本上把主流模型都實(shí)現(xiàn)了一遍,這個(gè)工作量簡直驚為天人。作者 David Bourgin 是一位大神,于 2018 年獲得加州大學(xué)伯克利分校計(jì)算認(rèn)知科學(xué)博士學(xué)位,隨后在普林斯頓大學(xué)從事博士后研究。 盡管畢業(yè)不久,David 在頂級期刊與計(jì)算機(jī)會議上都發(fā)表了一些優(yōu)秀論文。在 ICML 2019 中,其關(guān)于認(rèn)知模型先驗(yàn)的研究就被接收為少有的 Oral 論文。 David Bourgin 就是用 NumPy 手寫 ML 模型、手推反向傳播的大神。這么多的工作量,當(dāng)然還是需要很多參考資源的,David 會理解這些資源或?qū)崿F(xiàn),并以一種更易讀的方式寫出來。 他表示,從 autograd repo 學(xué)到了很多,但二者的不同之處在于,他顯式地進(jìn)行了所有梯度計(jì)算,以突出概念/數(shù)學(xué)的清晰性。當(dāng)然,這么做的缺點(diǎn)也很明顯,在每次需要微分一個(gè)新函數(shù)時(shí),你都要寫出它的公式…… 估計(jì) David Bourgin 在寫完這個(gè)項(xiàng)目后,機(jī)器學(xué)習(xí)基礎(chǔ)已經(jīng)極其牢固了。項(xiàng)目總體介紹這個(gè)項(xiàng)目最大的特點(diǎn)是作者把機(jī)器學(xué)習(xí)模型都用 NumPy 手寫了一遍,包括更顯式的梯度計(jì)算和反向傳播過程。可以說它就是一個(gè)機(jī)器學(xué)習(xí)框架了,只不過代碼可讀性會強(qiáng)很多。 David Bourgin 表示他一直在慢慢寫或收集不同模型與模塊的純 NumPy 實(shí)現(xiàn),它們跑起來可能沒那么快,但是模型的具體過程一定足夠直觀。每當(dāng)我們想了解模型 API 背后的實(shí)現(xiàn),卻又不想看復(fù)雜的框架代碼,那么它可以作為快速的參考。 文章后面會具體介紹整個(gè)項(xiàng)目都有什么模型,這里先簡要介紹它的整體結(jié)構(gòu)。如下所示為項(xiàng)目文件,不同的文件夾即不同種類的代碼集。 15ccbc5a-66f7-11ed-8abf-dac502259ad0.jpg ?在每一個(gè)代碼集下,作者都會提供不同實(shí)現(xiàn)的參考資料,例如模型的效果示例圖、參考論文和參考鏈接等。如下所示,David 在實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)層級的過程中,還提供了參考論文。 15e600c0-66f7-11ed-8abf-dac502259ad0.jpg ?當(dāng)然如此龐大的代碼總會存在一些 Bug,作者也非常希望我們能一起完善這些實(shí)現(xiàn)。如果我們以前用純 NumPy 實(shí)現(xiàn)過某些好玩的模型,那也可以直接提交 PR 請求。因?yàn)閷?shí)現(xiàn)基本上都只依賴于 NumPy,那么環(huán)境配置就簡單很多了,大家差不多都能跑得動。手寫 NumPy 全家福作者在 GitHub 中提供了模型/模塊的實(shí)現(xiàn)列表,列表結(jié)構(gòu)基本就是代碼文件的結(jié)構(gòu)了。整體上,模型主要分為兩部分,即傳統(tǒng)機(jī)器學(xué)習(xí)模型主流的深度學(xué)習(xí)模型。 其中淺層模型既有隱馬爾可夫模型和提升方法這樣的復(fù)雜模型,也包含了線性回歸或最近鄰等經(jīng)典方法。而深度模型則主要從各種模塊、層級、損失函數(shù)、最優(yōu)化器等角度搭建代碼架構(gòu),從而能快速構(gòu)建各種神經(jīng)網(wǎng)絡(luò)。 除了模型外,整個(gè)項(xiàng)目還有一些輔助模塊,包括一堆預(yù)處理相關(guān)的組件和有用的小工具。 該 repo 的模型或代碼結(jié)構(gòu)如下所示: 1. 高斯混合模型
  • EM 訓(xùn)練
2. 隱馬爾可夫模型
  • 維特比解碼
  • 似然計(jì)算
  • 通過 Baum-Welch/forward-backward 算法進(jìn)行 MLE 參數(shù)估計(jì)
3. 隱狄利克雷分配模型(主題模型)
  • 用變分 EM 進(jìn)行 MLE 參數(shù)估計(jì)的標(biāo)準(zhǔn)模型
  • 用 MCMC 進(jìn)行 MAP 參數(shù)估計(jì)的平滑模型
4. 神經(jīng)網(wǎng)絡(luò)4.1 層/層級運(yùn)算
  • Add
  • Flatten
  • Multiply
  • Softmax
  • 全連接/Dense
  • 稀疏進(jìn)化連接
  • LSTM
  • Elman 風(fēng)格的 RNN
  • 最大+平均池化
  • 點(diǎn)積注意力
  • 受限玻爾茲曼機(jī) (w. CD-n training)
  • 2D 轉(zhuǎn)置卷積 (w. padding 和 stride)
  • 2D 卷積 (w. padding、dilation 和 stride)
  • 1D 卷積 (w. padding、dilation、stride 和 causality)
4.2 模塊
  • 雙向 LSTM
  • ResNet 風(fēng)格的殘差塊(恒等變換和卷積)
  • WaveNet 風(fēng)格的殘差塊(帶有擴(kuò)張因果卷積)
  • Transformer 風(fēng)格的多頭縮放點(diǎn)積注意力
4.3 正則化項(xiàng)
  • Dropout
  • 歸一化
  • 批歸一化(時(shí)間上和空間上)
  • 層歸一化(時(shí)間上和空間上)
4.4 優(yōu)化器
  • SGD w/ 動量
  • AdaGrad
  • RMSProp
  • Adam
4.5 學(xué)習(xí)率調(diào)度器
  • 常數(shù)
  • 指數(shù)
  • Noam/Transformer
  • Dlib 調(diào)度器
4.6 權(quán)重初始化器
  • Glorot/Xavier uniform 和 normal
  • He/Kaiming uniform 和 normal
  • 標(biāo)準(zhǔn)和截?cái)嗾龖B(tài)分布初始化
4.7 損失
  • 交叉熵
  • 平方差
  • Bernoulli VAE 損失
  • 帶有梯度懲罰的 Wasserstein 損失
4.8 激活函數(shù)
  • ReLU
  • Tanh
  • Affine
  • Sigmoid
  • Leaky ReLU
4.9 模型
  • Bernoulli 變分自編碼器
  • 帶有梯度懲罰的 Wasserstein GAN
4.10 神經(jīng)網(wǎng)絡(luò)工具
  • col2im (MATLAB 端口)
  • im2col (MATLAB 端口)
  • conv1D
  • conv2D
  • deconv2D
  • minibatch
5. 基于樹的模型
  • 決策樹 (CART)
  • [Bagging] 隨機(jī)森林
  • [Boosting] 梯度提升決策樹
6. 線性模型
  • 嶺回歸
  • Logistic 回歸
  • 最小二乘法
  • 貝葉斯線性回歸 w/共軛先驗(yàn)
7.n 元序列模型
  • 最大似然得分
  • Additive/Lidstone 平滑
  • 簡單 Good-Turing 平滑
8. 強(qiáng)化學(xué)習(xí)模型
  • 使用交叉熵方法的智能體
  • 首次訪問 on-policy 蒙特卡羅智能體
  • 加權(quán)增量重要采樣蒙特卡羅智能體
  • Expected SARSA 智能體
  • TD-0 Q-learning 智能體
  • Dyna-Q / Dyna-Q+ 優(yōu)先掃描
9. 非參數(shù)模型
  • Nadaraya-Watson 核回歸
  • k 最近鄰分類與回歸
10. 預(yù)處理
  • 離散傅立葉變換 (1D 信號)
  • 雙線性插值 (2D 信號)
  • 最近鄰插值 (1D 和 2D 信號)
  • 自相關(guān) (1D 信號)
  • 信號窗口
  • 文本分詞
  • 特征哈希
  • 特征標(biāo)準(zhǔn)化
  • One-hot 編碼/解碼
  • Huffman 編碼/解碼
  • 詞頻逆文檔頻率編碼
11. 工具
  • 相似度核
  • 距離度量
  • 優(yōu)先級隊(duì)列
  • Ball tree 數(shù)據(jù)結(jié)構(gòu)
項(xiàng)目示例由于代碼量龐大,這里整理了一些示例。 例如,實(shí)現(xiàn)點(diǎn)積注意力機(jī)制:1603bf84-66f7-11ed-8abf-dac502259ad0.png

								classDotProductAttention(LayerBase): def__init__(self,scale=True,dropout_p=0,init="glorot_uniform",optimizer=None): super().__init__(optimizer) self.init=init self.scale=scale self.dropout_p=dropout_p self.optimizer=self.optimizer self._init_params() def_fwd(self,Q,K,V): scale=1/np.sqrt(Q.shape[-1])ifself.scaleelse1 scores=Q@K.swapaxes(-2,-1)*scale#attentionscores weights=self.softmax.forward(scores)#attentionweights Y=weights@V returnY,weights def_bwd(self,dy,q,k,v,weights): d_k=k.shape[-1] scale=1/np.sqrt(d_k)ifself.scaleelse1 dV=weights.swapaxes(-2,-1)@dy dWeights=dy@v.swapaxes(-2,-1) dScores=self.softmax.backward(dWeights) dQ=dScores@k*scale dK=dScores.swapaxes(-2,-1)@q*scale returndQ,dK,dV
									在以上代碼中,Q、K、V 三個(gè)向量輸入到「_fwd」函數(shù)中,用于計(jì)算每個(gè)向量的注意力分?jǐn)?shù),并通過 softmax 的方式得到權(quán)重。而「_bwd」函數(shù)則計(jì)算 V、注意力權(quán)重、注意力分?jǐn)?shù)、Q 和 K 的梯度,用于更新網(wǎng)絡(luò)權(quán)重。
									在一些實(shí)現(xiàn)中,作者也進(jìn)行了測試,并給出了測試結(jié)果。如圖為隱狄利克雷(Latent Dirichlet allocation,LDA)實(shí)現(xiàn)進(jìn)行文本聚類的結(jié)果。左圖為詞語在特定主題中的分布熱力圖。右圖則為文檔在特定主題中的分布熱力圖。
									16214cd4-66f7-11ed-8abf-dac502259ad0.jpg圖注:隱狄利克雷分布實(shí)現(xiàn)的效果。

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67501
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136931
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4876

    瀏覽量

    90025

原文標(biāo)題:?Numpy手寫機(jī)器學(xué)習(xí)算法,3萬行代碼!

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    芯源的CRC硬件計(jì)算用過嗎?MCU的CRC你們喜歡硬件的還是軟件的???

    芯源的CRC硬件計(jì)算用過嗎?MCU的CRC你們喜歡硬件的還是軟件的???
    發(fā)表于 12-01 08:25

    你相信光嗎?| Samtec助力AI/ML系統(tǒng)拓?fù)渲械墓膺B接

    。 AI/ML硬件領(lǐng)域的這些創(chuàng)新,催生了項(xiàng)日益迫切的需求:擴(kuò)展GPU及其他AI加速器的規(guī)模,以應(yīng)對最新、最大型的大語言模型。而實(shí)現(xiàn)GPU的大規(guī)?;ヂ?lián),離不開光連接技術(shù),這正是Samtec的用武之地。 ? ? ?? FireBl
    的頭像 發(fā)表于 11-13 15:03 ?1910次閱讀
    你相信光嗎?| Samtec助力AI/<b class='flag-5'>ML</b>系統(tǒng)拓?fù)渲械墓膺B接

    VLA和世界模型,才是自動駕駛的最優(yōu)解?

    Model)路線,這兩種路徑都為自動駕駛快速落地提供了可能,那才是最優(yōu)解? 什么是VLA模型? VLA模型,即視覺—語言—行動模型,是將視覺感知、語言理解和動作生成串聯(lián)起來的
    的頭像 發(fā)表于 11-05 08:55 ?783次閱讀
    VLA和世界<b class='flag-5'>模型</b>,<b class='flag-5'>誰</b>才是自動駕駛的最優(yōu)解?

    AT_DEVICE支持ML307嗎?

    這個(gè)到底支不支持ML305 ML307,圖形界面有 ,但是保存配置后并沒有這個(gè)文件,如果沒有就在介紹上刪掉吧,浪費(fèi)天時(shí)間加這個(gè)東西
    發(fā)表于 09-11 07:42

    4G網(wǎng)絡(luò)AT模塊:ml307A 總是連接失敗,為什么?

    使用 AT client 連接 ml307A 4G網(wǎng)絡(luò),在多個(gè)地方使用網(wǎng)絡(luò),然后就經(jīng)常出現(xiàn)連接失敗或關(guān)閉失?。? [E/at.skt.ml307] ml307 device(ml
    發(fā)表于 09-11 07:05

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應(yīng)用。 為什么選擇 Neuton 作為開發(fā)人員,在產(chǎn)品中使用邊緣人工智能的兩個(gè)最大障礙是: ML 模型對于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義 ML 模型本質(zhì)上是
    發(fā)表于 08-31 20:54

    普迪飛 | AI預(yù)測建模工具,釋放AI/ML的強(qiáng)大潛力!

    問題、精準(zhǔn)把握良品率的能力,已成為企業(yè)發(fā)展的關(guān)鍵勝負(fù)。各公司正在加大AI和ML技術(shù)的投入,目標(biāo)是針對研發(fā)制造端預(yù)測的新模型,力求在這場“制造力競賽”中脫穎而出。但不
    的頭像 發(fā)表于 08-19 13:53 ?432次閱讀
    普迪飛 | AI預(yù)測建模工具,釋放AI/<b class='flag-5'>ML</b>的強(qiáng)大潛力!

    yolov11轉(zhuǎn)kmodel,numpy是要降級為1.x嗎?

    python3.9,yolo是最新的穩(wěn)定版,和yolo捆綁pip安裝的numpy是2.0.1 錯(cuò)誤日志
    發(fā)表于 08-11 08:16

    請問如何在RK3588上使用npu,onnx模型來推理

    請問如何在瑞芯微 RK3588上使用npu,onnx模型來推理。官網(wǎng)上介紹說要把ONNX模型轉(zhuǎn)換成RKNN模型。但是我并不想這么干,請問有什么辦法嗎?
    發(fā)表于 08-09 00:51

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    這對開發(fā)人員意味著什么,以及使用Neuton 模型如何改進(jìn)您的開發(fā)和最終應(yīng)用。 ML 模型對于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義ML 模型
    發(fā)表于 07-31 11:38

    鴻蒙中Stage模型與FA模型詳解

    【HarmonyOS 5】鴻蒙中Stage模型與FA模型詳解 ##鴻蒙開發(fā)能力 ##HarmonyOS SDK應(yīng)用服務(wù)##鴻蒙金融類應(yīng)用 (金融理財(cái)# 、前言 在HarmonyOS 5的應(yīng)用開發(fā)
    的頭像 發(fā)表于 07-07 11:50 ?911次閱讀

    如何將個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何將個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如下動作: 工程切換:新建個(gè)Stage
    發(fā)表于 06-04 06:22

    關(guān)于ML4842輸出PWM波形失真問題?

    如示波器波形所示,ML4842芯片11腳PWM輸出波形失真是什么原因造成,原理圖上的PWM輸出管已經(jīng)拆除,實(shí)際原理圖與圖上原理圖有區(qū)別,ML4842電壓VCC獨(dú)立供電
    發(fā)表于 04-09 14:52

    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(ML)音頻噪音抑制功能

    Arm公司的首席軟件工程師SandeepMistry為我們展示了種全新的巧妙方法:在RaspberryPiPico2上如何將音頻噪音抑制應(yīng)用于麥克風(fēng)輸入。機(jī)器學(xué)習(xí)(ML)技術(shù)徹底改變了許多軟件應(yīng)用
    的頭像 發(fā)表于 03-25 09:46 ?1219次閱讀
    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(<b class='flag-5'>ML</b>)音頻噪音抑制功能

    DFM裁員裁到大動脈了嗎?更新后一大堆問題?。?!

    DFM裁員裁到大動脈了嗎?更新后一大堆問題?。?!文件拼版后要不就是缺少焊盤 要不就是缺少走線,更邪門的事拼版就有個(gè)板是正確的 剩下拼版都缺走線。 搞得我這幾天都不順!!!!!!
    發(fā)表于 03-06 10:06