91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

探析從貝葉斯到深度學習及各自優(yōu)缺點

mK5P_AItists ? 來源:cc ? 2019-02-17 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目錄

正則化算法(Regularization Algorithms)

集成算法(Ensemble Algorithms)

決策樹算法(Decision Tree Algorithm)

回歸(Regression)

人工神經(jīng)網(wǎng)絡(Artificial Neural Network)

深度學習(Deep Learning)

支持向量機(Support Vector Machine)

降維算法(Dimensionality Reduction Algorithms)

聚類算法(Clustering Algorithms)

基于實例的算法(Instance-based Algorithms)

貝葉斯算法(Bayesian Algorithms)

關聯(lián)規(guī)則學習算法(Association Rule Learning Algorithms)

圖模型(Graphical Models)

正則化算法(Regularization Algorithms)

它是另一種方法(通常是回歸方法)的拓展,這種方法會基于模型復雜性對其進行懲罰,它喜歡相對簡單能夠更好的泛化的模型。

例子:

嶺回歸(Ridge Regression)

最小絕對收縮與選擇算子(LASSO)

GLASSO

彈性網(wǎng)絡(Elastic Net)

最小角回歸(Least-Angle Regression)

優(yōu)點:

其懲罰會減少過擬合

總會有解決方法

缺點:

懲罰會造成欠擬合

很難校準

集成算法(Ensemble algorithms)

集成方法是由多個較弱的模型集成模型組,其中的模型可以單獨進行訓練,并且它們的預測能以某種方式結合起來去做出一個總體預測。

該算法主要的問題是要找出哪些較弱的模型可以結合起來,以及結合的方法。這是一個非常強大的技術集,因此廣受歡迎。

Boosting

Bootstrapped Aggregation(Bagging)

AdaBoost

層疊泛化(Stacked Generalization)(blending)

梯度推進機(Gradient Boosting Machines,GBM)

梯度提升回歸樹(Gradient Boosted Regression Trees,GBRT)

隨機森林(Random Forest)

優(yōu)點:

當先最先進的預測幾乎都使用了算法集成。它比使用單個模型預測出來的結果要精確的多

缺點:

需要大量的維護工作

決策樹算法(Decision Tree Algorithm)

決策樹學習使用一個決策樹作為一個預測模型,它將對一個 item(表征在分支上)觀察所得映射成關于該 item 的目標值的結論(表征在葉子中)。

樹模型中的目標是可變的,可以采一組有限值,被稱為分類樹;在這些樹結構中,葉子表示類標簽,分支表示表征這些類標簽的連接的特征。

例子:

分類和回歸樹(Classification and Regression Tree,CART)

Iterative Dichotomiser 3(ID3)

C4.5 和 C5.0(一種強大方法的兩個不同版本)

優(yōu)點:

容易解釋

非參數(shù)型

缺點:

趨向過擬合

可能或陷于局部最小值中

沒有在線學習

回歸(Regression)算法

回歸是用于估計兩種變量之間關系的統(tǒng)計過程。當用于分析因變量和一個 多個自變量之間的關系時,該算法能提供很多建模和分析多個變量的技巧。具體一點說,回歸分析可以幫助我們理解當任意一個自變量變化,另一個自變量不變時,因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。

回歸算法是統(tǒng)計學中的主要算法,它已被納入統(tǒng)計機器學習。

例子:

普通最小二乘回歸(Ordinary Least Squares Regression,OLSR)

線性回歸(Linear Regression)

邏輯回歸(Logistic Regression)

逐步回歸(Stepwise Regression)

多元自適應回歸樣條(Multivariate Adaptive Regression Splines,MARS

本地散點平滑估計(Locally Estimated Scatterplot Smoothing,LOESS)

優(yōu)點:

直接、快速

知名度高

缺點:

要求嚴格的假設

需要處理異常值

人工神經(jīng)網(wǎng)絡

人工神經(jīng)網(wǎng)絡是受生物神經(jīng)網(wǎng)絡啟發(fā)而構建的算法模型。

它是一種模式匹配,常被用于回歸和分類問題,但擁有龐大的子域,由數(shù)百種算法和各類問題的變體組成。

例子:

感知器

反向傳播

Hopfield 網(wǎng)絡

徑向基函數(shù)網(wǎng)絡(Radial Basis Function Network,RBFN)

優(yōu)點:

在語音、語義、視覺、各類游戲(如圍棋)的任務中表現(xiàn)極好。

算法可以快速調整,適應新的問題。

缺點:

需要大量數(shù)據(jù)進行訓練

訓練要求很高的硬件配置

模型處于「黑箱狀態(tài)」,難以理解內部機制

元參數(shù)(Metaparameter)與網(wǎng)絡拓撲選擇困難。

深度學習(Deep Learning)

深度學習是人工神經(jīng)網(wǎng)絡的最新分支,它受益于當代硬件的快速發(fā)展。

眾多研究者目前的方向主要集中于構建更大、更復雜的神經(jīng)網(wǎng)絡,目前有許多方法正在聚焦半監(jiān)督學習問題,其中用于訓練的大數(shù)據(jù)集只包含很少的標記。

例子:

深玻耳茲曼機(Deep Boltzmann Machine,DBM)

Deep Belief Networks(DBN)

卷積神經(jīng)網(wǎng)絡(CNN)

Stacked Auto-Encoders

優(yōu)點/缺點:見神經(jīng)網(wǎng)絡

支持向量機(Support Vector Machines)

給定一組訓練事例,其中每個事例都屬于兩個類別中的一個,支持向量機(SVM)訓練算法可以在被輸入新的事例后將其分類到兩個類別中的一個,使自身成為非概率二進制線性分類器。

SVM 模型將訓練事例表示為空間中的點,它們被映射到一幅圖中,由一條明確的、盡可能寬的間隔分開以區(qū)分兩個類別。

隨后,新的示例會被映射到同一空間中,并基于它們落在間隔的哪一側來預測它屬于的類別。

優(yōu)點:

在非線性可分問題上表現(xiàn)優(yōu)秀

缺點:

非常難以訓練

很難解釋

降維算法(Dimensionality Reduction Algorithms)

和集簇方法類似,降維追求并利用數(shù)據(jù)的內在結構,目的在于使用較少的信息總結或描述數(shù)據(jù)。

這一算法可用于可視化高維數(shù)據(jù)或簡化接下來可用于監(jiān)督學習中的數(shù)據(jù)。許多這樣的方法可針對分類和回歸的使用進行調整。

例子:

主成分分析(Principal Component Analysis (PCA))

主成分回歸(Principal Component Regression (PCR))

偏最小二乘回歸(Partial Least Squares Regression (PLSR))

Sammon 映射(Sammon Mapping)

多維尺度變換(Multidimensional Scaling (MDS))

投影尋蹤(Projection Pursuit)

線性判別分析(Linear Discriminant Analysis (LDA))

混合判別分析(Mixture Discriminant Analysis (MDA))

二次判別分析(Quadratic Discriminant Analysis (QDA))

靈活判別分析(Flexible Discriminant Analysis (FDA))

優(yōu)點:

可處理大規(guī)模數(shù)據(jù)集

無需在數(shù)據(jù)上進行假設

缺點:

難以搞定非線性數(shù)據(jù)

難以理解結果的意義

聚類算法(Clustering Algorithms)

聚類算法是指對一組目標進行分類,屬于同一組(亦即一個類,cluster)的目標被劃分在一組中,與其他組目標相比,同一組目標更加彼此相似(在某種意義上)。

例子:

K-均值(k-Means)

k-Medians 算法

Expectation Maximi 封層 ation (EM)

最大期望算法(EM)

分層集群(Hierarchical Clstering)

優(yōu)點:

讓數(shù)據(jù)變得有意義

缺點:

結果難以解讀,針對不尋常的數(shù)據(jù)組,結果可能無用。

基于實例的算法(Instance-based Algorithms)

基于實例的算法(有時也稱為基于記憶的學習)是這樣學 習算法,不是明確歸納,而是將新的問題例子與訓練過程中見過的例子進行對比,這些見過的例子就在存儲器中。

之所以叫基于實例的算法是因為它直接從訓練實例中建構出假設。這意味這,假設的復雜度能隨著數(shù)據(jù)的增長而變化:最糟的情況是,假設是一個訓練項目列表,分類一個單獨新實例計算復雜度為 O(n)

例子:

K 最近鄰(k-Nearest Neighbor (kNN))

學習向量量化(Learning Vector Quantization (LVQ))

自組織映射(Self-Organizing Map (SOM))

局部加權學習(Locally Weighted Learning (LWL))

優(yōu)點:

算法簡單、結果易于解讀

缺點:

內存使用非常高

計算成本高

不可能用于高維特征空間

貝葉斯算法(Bayesian Algorithms)

貝葉斯方法是指明確應用了貝葉斯定理來解決如分類和回歸等問題的方法。

例子:

樸素貝葉斯(Naive Bayes)

高斯樸素貝葉斯(Gaussian Naive Bayes)

多項式樸素貝葉斯(Multinomial Naive Bayes)

平均一致依賴估計器(Averaged One-Dependence Estimators (AODE))

貝葉斯信念網(wǎng)絡(Bayesian Belief Network (BBN))

貝葉斯網(wǎng)絡(Bayesian Network (BN))

優(yōu)點:

快速、易于訓練、給出了它們所需的資源能帶來良好的表現(xiàn)

缺點:

如果輸入變量是相關的,則會出現(xiàn)問題

關聯(lián)規(guī)則學習算法(Association Rule Learning Algorithms)

關聯(lián)規(guī)則學習方法能夠提取出對數(shù)據(jù)中的變量之間的關系的最佳解釋。比如說一家超市的銷售數(shù)據(jù)中存在規(guī)則 {洋蔥,土豆}=> {漢堡},那說明當一位客戶同時購買了洋蔥和土豆的時候,他很有可能還會購買漢堡肉。

例子:

Apriori 算法(Apriori algorithm)

Eclat 算法(Eclat algorithm)

FP-growth

圖模型(Graphical Models)

圖模型或概率圖模型(PGM/probabilistic graphical model)是一種概率模型,一個圖(graph)可以通過其表示隨機變量之間的條件依賴結構(conditional dependence structure)。

例子:

貝葉斯網(wǎng)絡(Bayesian network)

馬爾可夫隨機域(Markov random field)

鏈圖(Chain Graphs)

祖先圖(Ancestral graph)

優(yōu)點:

模型清晰,能被直觀地理解

缺點:

確定其依賴的拓撲很困難,有時候也很模糊

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8558

    瀏覽量

    137079
  • 深度學習
    +關注

    關注

    73

    文章

    5600

    瀏覽量

    124492

原文標題:機器學習算法集錦:從貝葉斯到深度學習及各自優(yōu)缺點

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾微電子任命喬·德維(Joe Bedewi)為首席財務官

    今日宣布,正式任命喬·德維(Joe Bedewi)為首席財務官(CFO)。此次任命旨在強化公司核心領導團隊,為企業(yè)下一階段的全球增長注入新動能。 摩爾微電子首席財務官喬·德維(Joe Bedewi) 喬擁有超過30年的高管
    的頭像 發(fā)表于 03-20 10:28 ?266次閱讀
    摩爾<b class='flag-5'>斯</b>微電子任命喬·<b class='flag-5'>貝</b>德維(Joe Bedewi)為首席財務官

    PLA尼龍:5種常見3D打印材料應用與避坑指南

    本文深度解析了PLA、ABS、PETG、TPU與尼龍等主流3D打印耗材的優(yōu)缺點及應用場景。易生PLA+的抗摔改良尼龍的極致性能,幫助創(chuàng)客與工程師根據(jù)項目需求精準匹配材料,輕松攻克打
    的頭像 發(fā)表于 03-13 14:50 ?125次閱讀
    <b class='flag-5'>從</b>PLA<b class='flag-5'>到</b>尼龍:5種常見3D打印材料應用與避坑指南

    電芯分選成品檢測:比特半自動生產(chǎn)線全流程解析

    電池制造的效率與質量成為行業(yè)競爭的加分項,深圳比特自動化設備有限公司憑借其半自動電池生產(chǎn)線,以“人機協(xié)作”模式實現(xiàn)了高效生產(chǎn)與精確控制的平衡。本文將深度解析該產(chǎn)線電芯分選成品檢測
    的頭像 發(fā)表于 12-15 14:59 ?1168次閱讀

    對比分析電能質量在線監(jiān)測裝置支持的斷點續(xù)傳文件傳輸協(xié)議的優(yōu)缺點

    優(yōu)缺點對比分析: 一、各協(xié)議優(yōu)缺點逐一拆解 1. FTP(文件傳輸協(xié)議) 優(yōu)點 斷點續(xù)傳機制成熟 :依托REST命令可精準定位字節(jié)偏移量,支持大文件分塊續(xù)傳,且內置 CRC 校驗保障數(shù)據(jù)完整性,是裝置的基礎標配功能,適配性強。 傳輸效率高 :無加密運算損耗,傳輸速率
    的頭像 發(fā)表于 12-05 17:49 ?3528次閱讀
    對比分析電能質量在線監(jiān)測裝置支持的斷點續(xù)傳文件傳輸協(xié)議的<b class='flag-5'>優(yōu)缺點</b>

    CPU GPU,渲染技術如何重塑游戲、影視與設計?

    渲染技術是計算機圖形學的核心內容之一,它是將三維場景轉換為二維圖像的過程。渲染技術一直在不斷演進,最初的CPU渲染后來的GPU渲染,性能和質量都有了顯著提升。CPUGPU:技術
    的頭像 發(fā)表于 09-01 12:16 ?1036次閱讀
    <b class='flag-5'>從</b> CPU <b class='flag-5'>到</b> GPU,渲染技術如何重塑游戲、影視與設計?

    深度學習對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡的層級結構,能夠自動海量工業(yè)數(shù)據(jù)中提取復雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了數(shù)據(jù)感知
    的頭像 發(fā)表于 08-20 14:56 ?1091次閱讀

    自動駕駛中Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是在自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,技術原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4261次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    AI+能源數(shù)字化破局者故事5:謝 x IBM 咨詢之 “全球化經(jīng)營與本地化適配”

    謝與 IBM 的合作建立在技術專長、交付能力及本地化支持的基礎上,IBM 的強大技術實力和本地經(jīng)驗,使其成為謝推動數(shù)字化轉型的重要合作伙伴
    的頭像 發(fā)表于 07-17 19:02 ?1465次閱讀

    超級電容對比鋰電池的優(yōu)缺點

    本文探討了超級電容和鋰電池在儲能領域的優(yōu)缺點。超級電容以高能量密度著稱,但充電速度較慢;鋰電池則具有快充和壽命長的優(yōu)勢,但成本較高。在新能源汽車和電網(wǎng)調頻等高頻次應用中,兩者可以互補。
    的頭像 發(fā)表于 06-30 09:37 ?2785次閱讀
    超級電容對比鋰電池的<b class='flag-5'>優(yōu)缺點</b>

    思必馳與上海交大聯(lián)合實驗室兩篇論文入選ICML 2025

    會議。會議涵蓋了機器學習的各個前沿方向,包括但不限于深度學習、強化學習、自然語言處理、計算機視覺、
    的頭像 發(fā)表于 06-16 09:23 ?1542次閱讀
    思必馳與上海交大聯(lián)合實驗室兩篇論文入選ICML 2025

    PCBA 表面處理:優(yōu)缺點大揭秘,應用場景全解析

    一站式PCBA加工廠家今天為大家講講PCBA加工如何選擇合適的表面處理工藝?PCBA表面處理優(yōu)缺點與應用場景。在電子制造中,PCBA板的表面處理工藝對電路板的性能、可靠性和成本都有重要影響。選擇合適
    的頭像 發(fā)表于 05-05 09:39 ?1490次閱讀
    PCBA 表面處理:<b class='flag-5'>優(yōu)缺點</b>大揭秘,應用場景全解析

    3D打印耗材種類有哪些?各有什么優(yōu)缺點?

    這篇文章將為你詳細介紹3D打印耗材的基礎知識,幫助你了解這些材料的特性、優(yōu)缺點以及它們適合的應用場景。
    的頭像 發(fā)表于 04-29 09:40 ?5.4w次閱讀
    3D打印耗材種類有哪些?各有什么<b class='flag-5'>優(yōu)缺點</b>?

    傳感器的模擬輸出和數(shù)字輸出的優(yōu)缺點分析

    在現(xiàn)代自動化控制和監(jiān)測系統(tǒng)中,傳感器的輸出方式主要分為模擬輸出和數(shù)字輸出兩種,它們各自具有獨特的優(yōu)缺點,在不同的應用場景中有著不同的適用性。深入了解這兩種輸出方式的特點,對于正確選擇和使用傳感器
    的頭像 發(fā)表于 04-17 18:28 ?1496次閱讀
    傳感器的模擬輸出和數(shù)字輸出的<b class='flag-5'>優(yōu)缺點</b>分析

    DELTA臺達風扇有哪些優(yōu)點和缺點

    臺達(DELTA)作為全球知名的電子設備制造商,DELTA臺達風扇憑借卓越性能在工業(yè)自動化、服務器、變頻器、儲能系統(tǒng)等多個領域占據(jù)重要地位。以下是對DELTA臺達風扇的優(yōu)缺點詳細分析:優(yōu)點高效節(jié)能
    發(fā)表于 04-14 10:15

    嵌入式AI技術之深度學習:數(shù)據(jù)樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡實現(xiàn)機器學習,網(wǎng)絡的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡構成深度學習的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。
    的頭像 發(fā)表于 04-02 18:21 ?1566次閱讀