91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解機器學習決策樹的優(yōu)缺點

汽車玩家 ? 來源:CSDN ? 作者:是DRR啊 ? 2020-01-19 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概述

決策樹(Decision Tree)是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過構(gòu)成決策樹來求取凈現(xiàn)值的期望值大于等于零的概率,評價項目風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種圖解法。由于這種決策分支畫成圖形很像一棵樹的枝干,故稱決策樹。在機器學習中,決策樹是一個預測模型,他代表的是對象屬性與對象值之間的一種映射關(guān)系。Entropy = 系統(tǒng)的凌亂程度,使用算法ID3, C4.5和C5.0生成樹算法使用熵。這一度量是基于信息學理論中熵的概念。

決策樹是一種樹形結(jié)構(gòu),其中每個內(nèi)部節(jié)點表示一個屬性上的測試,每個分支代表一個測試輸出,每個葉節(jié)點代表一種類別。

分類樹(決策樹)是一種十分常用的分類方法。他是一種監(jiān)管學習,所謂監(jiān)管學習就是給定一堆樣本,每個樣本都有一組屬性和一個類別,這些類別是事先確定的,那么通過學習得到一個分類器,這個分類器能夠?qū)π鲁霈F(xiàn)的對象給出正確的分類。這樣的機器學習就被稱之為監(jiān)督學習。

畫法

機器學習中,決策樹是一個預測模型;他代表的是對象屬性與對象值之間的一種映射關(guān)系。樹中每個節(jié)點表示某個對象,而每個分叉路徑則代表的某個可能的屬性值,而每個葉結(jié)點則對應(yīng)從根節(jié)點到該葉節(jié)點所經(jīng)歷的路徑所表示的對象的值。決策樹僅有單一輸出,若欲有復數(shù)輸出,可以建立獨立的決策樹以處理不同輸出。

數(shù)據(jù)挖掘中決策樹是一種經(jīng)常要用到的技術(shù),可以用于分析數(shù)據(jù),同樣也可以用來作預測。

從數(shù)據(jù)產(chǎn)生決策樹的機器學習技術(shù)叫做決策樹學習, 通俗說就是決策樹。

一個決策樹包含三種類型的節(jié)點:

① 決策節(jié)點:通常用矩形框來表示。

是對幾種可能方案的選擇,即最后選擇的最佳方案。

如果決策屬于多級決策,則決策樹的中間可以有多個決策點,

以決策樹根部的決策點為最終決策方案。

② 機會節(jié)點:通常用圓圈來表示。

代表備選方案的經(jīng)濟效果(期望值),

通過各狀態(tài)節(jié)點的經(jīng)濟效果的對比,

按照一定的決策標準就可以選出最佳方案。

由狀態(tài)節(jié)點引出的分支稱為概率枝,

概率枝的數(shù)目表示可能出現(xiàn)的自然狀態(tài)數(shù)目每個分枝上要注明該狀態(tài)出現(xiàn)的概率。

③ 終結(jié)點:通常用三角形來表示。

將每個方案在各種自然狀態(tài)下取得的損益值標注于結(jié)果節(jié)點的右端。

決策樹學習也是資料探勘中一個普通的方法。在這里,每個決策樹都表述了一種樹型結(jié)構(gòu),它由它的分支來對該類型的對象依靠屬性進行分類。每個決策樹可以依靠對源數(shù)據(jù)庫的分割進行數(shù)據(jù)測試。這個過程可以遞歸式的對樹進行修剪。 當不能再進行分割或一個單獨的類可以被應(yīng)用于某一分支時,遞歸過程就完成了。另外,隨機森林分類器將許多決策樹結(jié)合起來以提升分類的正確率。

決策樹同時也可以依靠計算條件概率來構(gòu)造。

剪枝

剪枝是決策樹停止分支的方法之一,剪枝有分預先剪枝和后剪枝兩種。

預先剪枝是在樹的生長過程中設(shè)定一個指標,當達到該指標時就停止生長,這樣做容易產(chǎn)生“視界局限”,就是一旦停止分支,使得節(jié)點N成為葉節(jié)點,就斷絕了其后繼節(jié)點進行“好”的分支操作的任何可能性。不嚴格的說這些已停止的分支會誤導學習算法,導致產(chǎn)生的樹不純度降差最大的地方過分靠近根節(jié)點。

后剪枝中樹首先要充分生長,直到葉節(jié)點都有最小的不純度值為止,因而可以克服“視界局限”。然后對所有相鄰的成對葉節(jié)點考慮是否消去它們,如果消去能引起令人滿意的不純度增長,那么執(zhí)行消去,并令它們的公共父節(jié)點成為新的葉節(jié)點。這種“合并”葉節(jié)點的做法和節(jié)點分支的過程恰好相反,經(jīng)過剪枝后葉節(jié)點常常會分布在很寬的層次上,樹也變得非平衡。

后剪枝技術(shù)的優(yōu)點是克服了“視界局限”效應(yīng),而且無需保留部分樣本用于交叉驗證,所以可以充分利用全部訓練集的信息。但后剪枝的計算量代價比預剪枝方法大得多,特別是在大樣本集中,不過對于小樣本的情況,后剪枝方法還是優(yōu)于預剪枝方法的。

決策樹的優(yōu)缺點

優(yōu)點

決策樹易于理解和實現(xiàn),人們在在學習過程中不需要使用者了解很多的背景知識,這同時是它的能夠直接體現(xiàn)數(shù)據(jù)的特點,只要通過解釋后都有能力去理解決策樹所表達的意義。

對于決策樹,數(shù)據(jù)的準備往往是簡單或者是不必要的,而且能夠同時處理數(shù)據(jù)型和常規(guī)型屬性,在相對短的時間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。

易于通過靜態(tài)測試來對模型進行評測,可以測定模型可信度;如果給定一個觀察的模型,那么根據(jù)所產(chǎn)生的決策樹很容易推出相應(yīng)的邏輯表達式。

缺點

對連續(xù)性的字段比較難預測。

對有時間順序的數(shù)據(jù),需要很多預處理的工作。

當類別太多時,錯誤可能就會增加的比較快。

一般的算法分類的時候,只是根據(jù)一個字段來分類。

ID3算法

決策樹基本上就是把我們以前的經(jīng)驗總結(jié)出來。

如果我們要出門打籃球,一般會根據(jù)“天氣”、“溫度”、“濕度”、“刮風”這幾個條件來判斷,最后得到結(jié)果:去打籃球?還是不去?

詳解機器學習決策樹的優(yōu)缺點

在這里我們先介紹兩個指標:純度和信息熵。

純度

你可以把決策樹的構(gòu)造過程理解成為尋找純凈劃分的過程。數(shù)學上,我們可以用純度來表示,純度換一種方式來解釋就是讓目標變量的分歧最小。

舉個例子,假設(shè)有 3 個集合:

集合 1:6 次都去打籃球;

集合 2:4 次去打籃球,2 次不去打籃球;

集合 3:3 次去打籃球,3 次不去打籃球。

按照純度指標來說,集合 1》 集合 2》 集合 3。因為集合1 的分歧最小,集合 3 的分歧最大。

信息熵

表示信息的不確定度

信息論中,隨機離散事件出現(xiàn)的概率存在著不確定性。為了衡量這種信息的不確定性,信息學之父香農(nóng)引入了信息熵的概念,并給出了計算信息熵的數(shù)學公式:

詳解機器學習決策樹的優(yōu)缺點

p(i|t) 代表了節(jié)點 t 為分類 i 的概率,其中 log2 為取以 2 為底的對數(shù)。存在一種度量,它能幫我們反映出來這個信息的不確定度。當不確定性越大時,它所包含的信息量也就越大,信息熵也就越高。

舉個例子,假設(shè)有 2 個集合:

? 集合 1:5 次去打籃球,1 次不去打籃球;

? 集合 2:3 次去打籃球,3 次不去打籃球。

在集合 1 中,有 6 次決策,其中打籃球是 5 次,不打籃球是 1 次。那么假設(shè):類別 1 為“打籃球”,即次數(shù)為 5;類別 2 為“不打籃球”,即次數(shù)為 1。那么節(jié)點劃分為類別1的概率是 5/6,為類別2的概率是1/6,帶入上述信息熵公式可以計算得出:

詳解機器學習決策樹的優(yōu)缺點

同樣,集合 2 中,也是一共 6 次決策,其中類別 1 中“打籃球”的次數(shù)是 3,類別 2“不打籃球”的次數(shù)也是 3,那么信息熵為多少呢?我們可以計算得出:

詳解機器學習決策樹的優(yōu)缺點

從上面的計算結(jié)果中可以看出,信息熵越大,純度越低。當集合中的所有樣本均勻混合時,信息熵最大,純度最低。

我們在構(gòu)造決策樹的時候,會基于純度來構(gòu)建。而經(jīng)典的 “不純度”的指標有三種,分別是信息增益(ID3 算法)、信息增益率(C4.5 算法)以及基尼指數(shù)(Cart 算法)。

信息增益

信息增益指的就是劃分可以帶來純度的提高,信息熵的下降。它的計算公式,是父親節(jié)點的信息熵減去所有子節(jié)點的信息熵。在計算的過程中,我們會計算每個子節(jié)點的歸一化信息熵,即按照每個子節(jié)點在父節(jié)點中出現(xiàn)的概率,來計算這些子節(jié)點的信息熵。

所以信息增益的公式可以表示為:

公式中 D 是父親節(jié)點,Di 是子節(jié)點,Gain(D,a)中的 a 作為 D 節(jié)點的屬性選擇。

假設(shè)D 天氣 = 晴的時候,會有 5 次去打籃球,5 次不打籃球。其中 D1 刮風 = 是,有 2 次打籃球,1 次不打籃球。D2 刮風 = 否,有 3 次打籃球,4 次不打籃球。那么a 代表節(jié)點的屬性,即天氣 = 晴。

針對圖上這個例子,D 作為節(jié)點的信息增益為:

詳解機器學習決策樹的優(yōu)缺點

也就是 D 節(jié)點的信息熵 -2 個子節(jié)點的歸一化信息熵。2個子節(jié)點歸一化信息熵 =3/10 的 D1 信息熵 +7/10 的 D2 信息熵。

我們基于 ID3 的算法規(guī)則,完整地計算下我們的訓練集,訓練集中一共有 7 條數(shù)據(jù),3 個打籃球,4 個不打籃球,所以根節(jié)點的信息熵是:

詳解機器學習決策樹的優(yōu)缺點

如果你將天氣作為屬性的劃分,會有三個葉子節(jié)點 D1、D2 和D3,分別對應(yīng)的是晴天、陰天和小雨。我們用 + 代表去打籃球,- 代表不去打籃球。那么第一條記錄,晴天不去打籃球,可以記為 1-,于是我們可以用下面的方式來記錄 D1,D2,D3:

D1(天氣 = 晴天)={1-,2-,6+}

D2(天氣 = 陰天)={3+,7-}

D3(天氣 = 小雨)={4+,5-}

我們先分別計算三個葉子節(jié)點的信息熵:

詳解機器學習決策樹的優(yōu)缺點

因為 D1 有 3 個記錄,D2 有 2 個記錄,D3 有2 個記錄,所以 D 中的記錄一共是 3+2+2=7,即總數(shù)為 7。所以 D1 在 D(父節(jié)點)中的概率是 3/7,D2在父節(jié)點的概率是 2/7,D3 在父節(jié)點的概率是 2/7。那么作為子節(jié)點的歸一化信息熵 = 3/70.918+2/71.0=0.965。

因為我們用 ID3 中的信息增益來構(gòu)造決策樹,所以要計算每個節(jié)點的信息增益。

天氣作為屬性節(jié)點的信息增益為,Gain(D , 天氣)=0.985-0.965=0.020。

同理我們可以計算出其他屬性作為根節(jié)點的信息增益,它們分別為:

Gain(D , 溫度)=0.128

Gain(D , 濕度)=0.020

Gain(D , 刮風)=0.020

我們能看出來溫度作為屬性的信息增益最大。因為 ID3 就是要將信息增益最大的節(jié)點作為父節(jié)點,這樣可以得到純度高的決策樹,所以我們將溫度作為根節(jié)點。其決策樹狀圖分裂為下圖所示:

詳解機器學習決策樹的優(yōu)缺點

然后我們要將上圖中第一個葉節(jié)點,也就是 D1={1-,2-,3+,4+}進一步進行分裂,往下劃分,計算其不同屬性(天氣、濕度、刮風)作為節(jié)點的信息增益,可以得到:

Gain(D , 天氣)=0

Gain(D , 濕度)=0

Gain(D , 刮風)=0.0615

我們能看到刮風為 D1 的節(jié)點都可以得到最大的信息增益,這里我們選取刮風作為節(jié)點。同理,我們可以按照上面的計算步驟得到完整的決策樹,結(jié)果如下:

于是我們通過 ID3 算法得到了一棵決策樹。ID3 的算法規(guī)則相對簡單,可解釋性強。同樣也存在缺陷,比如我們會發(fā)現(xiàn)ID3 算法傾向于選擇取值比較多的屬性。這樣,如果我們把“編號”作為一個屬性(一般情況下不會這么做,這里只是舉個例子),那么“編號”將會被選為最優(yōu)屬性 。但實際上“編號”是無關(guān)屬性的,它對“打籃球”的分類并沒有太大作用。

所以 ID3 有一個缺陷就是,有些屬性可能對分類任務(wù)沒有太大作用,但是他們?nèi)匀豢赡軙贿x為最優(yōu)屬性。這種缺陷不是每次都會發(fā)生,只是存在一定的概率。在大部分情況下,ID3 都能生成不錯的決策樹分類。針對可能發(fā)生的缺陷,后人提出了新的算法進行改進。

C4.5 算法

信息增益率

因為 ID3 在計算的時候,傾向于選擇取值多的屬性。為了避免這個問題,C4.5 采用信息增益率的方式來選擇屬性。信息增益率 = 信息增益 / 屬性熵

當屬性有很多值的時候,相當于被劃分成了許多份,雖然信息增益變大了,但是對于 C4.5 來說,屬性熵也會變大,所以整體的信息增益率并不大。

悲觀剪枝

ID3 構(gòu)造決策樹的時候,容易產(chǎn)生過擬合的情況。在 C4.5中,會在決策樹構(gòu)造之后采用悲觀剪枝(PEP),這樣可以提升決策樹的泛化能力。

悲觀剪枝是后剪枝技術(shù)中的一種,通過遞歸估算每個內(nèi)部節(jié)點的分類錯誤率,比較剪枝前后這個節(jié)點的分類錯誤率來決定是否對其進行剪枝。這種剪枝方法不再需要一個單獨的測試數(shù)據(jù)集。

離散化處理連續(xù)屬性

C4.5 可以處理連續(xù)屬性的情況,對連續(xù)的屬性進行離散化的處理。比如打籃球存在的“濕度”屬性,不按照“高、中”劃分,而是按照濕度值進行計算,那么濕度取什么值都有可能。該怎么選擇這個閾值呢,C4.5 選擇具有最高信息增益的劃分所對應(yīng)的閾值。

處理缺失值

針對數(shù)據(jù)集不完整的情況,C4.5 也可以進行處理。

假如我們得到的是如下的數(shù)據(jù),你會發(fā)現(xiàn)這個數(shù)據(jù)中存在兩點問題。第一個問題是,數(shù)據(jù)集中存在數(shù)值缺失的情況,如何進行屬性選擇?第二個問題是,假設(shè)已經(jīng)做了屬性劃分,但是樣本在這個屬性上有缺失值,該如何對樣本進行劃分?

詳解機器學習決策樹的優(yōu)缺點

我們不考慮缺失的數(shù)值,可以得到溫度 D={2-,3+,4+,5-,6+,7-}。溫度 = 高:D1={2-,3+,4+};溫度 = 中:D2={6+,7-};溫度 = 低:D3={5-} 。這里 + 號代表打籃球,- 號代表不打籃球。比如ID=2 時,決策是不打籃球,我們可以記錄為 2-。

所以三個葉節(jié)點的信息熵可以結(jié)算為:

詳解機器學習決策樹的優(yōu)缺點

這三個節(jié)點的歸一化信息熵為 3/60.918+2/61.0+1/6*0=0.792。

針對將屬性選擇為溫度的信息增益率為:

Gain(D′, 溫度)=Ent(D′)-0.792=1.0-0.792=0.208

D′的樣本個數(shù)為 6,而 D 的樣本個數(shù)為 7,所以所占權(quán)重比例為 6/7,所以 Gain(D′,溫度) 所占權(quán)重比例為6/7,所以:

Gain(D, 溫度)=6/7*0.208=0.178

這樣即使在溫度屬性的數(shù)值有缺失的情況下,我們依然可以計算信息增益,并對屬性進行選擇。

小結(jié)

首先 ID3 算法的優(yōu)點是方法簡單,缺點是對噪聲敏感。訓練數(shù)據(jù)如果有少量錯誤,可能會產(chǎn)生決策樹分類錯誤。C4.5 在 IID3 的基礎(chǔ)上,用信息增益率代替了信息增益,解決了噪聲敏感的問題,并且可以對構(gòu)造樹進行剪枝、處理連續(xù)數(shù)值以及數(shù)值缺失等情況,但是由于 C4.5 需要對數(shù)據(jù)集進行多次掃描,算法效率相對較低。

詳解機器學習決策樹的優(yōu)缺點

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136954
  • 決策樹
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    14083
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    算法工程師需要具備哪些技能?

    :自動化任務(wù)(如數(shù)據(jù)預處理、模型訓練調(diào)度)。Git版本控制:團隊協(xié)作開發(fā)(如分支管理、代碼合并)。 機器學習監(jiān)督學習:線性回歸、邏輯回歸、決策樹、SVM等。無監(jiān)督
    發(fā)表于 02-27 10:53

    入門宇機器人開發(fā):從SDK源碼探索到實戰(zhàn)操作

    機器人(Unitree)作為全球領(lǐng)先的四足機器人研發(fā)企業(yè),其推出的unitree_sdk2是面向旗下 Go2、H1、B2 等系列機器人的第二代軟件開發(fā)工具包。該 SDK 提供了豐富
    的頭像 發(fā)表于 02-06 16:43 ?2791次閱讀
    入門宇<b class='flag-5'>樹</b><b class='flag-5'>機器</b>人開發(fā):從SDK源碼探索到實戰(zhàn)操作

    科技發(fā)布H2仿生人形機器

    就在10月20日會跳舞的機器人來了,宇科技正式發(fā)布H2仿生人形機器人,高180cm,重70kg,配以31個關(guān)節(jié)。在宇科技展示的視頻中,H2仿生人形
    的頭像 發(fā)表于 10-20 17:52 ?1883次閱讀

    科技預告新款人形機器人:有31個關(guān)節(jié)

    機器人似乎要搞大事了,宇科技發(fā)布了新款人形機器人的海報,雖然配文只有“敬請期待”幾個字,但是根據(jù)海報信息顯示新款機器人配備有31個關(guān)節(jié)
    的頭像 發(fā)表于 08-19 23:10 ?2021次閱讀

    宜科MVT閥島在宇科技人形機器人中的應(yīng)用

    在科技飛速發(fā)展的當下,機器人行業(yè)正以前所未有的速度蓬勃興起。其中,宇科技作為行業(yè)內(nèi)的佼佼者,憑借其創(chuàng)新的產(chǎn)品和領(lǐng)先的技術(shù),在全球機器人市場中占據(jù)了重要地位。從四足機器人到人形
    的頭像 發(fā)表于 08-16 17:31 ?1491次閱讀

    無線局域網(wǎng)的優(yōu)缺點和使用要點

    近年來,無線局域網(wǎng) 已普遍應(yīng)用于我們生活的方方面面。本文將介紹無線局域網(wǎng)的基礎(chǔ)知識、優(yōu)缺點、與 Wi-Fi 及有線局域網(wǎng)的區(qū)別,以及有效使用的要點。全球領(lǐng)先的短距離無線模塊供應(yīng)商 KAGA FEI
    的頭像 發(fā)表于 08-14 16:04 ?2977次閱讀
    無線局域網(wǎng)的<b class='flag-5'>優(yōu)缺點</b>和使用要點

    成都匯陽投資關(guān)于智元與宇拿下 1.24 億訂單,人形機器人商業(yè)化加速

    ? ? ? 中國移動招標 1.24 億元機器人大訂單 ,智元與宇中標 近日 ,智元和宇中標 “ 中移( 杭州) 信息技術(shù)有限公司人形雙足機器人代工服務(wù)采購項目 ” ,其中智元中標7
    的頭像 發(fā)表于 08-04 13:43 ?1213次閱讀

    超級電容對比鋰電池的優(yōu)缺點

    本文探討了超級電容和鋰電池在儲能領(lǐng)域的優(yōu)缺點。超級電容以高能量密度著稱,但充電速度較慢;鋰電池則具有快充和壽命長的優(yōu)勢,但成本較高。在新能源汽車和電網(wǎng)調(diào)頻等高頻次應(yīng)用中,兩者可以互補。
    的頭像 發(fā)表于 06-30 09:37 ?2645次閱讀
    超級電容對比鋰電池的<b class='flag-5'>優(yōu)缺點</b>

    商業(yè)云手機核心優(yōu)缺點分析

    商業(yè)云手機核心優(yōu)缺點分析,綜合技術(shù)性能、成本效率及場景適配性等多維度對比: 核心優(yōu)勢? 成本革命? 硬件零投入?:免除實體手機采購(旗艦機均價6000元),企業(yè)百臺規(guī)??墒?0萬+ CAPEX
    的頭像 發(fā)表于 06-16 08:11 ?1041次閱讀
    商業(yè)云手機核心<b class='flag-5'>優(yōu)缺點</b>分析

    PCBA 表面處理:優(yōu)缺點大揭秘,應(yīng)用場景全解析

    一站式PCBA加工廠家今天為大家講講PCBA加工如何選擇合適的表面處理工藝?PCBA表面處理優(yōu)缺點與應(yīng)用場景。在電子制造中,PCBA板的表面處理工藝對電路板的性能、可靠性和成本都有重要影響。選擇合適
    的頭像 發(fā)表于 05-05 09:39 ?1402次閱讀
    PCBA 表面處理:<b class='flag-5'>優(yōu)缺點</b>大揭秘,應(yīng)用場景全解析

    3D打印耗材種類有哪些?各有什么優(yōu)缺點?

    這篇文章將為你詳細介紹3D打印耗材的基礎(chǔ)知識,幫助你了解這些材料的特性、優(yōu)缺點以及它們適合的應(yīng)用場景。
    的頭像 發(fā)表于 04-29 09:40 ?5.3w次閱讀
    3D打印耗材種類有哪些?各有什么<b class='flag-5'>優(yōu)缺點</b>?

    打入宇科技供應(yīng)鏈,探究這家國產(chǎn)MCU 企業(yè)的人形機器人布局

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)3 月 31 日晚,在淘寶交個朋友直播間,宇科技的人形機器人 G1 化身 AI 機器人主播進行直播帶貨,售賣宇科技的
    的頭像 發(fā)表于 04-13 00:02 ?3469次閱讀

    十大鮮為人知卻功能強大的機器學習模型

    本文轉(zhuǎn)自:QuantML當我們談?wù)?b class='flag-5'>機器學習時,線性回歸、決策樹和神經(jīng)網(wǎng)絡(luò)這些常見的算法往往占據(jù)了主導地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?1095次閱讀
    十大鮮為人知卻功能強大的<b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型

    CMOS,Bipolar,F(xiàn)ET這三種工藝的優(yōu)缺點是什么?

    在我用photodiode工具選型I/V放大電路的時候,系統(tǒng)給我推薦了AD8655用于I/V,此芯片為CMOS工藝 但是查閱資料很多都是用FET工藝的芯片,所以請教下用于光電信號放大轉(zhuǎn)換(主要考慮信噪比和帶寬)一般我們用哪種工藝的芯片, CMOS,Bipolar,F(xiàn)ET這三種工藝的優(yōu)缺點是什么?
    發(fā)表于 03-25 06:23

    壓接連接器使用裸銅線的優(yōu)缺點分析?

    壓接連接器使用裸銅線是一種高效、可靠的電氣連接方式,廣泛應(yīng)用于電力、通信和工業(yè)領(lǐng)域。需要我們正確看待它的優(yōu)缺點,高效使用。
    的頭像 發(fā)表于 03-18 11:01 ?1169次閱讀