91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

ml8z_IV_Technol ? 來(lái)源:fqj ? 2019-06-06 15:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 線(xiàn)性回歸

在統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)領(lǐng)域,線(xiàn)性回歸可能是最廣為人知也最易理解的算法之一。

預(yù)測(cè)建模主要關(guān)注的是在犧牲可解釋性的情況下,盡可能最小化模型誤差或做出最準(zhǔn)確的預(yù)測(cè)。我們將借鑒、重用來(lái)自許多其它領(lǐng)域的算法(包括統(tǒng)計(jì)學(xué))來(lái)實(shí)現(xiàn)這些目標(biāo)。

線(xiàn)性回歸模型被表示為一個(gè)方程式,它為輸入變量找到特定的權(quán)重(即系數(shù) B),進(jìn)而描述一條最佳擬合了輸入變量(x)和輸出變量(y)之間關(guān)系的直線(xiàn)。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

線(xiàn)性回歸

例如: y = B0 + B1 * x

我們將在給定輸入值 x 的條件下預(yù)測(cè) y,線(xiàn)性回歸學(xué)習(xí)算法的目的是找到系數(shù) B0 和 B1 的值。

我們可以使用不同的技術(shù)來(lái)從數(shù)據(jù)中學(xué)習(xí)線(xiàn)性回歸模型,例如普通最小二乘法的線(xiàn)性代數(shù)解和梯度下降優(yōu)化。

線(xiàn)性回歸大約有 200 多年的歷史,并已被廣泛地研究。在使用此類(lèi)技術(shù)時(shí),有一些很好的經(jīng)驗(yàn)規(guī)則:我們可以刪除非常類(lèi)似(相關(guān))的變量,并盡可能移除數(shù)據(jù)中的噪聲。線(xiàn)性回歸是一種運(yùn)算速度很快的簡(jiǎn)單技術(shù),也是一種適合初學(xué)者嘗試的經(jīng)典算法。

2. Logistic 回歸

Logistic 回歸是機(jī)器學(xué)習(xí)從統(tǒng)計(jì)學(xué)領(lǐng)域借鑒過(guò)來(lái)的另一種技術(shù)。它是二分類(lèi)問(wèn)題的首選方法。

像線(xiàn)性回歸一樣,Logistic 回歸的目的也是找到每個(gè)輸入變量的權(quán)重系數(shù)值。但不同的是,Logistic 回歸的輸出預(yù)測(cè)結(jié)果是通過(guò)一個(gè)叫作「logistic 函數(shù)」的非線(xiàn)性函數(shù)變換而來(lái)的。

logistic 函數(shù)的形狀看起來(lái)像一個(gè)大的「S」,它會(huì)把任何值轉(zhuǎn)換至 0-1 的區(qū)間內(nèi)。這十分有用,因?yàn)槲覀兛梢园岩粋€(gè)規(guī)則應(yīng)用于 logistic 函數(shù)的輸出,從而得到 0-1 區(qū)間內(nèi)的捕捉值(例如,將閾值設(shè)置為 0.5,則如果函數(shù)值小于 0.5,則輸出值為 1),并預(yù)測(cè)類(lèi)別的值。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

Logistic 回歸

由于模型的學(xué)習(xí)方式,Logistic 回歸的預(yù)測(cè)結(jié)果也可以用作給定數(shù)據(jù)實(shí)例屬于類(lèi) 0 或類(lèi) 1 的概率。這對(duì)于需要為預(yù)測(cè)結(jié)果提供更多理論依據(jù)的問(wèn)題非常有用。

與線(xiàn)性回歸類(lèi)似,當(dāng)刪除與輸出變量無(wú)關(guān)以及彼此之間非常相似(相關(guān))的屬性后,Logistic 回歸的效果更好。該模型學(xué)習(xí)速度快,對(duì)二分類(lèi)問(wèn)題十分有效。

3. 線(xiàn)性判別分析

Logistic 回歸是一種傳統(tǒng)的分類(lèi)算法,它的使用場(chǎng)景僅限于二分類(lèi)問(wèn)題。如果你有兩個(gè)以上的類(lèi),那么線(xiàn)性判別分析算法(LDA)是首選的線(xiàn)性分類(lèi)技術(shù)。

LDA 的表示方法非常直接。它包含為每個(gè)類(lèi)計(jì)算的數(shù)據(jù)統(tǒng)計(jì)屬性。對(duì)于單個(gè)輸入變量而言,這些屬性包括:

每個(gè)類(lèi)的均值。

所有類(lèi)的方差。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

線(xiàn)性判別分析

預(yù)測(cè)結(jié)果是通過(guò)計(jì)算每個(gè)類(lèi)的判別值、并將類(lèi)別預(yù)測(cè)為判別值最大的類(lèi)而得出的。該技術(shù)假設(shè)數(shù)據(jù)符合高斯分布(鐘形曲線(xiàn)),因此最好預(yù)先從數(shù)據(jù)中刪除異常值。LDA 是一種簡(jiǎn)單而有效的分類(lèi)預(yù)測(cè)建模方法。

4. 分類(lèi)和回歸樹(shù)

決策樹(shù)是一類(lèi)重要的機(jī)器學(xué)習(xí)預(yù)測(cè)建模算法。

決策樹(shù)可以被表示為一棵二叉樹(shù)。這種二叉樹(shù)與算法設(shè)計(jì)和數(shù)據(jù)結(jié)構(gòu)中的二叉樹(shù)是一樣的,沒(méi)有什么特別。每個(gè)節(jié)點(diǎn)都代表一個(gè)輸入變量(x)和一個(gè)基于該變量的分叉點(diǎn)(假設(shè)該變量是數(shù)值型的)。

決策樹(shù)

決策樹(shù)的葉子結(jié)點(diǎn)包含一個(gè)用于做出預(yù)測(cè)的輸出變量(y)。預(yù)測(cè)結(jié)果是通過(guò)在樹(shù)的各個(gè)分叉路徑上游走,直到到達(dá)一個(gè)葉子結(jié)點(diǎn)并輸出該葉子結(jié)點(diǎn)的類(lèi)別值而得出。

決策樹(shù)的學(xué)習(xí)速度很快,做出預(yù)測(cè)的速度也很快。它們?cè)诖罅繂?wèn)題中往往都很準(zhǔn)確,而且不需要為數(shù)據(jù)做任何特殊的預(yù)處理準(zhǔn)備。

5. 樸素貝葉斯

樸素貝葉斯是一種簡(jiǎn)單而強(qiáng)大的預(yù)測(cè)建模算法。

該模型由兩類(lèi)可直接從訓(xùn)練數(shù)據(jù)中計(jì)算出來(lái)的概率組成:1)數(shù)據(jù)屬于每一類(lèi)的概率;2)給定每個(gè) x 值,數(shù)據(jù)從屬于每個(gè)類(lèi)的條件概率。一旦這兩個(gè)概率被計(jì)算出來(lái),就可以使用貝葉斯定理,用概率模型對(duì)新數(shù)據(jù)進(jìn)行預(yù)測(cè)。當(dāng)你的數(shù)據(jù)是實(shí)值的時(shí)候,通常假設(shè)數(shù)據(jù)符合高斯分布(鐘形曲線(xiàn)),這樣你就可以很容易地估計(jì)這些概率。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

貝葉斯定理

樸素貝葉斯之所以被稱(chēng)為「樸素」,是因?yàn)樗僭O(shè)每個(gè)輸入變量相互之間是獨(dú)立的。這是一種很強(qiáng)的、對(duì)于真實(shí)數(shù)據(jù)并不現(xiàn)實(shí)的假設(shè)。不過(guò),該算法在大量的復(fù)雜問(wèn)題中十分有效。

6. K 最近鄰算法

K 最近鄰(KNN)算法是非常簡(jiǎn)單而有效的。KNN 的模型表示就是整個(gè)訓(xùn)練數(shù)據(jù)集。這很簡(jiǎn)單吧?

對(duì)新數(shù)據(jù)點(diǎn)的預(yù)測(cè)結(jié)果是通過(guò)在整個(gè)訓(xùn)練集上搜索與該數(shù)據(jù)點(diǎn)最相似的 K 個(gè)實(shí)例(近鄰)并且總結(jié)這 K 個(gè)實(shí)例的輸出變量而得出的。對(duì)于回歸問(wèn)題來(lái)說(shuō),預(yù)測(cè)結(jié)果可能就是輸出變量的均值;而對(duì)于分類(lèi)問(wèn)題來(lái)說(shuō),預(yù)測(cè)結(jié)果可能是眾數(shù)(或最常見(jiàn)的)的類(lèi)的值。

關(guān)鍵之處在于如何判定數(shù)據(jù)實(shí)例之間的相似程度。如果你的數(shù)據(jù)特征尺度相同(例如,都以英寸為單位),那么最簡(jiǎn)單的度量技術(shù)就是使用歐幾里得距離,你可以根據(jù)輸入變量之間的差異直接計(jì)算出該值。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

K 最近鄰

KNN 可能需要大量的內(nèi)存或空間來(lái)存儲(chǔ)所有數(shù)據(jù),但只有在需要預(yù)測(cè)時(shí)才實(shí)時(shí)執(zhí)行計(jì)算(或?qū)W習(xí))。隨著時(shí)間的推移,你還可以更新并管理訓(xùn)練實(shí)例,以保證預(yù)測(cè)的準(zhǔn)確率。

使用距離或接近程度的度量方法可能會(huì)在維度非常高的情況下(有許多輸入變量)崩潰,這可能會(huì)對(duì)算法在你的問(wèn)題上的性能產(chǎn)生負(fù)面影響。這就是所謂的維數(shù)災(zāi)難。這告訴我們,應(yīng)該僅僅使用那些與預(yù)測(cè)輸出變量最相關(guān)的輸入變量。

7. 學(xué)習(xí)向量量化

KNN 算法的一個(gè)缺點(diǎn)是,你需要處理整個(gè)訓(xùn)練數(shù)據(jù)集。而學(xué)習(xí)向量量化算法(LVQ)允許選擇所需訓(xùn)練實(shí)例數(shù)量,并確切地學(xué)習(xí)這些實(shí)例。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

學(xué)習(xí)向量量化

LVQ 的表示是一組碼本向量。它們?cè)陂_(kāi)始時(shí)是隨機(jī)選擇的,經(jīng)過(guò)多輪學(xué)習(xí)算法的迭代后,最終對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行最好的總結(jié)。通過(guò)學(xué)習(xí),碼本向量可被用來(lái)像 K 最近鄰那樣執(zhí)行預(yù)測(cè)。通過(guò)計(jì)算每個(gè)碼本向量與新數(shù)據(jù)實(shí)例之間的距離,可以找到最相似的鄰居(最匹配的碼本向量)。然后返回最匹配單元的類(lèi)別值(分類(lèi))或?qū)嵵担ɑ貧w)作為預(yù)測(cè)結(jié)果。如果將數(shù)據(jù)重新放縮放到相同的范圍中(例如 0 到 1 之間),就可以獲得最佳的預(yù)測(cè)結(jié)果。

如果你發(fā)現(xiàn) KNN 能夠在你的數(shù)據(jù)集上得到不錯(cuò)的預(yù)測(cè)結(jié)果,那么不妨試一試 LVQ 技術(shù),它可以減少對(duì)內(nèi)存空間的需求,不需要像 KNN 那樣存儲(chǔ)整個(gè)訓(xùn)練數(shù)據(jù)集。

8. 支持向量機(jī)

支持向量機(jī)(SVM)可能是目前最流行、被討論地最多的機(jī)器學(xué)習(xí)算法之一。

超平面是一條對(duì)輸入變量空間進(jìn)行劃分的「直線(xiàn)」。支持向量機(jī)會(huì)選出一個(gè)將輸入變量空間中的點(diǎn)按類(lèi)(類(lèi) 0 或類(lèi) 1)進(jìn)行最佳分割的超平面。在二維空間中,你可以把他想象成一條直線(xiàn),假設(shè)所有輸入點(diǎn)都可以被這條直線(xiàn)完全地劃分開(kāi)來(lái)。SVM 學(xué)習(xí)算法旨在尋找最終通過(guò)超平面得到最佳類(lèi)別分割的系數(shù)。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

支持向量機(jī)

超平面與最近數(shù)據(jù)點(diǎn)之間的距離叫作間隔(margin)。能夠?qū)蓚€(gè)類(lèi)分開(kāi)的最佳超平面是具有最大間隔的直線(xiàn)。只有這些點(diǎn)與超平面的定義和分類(lèi)器的構(gòu)建有關(guān),這些點(diǎn)叫作支持向量,它們支持或定義超平面。在實(shí)際應(yīng)用中,人們采用一種優(yōu)化算法來(lái)尋找使間隔最大化的系數(shù)值。

支持向量機(jī)可能是目前可以直接使用的最強(qiáng)大的分類(lèi)器之一,值得你在自己的數(shù)據(jù)集上試一試。

9. 袋裝法和隨機(jī)森林

隨機(jī)森林是最流行也最強(qiáng)大的機(jī)器學(xué)習(xí)算法之一,它是一種集成機(jī)器學(xué)習(xí)算法。

自助法是一種從數(shù)據(jù)樣本中估計(jì)某個(gè)量(例如平均值)的強(qiáng)大統(tǒng)計(jì)學(xué)方法。你需要在數(shù)據(jù)中取出大量的樣本,計(jì)算均值,然后對(duì)每次取樣計(jì)算出的均值再取平均,從而得到對(duì)所有數(shù)據(jù)的真實(shí)均值更好的估計(jì)。

Bagging 使用了相同的方法。但是最常見(jiàn)的做法是使用決策樹(shù),而不是對(duì)整個(gè)統(tǒng)計(jì)模型進(jìn)行估計(jì)。Bagging 會(huì)在訓(xùn)練數(shù)據(jù)中取多個(gè)樣本,然后為每個(gè)數(shù)據(jù)樣本構(gòu)建模型。當(dāng)你需要對(duì)新數(shù)據(jù)進(jìn)行預(yù)測(cè)時(shí),每個(gè)模型都會(huì)產(chǎn)生一個(gè)預(yù)測(cè)結(jié)果,Bagging 會(huì)對(duì)所有模型的預(yù)測(cè)結(jié)果取平均,以便更好地估計(jì)真實(shí)的輸出值。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

隨機(jī)森林

隨機(jī)森林是這種方法的改進(jìn),它會(huì)創(chuàng)建決策樹(shù),這樣就不用選擇最優(yōu)分割點(diǎn),而是通過(guò)引入隨機(jī)性來(lái)進(jìn)行次優(yōu)分割。

因此,為每個(gè)數(shù)據(jù)樣本創(chuàng)建的模型比在其它情況下創(chuàng)建的模型更加獨(dú)特,但是這種獨(dú)特的方式仍能保證較高的準(zhǔn)確率。結(jié)合它們的預(yù)測(cè)結(jié)果可以更好地估計(jì)真實(shí)的輸出值。

如果你使用具有高方差的算法(例如決策樹(shù))獲得了良好的結(jié)果,那么你通常可以通過(guò)對(duì)該算法執(zhí)行 Bagging 獲得更好的結(jié)果。

10. Boosting 和 AdaBoost

Boosting 是一種試圖利用大量弱分類(lèi)器創(chuàng)建一個(gè)強(qiáng)分類(lèi)器的集成技術(shù)。要實(shí)現(xiàn) Boosting 方法,首先你需要利用訓(xùn)練數(shù)據(jù)構(gòu)建一個(gè)模型,然后創(chuàng)建第二個(gè)模型(它企圖修正第一個(gè)模型的誤差)。直到最后模型能夠?qū)τ?xùn)練集進(jìn)行完美地預(yù)測(cè)或加入的模型數(shù)量已達(dá)上限,我們才停止加入新的模型。

AdaBoost 是第一個(gè)為二分類(lèi)問(wèn)題開(kāi)發(fā)的真正成功的 Boosting 算法。它是人們?nèi)腴T(mén)理解 Boosting 的最佳起點(diǎn)。當(dāng)下的 Boosting 方法建立在 AdaBoost 基礎(chǔ)之上,最著名的就是隨機(jī)梯度提升機(jī)。

機(jī)器學(xué)習(xí)中必學(xué)的10大算法

AdaBoost

AdaBoost 使用淺層決策樹(shù)。在創(chuàng)建第一棵樹(shù)之后,使用該樹(shù)在每個(gè)訓(xùn)練實(shí)例上的性能來(lái)衡量下一棵樹(shù)應(yīng)該對(duì)每個(gè)訓(xùn)練實(shí)例賦予多少權(quán)重。難以預(yù)測(cè)的訓(xùn)練數(shù)據(jù)權(quán)重會(huì)增大,而易于預(yù)測(cè)的實(shí)例權(quán)重會(huì)減小。模型是一個(gè)接一個(gè)依次創(chuàng)建的,每個(gè)模型都會(huì)更新訓(xùn)練實(shí)例權(quán)重,影響序列中下一棵樹(shù)的學(xué)習(xí)。在構(gòu)建所有的樹(shù)之后,我們就可以對(duì)新的數(shù)據(jù)執(zhí)行預(yù)測(cè),并根據(jù)每棵樹(shù)在訓(xùn)練數(shù)據(jù)上的準(zhǔn)確率來(lái)對(duì)其性能進(jìn)行加權(quán)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)必學(xué)10大算法

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車(chē)科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    算法工程師需要具備哪些技能?

    算法工程師需要掌握一系列跨學(xué)科的技能,涵蓋數(shù)學(xué)基礎(chǔ)、編程能力、算法理論、工程實(shí)踐以及業(yè)務(wù)理解等多個(gè)方面。 以下是具體技能及學(xué)習(xí)建議: 線(xiàn)性代數(shù)核心內(nèi)容:矩陣運(yùn)算、特征值分解、向量空間等。應(yīng)用場(chǎng)
    發(fā)表于 02-27 10:53

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?255次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測(cè)量原理 利用頂頭與周?chē)奈镔|(zhì)(水、空氣、導(dǎo)盤(pán)等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過(guò)深度學(xué)習(xí)短時(shí)間內(nèi)深度優(yōu)化,判斷
    發(fā)表于 12-22 14:33

    量子機(jī)器學(xué)習(xí)入門(mén):三種數(shù)據(jù)編碼方法對(duì)比與應(yīng)用

    在傳統(tǒng)機(jī)器學(xué)習(xí)數(shù)據(jù)編碼確實(shí)相對(duì)直觀(guān):獨(dú)熱編碼處理類(lèi)別變量,標(biāo)準(zhǔn)化調(diào)整數(shù)值范圍,然后直接輸入模型訓(xùn)練。整個(gè)過(guò)程更像是數(shù)據(jù)清洗,而非核心算法組件。量子
    的頭像 發(fā)表于 09-15 10:27 ?823次閱讀
    量子<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>入門(mén):三種數(shù)據(jù)編碼方法對(duì)比與應(yīng)用

    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的前沿應(yīng)用

    在三維逆向工程領(lǐng)域,傳統(tǒng)方法在處理復(fù)雜數(shù)據(jù)和構(gòu)建高精度模型時(shí)面臨諸多挑戰(zhàn)。隨著人工智能(AI)技術(shù)的發(fā)展,點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的應(yīng)用,為三維逆向工程帶來(lái)了創(chuàng)新性解決方案,顯著提升
    的頭像 發(fā)表于 08-20 10:00 ?758次閱讀
    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪<b class='flag-5'>算法</b>工具與<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>建模能力的前沿應(yīng)用

    PID控制算法學(xué)習(xí)筆記資料

    用于新手學(xué)習(xí)PID控制算法。
    發(fā)表于 08-12 16:22 ?7次下載

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來(lái)越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機(jī)器學(xué)習(xí)的應(yīng)用,特別是在加速神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-16 15:34 ?2967次閱讀

    【嘉楠堪智K230開(kāi)發(fā)板試用體驗(yàn)】K230機(jī)器視覺(jué)相關(guān)功能體驗(yàn)

    畫(huà)圖 機(jī)器學(xué)習(xí)模型在通過(guò)攝像頭獲取圖像后,經(jīng)過(guò)處理輸入后,在輸出環(huán)節(jié)通常還需要進(jìn)行后處理,例如圖像檢測(cè)應(yīng)用,目標(biāo)位置的框選等。 在K230提供了畫(huà)圖的功能,可以實(shí)現(xiàn)畫(huà)線(xiàn)段、畫(huà)矩形
    發(fā)表于 07-08 17:25

    機(jī)器學(xué)習(xí)異常檢測(cè)實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無(wú)標(biāo)簽異常檢測(cè)系統(tǒng)

    本文轉(zhuǎn)自:DeepHubIMBA無(wú)監(jiān)督異常檢測(cè)作為機(jī)器學(xué)習(xí)領(lǐng)域的重要分支,專(zhuān)門(mén)用于在缺乏標(biāo)記數(shù)據(jù)的環(huán)境識(shí)別異常事件。本文深入探討異常檢測(cè)技術(shù)的理論基礎(chǔ)與實(shí)踐應(yīng)用,通過(guò)IsolationForest
    的頭像 發(fā)表于 06-24 11:40 ?1475次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>異常檢測(cè)實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無(wú)標(biāo)簽異常檢測(cè)系統(tǒng)

    SOLIDWORKS建模秘籍——必學(xué)的五個(gè)草圖與建模技巧

    SOLIDWORKS作為一款功能強(qiáng)大的三維CAD軟件,廣泛應(yīng)用于各種設(shè)計(jì)和產(chǎn)品開(kāi)發(fā)領(lǐng)域。掌握SOLIDWORKS的草圖與建模技巧,能夠顯著提升設(shè)計(jì)效率,減少錯(cuò)誤,并快速將創(chuàng)意轉(zhuǎn)化為現(xiàn)實(shí)。以下是五個(gè)必學(xué)的SOLIDWORKS草圖與建模技巧,幫助你成為設(shè)計(jì)高手。
    的頭像 發(fā)表于 05-26 13:17 ?1273次閱讀
    SOLIDWORKS建模秘籍——<b class='flag-5'>必學(xué)</b>的五個(gè)草圖與建模技巧

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    人部署,詳細(xì)介紹了基于顏色閾值和深度學(xué)習(xí)的巡線(xiàn)方法。 二維碼識(shí)別則廣泛應(yīng)用于機(jī)器人定位與任務(wù)觸發(fā),例如AGV(自動(dòng)導(dǎo)引車(chē))的路徑規(guī)劃。 深度學(xué)習(xí)機(jī)器人視覺(jué)
    發(fā)表于 05-03 19:41

    機(jī)器人主控芯片平臺(tái)有哪些 機(jī)器人主控芯片一文搞懂

    AI芯片在人形機(jī)器人中的應(yīng)用越來(lái)越廣泛。這些AI芯片專(zhuān)門(mén)設(shè)計(jì)用于執(zhí)行人工智能算法,如深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等。
    的頭像 發(fā)表于 04-25 16:26 ?7887次閱讀
    <b class='flag-5'>機(jī)器</b>人主控芯片平臺(tái)有哪些  <b class='flag-5'>機(jī)器</b>人主控芯片一文搞懂

    復(fù)合機(jī)器人為什么要使用單點(diǎn)糾偏算法?

    復(fù)合機(jī)器人單點(diǎn)糾偏算法
    的頭像 發(fā)表于 04-20 14:59 ?768次閱讀
    復(fù)合<b class='flag-5'>機(jī)器</b>人為什么要使用單點(diǎn)糾偏<b class='flag-5'>算法</b>?

    十大鮮為人知卻功能強(qiáng)大的機(jī)器學(xué)習(xí)模型

    本文轉(zhuǎn)自:QuantML當(dāng)我們談?wù)?b class='flag-5'>機(jī)器學(xué)習(xí)時(shí),線(xiàn)性回歸、決策樹(shù)和神經(jīng)網(wǎng)絡(luò)這些常見(jiàn)的算法往往占據(jù)了主導(dǎo)地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強(qiáng)大的算法,它們能夠
    的頭像 發(fā)表于 04-02 14:10 ?1131次閱讀
    十大鮮為人知卻功能強(qiáng)大的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型

    **【技術(shù)干貨】Nordic nRF54系列芯片:傳感器數(shù)據(jù)采集與AI機(jī)器學(xué)習(xí)的完美結(jié)合**

    和更多外設(shè)接口。無(wú)論是運(yùn)行還是休眠狀態(tài),功耗表現(xiàn)都非常出色! 3. 在傳感器數(shù)據(jù)采集與AI機(jī)器學(xué)習(xí)的優(yōu)勢(shì)? 答:主頻高、功耗低,內(nèi)置專(zhuān)用核處理數(shù)據(jù)采集,還配備AI加速器,讓AI算法運(yùn)
    發(fā)表于 04-01 00:00