91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

上海生物芯片 ? 來(lái)源:上海生物芯片 ? 2024-12-30 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法特征,供各位老師選擇。

01

傳統(tǒng)機(jī)器學(xué)習(xí)

傳統(tǒng)機(jī)器學(xué)習(xí),一般指不基于神經(jīng)網(wǎng)絡(luò)的算法,適合用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問(wèn)題上的開發(fā)和測(cè)試速度更快。開發(fā)深度神經(jīng)網(wǎng)絡(luò)的架構(gòu)并進(jìn)行訓(xùn)練是一項(xiàng)耗時(shí)且計(jì)算成本高昂的任務(wù),而傳統(tǒng)的支持向量機(jī)(SVM)和隨機(jī)森林等模型則相對(duì)簡(jiǎn)單。此外,在深度神經(jīng)網(wǎng)絡(luò)中估計(jì)特征重要性(即每個(gè)特征對(duì)預(yù)測(cè)的貢獻(xiàn)程度)或模型預(yù)測(cè)的置信度仍然不是一件容易的事。即使使用深度學(xué)習(xí)模型,通常仍應(yīng)訓(xùn)練一個(gè)傳統(tǒng)方法,與基于神經(jīng)網(wǎng)絡(luò)的模型進(jìn)行比較。

傳統(tǒng)方法通常期望數(shù)據(jù)集中的每個(gè)樣本具有相同數(shù)量的特征,但是生物學(xué)檢測(cè)數(shù)據(jù)很難滿足這個(gè)需求。舉例說(shuō)明,當(dāng)使用蛋白質(zhì)、RNA的表達(dá)水平矩陣時(shí),每個(gè)樣本表達(dá)的蛋白質(zhì)、RNA數(shù)量不同。為了使用傳統(tǒng)方法處理這些數(shù)據(jù),可以通過(guò)簡(jiǎn)單的技術(shù)(如填充和窗口化)將數(shù)據(jù)調(diào)整為相同的大小?!疤畛洹币馕吨鴮⒚總€(gè)樣本添加額外的零值,直到它與數(shù)據(jù)集中最大的樣本大小相同。相比之下,窗口化將每個(gè)樣本縮短到給定的大?。ɡ?,使用在所有樣品中均表達(dá)的蛋白質(zhì)、RNA)。

5ed086d2-c36d-11ef-9310-92fbcf53809c.png

表1. 傳統(tǒng)機(jī)器學(xué)習(xí)方法比較

02

回歸模型

對(duì)于回歸問(wèn)題,嶺回歸(帶有正則化項(xiàng)的線性回歸)通常是開發(fā)模型的良好起點(diǎn)。因?yàn)樗梢詾榻o定任務(wù)提供快速且易于理解的基準(zhǔn)。當(dāng)希望減少模型依賴的特征數(shù)時(shí),比如篩選生物標(biāo)志物研究時(shí),其他線性回歸變體如LASSO回歸和彈性網(wǎng)絡(luò)回歸也是值得考慮的。數(shù)據(jù)中特征之間的關(guān)系通常是非線性的,因此在這種情況下使用如支持向量機(jī)(SVM)的模型通常是更合適的選擇。SVM是一種強(qiáng)大的回歸和分類模型,它使用核函數(shù)將不可分的問(wèn)題轉(zhuǎn)換為更容易解決的可分問(wèn)題。根據(jù)使用的核函數(shù),SVM可以用于線性回歸和非線性回歸。一個(gè)開發(fā)模型的好方法是訓(xùn)練一個(gè)線性SVM和一個(gè)帶有徑向基函數(shù)核的SVM(一種通用的非線性SVM),以量化非線性模型是否能帶來(lái)任何增益。非線性方法可以提供更強(qiáng)大的模型,但代價(jià)是難以解釋哪些特征在影響模型。

03

分類模型

許多常用的回歸模型也用于分類。對(duì)于分類任務(wù),訓(xùn)練一個(gè)線性SVM和一個(gè)帶有徑向基函數(shù)核的SVM也是一個(gè)好的默認(rèn)起點(diǎn)。另一種可以嘗試的方法是k近鄰分類(KNN)。作為最簡(jiǎn)單的分類方法之一,KNN提供了與其他更復(fù)雜的模型(如SVM)進(jìn)行比較的有用基線性能指標(biāo)。另一類強(qiáng)大的非線性方法是基于集成的模型,如隨機(jī)森林和XGBoost。這兩種方法都是強(qiáng)大的非線性模型,具有提供特征重要性估計(jì)和通常需要最少超參數(shù)調(diào)優(yōu)的優(yōu)點(diǎn)。由于特征重要性值的分配和決策樹結(jié)構(gòu),這些模型可分析哪些特征對(duì)預(yù)測(cè)貢獻(xiàn)最大,這對(duì)于生物學(xué)理解至關(guān)重要。

無(wú)論是分類還是回歸,許多可用的模型都有令人眼花繚亂的變體。試圖預(yù)測(cè)特定方法是否適合特定問(wèn)題可能會(huì)有誤導(dǎo)性,因此采取經(jīng)驗(yàn)性的試錯(cuò)方法來(lái)找到最佳模型是明智的選擇。選擇最佳方法的一個(gè)好策略是訓(xùn)練和優(yōu)化上述多種方法,并選擇在驗(yàn)證集上表現(xiàn)最好的模型,最后再在獨(dú)立的測(cè)試集上比較它們的性能。

04

聚類模型和降維

聚類算法在生物學(xué)中廣泛應(yīng)用。k-means是一種強(qiáng)大的通用聚類方法,像許多其他聚類算法一樣,需要將聚類的數(shù)量設(shè)置為超參數(shù)。DBSCAN是一種替代方法,不需要預(yù)先定義聚類的數(shù)量,但需要設(shè)置其他超參數(shù)。在聚類之前進(jìn)行降維也可以提高具有大量特征的數(shù)據(jù)集的性能。

降維技術(shù)用于將具有大量屬性(或維度)的數(shù)據(jù)轉(zhuǎn)換為低維形式,同時(shí)盡可能保留數(shù)據(jù)點(diǎn)之間的不同關(guān)系。例如,相似的數(shù)據(jù)點(diǎn)(如兩個(gè)同源蛋白序列)在低維形式中也應(yīng)保持相似,而不相似的數(shù)據(jù)點(diǎn)(如不相關(guān)的蛋白序列)應(yīng)保持不相似。通常選擇兩維或三維,以便在坐標(biāo)軸上可視化數(shù)據(jù),盡管在機(jī)器學(xué)習(xí)中使用更多維度也有其用途。這些技術(shù)包括數(shù)據(jù)的線性和非線性變換。生物學(xué)中常見的例子包括主成分分析(PCA)、均勻流形逼近和投影(UMAP)以及t分布隨機(jī)鄰域嵌入(t-SNE)。

5f95bb50-c36d-11ef-9310-92fbcf53809c.png

圖1. 各種傳統(tǒng)機(jī)器學(xué)習(xí)模型

本文詳細(xì)介紹了傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo),下一篇文章將介紹深度神經(jīng)網(wǎng)絡(luò)算法模型,敬請(qǐng)期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:生物學(xué)家的機(jī)器學(xué)習(xí)指南(三)

文章出處:【微信號(hào):SBCNECB,微信公眾號(hào):上海生物芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)特征工程:分類變量的數(shù)值化處理方法

    編碼是機(jī)器學(xué)習(xí)流程里最容易被低估的環(huán)節(jié)之一,模型沒(méi)辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都是典型的分類
    的頭像 發(fā)表于 02-10 15:58 ?329次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>特征工程:分類變量的數(shù)值化處理<b class='flag-5'>方法</b>

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-04 14:44 ?468次閱讀

    學(xué)習(xí)單片機(jī)快速方法

    。因?yàn)閺奈业?b class='flag-5'>學(xué)習(xí)過(guò)程來(lái)看,光看理論等于沒(méi)學(xué)。單片機(jī)必須是理論加實(shí)踐,而且要大量實(shí)踐,在實(shí)踐的過(guò)程中尋找理論。這才是最快捷的學(xué)習(xí)方法。這好比你學(xué)習(xí)漢語(yǔ),你不可能什么字都會(huì)寫,遇到不懂的,查查字典就可以了
    發(fā)表于 01-14 07:42

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?184次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    量子機(jī)器學(xué)習(xí)入門:三種數(shù)據(jù)編碼方法對(duì)比與應(yīng)用

    傳統(tǒng)機(jī)器學(xué)習(xí)中數(shù)據(jù)編碼確實(shí)相對(duì)直觀:獨(dú)熱編碼處理類別變量,標(biāo)準(zhǔn)化調(diào)整數(shù)值范圍,然后直接輸入模型訓(xùn)練。整個(gè)過(guò)程更像是數(shù)據(jù)清洗,而非核心算法組件。量子機(jī)器
    的頭像 發(fā)表于 09-15 10:27 ?771次閱讀
    量子<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>入門:三種數(shù)據(jù)編碼<b class='flag-5'>方法</b>對(duì)比與應(yīng)用

    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的前沿應(yīng)用

    在三維逆向工程領(lǐng)域,傳統(tǒng)方法在處理復(fù)雜數(shù)據(jù)和構(gòu)建高精度模型時(shí)面臨諸多挑戰(zhàn)。隨著人工智能(AI)技術(shù)的發(fā)展,點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的應(yīng)用,為三維逆向工程帶來(lái)了創(chuàng)新性解決方案,
    的頭像 發(fā)表于 08-20 10:00 ?692次閱讀
    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>建模能力的前沿應(yīng)用

    ARM入門學(xué)習(xí)方法分享

    。 以下是一些入門學(xué)習(xí)方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一種精簡(jiǎn)指令集計(jì)算機(jī)(RISC
    發(fā)表于 07-23 10:21

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?2885次閱讀

    掃地機(jī)器人EMC整改:傳統(tǒng)方法VS新技術(shù)的高效解決方案

    南柯電子|掃地機(jī)器人EMC整改:傳統(tǒng)方法VS新技術(shù)的高效解決方案
    的頭像 發(fā)表于 06-10 11:00 ?952次閱讀
    掃地<b class='flag-5'>機(jī)器</b>人EMC整改:<b class='flag-5'>傳統(tǒng)</b><b class='flag-5'>方法</b>VS新技術(shù)的高效解決方案

    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的學(xué)習(xí)方法概述

    本章介紹W55MH32的學(xué)習(xí)方法,建議先了解硬件資源,按基礎(chǔ)篇、入門篇循序漸進(jìn)學(xué)習(xí)。參考兩份手冊(cè),提供例程資料,還給出官網(wǎng)、github 等學(xué)習(xí)資料查找渠道。讓我們一起踏上W55MH32高性能以太網(wǎng)單片機(jī)的
    的頭像 發(fā)表于 05-26 09:07 ?880次閱讀
    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的<b class='flag-5'>學(xué)習(xí)方法</b>概述

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1433次閱讀
    使用MATLAB進(jìn)行無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    18個(gè)常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    本來(lái)轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級(jí)技術(shù)(如PPO、A3C、PlaNet等)的實(shí)現(xiàn)原理與編碼過(guò)程,旨在通過(guò)理論結(jié)合代碼的方式,構(gòu)建對(duì)強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1609次閱讀
    18個(gè)常用的強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>算法整理:從基礎(chǔ)<b class='flag-5'>方法</b>到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    一種無(wú)刷直流電機(jī)霍耳信號(hào)與定子繞組關(guān)系自學(xué)習(xí)方法

    的關(guān)系。提出了一種無(wú)刷直流電機(jī)霍耳信號(hào)與定子繞組關(guān)系自學(xué)習(xí)方法,該方法通過(guò)不同的繞組通電組合將電機(jī)轉(zhuǎn)子依次轉(zhuǎn)到6個(gè)不同的位置并記錄對(duì)應(yīng)的霍耳信號(hào),然后得出霍耳信號(hào)與定子繞組的對(duì)應(yīng)關(guān)系。所提出的方法快速
    發(fā)表于 03-25 15:15

    掌握這六點(diǎn),原來(lái)學(xué)習(xí)數(shù)電和模電這么簡(jiǎn)單!

    的認(rèn)知理解,而先學(xué)習(xí)模電能夠更好的對(duì)數(shù)電的內(nèi)部結(jié)構(gòu)原理得到了解,這樣學(xué)習(xí)起數(shù)電來(lái)就更容易上手了,下面我們來(lái)開始今天的學(xué)習(xí)吧,如何學(xué)習(xí)模電,重點(diǎn)介紹了5個(gè)
    的頭像 發(fā)表于 03-19 19:33 ?4792次閱讀
    掌握這六點(diǎn),原來(lái)<b class='flag-5'>學(xué)習(xí)</b>數(shù)電和模電這么簡(jiǎn)單!

    請(qǐng)問(wèn)STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?

    STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?
    發(fā)表于 03-13 07:34