91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

科學(xué)家將開發(fā)深度學(xué)習(xí)框架,以將機(jī)器學(xué)習(xí)集成到神經(jīng)影像研究中

如意 ? 來源: 愛云資訊 ? 作者: 愛云資訊 ? 2020-08-17 17:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐治亞州立大學(xué)的研究人員與麻省理工學(xué)院(MIT)和麻省總醫(yī)院(MGH)的同事們通過推進(jìn)獲得了美國國立衛(wèi)生研究院腦研究的 250萬美元贈款創(chuàng)新性神經(jīng)技術(shù)(BRAIN) 研究計劃,旨在徹底改變科學(xué)家對人腦的理解。

該團(tuán)隊將開發(fā)Nobrainer(一種用于3D圖像處理的開源深度學(xué)習(xí)框架),以將機(jī)器學(xué)習(xí)集成到神經(jīng)影像研究和臨床應(yīng)用中。

佐治亞州立大學(xué)計算機(jī)科學(xué)副教授,研究資助機(jī)構(gòu)負(fù)責(zé)人謝爾蓋·普利斯(Sergey Plis)表示:“人工智能和深度學(xué)習(xí)的進(jìn)步可以幫助研究人員從大腦掃描中獲取更多見解,同時減少處理數(shù)據(jù)所需的時間?!??!袄纾覀兛梢粤私庥嘘P(guān)精神疾病或衰老如何影響大腦結(jié)構(gòu)的細(xì)節(jié)?!?/p>

能夠闡明這類復(fù)雜模式的模型非常耗費數(shù)據(jù),而組裝龐大的大腦數(shù)據(jù)集具有挑戰(zhàn)性,特別是對于小型研究小組而言。

“當(dāng)Google想要創(chuàng)建一個聊天機(jī)器人時,他們可以使用每次互聯(lián)網(wǎng)搜索中的數(shù)據(jù)來訓(xùn)練它,”同時也是神經(jīng)影像和數(shù)據(jù)科學(xué)轉(zhuǎn)化研究中心機(jī)器學(xué)習(xí)核心主管的Plis說 ?!暗牵瑢τ谀X成像儀來說,障礙可能太高。收集成千上萬的大腦掃描以及訓(xùn)練所需的硬件非常昂貴,并且您必須匿名化數(shù)據(jù)才能解決隱私問題?!?/p>

該團(tuán)隊由 麻省理工學(xué)院 的 Satrajit Ghosh ,MGH的Bruce Fischl和Plis領(lǐng)導(dǎo)。他們計劃創(chuàng)建深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)已經(jīng)接受了來自65,000多人的腦部掃描的培訓(xùn)。他們將把該技術(shù)作為一組廣泛使用的工具和神經(jīng)科學(xué)家的現(xiàn)成模型進(jìn)行傳播。工具和產(chǎn)生的模型將被標(biāo)準(zhǔn)化,以確??茖W(xué)家們可以獲得可比的結(jié)果并更輕松地共享它們,而無需擔(dān)心患者的機(jī)密性。

團(tuán)隊正在開發(fā)一種獨特的功能,其中的模型可以批判他們所知道的信息,量化自己分析中的不確定性程度,并報告可能存在錯誤的地方。這可以幫助科學(xué)家確定何時信任該模型以及何時需要收集更多數(shù)據(jù)。隨著越來越多的研究人員使用模型,提出新的問題或?qū)⒛P驼{(diào)整為新的數(shù)據(jù)集,這些工具將繼續(xù)學(xué)習(xí),變得更加準(zhǔn)確。

普利斯說:“模型傳播得越遠(yuǎn),就像土豆一樣,變得更好?!?“當(dāng)您正在研究以不可預(yù)測的方式影響大腦的事物(例如中風(fēng))時,您需要大量數(shù)據(jù),因為患者預(yù)后會存在很多差異。借助熱土豆學(xué)習(xí)方式,該模型逐漸吸收了這種可變性,并且在進(jìn)行預(yù)測時變得更好?!?/p>

該工具的另一個主要優(yōu)點是該工具具有比可用模型快得多的數(shù)據(jù)處理能力。研究團(tuán)隊對Nobrainer進(jìn)行了培訓(xùn),使其做出與Freesurfer相同的預(yù)測,F(xiàn)reesurfer是MGH開發(fā)的同類最佳的MRI分析工具。初步研究表明,這項技術(shù)的性能優(yōu)于Freesurfer,在幾分鐘到幾小時內(nèi)進(jìn)行了一些相同的計算。該團(tuán)隊計劃使用他們的工具來自動化和加速Freesurfer平臺的其他部分以及其他類型的神經(jīng)成像分析。減少執(zhí)行復(fù)雜分析所需的時間,可以加快關(guān)于大腦的科學(xué)和臨床發(fā)現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個常見錯誤與局限性

    ,并驗證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學(xué)家的工作習(xí)慣。需避免的機(jī)器學(xué)習(xí)深度學(xué)習(xí)數(shù)據(jù)錯誤在訓(xùn)練數(shù)據(jù)驅(qū)動的人工智能模型時,我們
    的頭像 發(fā)表于 01-07 15:37 ?186次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個常見錯誤與局限性

    基于ETAS嵌入式AI工具鏈機(jī)器學(xué)習(xí)模型部署量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成ECU軟件,已
    的頭像 發(fā)表于 12-24 10:55 ?6102次閱讀
    基于ETAS嵌入式AI工具鏈<b class='flag-5'>將</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型部署<b class='flag-5'>到</b>量產(chǎn)ECU

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時間內(nèi)深度
    發(fā)表于 12-22 14:33

    利用 Banana Pi BPI-CM5 Pro(ARMSoM CM5 SoM) 加速保護(hù)科學(xué)

    從中獲得有意義的信息。而這正是深度學(xué)習(xí)改變游戲規(guī)則的地方。 深度學(xué)習(xí)模型和人工智能加速硬件釋放了PAM真正的可擴(kuò)展?jié)摿?,?b class='flag-5'>科學(xué)家能夠在合理的
    發(fā)表于 10-27 09:18

    國際類腦計算科學(xué)家Yulia Sandamirskaya教授加盟時識科技

    近日,國際類腦計算與神經(jīng)形態(tài)機(jī)器人領(lǐng)域知名科學(xué)家Yulia Sandamirskaya 教授,作為科學(xué)家顧問正式加入時識科技(SynSense)。
    的頭像 發(fā)表于 10-13 13:50 ?732次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    科學(xué)革命時期。主要是自然現(xiàn)象的經(jīng)驗描述,被稱為實驗科學(xué)。 第二范式:被稱為理論科學(xué),它以數(shù)學(xué)模型和理論為基礎(chǔ),研究現(xiàn)象的基本原理和規(guī)律。 第二范式推動了
    發(fā)表于 09-17 11:45

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術(shù)。事實上,這種印象忽視了該技術(shù)為機(jī)器視覺(乃至生產(chǎn)自動化)帶來的潛力,因為深度學(xué)習(xí)并非只屬于計算機(jī)科學(xué)家
    的頭像 發(fā)表于 09-10 17:38 ?900次閱讀
    如何在<b class='flag-5'>機(jī)器</b>視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們
    發(fā)表于 07-31 11:38

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    科學(xué)家”的構(gòu)想富有顛覆性,通過自動化科學(xué)發(fā)現(xiàn)框架,AI能自主生成假說、設(shè)計實驗、分析結(jié)果,傳統(tǒng) “小作坊式” 科研升級為 “批量生產(chǎn)式” 創(chuàng)新。 書中展望,這類系統(tǒng)有望催生諾貝爾獎
    發(fā)表于 07-28 13:54

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文探討 FPGA 在機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-16 15:34 ?2885次閱讀

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來呢?

    ,TensorFlow、PyTorch用于構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)。Python為例,通過編寫簡單的程序來處理數(shù)據(jù),如讀取數(shù)據(jù)集、進(jìn)行數(shù)據(jù)清洗和預(yù)處理,這是進(jìn)入AI領(lǐng)域的基本技能。 學(xué)習(xí)機(jī)器學(xué)習(xí)
    發(fā)表于 07-08 17:44

    大模型推理顯存和計算量估計方法研究

    ,為實際應(yīng)用提供了有益的參考。 未來,我們繼續(xù)深入研究大模型推理的優(yōu)化方法,以降低顯存和計算資源的需求,提高深度學(xué)習(xí)模型在實際應(yīng)用的性能
    發(fā)表于 07-03 19:43

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    與 Nordic 的 nRF54 系列超低功耗無線 SoC 結(jié)合,使得即使是資源極為有限的設(shè)備也能高效運行邊緣 AI。Nordic 目前正在 Neuton 深度集成自身
    發(fā)表于 06-28 14:18

    【「# ROS 2智能機(jī)器開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機(jī)器人視覺:從理論到實踐 第7章詳細(xì)介紹了ROS2在機(jī)器視覺領(lǐng)域的應(yīng)用,涵蓋了相機(jī)標(biāo)定、OpenCV集成、視覺巡線、二維碼識別以及深度學(xué)習(xí)
    發(fā)表于 05-03 19:41

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1516次閱讀