91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

3個方法教AI學會遺忘

mK5P_AItists ? 來源:未知 ? 作者:胡薇 ? 2018-06-13 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大部分人不會喜歡遺忘的感覺。回到家順手把鑰匙丟在一個角落就再也想不起來放在哪兒了,街角偶遇一個同事卻怎么拍腦袋也叫不出他的名字……我們害怕遺忘,討厭遺忘。

然而,生而為人,健忘其實是種關鍵能力。對于人類而言,遺忘絕不僅僅是“想不起來”,而是一個幫助大腦吸收新信息并鍛煉有效決策的積極過程?,F(xiàn)在,數(shù)據(jù)科學家們正在嘗試應用神經(jīng)科學原理來改進機器學習,并且堅信人類大腦能夠解鎖圖靈完備的人工智能。

人腦為什么需要遺忘

我們的大腦被普遍認作為信息過濾器。先放入一大堆亂七八糟的數(shù)據(jù),篩選有用的信息,然后清理任何不相關的細節(jié),用以陳述故事或作出決策。清除沒用的細節(jié)是為了給新數(shù)據(jù)騰出儲存空間,類似在計算機上運行磁盤清理。

用神經(jīng)生物學的術語來說,遺忘發(fā)生于神經(jīng)元之間的突觸連接減弱或者消失之時,同時隨著新神經(jīng)元的發(fā)育,他們又會重新連接海馬回路,覆蓋現(xiàn)有記憶。

對于人類來說,遺忘有兩個好處:

通過減少過時信息對我們決策的影響來增強靈活性

防止過度擬合過去的特定事件和促進概括能力

為了有效地適應環(huán)境,人類需要有策略性遺忘的能力。

計算機也需要遺忘?

計算機的遺忘與人類的不同,這是人工智能面臨的一大挑戰(zhàn)。深度神經(jīng)網(wǎng)絡在完成機器學習任務方面非常成功,但它們的遺忘方式也與我們不一樣。

舉一個簡單的例子,如果你教一個講英語的孩子學習西班牙語,這個孩子會在學習過程中應用英語學習的技巧,比如名詞、動詞動態(tài)、句子建立方法等。同時他會忘記那些不相關的部分,比如口音、嘟囔、語調等。如此,這個孩子可以在策略性遺忘的同時逐漸學習和建立新的思維方式。

相比之下,如果你已經(jīng)訓練了一個神經(jīng)網(wǎng)絡去學習英語,那么它的參數(shù)則已經(jīng)適應了英語問題的解法。此時你要教它學習西班牙語,它就會生成新的適應系統(tǒng)并覆蓋以前為學習英語所獲得的知識,刪除所有內容并重新開始。這被稱作“災難性遺忘”,并被認為是“神經(jīng)網(wǎng)絡的一個根本局限”。

雖然這還是一個新領域,最近科學家們已經(jīng)在探索克服這種限制的潛在理論,并取得了長足的進步。

3個方法教AI學會遺忘

長短期記憶網(wǎng)絡(LSTM)

LSTM是一種循環(huán)神經(jīng)網(wǎng)絡,它使用特定的學習機制來決定在任意一個節(jié)點哪些信息需要記住,哪些需要更新,哪些需要關注。

LSTM工作機制如何?一個簡單的解釋是拿電影來做類比:假設一個計算機正在嘗試通過分析先前的場景來預測電影中接下來會發(fā)生的事。一個場景是一個女人拿著一把刀,計算機會猜測她是一個廚師還是兇手呢?另一個場景中,一個女人和一個男人在金色拱門下吃壽司:計算機會猜他們是在日本還是麥當勞呢?或者其實他們是在圣路易斯?

大拱門是美國圣路易斯的標志性建筑

LSTM通過以下3步提升神經(jīng)網(wǎng)絡:

遺忘/記憶

“當場景結束,模型應該忘記當前場景的位置,所處時間,并重置任何特定場景的信息;然而,如果場景中的一個角色死亡了,機器則應該繼續(xù)記住他不再活著的事實。因此,我們希望機器能學習掌握一個相互獨立的遺忘/記憶機制,這樣當新信息進來時,它知道什么觀念該保留什么該丟棄?!?/p>

——Edwin Chen

保存

當模型看到一張新圖像,它需要了解這個圖像是否有什么信息值得被使用和保存。如果一個女人在某個場景中路過廣告牌,機器應該記住這個廣告牌還是將其視作噪聲數(shù)據(jù)忽略掉呢?

劃重點

我們可能需要記住電影中的這個女人是個母親這一信息點,因為我們稍后會看見她的孩子們,但是這個信息在她不出現(xiàn)的場景里可能并不重要,所以在那些場景里我們不需要重點關注。同樣,并非所有存儲在神經(jīng)網(wǎng)絡的長期記憶中的內容都是立即相關的,所以LSTM所做的就是在安全保存所有信息備用的同時,幫助決定哪一部分在哪一時刻被重點關注。

彈性權重固化(EWC)

EWC是由谷歌旗下DeepMind的研究人員于2017年3月創(chuàng)建的一種算法,旨在模擬一種被稱為突觸整合的神經(jīng)科學過程。在突觸整合過程中,我們的大腦評估一項任務,計算許多用于執(zhí)行任務的神經(jīng)元的重要性,同時權衡哪些神經(jīng)元對正確執(zhí)行任務更為重要。

這些關鍵的神經(jīng)元被編譯為重要的,并且在隨后的任務中相對不可能被覆蓋。同樣,在神經(jīng)網(wǎng)絡中,多個連接(如神經(jīng)元)被用于執(zhí)行任務。EWC將一些連接編譯為至關重要的,從而保護他們不被覆蓋/遺忘。

在下面的圖表中,你可以看到研究人員將EWC應用于Atari游戲時發(fā)生了什么。藍線表示標準的深度學習過程,紅線及棕線則由EWC提供以顯示改進后的結果:

瓶頸理論

瓶頸理論由耶路撒冷希伯來大學的計算機科學家和神經(jīng)科學家Naftali Tishby在2017年秋提出。這個構想是,網(wǎng)絡擺脫了嘈雜的無關細節(jié)的輸入數(shù)據(jù),就好比用瓶頸將信息擠壓,只保留與基本概念最相關的特征。

Tishby解釋說,神經(jīng)網(wǎng)絡經(jīng)歷了兩個階段的學習——擬合與壓縮。在擬合過程中,網(wǎng)絡標記其訓練數(shù)據(jù);而在更漫長的壓縮過程中,它“丟棄關于數(shù)據(jù)的信息,只跟蹤最強大的特征”,也即是那些最能幫助它泛化的特征。通過這種方式,壓縮成為策略性遺忘的一種方式,掌控這一瓶頸也可能成為AI研究人員用于構建未來更強大神經(jīng)網(wǎng)絡的新目標和體系的一個工具。

正如Tishby所說:“遺忘才是學習過程中最重要的一部分?!?/p>

人類大腦和遺忘的過程中,有可能藏著通往強AI的密碼。但科學家們仍在上下求索。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機
    +關注

    關注

    19

    文章

    7806

    瀏覽量

    93190
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301364

原文標題:教機器遺忘或許比學習更重要:讓AI健忘的三種方式

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    想請一下,在哪兒可以找到教材,使用Mixly 來作進一步修改AI 小智聊天機寸的程式在ESP32 開發(fā)板

    我在網(wǎng)上買了用ESP32S3 開發(fā)板自己接線的小智AI 聊天機械人,想請一下,在哪兒可以找到教材,使用Mixly 來作進一步修改AI 小智聊天機寸的程式,例如我可以邊和小智普通聊天邊
    發(fā)表于 01-28 15:01

    AI端側部署開發(fā)(SC171開發(fā)套件V3)2026版

    AI端側部署開發(fā)(SC171開發(fā)套件V3)2026版 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南 27分19秒 https
    發(fā)表于 01-15 10:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和關聯(lián)性 AI驅動科學:研究和模擬人類思維和認識過程。 本章節(jié)作者為我們講解了第五范式,介紹了科學發(fā)現(xiàn)的一般方法和流程等。一、科學發(fā)現(xiàn)的5范式 第一范式:產生于公元1000年左右的阿拉伯世界和歐洲
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+化學或生物方法實現(xiàn)AI

    順序排列并存儲在毛細血管內。 電石存儲器: 3、化學計算的總體現(xiàn)狀與前景 二、生物計算 1、用活細胞實現(xiàn)AI 作者第七章才會介紹類腦芯片,到時候我們再一起欣賞吧。 這里只是先給我們打了基礎概念。 1
    發(fā)表于 09-15 17:29

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    。 耦合振蕩計算與傳統(tǒng)的計算的區(qū)別: 3、神經(jīng)符號計算 神經(jīng)符號極端是指將基于神經(jīng)網(wǎng)絡的方法與基于符號知識的方法結合的AI計算。 神經(jīng)符號計算分兩大類: 神經(jīng)符號計算的優(yōu)勢: 超維計算
    發(fā)表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構

    射頻模擬處理器的原型與概念驗證 3、光電組合AI芯片 目前最好的應對Transformer模型需要的極高算力的方法之一就是使用光子計算芯片來代替基于CMOS的芯片。 光電組合AI芯片的
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    ,又分為真菌計算和基于DNA的計算。 圖4 基本的真菌計算機結構 在用化學和生物方法實現(xiàn)AI功能的過程中,要經(jīng)歷5階段,見圖5所示。 圖5 以化學和生物方法實現(xiàn)
    發(fā)表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    是展望未來的AGI芯片,并探討相關的發(fā)展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片的需求與挑戰(zhàn)免費 第2章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構 第3
    發(fā)表于 09-05 15:10

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    創(chuàng)新、應用創(chuàng)新、系統(tǒng)創(chuàng)新五部分,接下來一一解讀。 算法創(chuàng)新 在深度學習AI芯片的創(chuàng)新上,書中圍繞大模型與Transformer算法的算力需求,提出了一系列架構與方法創(chuàng)新,包括存內計算技術、基于開源
    發(fā)表于 07-28 13:54

    會議邀請 | Aigtek安泰電子與您相約西部聲學會議暨西安-上海聲學會議,共探聲學領域未來之路

    2025年7月31-8月3日,由陜西省聲學學會、西安聲學學會主辦的2025年西部聲學會議暨西安-上海聲學會議將在陜西省榆林市召開,屆時Aig
    的頭像 發(fā)表于 07-17 18:39 ?1057次閱讀
    會議邀請 | Aigtek安泰電子與您相約西部聲<b class='flag-5'>學會</b>議暨西安-上海聲<b class='flag-5'>學會</b>議,共探聲學領域未來之路

    【「零基礎開發(fā)AI Agent」閱讀體驗】+讀《零基礎開發(fā)AI Agent》掌握扣子平臺開發(fā)智能體方法

    收到發(fā)燒友網(wǎng)站寄來的《零基礎開發(fā)AI Agent》這本書已經(jīng)有好些天了,這段時間有幸拜讀了一下全書,掌握了一開發(fā)智能體的方法。 該書充分從零基礎入手,先闡述了Agent是什么,它的基本概念和知識
    發(fā)表于 05-14 19:51

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    工程、RAG技術、和AI Agent是3重要方面。其中AI Agent作為2024年最新興的技術領域,具備很好的應用前景,本書對零基礎小白普及和應用
    發(fā)表于 05-02 09:26

    飛騰+天津大學,飛騰產融合案例獲 “2024年度電子信息產融合典型案例”

    2025年4月18日,由中國電子工業(yè)標準化技術協(xié)會電子信息產融合工作委員會主辦的 “電子信息產融合大會暨 2025 年電子信息產融合工委會全體成員大會” 在杭州電子科技大學隆重召開。會上
    的頭像 發(fā)表于 04-22 08:50 ?1229次閱讀
    飛騰+天津大學,飛騰產<b class='flag-5'>教</b>融合案例獲 “2024年度電子信息產<b class='flag-5'>教</b>融合典型案例”

    AI端側部署開發(fā)(SC171開發(fā)套件V3

    AI端側部署開發(fā)(SC171開發(fā)套件V3) 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南------Docker Desktop環(huán)境操作
    發(fā)表于 04-16 18:30

    AI演進的核心哲學:使用通用方法,然后Scale Up!

    ,得到一AI發(fā)展的重要歷史教訓:利用計算能力的通用方法最終是最有效的,而且優(yōu)勢明顯”。核心原因是摩爾定律,即單位計算成本持續(xù)指數(shù)級下降。大多數(shù) AI 研究假設可用計算資源是固定的,所
    的頭像 發(fā)表于 04-09 14:31 ?836次閱讀
    <b class='flag-5'>AI</b>演進的核心哲學:使用通用<b class='flag-5'>方法</b>,然后Scale Up!