91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer流行的背后

Astroys ? 來源:Astroys ? 2023-08-30 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

許多技術(shù)公司都在大肆宣揚自己擁有比其他公司更好的處理transformer算法的解決方案。但其實業(yè)界transformer的基準測試尚未推出。

Generative AI(GAI)的蓬勃發(fā)展已經(jīng)顛覆了整個AI世界,似乎是這樣。

大語言模型(LLM),如ChatGPT所示,大多局限于語言建模和文本生成。但transformer(一種支撐LLM和其他GAI應用的總體深度學習架構(gòu))提供了一種可用于文本、語音、圖像、3D和視頻等數(shù)據(jù)流或任何傳感數(shù)據(jù)的模型。

Nvidia汽車部門副總裁Danny Shapiro提到了GAI的多功能性,他說:“AI領(lǐng)域新的神奇之處在于它的無限性。而我們現(xiàn)在只觸及到了表面?!?/p>

與任何新興技術(shù)一樣,硅谷也充斥著科技公司大肆宣揚其革命性解決方案的聲音。坊間傳聞,硅谷也在爭相用transformer取代基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的模型。其中一種猜測提到了一家robotaxi公司,該公司剛剛淘汰了其內(nèi)部設(shè)計的汽車芯片,并急于開發(fā)一種可以處理transformer的新款芯片。

Quadric是一家機器學習推理IP公司,Untether AI則將其硬件宣傳為是“通用推理加速器”,這兩家公司都在兜售可處理transformer的技術(shù)。Quadric說日本的Denso和Megachip是其客戶,而Untether AI則說通用是其技術(shù)開發(fā)合作方之一。

Quadric的CMO Steve Roddy認為,transformer話題“在過去幾周內(nèi)真正活躍了起來”。他說:“顯然,transformer總體上已經(jīng)初具規(guī)模了,因為每個人都在玩生成式圖像或ChatGPT等等。但到目前為止,LLM類型的東西都是在云端運行的,因為它們涉及數(shù)十億個參數(shù)。”

Qualcomm因素

??

Roddy說:“盡管如此,人們現(xiàn)對‘設(shè)備端(on-device)’的transformer的關(guān)注要迫切得多。他猜測,引發(fā)這一變化的是Qualcomm。Qualcomm上月宣布了其2024年計劃,即在智能手機和PC上提供Meta的新聊天工具、基于Llama 2的AI。

Qualcomm表示,其目的是“讓開發(fā)者能夠利用Snapdragon平臺的AI功能,迎來全新的、令人興奮的GAI應用”。Qualcomm的這一聲明讓Roddy和其他行業(yè)玩家感到不安。為什么要等到2024年?

越來越多的人猜測,Apple可能會率先采用設(shè)備端的transformer。今年秋季發(fā)布的新款iPhone能否實現(xiàn)這一目標?這是人們無法證實的猜測。

Gartner認為,GAI主導了有關(guān)AI的討論,利用ChatGPT等系統(tǒng)以非常實際的方式提高了開發(fā)者和知識工作者的工作效率,該公司上周宣布,市場趨勢正在將GAI推向“Hype Cycle中的預期膨脹高峰”。

cb4f3d18-46db-11ee-a2ef-92fbcf53809c.png

工程咨詢公司BDTI總裁、Edge AI and Vision Alliance創(chuàng)始人Jeff Bier在被問及一些公司吹噓的transformer芯片時持謹慎態(tài)度。他說:“我們已經(jīng)看到了相當可信的說法。但我們尚未對這些說法進行獨立驗證。就實際應用而言,transformer在很大程度上仍然處于領(lǐng)先地位。”

BDTI從事處理器基準測試(benchmarking)。不過,他說:“我們還沒有對transformer或LLM進行任何處理器基準測試……我們剛剛收到第一批請求。”

什么是transformer?

?? 首先,了解transformer模型到底是什么很重要。

在處理輸入流時,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,transformer模型基于不同算法,使用不同的方法。該模型側(cè)重于“關(guān)系”。

在自然語言處理(如ChatGPT)中,transformer模型(最初應用于LLM)是一種神經(jīng)網(wǎng)絡(luò),用于查找和跟蹤輸入句子之間的關(guān)系,從而學習上下文和含義。

BDTI的高級工程師Mihran Touriguian說:“transformer非常適合查找輸入之間的關(guān)系。即使輸入之間的關(guān)系在時間或地點上相距甚遠,該模型也能發(fā)揮作用?!?/p>

人們對transformer的興趣之所以如此高漲,是因為它們與輸入流無關(guān)。Touriguian解釋說,該模型不僅可以應用于語言,還可以應用于視頻或被分割成塊的單一大型圖像。

與其他模型相比,transformer的優(yōu)勢在于能找到圖像中多個時間或位置輸入之間的“關(guān)系”。Touriguian指出:“如果你的應用中使用了不同類型的傳感器,那么transformer就非常適合。這些‘傳感器’可以是圖像、文本或語音。Transformer非常適合將不同的數(shù)據(jù)流結(jié)合到一個應用中?!?/p>

與數(shù)據(jù)類型無關(guān)

??

以往的神經(jīng)網(wǎng)絡(luò)模型需要單獨的算法或拓撲結(jié)構(gòu)來處理每種數(shù)據(jù)類型。Touriguian說:“在后端或前端,你可以將信息組合起來進行預測?!?/p>

與此相反,“transformer與輸入類型無關(guān)”,他解釋道?!耙虼耍憧梢詫a(chǎn)生數(shù)據(jù)的多種類型傳感器輸入transformer。transformer基本上可以找到它們之間的關(guān)系,例如語音、圖像和標題(文本)之間的關(guān)系。”

例如,在車載應用中,關(guān)鍵的輸入數(shù)據(jù)流來自各種類型的傳感器,攝像頭、雷達和激光雷達都至關(guān)重要。Transformer如果能像承諾的那樣發(fā)揮作用,就能將來自不同傳感器的信息結(jié)合起來,為汽車提供更好的決策和解決方案。

但,我們還沒有做到

??????

然而,現(xiàn)實世界還沒有實現(xiàn)這一愿景。要實現(xiàn)這一目標,transformer必須先進行大量的準備工作,即對輸入數(shù)據(jù)進行預處理。Touriguian說,你需要“對輸入的類型進行規(guī)范化”,這個過程被稱為“嵌入(embedding)”,它捕捉并存儲語言或其他數(shù)據(jù)流的意義和關(guān)系。它們是模型比較不同標記或數(shù)據(jù)輸入的方式。

Touriguian說,在神經(jīng)網(wǎng)絡(luò)中,來自任何傳感器的任何輸入都必須轉(zhuǎn)換為包含一定數(shù)量元素的矢量。這種規(guī)范化是transformer在多種類型傳感器上運行的關(guān)鍵步驟。

Transformer面臨的另一個障礙是其所依賴的龐大的參數(shù)和權(quán)重(數(shù)以億計)。不過,Touriguian表示,最近這些參數(shù)已經(jīng)縮小到與CNN模型相當?shù)拇笮?。他補充道,在精度方面,transformer與基于CNN的模型相同或略勝一籌。

然而,值得注意的是,研究人員和開發(fā)者已經(jīng)意識到,通過結(jié)合CNN和transformer的優(yōu)勢,他們可以取得更好的結(jié)果,Touriguian指出,“CNN部分在圖像上的表現(xiàn)非常出色,因為CNN關(guān)注的是相鄰像素之間的關(guān)系。同時,在此基礎(chǔ)上,transformer基本上可以找到這些鄰域與圖像中其他區(qū)域之間的關(guān)系。”

Transformer在車載領(lǐng)域中的應用

????????

Transformer可以應用在哪里以及如何應用,似乎沒有限制,從銷售工具、聊天框、翻譯到設(shè)計/工程、工廠和倉儲……

例如,ChatGPT可以在車載中最明顯的應用之一,就是讓新手司機無需閱讀數(shù)百頁的使用手冊,就能向汽車問:“嘿,XX,我該如何換輪胎?”

訓練數(shù)據(jù)是另一個重要的應用領(lǐng)域。Nvidia的Shapiro舉例說,GAI生成合成數(shù)據(jù)的能力可以用來向汽車的感知系統(tǒng)輸入“一堆停車標志的圖像”(有的上面有涂鴉,有的已經(jīng)風化、生銹,有的被樹木遮擋)。

他補充說,ViT、SwinTransformer、DETR、Perceiver等流行的視覺transformer目前已廣泛應用于自動駕駛軟件棧中。此外,GPT等LLM DNN可用于座艙應用,以自然、直觀的方式向車內(nèi)的人提供信息。他表示,Nvidia Drive“能夠在車內(nèi)部署運行這些復雜的視覺transformer和LLM”。

Transformer硬件需要什么?

????????????????????

Bier指出,如今,一些專注于邊緣或嵌入式處理的AI硬件更加專業(yè)化,更偏愛CNN等成熟模型。另一些則更加靈活,更容易適應transformer。

Bier強調(diào)說:“這種適應性取決于兩點。一是架構(gòu)本身。另一個是支持它的軟件工具和庫?!?/p>

憑借其GPNPU架構(gòu)Chimera所獨有的IP,Quadric是一家聲名顯赫的AI IP供應商,其架構(gòu)被宣傳為能夠“運行任何機器學習圖形,包括最新的視覺transformer”。

Quadric聲稱,Chimera結(jié)合了神經(jīng)加速器(NPU)和DSP的最佳特性,提供經(jīng)典代碼和圖形代碼的混合。Quadric的Roddy強調(diào)說,這對軟件開發(fā)者尤為重要,因為他們希望“只需混合和匹配預構(gòu)建的應用代碼構(gòu)件”。

Roddy認為,Quadric的優(yōu)勢在于它能夠運行不同的內(nèi)核來完成不同的任務(經(jīng)典的DSP代碼任務、經(jīng)典神經(jīng)網(wǎng)絡(luò)kernel(包括檢測器和驗證器),以及介于兩者之間的類似CPU的任務),所有這些都可以在Quadric的“單處理器”上完成。Roddy解釋說:“無需多個引擎。實際只有一個處理器、一個執(zhí)行流水線、一個代碼流,所有這些都編譯在一起?!?/p>

這與許多芯片設(shè)計者對機器學習出現(xiàn)的反應形成了鮮明對比。他們部署了一大塊NPU加速器,并將新的加速器添加到SoC上已有的DSP和CPU內(nèi)核中。

cb9a114e-46db-11ee-a2ef-92fbcf53809c.jpg

Roddy說,他們意識到無法在CPU或DSP上運行最新版本的ResNet(Residual Neural Network),“因為它太強大了”。這導致大多數(shù)公司創(chuàng)建了一個復雜的架構(gòu),迫使程序員“每年都要進行越來越高的抽象”,并對每個塊的內(nèi)存大小和工作負載分區(qū)進行“細致入微的思考”。結(jié)果導致了漫長的開發(fā)周期。

然后是transformer。

對于正在努力開發(fā)AI硬件的芯片公司來說,這無疑又是一記響亮的耳光。對于芯片設(shè)計師和程序員來說,本已復雜的局面變得更加混亂。Quadric說:“Transformer打破了你對傳統(tǒng)NPU加速器的認知。”

Quadric認為,與以往的神經(jīng)網(wǎng)絡(luò)算法相比,視覺transformer“在網(wǎng)絡(luò)拓撲結(jié)構(gòu)和構(gòu)件運算符方面大不相同”。該公司建議,“如果你的傳統(tǒng)NPU無法處理視覺transformer,那么Quadric的GPNPU會更好”。

DNN以外的數(shù)學

?????????????????

Untether AI正在宣傳其芯片對transformer的適應性。產(chǎn)品副總裁Bob Beachler說:“與兩三年前相比,我在視覺應用中看到了更多的transformer式網(wǎng)絡(luò),當時大家都專注于CNN?!?/p>

因為Untether AI“一直在研究自然語言處理”,而自然語言處理是一種attention transformer式網(wǎng)絡(luò)。Beachler稱:“我們可以把為自然語言處理投入的相同電路用于基于視覺的transformer應用。”

當被問及Untether AI是否只是運氣好時,Beacher回避了。他說,這個故事的寓意是“不要過度限制你的AI加速、AI應用”。

他指出:“我也看到一些初創(chuàng)公司在嘗試進行特定類型的數(shù)學運算、棘手的數(shù)學變換。當你開始這樣做時,你可以進行大量的數(shù)學變換,但你也開始失去精度。最終,你的芯片可能只能運行一次?!?/p>

要設(shè)計出能處理transformer式算法的處理器,最重要的是什么?

除了在處理器中加入靈活性之外,Beachler還強調(diào),芯片必須處理DNN處理之外所需的所有數(shù)學運算,“比如視頻縮放、激活和邊界框的非最大值抑制。所有這些類型的事情都需要一種更通用的方法”。

BDTI的Bier表示贊同。他說,需要牢記的一個關(guān)鍵是,“現(xiàn)實世界中的大多數(shù)應用并不是簡單地獲取數(shù)據(jù)并將其輸入某種DNN。它們需要使用非神經(jīng)網(wǎng)絡(luò)技術(shù)(如經(jīng)典圖像和信號處理技術(shù))進行某種預處理。然后,再應用一個或多個DNN。然后再應用額外的經(jīng)典算法,如跟蹤算法?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137041
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124447
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    156

    瀏覽量

    6943

原文標題:Transformer流行的背后

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Transformer 入門:從零理解 AI 大模型的核心原理

    │ │ 456 │→ │ 25 │ └─────────┘│ 36 │ (2×3) └─────────┘ (3×2) 記憶技巧:想象沿著對角線折疊紙張。 在 Transformer 中的應用:計算注意力分數(shù)
    發(fā)表于 02-10 16:33

    內(nèi)存泡沫,和它背后的幽靈訂單

    內(nèi)存泡沫,和它背后的幽靈訂單
    的頭像 發(fā)表于 02-10 00:37 ?1.2w次閱讀
    內(nèi)存泡沫,和它<b class='flag-5'>背后</b>的幽靈訂單

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4233次閱讀

    深入解析HVMA03F40C - ST10S Flyback Transformer

    深入解析HVMA03F40C - ST10S Flyback Transformer 引言 在電子工程領(lǐng)域,變壓器是眾多電路中不可或缺的關(guān)鍵組件。今天,我們將詳細探討B(tài)ourns公司
    的頭像 發(fā)表于 12-22 16:50 ?528次閱讀

    中科曙光解碼流行背后的發(fā)展密碼

    2025年《咬文嚼字》十大流行語正式發(fā)布,“韌性”“具身智能”“預制”等熱詞不僅折射出智能時代的技術(shù)演進,更勾勒出新質(zhì)生產(chǎn)力驅(qū)動下的社會變遷軌跡。中科曙光在技術(shù)布局與業(yè)務實踐上,正與這些熱詞所反映的時代脈搏同頻共振。
    的頭像 發(fā)表于 12-05 14:36 ?653次閱讀

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動審視所有輸入信息,并動態(tài)判斷哪些部分更為關(guān)鍵,同時可以將這些重要信息有效地關(guān)聯(lián)起來。
    的頭像 發(fā)表于 11-19 18:17 ?2317次閱讀

    解析LED顯示屏背后的驅(qū)動方案

    當前,各式各樣的LED顯示屏正以創(chuàng)新的顯示效果與豐富造型,拓展著人們感知視覺世界的維度。而這些視覺盛宴的背后,都離不開“幕后操控者”——LED驅(qū)動技術(shù)。
    的頭像 發(fā)表于 10-27 15:04 ?4655次閱讀
    解析LED顯示屏<b class='flag-5'>背后</b>的驅(qū)動方案

    圖解AI核心技術(shù):大模型、RAG、智能體、MCP

    和使用AI。 大模型 Transformer vs. Mixture of Experts 混合專家 (MoE) 是一種流行的架構(gòu),它使用不同的“專家”來改進 Transformer 模型。 下圖解釋了
    的頭像 發(fā)表于 10-21 09:48 ?776次閱讀
    圖解AI核心技術(shù):大模型、RAG、智能體、MCP

    重磅!智慧水利背后的NTP時間同步服務器揭秘!

    重磅!智慧水利背后的NTP時間同步服務器揭秘!
    的頭像 發(fā)表于 09-10 10:41 ?815次閱讀
    重磅!智慧水利<b class='flag-5'>背后</b>的NTP時間同步服務器揭秘!

    自動駕駛中Transformer大模型會取代深度學習嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學習”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4222次閱讀
    自動駕駛中<b class='flag-5'>Transformer</b>大模型會取代深度學習嗎?

    Transformer在端到端自動駕駛架構(gòu)中是何定位?

    典型的Transformer架構(gòu)已被用于構(gòu)建“感知-規(guī)劃-控制統(tǒng)一建?!钡姆桨浮H鏦aymo和小馬智行正在研發(fā)的多模態(tài)大模型(MultimodalLargeModels,MLLMs),將來自攝像頭
    的頭像 發(fā)表于 08-03 11:03 ?1424次閱讀

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1092次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)中編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學習領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1311次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    SDX75:5G-A高性能路由器背后的機遇與困境

    5G-A高性能路由器背后的機遇與困境
    的頭像 發(fā)表于 05-24 17:03 ?1134次閱讀
    SDX75:5G-A高性能路由器<b class='flag-5'>背后</b>的機遇與困境

    斑馬技術(shù)助力物流行業(yè)數(shù)字化升級

    隨著物流行業(yè)邁向智能化,企業(yè)亟需更高效的管理方式。斑馬技術(shù)通過 資產(chǎn)可見性、勞動力互聯(lián)和智能自動化,幫助企業(yè)優(yōu)化倉儲、運輸和配送流程,同時降低運營成本?!巴ㄟ^數(shù)字化的方式為客戶創(chuàng)造價值,” 斑馬技術(shù)首席技術(shù)官 Tom Bianculli 表示。
    的頭像 發(fā)表于 03-27 11:46 ?875次閱讀