91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT模型成功的背后用到了哪些以數(shù)據(jù)為中心的人工智能技術(shù)?

AI智勝未來 ? 來源:AI科技評論 ? 2023-04-06 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能(Artificial Intelligence, AI)最近取得了巨大的進展,特別是大語言模型(Large Language Models, LLMs),比如最近火爆全網(wǎng)的ChatGPT和GPT-4。GPT模型在各項自然語言處理任務(wù)上有著驚人的效果。至于具體有多強,這里就不再贅述了。做了這么多年AI研究好久沒這么激動過了。沒試過的朋友趕緊試一下!

正所謂「大力出奇跡」,把參數(shù)量調(diào)「大」能提高模型性能已經(jīng)成為了大家的普遍共識。但是僅僅增加模型參數(shù)就夠了嗎?仔細閱讀GPT的一系列論文后就會發(fā)現(xiàn),僅僅增加模型參數(shù)是不夠的。它們的成功在很大程度上還歸功于用于訓練它們的大量和高質(zhì)量的數(shù)據(jù)。

在本文中,我們將從數(shù)據(jù)為中心的人工智能視角去分析一系列GPT模型(之后會用Data-centric AI以避免啰嗦)。Data-centric AI大體上可以分文三個目標:訓練數(shù)據(jù)開發(fā)(training data development)、推理數(shù)據(jù)開發(fā)(inference data development)和數(shù)據(jù)維護(data maintenance)。本文將討論GPT模型是如何實現(xiàn)(或者可能即將實現(xiàn))這三個目標的。感興趣的讀者歡迎戳下方鏈接了解更多信息。

綜述論文:Data-centric Artificial Intelligence: A Survey

短篇介紹:Data-centric AI: Perspectives and Challenges

GitHub資源(不定期持續(xù)更新,歡迎貢獻):https://github.com/daochenzha/data-centric-AI

1

什么是大語言模型?

什么又是GPT模型?


這章將簡單介紹下大語言模型和GPT模型,對它們比較熟悉的讀者可以跳過。大語言模型指的是一類自然語言處理模型。顧名思義,大語言模型指的是比較「大」的(神經(jīng)網(wǎng)絡(luò))語言模型。語言模型在自然語言處理領(lǐng)域已經(jīng)被研究過很久了,它們常常被用來根據(jù)上文來推理詞語的概率。例如,大語言模型的一個基本功能是根據(jù)上文預測缺失詞或短語的出現(xiàn)概率。我們常常需要用到大量的數(shù)據(jù)去訓練模型,使得模型學到普遍的規(guī)律。

e0294978-d40c-11ed-bfe3-dac502259ad0.png

通過上文來預測缺失詞示意圖

GPT模型是由OpenAI開發(fā)的一系列大語言模型,主要包括GPT-1,GPT-2,GPT-3,InstructGPT以及最近上線的ChatGPT/GPT-4。就像其他大語言模型一樣,GPT模型的架構(gòu)主要基于Transformer,以文本和位置信息的向量為輸入,使用注意力機制來建模詞之間的關(guān)系。

e03f9d22-d40c-11ed-bfe3-dac502259ad0.jpg

GPT-1模型的網(wǎng)絡(luò)結(jié)構(gòu),圖片來自原論文 https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf

之后的GPT系列模型結(jié)構(gòu)大體上都與GPT-1類似,主要區(qū)別在于更多參數(shù)(更多層,更多隱含層維度等等)。

e05aa496-d40c-11ed-bfe3-dac502259ad0.jpg

GPT系列模型大小比較

2什么是Data-centric AI?


Data-centric AI是一種搭建AI系統(tǒng)的新理念,被@吳恩達老師大力倡導。我們這里引用下他給出的定義

Data-centric AI is the discipline of systematically engineering the data used to build an AI system.

— Andrew Ng

傳統(tǒng)的搭建AI模型的方法主要是去迭代模型,數(shù)據(jù)相對固定。比如,我們通常會聚焦于幾個基準數(shù)據(jù)集,然后設(shè)計各式各樣的模型去提高預測準確率。這種方式我們稱作以模型為中心(model-centric)。然而,model-centric沒有考慮到實際應用中數(shù)據(jù)可能出現(xiàn)的各種問題,例如不準確的標簽,數(shù)據(jù)重復和異常數(shù)據(jù)等。準確率高的模型只能確保很好地「擬合」了數(shù)據(jù),并不一定意味著實際應用中會有很好的表現(xiàn)。

與model-centric不同,Data-centric更側(cè)重于提高數(shù)據(jù)的質(zhì)量和數(shù)量。也就是說Data-centric AI關(guān)注的是數(shù)據(jù)本身,而模型相對固定。采用Data-centric AI的方法在實際場景中會有更大的潛力,因為數(shù)據(jù)很大程度上決定了模型能力的上限。

需要注意的是,「Data-centric」與「Data-driven」(數(shù)據(jù)驅(qū)動),是兩個根本上不同的概念。后者僅強調(diào)使用數(shù)據(jù)去指導AI系統(tǒng)的搭建,這仍是聚焦于開發(fā)模型而不是去改變數(shù)據(jù)。

e0972b28-d40c-11ed-bfe3-dac502259ad0.jpg

Data-centric AI和model-centric AI的區(qū)別,圖片來源于https://arxiv.org/abs/2301.04819

Data-centric AI框架包括三個目標:

訓練數(shù)據(jù)開發(fā)(training data development)旨在構(gòu)建足夠數(shù)量的高質(zhì)量數(shù)據(jù),以支持機器學習模型的訓練。

推理數(shù)據(jù)開發(fā)(inference data development)旨在構(gòu)建模型推理的數(shù)據(jù),主要用于以下兩個目的:

評估模型的某種能力,比如構(gòu)建對抗攻擊( Adversarial Attacks)數(shù)據(jù)以測試模型的魯棒性

解鎖模型的某種能力,比如提示工程(Prompt Engineering)

數(shù)據(jù)維護(data maintenance)旨在確保數(shù)據(jù)在動態(tài)環(huán)境中的質(zhì)量和可靠性。在實際生產(chǎn)環(huán)境(production environment)中,我們并不是只訓練一次模型,數(shù)據(jù)和模型是需要不斷更新的。這個過程需要采取一定的措施去持續(xù)維護數(shù)據(jù)。

e0aa7b9c-d40c-11ed-bfe3-dac502259ad0.jpg

Data-centric AI框架第二層是目標,第三層是子目標,圖片來源于 https://arxiv.org/abs/2303.10158


3 為什么Data-centric AI是GPT模型取得成功的重要原因?


數(shù)月前,Yann LeCun發(fā)文稱ChatGPT在技術(shù)上并不是什么新鮮事物。的確如此,ChatGPT和GPT-4中使用的方法,比如Transformer、「從人類反饋中進行的強化學習」(Reinforcement Learning from Human Feedback,RLHF)等都不是什么新技術(shù)。即便如此,ChatGPT還是取得了以前的模型無法企及的驚人效果。那么,是什么推動了它的成功?

e0eda3fe-d40c-11ed-bfe3-dac502259ad0.jpg

毋庸置疑,增加模型參數(shù)的數(shù)量對GPT模型的成功至關(guān)重要,但這只是其中的一個原因。通過詳細閱讀GPT-1、GPT-2、GPT-3、InstructGPT和ChatGPT/GPT-4論文中有關(guān)數(shù)據(jù)的描述,我們可以明顯看出OpenAI的工程師們花了極大心血去提高數(shù)據(jù)的質(zhì)量和數(shù)量。以下,我們用Data-centric AI框架從三個維度進行分析。

訓練數(shù)據(jù)開發(fā):從GPT-1到ChatGPT/GPT-4,通過更好的數(shù)據(jù)收集(data collection)、數(shù)據(jù)標注(data labeling)和數(shù)據(jù)準備(data preparation)策略,用于訓練GPT模型的數(shù)據(jù)數(shù)量和質(zhì)量都得到了顯著提高。以下括號中標識了每個具體策略對應到Data-centric AI框架中的子目標。

GPT-1:訓練使用了BooksCorpus數(shù)據(jù)集。該數(shù)據(jù)集包含4629.00 MB的原始文本,涵蓋了各種類型的書籍,如冒險、奇幻和浪漫等。

用到的Data-centric AI策略:

無。

結(jié)果:

預訓練之后,在下游任務(wù)微調(diào)可以提高性能。

GPT-2:訓練使用了WebText數(shù)據(jù)集。這是OpenAI的一個內(nèi)部數(shù)據(jù)集,通過從Reddit上抓取出站鏈接創(chuàng)建而成。

用到的Data-centric AI策略:

僅篩選并使用Reddit上至少獲得3個karma及以上的鏈接(數(shù)據(jù)收集)

用Dragnet和Newspaper這兩個工具去提取純文本(數(shù)據(jù)收集)

用了一些啟發(fā)式策略做了去重和數(shù)據(jù)清洗,具體策略論文沒有提到(數(shù)據(jù)準備)

結(jié)果:

經(jīng)過篩選后,獲得了40 GB的文本(大概是GPT-1所用數(shù)據(jù)的8.6倍)。

GPT-2即便在沒有微調(diào)的情況下也能取得很不錯的效果。

GPT-3:訓練主要使用了Common Crawl,一個很大但質(zhì)量不算很好的數(shù)據(jù)集。

用到的Data-centric AI策略:

訓練一個分類器來過濾掉低質(zhì)量的文檔。

這里比較有意思的是,OpenAI把WebText當作標準,基于每個文檔與WebText之間的相似性來判斷質(zhì)量高低(數(shù)據(jù)收集)

使用Spark的MinHashLSH對文檔進行模糊去重(數(shù)據(jù)準備)

把之前的WebText擴展下也加了進來,還加入了books corpora和Wikipedia數(shù)據(jù)(數(shù)據(jù)收集)

結(jié)果:

在對45TB的純文本進行質(zhì)量過濾后,獲得了570GB的文本(僅選擇了1.27%的數(shù)據(jù),可見對質(zhì)量把控的力度很大,過濾完后的文本大約是GPT-2的14.3倍)。

訓練得到的模型比GPT-2更強了。

InstructGPT:在GPT-3之上用人類反饋去微調(diào)模型,使得模型與人類期望相符。

用到的Data-centric AI策略:

使用人類提供的答案來用有監(jiān)督的方式微調(diào)模型。

OpenAI對標注人員的選擇極為嚴苛,對標注者進行了考試,最后甚至會發(fā)問卷確保標注者有比較好的體驗。

要是我的研究項目需要人工標注,能有人理我就不錯了,更別談考試和問卷(數(shù)據(jù)標注)

收集比較數(shù)據(jù)(人類對產(chǎn)生的答案根據(jù)好壞程度排序)來訓練一個獎勵模型,然后基于該獎勵模型使用「從人類反饋中進行的強化學習」(Reinforcement Learning from Human Feedback,RLHF)來微調(diào)(數(shù)據(jù)標注)

結(jié)果:

InstructGPT產(chǎn)生的結(jié)果更加真實、有更少的偏見、更符合人類的預期。

ChatGPT/GPT-4:至此,產(chǎn)品走向了商業(yè)化,OpenAI不再「Open」,不再披露具體細節(jié)。已知的是ChatGPT/GPT-4在很大程度上遵循了以前GPT模型的設(shè)計,并且仍然使用RLHF來調(diào)整模型(可能使用更多、更高質(zhì)量的數(shù)據(jù)/標簽)。鑒于GPT-4的推理速度比ChatGPT慢很多,模型的參數(shù)數(shù)量大概率又變多了,那么也很有可能使用了一個更大的數(shù)據(jù)集。

e1008ce4-d40c-11ed-bfe3-dac502259ad0.png

從GPT-1到ChatGPT/GPT-4,所用的訓練數(shù)據(jù)大體經(jīng)歷了以下變化:小數(shù)據(jù)(小是對于OpenAI而言,對普通研究者來說也不小了)->大一點的高質(zhì)量數(shù)據(jù)->更大一點的更高質(zhì)量數(shù)據(jù)->高質(zhì)量人類(指能通過考試的標注者)標注的高質(zhì)量數(shù)據(jù)。模型設(shè)計并沒有很顯著的變化(除了參數(shù)更多以順應更多的數(shù)據(jù)),這正符合了Data-centric AI的理念。從ChatGPT/GPT-4的成功,我們可以發(fā)現(xiàn),高質(zhì)量的標注數(shù)據(jù)是至關(guān)重要的。在AI的任何子領(lǐng)域幾乎都是如此,即便是在很多傳統(tǒng)上的無監(jiān)督任務(wù)上,標注數(shù)據(jù)也能顯著提高性能,例如弱監(jiān)督異常檢測。OpenAI對數(shù)據(jù)和標簽質(zhì)量的重視程度令人發(fā)指。正是這種執(zhí)念造就了GPT模型的成功。這里順便給大家推薦下朋友做的可視化文本標注工具Potato,非常好用!

推理數(shù)據(jù)開發(fā):現(xiàn)在的ChatGPT/GPT-4模型已經(jīng)足夠強大,強大到我們只需要調(diào)整提示(推理數(shù)據(jù))來達到各種目的,而模型則保持不變。例如,我們可以提供一段長文本,再加上特定的指令,比方說「summarize it」或者「TL;DR」,模型就能自動生成摘要。在這種新興模式下,Data-centric AI變得更為重要,以后很多AI打工人可能再也不用訓練模型了,只用做提示工程(prompt engineering)。

e12d1ba6-d40c-11ed-bfe3-dac502259ad0.jpg

提示工程示例,圖片來源于https://arxiv.org/abs/2303.10158

當然,提示工程是一項具有挑戰(zhàn)性的任務(wù),它很大程度上依賴于經(jīng)驗。這篇綜述很好地總結(jié)了各種各樣的方法,有興趣的讀者可以繼續(xù)閱讀。與此同時,即使是語義上相似的提示,輸出也可能非常不同。在這種情況下,可能需要一些策略去降低輸出的方差,比如Soft Prompt-Based Calibration。

e13ea7d6-d40c-11ed-bfe3-dac502259ad0.jpg

Soft prompt-based calibration,圖片來源于https://arxiv.org/abs/2303.13035v1

大語言模型的推理數(shù)據(jù)開發(fā)研究仍處于早期階段。我相信在不久的將來,很多其他任務(wù)中用到過的推理數(shù)據(jù)開發(fā)方法也會逐漸被遷移到大語言模型中,例如構(gòu)建對抗攻擊(Adversarial Attacks)數(shù)據(jù)以測試模型的魯棒性。

數(shù)據(jù)維護:作為一款商業(yè)產(chǎn)品,ChatGPT/GPT-4一定不是僅僅訓練一次就結(jié)束了,而是會被持續(xù)更新和維護。我們在外部沒辦法知道OpenAI數(shù)據(jù)維護具體是如何進行的。因此,我們只能推測。OpenAI可能采取了如下策略:

持續(xù)數(shù)據(jù)收集:當我們使用ChatGPT/GPT-4時,我們輸入的提示和提供的反饋可以被OpenAI用來進一步提升他們的模型。在此過程中,模型開發(fā)者需要設(shè)計監(jiān)測數(shù)據(jù)質(zhì)量的指標和維護數(shù)據(jù)質(zhì)量的策略,以收集更高質(zhì)量的數(shù)據(jù)。

數(shù)據(jù)理解工具:開發(fā)各種工具來可視化和理解用戶數(shù)據(jù)可以幫助更好地理解用戶需求,并指導未來的改進方向。

高效數(shù)據(jù)處理:隨著ChatGPT/GPT-4用戶數(shù)量的迅速增長,高效的數(shù)據(jù)管理系統(tǒng)需要被開發(fā),以幫助快速獲取相關(guān)數(shù)據(jù)進行訓練和測試。

e15a8190-d40c-11ed-bfe3-dac502259ad0.jpg

ChatGPT/GPT-4 會收集用戶反饋


4 從大語言模型的成功中我們能學到什么?


大語言模型的成功可以說是顛覆性的。展望未來,我做幾個預測:

Data-centric AI變得更加重要。經(jīng)過了多年的研究,模型設(shè)計已經(jīng)相對比較成熟,特別是在Transformer出現(xiàn)之后(目前我們似乎還看不到Transformer的上限)。提高數(shù)據(jù)的數(shù)量和質(zhì)量將成為未來提高AI系統(tǒng)能力的關(guān)鍵(或可能是唯一)途徑。此外,當模型變得足夠強大時,大多數(shù)人可能不需要再訓練模型。相反,我們只需要設(shè)計適當?shù)耐评頂?shù)據(jù)(提示工程)便能從模型中獲取知識。因此,Data-centric AI的研究和開發(fā)將持續(xù)推動未來AI系統(tǒng)的進步。

大語言模型將為Data-centric AI提供更好的解決方案。許多繁瑣的數(shù)據(jù)相關(guān)工作目前已經(jīng)可以借助大語言模型更高效地完成了。例如,ChatGPT/GPT-4已經(jīng)可以編寫可以運行的代碼來處理和清洗數(shù)據(jù)了。此外,大語言模型甚至可以用于創(chuàng)建訓練數(shù)據(jù)。例如,最近的研究表明,使用大語言模型合成數(shù)據(jù)可以提高臨床文本挖掘模型的性能。

數(shù)據(jù)和模型的界限將變得模糊。以往,數(shù)據(jù)和模型是兩個分開的概念。但是,如今當模型足夠強大后,模型成為了一種「數(shù)據(jù)」或者說是數(shù)據(jù)的「容器」。在需要的時候,我們可以設(shè)計適當?shù)奶崾菊Z,利用大語言模型合成我們想要的數(shù)據(jù)。這些合成的數(shù)據(jù)反過來又可以用來訓練模型。這種方法的可行性在GPT-4上已經(jīng)得到了一定程度的驗證。在報告中,一種被稱作rule-based reward models(RBRMs)的方法用GPT-4自己去判斷數(shù)據(jù)是否安全,這些標注的數(shù)據(jù)反過來又被用來訓練獎勵模型來微調(diào)GPT-4。有種左右手互搏的感覺了。我不經(jīng)在想,之后的模型會通過這種方式實現(xiàn)自我進化嗎?細思極恐……

e1957142-d40c-11ed-bfe3-dac502259ad0.jpg

用ChatGPT來合成數(shù)據(jù)訓練下游模型,圖片來源于 https://arxiv.org/abs/2303.04360

回想起五年前,我還在糾結(jié)「如何才能提高文本分類的準確率」,多次失敗的經(jīng)歷曾讓我一度懷疑自然語言處理和AI沒有半點關(guān)系。如今ChatGPT/GPT-4驚人的能力讓我提前見證了歷史!

未來AI的發(fā)展將走向何方?大語言模型的進展日新月異,經(jīng)??吹揭恍┭芯孔匀徽Z言處理的朋友們擔心大模型的出現(xiàn)會不會讓AI科研無路可走了。我認為完全不需要有這種擔心。技術(shù)永遠是不斷進步的。新技術(shù)的出現(xiàn)不可避免會取代舊的技術(shù)(這是進步),但同時也會催生更多新的研究方向。比如,近年來深度學習的飛速發(fā)展并沒有讓傳統(tǒng)機器學習的研究無路可走,相反,提供了更多的可供研究的方向。

同時,AI一個子領(lǐng)域的突破勢必會帶動其他子領(lǐng)域的蓬勃發(fā)展,這其中就有許多新的問題需要研究。比如,以ChatGPT/GPT-4為代表的大模型上的突破很可能會帶動計算機視覺的進一步提升,也會啟發(fā)很多AI驅(qū)動的應用場景,例如金融、醫(yī)療等等。無論技術(shù)如何發(fā)展,提高數(shù)據(jù)的質(zhì)量和數(shù)量一定是提高AI性能的有效方法,Data-centric AI的理念將越來越重要。

那么大模型就一定是達成通用人工智能的方向嗎?我持保留態(tài)度。縱觀AI發(fā)展歷程,各個AI子領(lǐng)域的發(fā)展往往是螺旋上升、相互帶動的。這次大模型的成功是多個子領(lǐng)域的成功碰撞出的結(jié)果,例如模型設(shè)計(Transformer)、Data-centric AI(對數(shù)據(jù)質(zhì)量的重視)、強化學習(RLHF)、機器學習系統(tǒng)(大規(guī)模集群訓練)等等,缺一不可。在大模型時代,我們在AI各個子領(lǐng)域依然都大有可為。比如,我認為強化學習相比大模型可能有更高的上限,因為它能自我迭代,可能不久的將來我們將見證由強化學習引領(lǐng)的比ChatGPT更驚艷的成果。對強化學習感興趣的讀者可以關(guān)注下我之前的文章DouZero斗地主AI深度解析,以及RLCard工具包介紹。

在這個AI發(fā)展日新月異的時代,我們需要不斷學習。我們對Data-centric AI這個領(lǐng)域進行了總結(jié),希望能幫助大家快速高效地了解這個領(lǐng)域,相關(guān)鏈接見本文開頭。鑒于Data-centric AI是一個很大的領(lǐng)域,我們的總結(jié)很難面面俱到。歡迎感興趣的讀者去我們的GitHub上指正、補充。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50134

    瀏覽量

    265772
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    572

    瀏覽量

    11324
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16895

原文標題:GPT 模型成功的背后用到了哪些以數(shù)據(jù)為中心的人工智能(Data-centric AI)技術(shù)?

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能應用開發(fā)-中級(大模型)》認證證書含金量如何?怎么考?

    ,且能完成智能體系統(tǒng)設(shè)計與任務(wù)編排的工程師備受企業(yè)青睞?!?b class='flag-5'>人工智能應用開發(fā)-中級(大模型)》專業(yè)技術(shù)人才培訓授證項目正是應對這一趨勢推出,
    的頭像 發(fā)表于 01-28 15:11 ?802次閱讀
    《<b class='flag-5'>人工智能</b>應用開發(fā)-中級(大<b class='flag-5'>模型</b>)》認證證書含金量如何?怎么考?

    人工智能數(shù)據(jù)中心的光纖布線策略

    隨著人工智能(AI)技術(shù)的飛速發(fā)展,數(shù)據(jù)中心的光纖布線策略正面臨前所未有的挑戰(zhàn)和機遇。AI的高帶寬需求、低延遲要求以及大規(guī)模并行計算的特點,對數(shù)據(jù)中心的光纖布線提出了更高的要求。本文將
    的頭像 發(fā)表于 11-21 10:21 ?435次閱讀

    航天宏圖人工智能技術(shù)深度賦能社會治理現(xiàn)代化

    航天宏圖多年來持續(xù)重點投入技術(shù)研發(fā),尤其專注人工智能深度探索。航天宏圖多以自主研發(fā)“天權(quán)大模型” 是一款基于多模態(tài)大模型技術(shù)的遙感解譯專用A
    的頭像 發(fā)表于 09-06 10:35 ?1198次閱讀
    航天宏圖<b class='flag-5'>人工智能技術(shù)</b>深度賦能社會治理現(xiàn)代化

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應用。 為什么選擇 Neuton 作為開發(fā)人員,在產(chǎn)品中使用邊緣人工智能的兩個最大障礙是: ML 模型對于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義 ML 模型本質(zhì)上是一個手動過程,需要高度的
    發(fā)表于 08-31 20:54

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    應用場景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實訓,讓你深度體驗AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學習需求 對于高校教學或者
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    應用場景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實訓,讓你深度體驗AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學習需求 對于高校教學或者
    發(fā)表于 08-07 14:23

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設(shè)備上進行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。從計算機視覺到自然語言處理,從自動駕駛到醫(yī)療診斷,AI的應用場景不斷擴展,推動社會向智能
    的頭像 發(fā)表于 07-16 15:01 ?1990次閱讀

    最新人工智能硬件培訓AI 基礎(chǔ)入門學習課程參考2025版(大模型篇)

    人工智能模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能
    發(fā)表于 07-04 11:10

    中科曙光亮相2025全球人工智能技術(shù)大會

    此前,6月7日-8日,2025全球人工智能技術(shù)大會(GAITC 2025)在杭州舉辦。中科曙光攜全棧AI基礎(chǔ)設(shè)施多項核心成果深度參與本次大會,并攜手中國人工智能學會成功舉辦“大模型時代
    的頭像 發(fā)表于 06-10 16:19 ?1304次閱讀

    軟通動力中標無錫人工智能創(chuàng)新中心項目

    軟通動力憑借人工智能工程化一站式服務(wù)能力成功中標“無錫人工智能創(chuàng)新中心項目” ,中標金額1.58億元。
    的頭像 發(fā)表于 05-27 17:45 ?1014次閱讀

    明晚開播 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的算力架構(gòu)創(chuàng)新

    背后的算力架構(gòu)創(chuàng)新報告簡介本報告回顧了AI技術(shù)演進的歷程。隨著人工智能技術(shù)的迅猛發(fā)展,特別是大模型的革命推動了計算架構(gòu)的深刻變革,技術(shù)的突破
    的頭像 發(fā)表于 05-20 08:04 ?489次閱讀
    明晚開播 | <b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>智能</b>系列講座第6期:大<b class='flag-5'>模型</b>革命<b class='flag-5'>背后</b>的算力架構(gòu)創(chuàng)新

    直播預約 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的算力架構(gòu)創(chuàng)新

    模型革命背后的算力架構(gòu)創(chuàng)新報告簡介本報告回顧了AI技術(shù)演進的歷程。隨著人工智能技術(shù)的迅猛發(fā)展,特別是大模型的革命推動了計算架構(gòu)的深刻變革,
    的頭像 發(fā)表于 05-12 14:05 ?618次閱讀
    直播預約 | <b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>智能</b>系列講座第6期:大<b class='flag-5'>模型</b>革命<b class='flag-5'>背后</b>的算力架構(gòu)創(chuàng)新

    科大訊飛人工智能模型亮相大阪世博會中國館

    其實,這是大阪世博會中國館中展出的“人工智能模型”展項,依托科大訊飛的人工智能技術(shù),讓家喻戶曉的經(jīng)典IP孫悟空“活”起來了,它不僅能在中國館現(xiàn)場與觀眾跨次元交互對話,還能吟詩作畫。
    的頭像 發(fā)表于 04-15 13:54 ?983次閱讀

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計算和網(wǎng)絡(luò)壓力。從大語言模型(LLM)訓練到生成式AI應用,海量數(shù)據(jù)處理需求推動
    發(fā)表于 03-25 17:35