91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI開啟推理算力新Scaling Law,AI PC和CPU的機會來了

愛云資訊 ? 2024-09-27 16:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI的新模型o1,可謂是開啟了Scaling Law的新篇章——

隨著更多的強化學(xué)習(訓(xùn)練時計算)和更多的思考時間(測試時計算),o1在邏輯推理能力上已經(jīng)達到了目前天花板級別。

尤其是在北大給出的一項評測中,**o1-mini**模型的跑分比o1-preview還要高:

wKgZomb2ar-AHVUKAAFwv-IFH54843.png

這就展示一種新的思路和可能性——

**小模型專門加強推理能力,放棄在參數(shù)中存儲大量世界知識。**

OpenAI科學(xué)家趙盛佳給出的解釋是:

>o1-mini是高度專業(yè)化的模型,只關(guān)注少部分能力可以更深入。

wKgaomb2ar-AceyIAADWKpJKZ4g63.jpeg

但與此同時,也出現(xiàn)了另一個問題:

若是想讓AI同時掌握高階推理能力和大量知識的任務(wù)應(yīng)該怎么辦?

于是乎,技術(shù)的聚光燈再次對焦到了**大模型和RAG的組合**。

具體而言,向量數(shù)據(jù)庫讓大模型能夠快速有效地檢索和處理大量的向量數(shù)據(jù),為大模型提供了更豐富和準確的信息,從而增強了模型的整體性能和應(yīng)用范圍。

可以說是讓大模型有了“好記憶”,減少出現(xiàn)答非所問的情況。

而且這一次,小模型專業(yè)化的新趨勢還對RAG中的向量數(shù)據(jù)庫提出了更高的要求:

一方面是小模型存儲的知識少了,對于外部知識存儲和檢索的質(zhì)量要求就更高。

另一方面是AI應(yīng)用落地的腳步加快,面對多用戶、高并發(fā)的場景,對整個系統(tǒng)的性能也更高。

在此背景下,業(yè)界先進企業(yè)正將目光投向更強大的**分布式向量數(shù)據(jù)庫**。

向量數(shù)據(jù)庫代表玩家**星環(huán)科技**就和**英特爾**強強聯(lián)手,對此提出了一種新解法:

用更強性能的數(shù)據(jù)中心CPU與酷睿? Ultra支持的AI PC組合,加上專門優(yōu)化過的分布式向量數(shù)據(jù)庫,提供更經(jīng)濟、更通用的方案,有效解決企業(yè)部署大模型的瓶頸問題。

分布式向量數(shù)據(jù)庫推動大模型應(yīng)用落地

正如我們剛才提到的,RAG的重要組成部分就是外掛的專業(yè)知識庫,因此這個知識庫中需得涵蓋能夠精準回答問題所需要的專業(yè)知識和規(guī)則。

而要構(gòu)建這個外掛知識庫,常見的方法包括向量數(shù)據(jù)庫、知識圖譜,甚至也可以直接把ElasticSearch數(shù)據(jù)接入。

但由于向量數(shù)據(jù)庫具備對高維向量的檢索能力,能夠跟大模型很好地匹配,效果也較好,所以成為了目前主流的形式。

向量數(shù)據(jù)庫可以對向量化后的數(shù)據(jù)進行高效的存儲、處理與管理。

如下圖展示的那樣,數(shù)據(jù)向量化過程利用了諸如詞向量模型和卷積神經(jīng)網(wǎng)絡(luò)人工智能技術(shù)。

wKgZomb2ar-AEPZ8AAIRQVLXz68752.png

通過Embedding過程,這些技術(shù)能夠?qū)⑽谋?、圖像、音視頻等多種形式的數(shù)據(jù)轉(zhuǎn)換成向量形式,并將其存儲在向量數(shù)據(jù)庫中。

至于向量數(shù)據(jù)庫的查詢功能,則是通過計算向量間的相似度來實現(xiàn)的。

星環(huán)科技所提出的創(chuàng)新成果,便是**無涯·問知Infinity Intelligence**。

這是一款基于星環(huán)大模型底座,結(jié)合個人知識庫、企業(yè)知識庫、法律法規(guī)、財經(jīng)等多種知識源的企業(yè)級垂直領(lǐng)域問答產(chǎn)品,可以實現(xiàn)企業(yè)級智能問答。

例如面對“國家大基金三期會投向哪些領(lǐng)域”這樣非常專業(yè)的問題,無涯·問知不僅可以輕松作答,還能提供相關(guān)圖譜、關(guān)鍵信息等

而且還能圖文并茂地展示作答:

wKgZomb2ar-AX9cUAAFhxpqqfyM132.png

上傳本地的視頻文件等,無涯·問知“唰唰唰”地就可以做總結(jié):

wKgZomb2asCAJDU-AA9kgavX6zU364.gif

整體來看,無涯·問知在**個人知識庫**上,支持用戶一鍵上傳文檔、表格、圖片、音視頻等多模態(tài)數(shù)據(jù),快速實現(xiàn)海量多模知識的檢索與智能問答。

在**企業(yè)知識庫**方面,則是通過管理端構(gòu)建企業(yè)知識庫后,員工可以基于企業(yè)知識庫進行問答,知識庫作為企業(yè)內(nèi)部的知識共享平臺,促進不同團隊和部門之間的協(xié)作和信息交流。

除此之外,無涯·問知內(nèi)置了各大交易所的交易規(guī)則、監(jiān)管要求等常見的**法律法規(guī)知識**,用戶可針對法律法規(guī)的具體條款、監(jiān)管規(guī)則、試行辦法等提出問題,無涯·問知將提供法律風險預(yù)警以及應(yīng)對建議。

它還內(nèi)置了豐富的上市公司財報和產(chǎn)業(yè)鏈圖譜數(shù)據(jù),能夠為金融機構(gòu)提供全面深入的**投資研究分析工具**。

即便是面對金融、法律等眾多既要求時效性、又要求數(shù)據(jù)隱私的行業(yè),星環(huán)也有無需上云聯(lián)網(wǎng)的無涯問知AI PC版,它可以在配備英特爾? 酷睿? Ultra的主流個人電腦上,基于集成顯卡和NPU流暢運行。

它不僅具備強大的本地化向量庫,支持多格式、不限長度的文件資料入庫,還支持影、音、圖、文等多模態(tài)數(shù)據(jù)的“知識化”處理,以及“語義化”查詢和應(yīng)用能力,極大地豐富了知識獲取和應(yīng)用場景。

wKgaomb2asCABa6DAACSwl4s5tg786.png

無涯·問知可以算是星環(huán)知識平臺Transwarp Knowledge Hub中重要的組成部分,其為用戶打通了從人工智能基礎(chǔ)設(shè)施建設(shè)到大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用的完整鏈條。

值得一提的是,TKH同樣提供了AI PC版本,基于本地大模型技術(shù),能夠回答用戶各類問題,為用戶帶來文檔總結(jié)、知識問答等全新體驗,同時保障用戶隱私數(shù)據(jù)安全。

AI PC版本星環(huán)大模型知識庫提供本地大模型和遠程大模型供選擇,簡單問題可以由本地模型快速處理,而復(fù)雜疑難問題則可以提交給云端大模型進行深入分析。

這種彈性擴展的能力,確保了企業(yè)在面對不同挑戰(zhàn)時,都能夠獲得足夠的計算支持。

wKgaomb2ar-Afq8vAADo6DpCDQo617.png

而這一系列產(chǎn)品之所以能夠做到在云端和本地都能提供高效的知識管理和智能化工具,離不開星環(huán)科技自研的幾個關(guān)鍵技術(shù)。

首先就是基于星環(huán)自研**向量數(shù)據(jù)庫Hippo的向量索引技術(shù)**,能夠在龐大的數(shù)據(jù)集中快速精準地召回相關(guān)信息,提升了信息檢索的速度和準確性,使模型在處理查詢時更加高效。

wKgZomb2asCAAy2GAAB8kJAG6mk139.png

其次是利用了**圖計算框架**,讓大模型能夠識別實體間的多層次關(guān)系,從而進行深度的關(guān)聯(lián)分析,提供了更為深入和準確的洞察結(jié)論。

在**數(shù)據(jù)**方面,覆蓋官方資訊、門戶類網(wǎng)站、自媒體財經(jīng)等1600多個信息源,涵蓋了全市場的各類宏觀、價格指數(shù)以及大部分新聞數(shù)據(jù)。

不僅包括通常渠道可獲取的數(shù)據(jù),還包含高可信度、擁有第一手資料的新聞合作商數(shù)據(jù),同時也對所有官方政策數(shù)據(jù)進行實時全覆蓋。

但隨著大模型的發(fā)展,數(shù)據(jù)規(guī)??芍^是極速暴增,這就對數(shù)據(jù)庫和智能問答的性能提出更高要求。

因此,數(shù)據(jù)壓縮、算力提升也成為了各個大模型玩家發(fā)力的關(guān)鍵點。

在這方面,星環(huán)科技與英特爾深度合作,從端側(cè)的AIPC到后端的數(shù)據(jù)中心和云,通過軟硬協(xié)同優(yōu)化為大模型的應(yīng)用落地打造了可行的方案。

CPU助力向量數(shù)據(jù)庫應(yīng)用性能大幅提升

向量數(shù)據(jù)庫搭配CPU,其實本來就已經(jīng)是行業(yè)內(nèi)現(xiàn)階段的主流共識。

究其原因,向量相似度檢索、高密度向量聚類等都屬于CPU密集型負載。因此,CPU的性能至關(guān)重要。

第五代英特爾? 至強? 可擴展處理器,正是帶來了一系列面向AI時代的關(guān)鍵特性更新。

首先,它搭載了更大容量的高帶寬內(nèi)存,有效緩解了向量數(shù)據(jù)庫中數(shù)據(jù)密集型工作負載的內(nèi)存墻問題。

此外,它還集成了英特爾? AMX(高級矩陣擴展)加速引擎,能高效地處理向量數(shù)據(jù)庫查詢所需的矩陣乘法運算,并在單次運算中處理更大矩陣。

對于云端部署的版本來說,搭載第五代至強? 處理器后,星環(huán)Transwarp Hippo的整體性能較第三代提升高達2.07倍。

那么本地AI算力,是否能支撐在AI PC上使用大模型來支持企業(yè)應(yīng)用呢?

星環(huán)嘗試后給出了答案:完全夠用。

從AI PC誕生到現(xiàn)在近一年時間,整體AI算力提升了200%多,能耗又降低了50%。

這背后就要歸功于英特爾? 酷睿? Ultra系列CPU的升級改進了。

在最新的英特爾? 酷睿? Ultra 處理器 (第二代)200V系列處理器支持下,整個AI PC平臺算力最高能達到120 TOPS。

特別是其中搭載的第四代NPU,性能比上一代強大4倍,非常適合在節(jié)能的同時運行持續(xù)的AI工作負載。

wKgZomb2asCAENZ1AAF6Gnt0y40529.png

在軟件層面,英特爾和星環(huán)合作,還對數(shù)據(jù)庫底層做了性能優(yōu)化。

通過水平擴展架構(gòu)、基于CPU的向量化指令優(yōu)化、多元芯片加速等技術(shù),有助于分布式向量數(shù)據(jù)庫發(fā)揮并行檢索能力,為海量、多維向量處理提供強大算力支持。

經(jīng)過優(yōu)化后的Transwarp Hippo實現(xiàn)了海量、高維度向量數(shù)據(jù)處理,并具備低時延、高精確度等優(yōu)勢。

同時提升了Transwarp Hippo了服務(wù)器節(jié)點的性能密度,在性能提升的同時,具備更高的每瓦性能,有助于節(jié)省單位性能的能耗支出,最終體現(xiàn)為降低總體擁有成本 (TCO)。

存算融合趨勢明顯,CPU大有可為

隨著OpenAI o1系列為代表的大模型不斷革新算法,大模型推理時的算力消耗正在飛速攀升,對支撐大模型運轉(zhuǎn)的基礎(chǔ)設(shè)施平臺提出了更高的要求。

特別是對于需要頻繁訪問外部知識庫的大模型應(yīng)用,存儲與計算深度融合儼然成為當務(wù)之急。

在這一技術(shù)變革大潮中,CPU成為其中關(guān)鍵角色之一。

此外,英特爾基于CPU的解決方案還為用戶帶來了更具成本優(yōu)勢的選擇。由于通用CPU擁有成熟、完善的供應(yīng)鏈體系和生態(tài)支持,企業(yè)用戶可以獲得穩(wěn)定可靠的算力供給。

同時,英特爾? 至強? 和酷睿? 處理器能同時覆蓋端側(cè)和云側(cè)的算力需求,為不同的應(yīng)用場景提供強大的支持。

展望未來,存算一體化的趨勢將愈發(fā)明顯。

從大模型應(yīng)用的角度看,知識檢索和AI推理將不再涇渭分明,而是深度交織、彼此強化。

在這樣一個智能融合的未來圖景中,CPU作為連接存儲、網(wǎng)絡(luò)和各類加速器的紐帶,其地位將變得舉足輕重。

(文章來源:量子位,作者:夢晨 金磊”)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11281

    瀏覽量

    225095
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10098
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3651

    瀏覽量

    5193
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    從英偉達到博通:OpenAI自研芯片版圖浮出水面,開啟推理效率革命

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)在人工智能大模型訓(xùn)練與推理成本高企、算需求呈指數(shù)級增長的背景下,OpenAI與Broadcom(博通)于10月正式宣布達成一項史無前例的戰(zhàn)略合作:共同部署總規(guī)模達10
    的頭像 發(fā)表于 10-15 09:05 ?7870次閱讀
    從英偉達到博通:<b class='flag-5'>OpenAI</b>自研芯片版圖浮出水面,<b class='flag-5'>開啟</b><b class='flag-5'>推理</b>效率革命

    國產(chǎn)連接器如何抓住AI PC賽道紅利?

    當大模型推理從云端降落到桌面,AI PC成為了科技硬件的“流量主角”。英偉達的算、英特爾的芯片、聯(lián)想的整機,無一不被置于聚光燈下。但在這些動輒千億產(chǎn)值的巨頭身后,一場關(guān)于硬件底層架構(gòu)
    的頭像 發(fā)表于 03-04 10:03 ?121次閱讀
    國產(chǎn)連接器如何抓住<b class='flag-5'>AI</b> <b class='flag-5'>PC</b>賽道紅利?

    從訓(xùn)練到推理:大模型算需求的新拐點已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點主要集中在大模型訓(xùn)練所需的算投入。一個萬億參數(shù)大模型的訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運行數(shù)月,成本高達數(shù)千萬甚至上億元。但隨著大模型技術(shù)的成熟和應(yīng)用落地,推理算
    的頭像 發(fā)表于 02-05 16:07 ?838次閱讀
    從訓(xùn)練到<b class='flag-5'>推理</b>:大模型算<b class='flag-5'>力</b>需求的新拐點已至

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報道,在人工智能迅猛發(fā)展的當下,AI推理芯片需求正呈爆發(fā)式增長。 ? AI推理,即支撐如ChatGPT這類AI模型響應(yīng)用戶問
    的頭像 發(fā)表于 02-03 17:15 ?2022次閱讀

    使用NORDIC AI的好處

    × 在 CPU 上運行時可快 10×、更省電,平均模型體積 <5 KB。[Edge AI 軟件頁] Axon NPU 對同一 TensorFlow Lite 模型:* 推理速度最高可比
    發(fā)表于 01-31 23:16

    積木+3D堆疊!GPNPU架構(gòu)創(chuàng)新,應(yīng)對AI推理需求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)2025年,人工智能正式邁入應(yīng)用推理時代。大模型從實驗室走向千行百業(yè),推理需求呈指數(shù)級爆發(fā)。然而,高昂的推理成本與有限的算供給之間的矛盾日益凸顯,成為制
    的頭像 發(fā)表于 12-11 08:57 ?7847次閱讀

    國產(chǎn)AI芯片真能扛住“算內(nèi)卷”?海思昇騰的這波操作藏了多少細節(jié)?

    反而壓到了310W。更有意思的是它的異構(gòu)架構(gòu):NPU+CPU+DVPP的組合,居然能同時扛住訓(xùn)練和推理場景,之前做自動駕駛算法時,用它跑模型時延直接降了20%。 但疑惑也有:這種算密度下,散熱怎么解決?而且昇騰的生態(tài)適配速度能
    發(fā)表于 10-27 13:12

    澎峰科技完成OpenAI最新開源推理模型適配

    澎峰科技現(xiàn)已完成 OpenAI 最新開源推理模型 gpt-oss-20b 在 DeepFusion 大模型一體機上的原生適配與優(yōu)化,用戶可一鍵啟用這顆“小而強悍”的新引擎,在本地享受企業(yè)級 AI 生產(chǎn)
    的頭像 發(fā)表于 08-14 11:34 ?1413次閱讀

    商湯大裝置躋身中國大模型推理算廠商第一梯隊

    近日,IDC發(fā)布首個《2025中國大模型推理算市場分析報告》。
    的頭像 發(fā)表于 08-14 09:29 ?4925次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強大的推理引擎能力,融合了自然語言處理(
    發(fā)表于 07-16 15:29

    將Whisper大型v3 fp32模型轉(zhuǎn)換為較低精度后,推理時間增加,怎么解決?

    openai/whisper-large-v3 FP32 模型轉(zhuǎn)換為 FP16、INT8 和 INT4。 推理所花費的時間比在 FP32 上花費的時間要多
    發(fā)表于 06-24 06:23

    Arm 與微軟合作,為基于 Arm 架構(gòu)的 PC 和移動設(shè)備應(yīng)用提供超強 AI 體驗

    ArmKleidiAI與ONNXRuntime的集成,為Windows和安卓操作系統(tǒng)帶來了顯著的AI性能優(yōu)化,實現(xiàn)高達2.6倍的AI推理速度提升,從而加速應(yīng)用體驗。聯(lián)合作者:Arm終端
    的頭像 發(fā)表于 06-03 16:47 ?877次閱讀
    Arm 與微軟合作,為基于 Arm 架構(gòu)的 <b class='flag-5'>PC</b> 和移動設(shè)備應(yīng)用提供超強 <b class='flag-5'>AI</b> 體驗

    高通驍龍X Elite平臺開啟AI PC新篇章

    多年來,隨著技術(shù)與移動應(yīng)用的不斷進化,消費者對PC設(shè)備在生產(chǎn)、創(chuàng)造、溝通和娛樂方面有了更多期待。驍龍 X Elite平臺憑借強大的CPU性能、先進的終端側(cè)
    的頭像 發(fā)表于 03-27 17:13 ?1667次閱讀

    國產(chǎn)推理服務(wù)器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    人工智能技術(shù)的爆發(fā)催生了對推理算的迫切需求,而進口服務(wù)器的高成本與技術(shù)依賴性,推動了國產(chǎn)推理服務(wù)器的快速發(fā)展。據(jù)IDC預(yù)測,到2025年,中國AI
    的頭像 發(fā)表于 03-24 17:11 ?1246次閱讀
    國產(chǎn)<b class='flag-5'>推理</b>服務(wù)器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發(fā)表于 03-20 15:35 ?1570次閱讀