91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI應(yīng)用如何不被淘汰?深耕RAG與數(shù)據(jù)底座是關(guān)鍵

looger123 ? 來源:looger123 ? 作者:looger123 ? 2025-05-23 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

截至2025年,生成式AI大模型的能力仍在迅速提升。如果關(guān)注這個(gè)領(lǐng)域,會(huì)發(fā)現(xiàn)有不少創(chuàng)業(yè)者花大量精力打造的AI應(yīng)用,但往往很快就被新一代大模型“原生功能”所取代。

這一類應(yīng)用被歸類是Prompt(提示詞)包裝層應(yīng)用,這些應(yīng)用通過設(shè)計(jì)提示詞調(diào)用大模型基礎(chǔ)能力,但沒有構(gòu)建更深層次業(yè)務(wù)價(jià)值。因?yàn)閼?yīng)用的價(jià)值主要靠大模型的原始能力,所以很容易被不斷變強(qiáng)的大模型取代。

如何開發(fā)出不容易被大模型“抄家”的AI應(yīng)用?

對(duì)此,英特爾技術(shù)專家認(rèn)為,大模型應(yīng)用開發(fā)不應(yīng)僅僅沿著大模型本身能力的延展,直接基于大模型開發(fā)智能體,這樣很容易隨著大模型能力的提升而被淘汰。大模型應(yīng)用開發(fā)要從大模型不擅長(zhǎng)或無法克服的點(diǎn)進(jìn)行切入,如解決數(shù)據(jù)地基的問題。

目前大模型最明顯的兩個(gè)問題都與數(shù)據(jù)有關(guān)。

首當(dāng)其沖的就是幻覺。大模型本質(zhì)上是在做概率運(yùn)算,輸出的內(nèi)容越多,概率偏差就越大。此外,訓(xùn)練數(shù)據(jù)質(zhì)量也會(huì)導(dǎo)致幻覺。而要在短期內(nèi)徹底消除幻覺問題,則需要根本性的技術(shù)變革為前提。

第二,是大模型的知識(shí)無法實(shí)時(shí)更新。大模型預(yù)訓(xùn)練都有固定的時(shí)間,可能是幾個(gè)月甚至是幾年之前,完全不知道新發(fā)生的事情,無法及時(shí)更新自己的知識(shí)庫(kù)。做出的回答也只能基于舊的已知內(nèi)容。

針對(duì)這兩大問題,業(yè)內(nèi)達(dá)成的共識(shí)就是基于RAG(檢索增強(qiáng)生成)構(gòu)建知識(shí)庫(kù),它在預(yù)訓(xùn)練的大模型基礎(chǔ)上連接外部的數(shù)據(jù)源,所有的任務(wù)和回答的內(nèi)容上下文都從知識(shí)庫(kù)中提取,然后,由大模型做出回答。

具體操作中,企業(yè)需要把內(nèi)部的文檔資料轉(zhuǎn)化為機(jī)器能讀懂的形式。先對(duì)文檔進(jìn)行切分,然后再進(jìn)行向量化處理,最后存到向量數(shù)據(jù)庫(kù)里。當(dāng)用戶提出問題時(shí),問題也被轉(zhuǎn)成向量,基于這些在向量數(shù)據(jù)庫(kù)里進(jìn)行檢索,最后根據(jù)檢索到的內(nèi)容生成答復(fù)。

在生成答復(fù)的時(shí)候,召回率和準(zhǔn)確率是非常關(guān)鍵的指標(biāo)。召回率看的是,在所有“真正相關(guān)”的文檔中,有多少被檢索到了。而準(zhǔn)確率Precision看的是,在所有被檢索出來的文檔中,有多少是“真正相關(guān)”的。

英特爾專家表示,當(dāng)看到這些技術(shù)細(xì)節(jié)后,就應(yīng)該意識(shí)到,大模型的效果受到太多因素或環(huán)節(jié)的影響。比如,負(fù)責(zé)把文本轉(zhuǎn)換成向量的Embedding模型的選擇,切分文檔的大小,檢索數(shù)據(jù)的處理等等都會(huì)影響最后生成的結(jié)果。

在英特爾專家看來,做大模型開發(fā),直接從智能體開始或許不是最優(yōu)選。數(shù)據(jù)基礎(chǔ)上的微小差異,最終效果可能會(huì)差出很多。換言之,如果能處理好數(shù)據(jù)本身,而不只是單純依靠大模型本身的表現(xiàn),則會(huì)創(chuàng)造更多不可替代的價(jià)值。

快速上手,在云上構(gòu)建企業(yè)級(jí)RAG開發(fā)環(huán)境

目前,國(guó)內(nèi)外多家大型企業(yè)都基于大語言模型和RAG技術(shù)構(gòu)建了企業(yè)知識(shí)庫(kù),而且很多一線員工都非常認(rèn)可。鑒于RAG知識(shí)庫(kù)對(duì)企業(yè)非常重要,火山引擎推出了支持RAG場(chǎng)景的云主機(jī)鏡像。

wKgZPGgwMSKAW7uoAACD44HeLdc037.png

火山引擎在大模型服務(wù)領(lǐng)域表現(xiàn)非常亮眼。根據(jù)IDC發(fā)布的《中國(guó)公有云大模型服務(wù)市場(chǎng)格局分析,1Q25》報(bào)告,火山引擎在2024年中國(guó)公有云大模型調(diào)用量市場(chǎng)中占據(jù)了46.4%的份額,位居第一。

火山引擎不僅有火山方舟這種大模型服務(wù)平臺(tái),還有扣子(Coze)這類低代碼AI應(yīng)用開發(fā)平臺(tái),以及HiAgent這樣的企業(yè)專屬AI應(yīng)用創(chuàng)新平臺(tái)。新推出的RAG鏡像則是讓普通開發(fā)者以更低的門檻,開發(fā)出不容易被大模型“抄家”的AI應(yīng)用。

RAG鏡像中不僅包含Embedding(嵌入式)模塊,還有向量數(shù)據(jù)庫(kù)、Re-rank模型和7B的DeepSeek蒸餾模型,甚至還提供了數(shù)據(jù)預(yù)處理服務(wù),以及處理在線問答服務(wù)的模塊和前端頁面,而且所有軟件棧都經(jīng)過了提前優(yōu)化。

火山引擎的RAG鏡像作為面向企業(yè)的服務(wù),參考了OPEA的架構(gòu)。OPEA是英特爾在去年發(fā)起的開源社區(qū),利用開放架構(gòu)和模塊化組件的方式,幫助企業(yè)構(gòu)建可擴(kuò)展的AI應(yīng)用部署基礎(chǔ)。相比普通的開源架構(gòu),火山引擎的鏡像具備更多企業(yè)級(jí)特性。

很多云廠商也提供了RAG服務(wù),這些服務(wù)對(duì)普通用戶來說門檻更低,但對(duì)于專業(yè)開發(fā)者而言,這些“黑盒”屏蔽了大量技術(shù)細(xì)節(jié)。而火山引擎的RAG鏡像作為開源方案,讓開發(fā)者能夠看到更多底層細(xì)節(jié),從多個(gè)技術(shù)維度進(jìn)行優(yōu)化,從而構(gòu)建起真正的技術(shù)壁壘。

DeepSeek爆火之后,很多企業(yè)都計(jì)劃進(jìn)行本地部署,市場(chǎng)上出現(xiàn)了很多一體機(jī)解決方案,一臺(tái)一體機(jī)里經(jīng)常會(huì)有8張高性能顯卡,這套方案的成本并不低,在沒有明確業(yè)務(wù)需求之前,動(dòng)輒幾十萬的成本投入或許并不明智。

現(xiàn)在,用戶只需要在火山引擎上選擇好虛擬機(jī)和鏡像,就能在三分鐘內(nèi)搭建好一套開發(fā)環(huán)境,開始各種學(xué)習(xí)和實(shí)踐。為了幫助開發(fā)者提升能力,英特爾還準(zhǔn)備了一系列課程,幫助大家補(bǔ)齊相關(guān)知識(shí),更輕松地邁出從0到1的第一步,打好數(shù)據(jù)基礎(chǔ)。

大模型應(yīng)用開發(fā)的三要素,硬件平臺(tái)是基礎(chǔ)

wKgZO2gwMSKAAhApAAI3AB9Ii3M769.png

英特爾專家總結(jié)了大模型應(yīng)用開發(fā)的三要素,除了剛才提到的軟件棧和配套的指導(dǎo)課程,硬件環(huán)境同樣至關(guān)重要。火山引擎基于英特爾至強(qiáng)處理器打造了多種云主機(jī),最近推出的基于英特爾至強(qiáng)6性能核處理器的通用型實(shí)例 g4il,非常適合做大模型應(yīng)用開發(fā)。

wKgZPGgwMSOAHEoEAAJLeZey79o825.png

g4il是火山引擎的第四代通用型實(shí)例,其中 “g” 代表通用型,“4” 表示第四代,“i” 代表英特爾CPU平臺(tái)。與第三代相比,其整體性能有顯著提升,無論是在數(shù)據(jù)庫(kù)應(yīng)用、Web應(yīng)用,還是圖像渲染方面表現(xiàn)都更加出色,而在AI推理方面的優(yōu)勢(shì)更是尤為突出。

wKgZO2gwMSOAH-PrAAH5tydP9o4234.png

得益于集成AMX加速器,英特爾至強(qiáng)6處理器已成為目前最擅長(zhǎng)AI推理的x86架構(gòu)處理器之一。在火山引擎的g4il實(shí)例中,用戶可以使用CPU完成AI推理。相比基于GPU的方案,它具備成本更低、資源更容易獲得的優(yōu)勢(shì),能滿足基本需求。

基于CPU的AI推理方案特別適合用于AI應(yīng)用的開發(fā)和驗(yàn)證階段。搭配前面提到的火山引擎RAG鏡像,用戶可以在云上快速搭建起一套大模型應(yīng)用的開發(fā)環(huán)境,大大降低了對(duì)硬件資源的門檻。

而到了生產(chǎn)環(huán)節(jié),通常需要采用CPU+GPU的異構(gòu)計(jì)算架構(gòu)。比如,可以使用帶有AMX的至強(qiáng)CPU來處理Embedding(文本嵌入)、Re-Rank、向量數(shù)據(jù)庫(kù)等輕量級(jí)AI負(fù)載,讓GPU專注于處理重型AI負(fù)載,從而提高資源利用率和整體處理能力。

wKgZPGgwMSOAOOivAAJtVTOHD_E122.png

g4il的一大亮點(diǎn)在于:用戶只需選擇一臺(tái)配備16 vCPU或32 vCPU的云主機(jī),即使不使用GPU,也能運(yùn)行參數(shù)量為7或14B的DeepSeek蒸餾版模型。值得一提的是,該方案還支持DeepSeek推薦的高精度計(jì)算格式BF16,進(jìn)一步提升推理質(zhì)量。

小結(jié)

在技術(shù)快速演進(jìn)的當(dāng)下,借助云平臺(tái)進(jìn)行開發(fā),既能降低試錯(cuò)成本,又能加快創(chuàng)新速度,為企業(yè)和開發(fā)者提供了更靈活的選擇。更重要的是,通過精細(xì)化RAG等技術(shù)深耕數(shù)據(jù)底座,而不只是單純靠巧妙的提示詞,才能打造出不容易被大模型“抄家”的AI應(yīng)用。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10301

    瀏覽量

    180469
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301446
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5186
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    軟通動(dòng)力睿動(dòng)智能體云平臺(tái)助力企業(yè)構(gòu)建專屬AI技術(shù)底座

    軟通動(dòng)力深耕AI領(lǐng)域的重磅產(chǎn)品——睿動(dòng)智能體云平臺(tái),就能有效化解上述難題,成為企業(yè)開啟“企業(yè)級(jí)AI應(yīng)用”的新范式。
    的頭像 發(fā)表于 02-26 09:20 ?458次閱讀

    RAG(檢索增強(qiáng)生成)原理與實(shí)踐

    引言 在大語言模型(LLM)蓬勃發(fā)展的今天,如何讓AI更準(zhǔn)確地回答特定領(lǐng)域的問題成為了一個(gè)關(guān)鍵挑戰(zhàn)。RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成)技術(shù)應(yīng)運(yùn)而生
    發(fā)表于 02-11 12:46

    使用NORDIC AI的好處

    原始傳感器數(shù)據(jù),可顯著降低功耗、延長(zhǎng)電池壽命。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 降低云依賴與時(shí)延 直接在設(shè)備上做推理,很多決策可以“本地實(shí)時(shí)”完成,不必等云端響應(yīng)
    發(fā)表于 01-31 23:16

    別選錯(cuò)底座!一文說清鑄鐵測(cè)試和電機(jī)測(cè)試底座的真正區(qū)別

    的剛性連接接口,力流路徑不完整??赡堋靶阅苓^?!保簽楦邉?dòng)態(tài)場(chǎng)景設(shè)計(jì)的冗余能力,在靜態(tài)應(yīng)用中無法體現(xiàn)價(jià)值。電機(jī)測(cè)試底座優(yōu)勢(shì):為動(dòng)態(tài)測(cè)試而生:專為抵抗反扭矩、多向振動(dòng)而優(yōu)化,能確保在高動(dòng)態(tài)工況下數(shù)據(jù)
    發(fā)表于 01-17 13:43

    構(gòu)筑工業(yè)AI時(shí)代的數(shù)據(jù)底座,藍(lán)卓supOS X工廠操作系統(tǒng)全球首發(fā)

    、藍(lán)卓數(shù)字科技有限公司協(xié)辦的2025未來智造大會(huì)暨supOS全球新品發(fā)布會(huì)在寧波成功舉辦。 大會(huì)現(xiàn)場(chǎng) 大會(huì)以 "工業(yè) AI 時(shí)代的數(shù)據(jù)底座" 為核心議題,精準(zhǔn)承接新質(zhì)生產(chǎn)力發(fā)展要求,直擊工業(yè)
    的頭像 發(fā)表于 12-11 16:28 ?224次閱讀
    構(gòu)筑工業(yè)<b class='flag-5'>AI</b>時(shí)代的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>底座</b>,藍(lán)卓supOS X工廠操作系統(tǒng)全球首發(fā)

    漢鑫科技與IBM落地AI深耕計(jì)劃

    今天,山東漢鑫科技股份有限公司(此后簡(jiǎn)稱“漢鑫科技”)和 IBM 中國(guó)正式宣布,將在山東煙臺(tái)落地 IBM “AI 深耕計(jì)劃”,為中國(guó)企業(yè)的智能化轉(zhuǎn)型和全球化運(yùn)營(yíng)提供安全、靈活、定制化的企業(yè)級(jí)技術(shù)方案和咨詢服務(wù)。
    的頭像 發(fā)表于 12-09 17:44 ?772次閱讀

    使用NVIDIA Nemotron RAG和Microsoft SQL Server 2025構(gòu)建高性能AI應(yīng)用

    搜索和調(diào)用外部 AI 模型的 SQL 原生 API。NVIDIA 與微軟共同將 SQL Server 2025 與 NVIDIA Nemotron RAG 開放模型集合無縫連接,這使您能夠在云端或本地環(huán)境中基于自己的數(shù)據(jù)構(gòu)建高性
    的頭像 發(fā)表于 12-01 09:31 ?806次閱讀
    使用NVIDIA Nemotron <b class='flag-5'>RAG</b>和Microsoft SQL Server 2025構(gòu)建高性能<b class='flag-5'>AI</b>應(yīng)用

    RAG實(shí)踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫(kù))的優(yōu)勢(shì)與生成式大語言模型(LLM)的功能結(jié)合在一起。不再
    的頭像 發(fā)表于 10-27 18:23 ?1564次閱讀
    <b class='flag-5'>RAG</b>實(shí)踐:一文掌握大模型<b class='flag-5'>RAG</b>過程

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    靈感的過程中發(fā)揮關(guān)鍵作用。五、用AI實(shí)現(xiàn)諾貝爾獎(jiǎng)級(jí)別的科學(xué)發(fā)現(xiàn) 這想法這能夠大膽的。 1、AI科學(xué)家的構(gòu)建 全自主科學(xué)實(shí)驗(yàn)室需要哪些部分: ①自動(dòng)實(shí)驗(yàn)設(shè)備 ②流程管理系統(tǒng) ③數(shù)據(jù)處理和
    發(fā)表于 09-17 11:45

    使用 llm-agent-rag-llamaindex 筆記本時(shí)收到的 NPU 錯(cuò)誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+ 入門篇學(xué)習(xí)

    工程、RAG技術(shù)、和AI Agent是3個(gè)重要方面。其中AI Agent作為2024年最新興的技術(shù)領(lǐng)域,具備很好的應(yīng)用前景,本書對(duì)零基礎(chǔ)小白普及和應(yīng)用AI Agent有著很好的指導(dǎo)作用
    發(fā)表于 05-02 09:26

    如何在基于Arm Neoverse平臺(tái)的Google Axion處理器上構(gòu)建RAG應(yīng)用

    你是否好奇如何防止人工智能 (AI) 聊天機(jī)器人給出過時(shí)或不準(zhǔn)確的答案?檢索增強(qiáng)生成 (Retrieval-Augmented Generation, RAG) 技術(shù)提供了一種強(qiáng)大的解決方案,能夠顯著提升答案的準(zhǔn)確性和相關(guān)性。
    的頭像 發(fā)表于 04-28 14:34 ?1091次閱讀
    如何在基于Arm Neoverse平臺(tái)的Google Axion處理器上構(gòu)建<b class='flag-5'>RAG</b>應(yīng)用

    DevEco Studio AI輔助開發(fā)工具兩大升級(jí)功能 鴻蒙應(yīng)用開發(fā)效率再提升

    帶來了前所未有的智能問答體驗(yàn)。 RAG增強(qiáng)型與傳統(tǒng)生成式AI關(guān)鍵差異: 圖2:DeepSeek模型增強(qiáng)RAG能力前后效果對(duì)比圖 升級(jí)點(diǎn)2:新增代碼解釋功能,提升初學(xué)者開發(fā)效率 針對(duì)
    發(fā)表于 04-18 14:43

    DeepSeek推動(dòng)AI算力需求:800G光模塊的關(guān)鍵作用

    解決算力集群帶寬瓶頸的關(guān)鍵技術(shù),為數(shù)據(jù)中心和AI訓(xùn)練提供了所需的高帶寬、低延遲連接。飛速(FS)800G光模塊憑借其出色的技術(shù)優(yōu)勢(shì)和廣泛的市場(chǎng)應(yīng)用前景,將為未來網(wǎng)絡(luò)架構(gòu)的升級(jí)與創(chuàng)新提供強(qiáng)大支持。隨著
    發(fā)表于 03-25 12:00