91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2023 LLM技術(shù)報(bào)告—— LLM的工具和平臺(tái)

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2024-01-29 15:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開源開發(fā)者圈子來看,2023 年是大模型 LLM 年、生成式 AI GenAI 年,LLM 領(lǐng)域大放異彩。

LLM 是利用深度學(xué)習(xí)和大數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng),專門設(shè)計(jì)來理解、生成和回應(yīng)自然語言。這些模型通過分析大量的文本數(shù)據(jù)來學(xué)習(xí)語言的結(jié)構(gòu)和用法,從而能夠執(zhí)行各種語言相關(guān)任務(wù)。

本篇將為大家介紹一下 LLM 相關(guān)的工具和平臺(tái)。

LLMOps

LLMOps 平臺(tái)專注于提供大模型的部署、運(yùn)維和優(yōu)化服務(wù),旨在幫助企業(yè)和開發(fā)者更高效地管理和使用這些先進(jìn)的 AI 模型,快速完成從模型到應(yīng)用的跨越,如 Dify.AI 、LangChain等。

ad9c3fe4-b9dd-11ee-8b88-92fbcf53809c.png

開源框架 LangChain 是一個(gè)幫助開發(fā)者使用 LLM 創(chuàng)建應(yīng)用的開源框架,它可以將 LLM 與外部數(shù)據(jù)源進(jìn)行連接,并允許與 LLM進(jìn)行交互。LangChain 于 2022 年 10 月作為開源項(xiàng)目推出,并于2023 年 4 月注冊(cè)成立公司,累計(jì)獲得超過 3000 萬美元的投資,估值達(dá)到了 2 億美元。在 GitHub 上,LangChain 已經(jīng)獲得了超過 7 萬個(gè) Star 和超過 2000 名貢獻(xiàn)者。

ada0e53a-b9dd-11ee-8b88-92fbcf53809c.png

大模型聚合平臺(tái)

大模型聚合平臺(tái)主要用于整合和管理多個(gè)大型機(jī)器學(xué)習(xí)模型,在聚合平臺(tái)之上,衍生出 MaaS(Model-as-a- Service,大模型即服務(wù))的服務(wù)模式——通過提供統(tǒng)一的接口和框架,以更高效地部署、運(yùn)行和優(yōu)化這些模型,Hugging Face、Replicate 以及 Gitee AI 均為 MaaS 平臺(tái)。

ada4e40a-b9dd-11ee-8b88-92fbcf53809c.png

Gitee AI 是開源中國旗下的 MaaS 平臺(tái),提供模型、數(shù)據(jù)集,以及應(yīng)用托管能力,同時(shí)接入了豐富的國產(chǎn)算力平臺(tái),為開發(fā)者提供了更高效、實(shí)惠的微調(diào)方案,降低使用門檻,目前已進(jìn)入內(nèi)測(cè)階段。

adb1bf72-b9dd-11ee-8b88-92fbcf53809c.png

開發(fā)工具

其它開發(fā)相關(guān)的 LLM 工具,如云原生構(gòu)建多模態(tài)AI應(yīng)用的工具 Jina,嵌入式數(shù)據(jù)庫 txtai 等。

adc3750a-b9dd-11ee-8b88-92fbcf53809c.png

比較有代表性的 LLM 開發(fā)工具有:

PromptPerfect:幫助用戶極致優(yōu)化給大模型的提示詞(prompt),使得對(duì)大語言模型提問時(shí),可以獲得更理想的輸出。

adcfc8dc-b9dd-11ee-8b88-92fbcf53809c.png

txtai:用于語義搜索、LLM 編排和語言模型工作流的一體化嵌入數(shù)據(jù)庫,可以使用SQL、對(duì)象存儲(chǔ)、主題建模、圖形分析和多模態(tài)索引進(jìn)行矢量搜索。

imgcook:專注以 Sketch、PSD、靜態(tài)圖片等形式的視覺稿作為輸入,通過智能化技術(shù)一鍵生成可維護(hù)的前端代碼,包含視圖代碼、數(shù)據(jù)字段綁定、組件代碼、部分業(yè)務(wù)邏輯代碼。

另一個(gè)視角來看,在大模型繁榮發(fā)展的背后,少不了工具和平臺(tái)的發(fā)力,如 LLMOps 平臺(tái)、大模型聚合平臺(tái)以及相關(guān)的開發(fā)工具,此外還有它們所依賴的最重要的資源——算力。在這些工具、平臺(tái)和資源的有力支撐下,大模型才得以一步一個(gè)臺(tái)階,引領(lǐng)全球開發(fā)者步入一個(gè)技術(shù)新時(shí)代。

add42648-b9dd-11ee-8b88-92fbcf53809c.png

以上內(nèi)容出自《2023 LLM 技術(shù)報(bào)告》,此報(bào)告濃墨重彩地梳理了 2023 年 LLM 的技術(shù)行情。報(bào)告整體圍繞 LLM Tech Map 梳理邏輯來展開,從基礎(chǔ)設(shè)施、大模型、Agent、AI 編程、工具和平臺(tái),以及算力幾個(gè)方面,為開發(fā)者整理了當(dāng)前 LLM 中最為熱門和硬核的技術(shù)領(lǐng)域以及相關(guān)的軟件產(chǎn)品和開源項(xiàng)目。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5179
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    346

    瀏覽量

    1329

原文標(biāo)題:2023 LLM技術(shù)報(bào)告—— LLM的工具和平臺(tái)

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    芯盾時(shí)代如何破局LLM供應(yīng)鏈漏洞危機(jī)

    隨著人工智能技術(shù)進(jìn)入 2026 年的爆發(fā)期,大語言模型(LLM)已不再是實(shí)驗(yàn)室里的原型,而是支撐企業(yè)核心業(yè)務(wù)的“數(shù)字引擎”。然而,LLM的強(qiáng)大高度依賴于全球化的AI生態(tài)。從海量的互聯(lián)網(wǎng)訓(xùn)練數(shù)據(jù),到
    的頭像 發(fā)表于 02-04 16:53 ?1234次閱讀

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計(jì)算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉(zhuǎn)接板組成。核心加速卡
    的頭像 發(fā)表于 01-30 16:11 ?1029次閱讀
    新品 | <b class='flag-5'>LLM</b>-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    小藝開放平臺(tái)平臺(tái)功能

    三種開發(fā)模式支撐智能體靈活構(gòu)建 LLM模式 LLM 模式是一種基于大模型的智能體編排方式。開發(fā)者按需選擇大模型,根據(jù)業(yè)務(wù)邏輯編寫提示詞,以LLM為理解中樞,結(jié)合意圖識(shí)別、工具調(diào)用、對(duì)話
    發(fā)表于 01-30 15:24

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具

    一種基于LLM的可通過圖像語音控制的元件庫管理工具 項(xiàng)目概述 ? 庫存管理在我們的生活中幾乎無處不在,在許多小型的庫存當(dāng)中,比如實(shí)驗(yàn)室中的庫存管理,往往沒有人去專職維護(hù),這就會(huì)導(dǎo)致在日積月累中逐漸
    發(fā)表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實(shí)現(xiàn)路徑:一方面,針對(duì)需
    的頭像 發(fā)表于 10-21 11:04 ?1166次閱讀

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1106次閱讀
    TensorRT-<b class='flag-5'>LLM</b>的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4447次閱讀
    DeepSeek R1 MTP在TensorRT-<b class='flag-5'>LLM</b>中的實(shí)現(xiàn)與優(yōu)化

    Votee AI借助NVIDIA技術(shù)加速方言小語種LLM開發(fā)

    了精準(zhǔn)的方言及小語種大語言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語言復(fù)雜及計(jì)算效率等挑戰(zhàn),為全球數(shù)以百萬計(jì)、缺乏數(shù)字化資源的語言使用者提供了技術(shù)支持。
    的頭像 發(fā)表于 08-20 14:21 ?857次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2184次閱讀

    Qualys TotalAI 降低 Gen AI 和 LLM 工作負(fù)載的風(fēng)險(xiǎn)

    “在AI時(shí)代,最大的風(fēng)險(xiǎn)不是不去創(chuàng)新,而是在沒有穩(wěn)固基礎(chǔ)的情況下創(chuàng)新?!?生成式人工智能 (Gen AI) 和大語言模型 (LLM) 正在革新各行各業(yè),但是,它們的快速應(yīng)用帶來了嚴(yán)峻的網(wǎng)絡(luò)安全挑戰(zhàn)
    的頭像 發(fā)表于 06-25 14:18 ?487次閱讀
    Qualys TotalAI 降低 Gen AI 和 <b class='flag-5'>LLM</b> 工作負(fù)載的風(fēng)險(xiǎn)

    使用 llm-agent-rag-llamaindex 筆記本時(shí)收到的 NPU 錯(cuò)誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1871次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實(shí)踐

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場景不斷擴(kuò)展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運(yùn)行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1178次閱讀
    LM Studio使用NVIDIA<b class='flag-5'>技術(shù)</b>加速<b class='flag-5'>LLM</b>性能

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1305次閱讀
    小白學(xué)大模型:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b>語言模型

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1611次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀