91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解大型語言模型 (LLM) 領(lǐng)域中的25個(gè)關(guān)鍵術(shù)語

穎脈Imgtec ? 2024-05-10 08:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. LLM(大語言模型)

大型語言模型 (LLMs) 是先進(jìn)的人工智能系統(tǒng),經(jīng)過大量文本數(shù)據(jù)集的訓(xùn)練,可以理解和生成類似人類的文本。他們使用深度學(xué)習(xí)技術(shù)以上下文相關(guān)的方式處理和生成語言。OpenAI的GPT系列、Google的Gemini、Anthropic AI的Claude、Meta的Llama模型等LLMs的發(fā)展,標(biāo)志著自然語言處理領(lǐng)域的重大進(jìn)步。


2. 訓(xùn)練

訓(xùn)練是指通過將語言模型暴露于大型數(shù)據(jù)集來教導(dǎo)語言模型理解和生成文本。該模型學(xué)習(xí)預(yù)測序列中的下一個(gè)單詞,并通過調(diào)整其內(nèi)部參數(shù)隨著時(shí)間的推移提高其準(zhǔn)確性。這個(gè)過程是開發(fā)任何處理語言任務(wù)的人工智能的基礎(chǔ)。


3. 微調(diào)

微調(diào)是在較小的特定數(shù)據(jù)集上進(jìn)一步訓(xùn)練(或調(diào)整)預(yù)訓(xùn)練語言模型以專門針對(duì)特定領(lǐng)域或任務(wù)的過程。這使得模型能夠更好地執(zhí)行原始訓(xùn)練數(shù)據(jù)中未廣泛涵蓋的任務(wù)。


4. 參數(shù)

神經(jīng)網(wǎng)絡(luò)(包括LLMs)的背景下,參數(shù)是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)的模型架構(gòu)的可變部分。參數(shù)(如神經(jīng)網(wǎng)絡(luò)中的權(quán)重)在訓(xùn)練期間進(jìn)行調(diào)整,以減少預(yù)測輸出和實(shí)際輸出之間的差異。


5. 矢量

機(jī)器學(xué)習(xí)中,向量是以算法可以處理的格式表示數(shù)據(jù)的數(shù)字?jǐn)?shù)組。在語言模型中,單詞或短語被轉(zhuǎn)換為向量,通常稱為嵌入,它捕獲模型可以理解和操作的語義。


6. 嵌入

嵌入是文本的密集向量表示,其中熟悉的單詞在向量空間中具有相似的表示。這項(xiàng)技術(shù)有助于捕獲單詞之間的上下文和語義相似性,這對(duì)于機(jī)器翻譯和文本摘要等任務(wù)至關(guān)重要。


7. 標(biāo)記化標(biāo)記化是將文本分割成多個(gè)片段,稱為標(biāo)記,可以是單詞、子詞或字符。這是使用語言模型處理文本之前的初步步驟,因?yàn)樗兄谔幚砀鞣N文本結(jié)構(gòu)和語言。


8. Transformer

Transformer 是神經(jīng)網(wǎng)絡(luò)架構(gòu),它依賴于自注意力機(jī)制來不同地權(quán)衡輸入數(shù)據(jù)不同部分的影響。這種架構(gòu)對(duì)于許多自然語言處理任務(wù)非常有效,并且是大多數(shù)現(xiàn)代 LLMs 的核心。


9. 注意力機(jī)制

神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制使模型能夠在生成響應(yīng)的同時(shí)專注于輸入序列的不同部分,反映了人類注意力在閱讀或聽力等活動(dòng)中的運(yùn)作方式。這種能力對(duì)于理解上下文和產(chǎn)生連貫的響應(yīng)至關(guān)重要。


10. 推理

推理是指使用經(jīng)過訓(xùn)練的模型進(jìn)行預(yù)測。在 LLMs 的上下文中,推理是指模型使用在訓(xùn)練期間學(xué)到的知識(shí)基于輸入數(shù)據(jù)生成文本。這是LLMs實(shí)現(xiàn)實(shí)際應(yīng)用的階段。


11. 溫度

在語言模型采樣中,溫度是一個(gè)超參數(shù),它通過在應(yīng)用 softmax 之前縮放 logits 來控制預(yù)測的隨機(jī)性。較高的溫度會(huì)產(chǎn)生更多的隨機(jī)輸出,而較低的溫度會(huì)使模型的輸出更具確定性。


12. 頻率參數(shù)

語言模型中的頻率參數(shù)根據(jù)標(biāo)記的出現(xiàn)頻率來調(diào)整標(biāo)記的可能性。該參數(shù)有助于平衡常見詞和稀有詞的生成,影響模型在文本生成中的多樣性和準(zhǔn)確性。


13. 取樣

語言模型上下文中的采樣是指根據(jù)概率分布隨機(jī)選擇下一個(gè)單詞來生成文本。這種方法允許模型生成各種且通常更具創(chuàng)意的文本輸出。


14. Top-k 采樣

Top-k 采樣是一種技術(shù),其中模型對(duì)下一個(gè)單詞的選擇僅限于根據(jù)模型的預(yù)測的 k 個(gè)最可能的下一個(gè)單詞。此方法減少了文本生成的隨機(jī)性,同時(shí)仍然允許輸出的可變性。


15. RLHF(人類反饋強(qiáng)化學(xué)習(xí))

根據(jù)人類反饋進(jìn)行強(qiáng)化學(xué)習(xí)是一種根據(jù)人類反饋而不僅僅是原始數(shù)據(jù)對(duì)模型進(jìn)行微調(diào)的技術(shù)。這種方法使模型的輸出與人類的價(jià)值觀和偏好保持一致,從而顯著提高其實(shí)際有效性。


16. 解碼策略

解碼策略決定了語言模型在生成過程中如何選擇輸出序列。策略包括貪婪解碼(在每一步中選擇最有可能的下一個(gè)單詞)和波束搜索(通過同時(shí)考慮多種可能性來擴(kuò)展貪婪解碼)。這些策略顯著影響輸出的一致性和多樣性。


17. 語言模型提示

語言模型提示涉及設(shè)計(jì)指導(dǎo)模型生成特定類型輸出的輸入(或提示)。有效的提示可以提高問題回答或內(nèi)容生成等任務(wù)的表現(xiàn),而無需進(jìn)一步培訓(xùn)。


18. Transformer-XL

Transformer-XL 擴(kuò)展了現(xiàn)有的 Transformer 架構(gòu),能夠?qū)W習(xí)超出固定長度的依賴關(guān)系,而不會(huì)破壞時(shí)間一致性。這種架構(gòu)對(duì)于涉及長文檔或序列的任務(wù)至關(guān)重要。


19. 掩碼語言建模(MLM)

掩碼語言建模需要在訓(xùn)練期間屏蔽某些輸入數(shù)據(jù)段,促使模型預(yù)測隱藏的單詞。該方法構(gòu)成了 BERT 等模型的基石,利用 MLM 來增強(qiáng)預(yù)訓(xùn)練效果。


20. 序列到序列模型(Seq2Seq)

Seq2Seq 模型旨在將序列從一個(gè)域轉(zhuǎn)換為另一個(gè)域,例如將文本從一種語言翻譯或?qū)栴}轉(zhuǎn)換為答案。這些模型通常涉及編碼器和解碼器。


21. 生成式預(yù)訓(xùn)練變壓器(GPT)

Generative Pre-trained Transformer 是指 OpenAI 設(shè)計(jì)的一系列語言處理 AI 模型。GPT 模型使用無監(jiān)督學(xué)習(xí)進(jìn)行訓(xùn)練,根據(jù)輸入生成類似人類的文本。


22. 困惑度

困惑度衡量概率模型對(duì)給定樣本的預(yù)測準(zhǔn)確性。在語言模型中,困惑度的降低表明測試數(shù)據(jù)的預(yù)測能力更強(qiáng),通常與更流暢、更精確的文本生成相關(guān)。


23. 多頭注意力

多頭注意力是 Transformer 模型中的一個(gè)組件,使模型能夠同時(shí)關(guān)注不同位置的各種表示子空間。這增強(qiáng)了模型動(dòng)態(tài)關(guān)注相關(guān)信息的能力。


24. 上下文嵌入

上下文嵌入是考慮單詞出現(xiàn)的上下文的單詞表示。與傳統(tǒng)的嵌入不同,這些嵌入是動(dòng)態(tài)的,并根據(jù)周圍的文本而變化,提供更豐富的語義理解。


25. 自回歸模型

語言建模中的自回歸模型根據(jù)序列中先前的單詞來預(yù)測后續(xù)單詞。這種方法是 GPT 等模型的基礎(chǔ),其中每個(gè)輸出單詞都成為下一個(gè)輸入,從而促進(jìn)連貫的長文本生成。

來源:自由坦蕩的湖泊AI、海豚實(shí)驗(yàn)室

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50091

    瀏覽量

    265241
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    346

    瀏覽量

    1328
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。2.什么是大語言模型
    的頭像 發(fā)表于 02-02 16:36 ?888次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面<b class='flag-5'>了解</b>!

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?470次閱讀
    <b class='flag-5'>LLM</b>推理<b class='flag-5'>模型</b>是如何推理的?

    一文了解Mojo編程語言

    CPU、GPU 和其他加速器的支持,簡化了并行編程模型。 漸進(jìn)式類型系統(tǒng) 結(jié)合靜態(tài)類型檢查和類型推導(dǎo),既保證編譯時(shí)安全性,又保留動(dòng)態(tài)類型的靈活性。 應(yīng)用場景 AI 與機(jī)器學(xué)習(xí) 用于訓(xùn)練大型模型和實(shí)時(shí)推理
    發(fā)表于 11-07 05:59

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?935次閱讀

    廣和通發(fā)布端側(cè)情感對(duì)話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對(duì)話大模型FiboEmo-LLM。該模型專注于情感計(jì)算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1894次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    通過硬件算力優(yōu)化與軟件棧協(xié)同,將視覺編碼、語言推理、對(duì)話管理三大核心能力封裝為可落地的工程方案,而本文將聚焦其多輪對(duì)話的部署全流程,拆解從模型加載到交互推理的每一個(gè)關(guān)鍵環(huán)節(jié)。 RK
    發(fā)表于 09-05 17:25

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎(jiǎng)的評(píng)選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉(zhuǎn)自:騰訊技術(shù)工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數(shù)學(xué)解決了工業(yè)場景的問題,筆者基于過往工程經(jīng)驗(yàn)
    的頭像 發(fā)表于 09-02 13:34 ?3447次閱讀
    3萬字長文!深度解析大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評(píng)測

    演示 結(jié)論 一、基本介紹端側(cè) LLM 模型與云端 LLM端側(cè)小型語言模型(SLM)與傳統(tǒng)云端大型
    發(fā)表于 08-29 18:08

    Votee AI借助NVIDIA技術(shù)加速方言小語種LLM開發(fā)

    了精準(zhǔn)的方言及小語種大語言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語言復(fù)雜及計(jì)算效率等挑戰(zhàn),為全球數(shù)以百萬計(jì)、缺乏數(shù)字化資源的語言使用者提
    的頭像 發(fā)表于 08-20 14:21 ?856次閱讀

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級(jí) AI。
    的頭像 發(fā)表于 06-12 15:42 ?1175次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1869次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實(shí)踐

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些
    的頭像 發(fā)表于 04-30 18:34 ?1299次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?1610次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是一款集成化的離線大語言模型(LLM)推理模塊,專為需要高效、智能交互的終端設(shè)備設(shè)計(jì)。Module13.2LLMMate模塊
    的頭像 發(fā)表于 03-28 18:49 ?1186次閱讀
    新品 | Module <b class='flag-5'>LLM</b> Kit,離線大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理模塊套裝

    無法在OVMS上運(yùn)行來自Meta的大型語言模型LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫運(yùn)行 llama_chat Python* Demo 時(shí)
    發(fā)表于 03-05 08:07