91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是大模型,智能體...?大模型100問,快速全面了解!

穎脈Imgtec ? 2026-02-02 16:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、概念篇

1.什么是大模型?

大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。

2.什么是大語言模型(LLM)?

大語言模型(Large Language Model,LLM)是大模型中最主 要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進(jìn)行預(yù)訓(xùn)練,學(xué)會(huì)語言的模式、知識(shí)和上下文關(guān)系。

3.什么是多模態(tài)大模型?

多模態(tài)大模型是指能夠統(tǒng)一處理和理解多種模態(tài)數(shù)據(jù)(如文本、圖像、音頻、視頻)的人工智能模型,實(shí)現(xiàn)圖文對應(yīng)、音視頻理解、視覺問答等任務(wù),使人工智能具備更接近人類的綜合感知與交互能力。

4.什么是推理大模型?

推理大模型是指專門強(qiáng)化邏輯推理、多步推導(dǎo)和計(jì)算能力的大規(guī)模人工智能模型。它通過結(jié)構(gòu)設(shè)計(jì)或訓(xùn)練方法優(yōu)化,提升在數(shù)學(xué)解題、代碼生成與調(diào)試、邏輯推理、策略規(guī)劃等復(fù)雜任務(wù)中的表現(xiàn),注重逐步分析,以生成準(zhǔn)確、可解釋的結(jié)論。

5.L0級(jí)、L1級(jí)、L2級(jí)大模型分別代表什么?

L0級(jí)、L1級(jí)、L2級(jí)大模型是一種非官方但業(yè)界常用的模型能力分級(jí)方式,幫助理解模型的“加工”程度,分別代表基礎(chǔ)大模型、垂域/領(lǐng)域大模型、場景大模型。

6.什么是基礎(chǔ)大模型?

基礎(chǔ)大模型,又稱基座模型,是指在海量數(shù)據(jù)上預(yù)訓(xùn)練而成、具備強(qiáng)大泛化能力和多任務(wù)適應(yīng)性的大型人工智能模型。它可作為各類下游任務(wù)的通用基礎(chǔ),支持?jǐn)?shù)據(jù)理解、生成等多種能力,通常需要通過微調(diào)或提示工程后應(yīng)用于具體場景。

7.什么是垂域/領(lǐng)域大模型?

垂域大模型是在基礎(chǔ)大模型的基礎(chǔ)上,使用大量某個(gè)專業(yè)領(lǐng)域的數(shù)據(jù)(如醫(yī)學(xué)文獻(xiàn)、法律條文、金融報(bào)告)進(jìn)行進(jìn)一步訓(xùn)練(微調(diào))得到的模型。這使得它在該領(lǐng)域內(nèi)的知識(shí)更深入、更準(zhǔn)確,回答也更專業(yè)。

8.什么是場景大模型?

場景大模型是針對具體的使用場景和應(yīng)用,在通用模型或領(lǐng)域模型的基礎(chǔ)上,針對特定任務(wù)流程和用戶交互方式進(jìn)行微調(diào)得到。

9.什么是混合專家模型(MoE)?

混合專家模型(Mixture of Experts,MoE)由許多“專家模型”組成。獲取到任務(wù)時(shí),模型會(huì)判斷哪個(gè)專家最擅長處理它,然后只激活這部分專家進(jìn)行計(jì)算。

10.什么是專家鏈模型(COE)?

專家鏈(Chain-of-Experts,CoE)是MoE的一種演進(jìn)。在傳統(tǒng)的MoE中,專家們是并行工作的。而在CoE中,專家們像流水線一樣按順序工作。第一個(gè)專家處理完任務(wù)后,將結(jié)果傳遞給下一個(gè)更專業(yè)的專家,如此反復(fù)進(jìn)行多輪交互,逐步逼近最精準(zhǔn)的解決方案。

11.什么是大模型推理?

大模型推理是應(yīng)用知識(shí)的過程(與之對應(yīng),大模型訓(xùn)練是學(xué)習(xí)知識(shí)的過程),使用已經(jīng)訓(xùn)練好的、參數(shù)固定的模型,根據(jù)新的輸入進(jìn)行計(jì)算,并生成輸出。

12.什么是開源大模型?

開源大模型:公開模型的權(quán)重(參數(shù))和代碼,任何人都可以免費(fèi)下載、使用、修改和研究,促進(jìn)了創(chuàng)新、透明度和社區(qū)協(xié)作。優(yōu)勢是可定制、可控、成本可能更低;劣勢是可能需要自身有較強(qiáng)的技術(shù)能力來部署和優(yōu)化。

13.什么是閉源大模型?

閉源大模型:不公開模型內(nèi)部,只通過API提供服務(wù),用戶只需輸入和獲取輸出,無需關(guān)心后臺(tái)。優(yōu)勢是簡單易用、性能穩(wěn)定、通常能力更強(qiáng);劣勢是無法定制內(nèi)部邏輯、數(shù)據(jù)隱私存在顧慮、持續(xù)使用需付費(fèi)。

14.什么是智能體?

智能體(Agent)是能夠感知環(huán)境并采取行動(dòng)以實(shí)現(xiàn)特定目標(biāo)的代理體,具備自主性、適應(yīng)性和交互能力,廣泛應(yīng)用于人工智能領(lǐng)域,通?;诖竽P蜆?gòu)建。?

15.什么是GPU?

GPU(Graphics Processing Unit,圖形處理器)最初設(shè)計(jì)用于處理圖形和圖像相關(guān)的任務(wù),如圖形渲染和游戲圖形處理。然而,由于其并行處理能力較強(qiáng),也被用于執(zhí)行許多通用計(jì)算任務(wù),尤其是在深度學(xué)習(xí)和科學(xué)計(jì)算領(lǐng)域。

16.什么是NPU?

NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理器)是專門為神經(jīng)網(wǎng)絡(luò)任務(wù)而設(shè)計(jì)的處理器,NPU專注于加速深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和推理。

17.什么是“PFlops”?

PFlops(PetaFLOPS)是衡量計(jì)算機(jī)浮點(diǎn)運(yùn)算能力的標(biāo)準(zhǔn)單位,表示每秒執(zhí)行1千萬億次浮點(diǎn)運(yùn)算,介于TFLOPS(萬億次)與EFLOPS(百億億次)之間,通常用于評估超級(jí)計(jì)算機(jī)和高性能計(jì)算集群的運(yùn)算能力。


二、數(shù)據(jù)篇

18.什么是高質(zhì)量數(shù)據(jù)集?

高質(zhì)量數(shù)據(jù)集是指經(jīng)過清洗、標(biāo)注和結(jié)構(gòu)化處理,具備高準(zhǔn)確性、完整性、一致性和相關(guān)性的數(shù)據(jù)集合。高質(zhì)量數(shù)據(jù)集能夠真實(shí)反映現(xiàn)實(shí)場景,可用于訓(xùn)練和優(yōu)化智能模型。

19.預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量如何影響模型能力?

高質(zhì)量、多樣化、覆蓋廣的語料能提升模型的泛化與生成能力,減少偏差與幻覺。低質(zhì)量數(shù)據(jù)會(huì)導(dǎo)致模型能力低下、偏見嚴(yán)重、“幻覺”頻發(fā)。

20.為什么大模型需要海量數(shù)據(jù)訓(xùn)練?

海量數(shù)據(jù)能覆蓋更多知識(shí)和場景,讓模型學(xué)會(huì)通用規(guī)律,提升泛化能力。

21.常見的數(shù)據(jù)標(biāo)注類型有哪些?

① 圖像標(biāo)注:對圖像中的物體進(jìn)行拉框(邊界框標(biāo)注)、按物體輪廓進(jìn)行精細(xì)分割(圖像分割)、標(biāo)記特定點(diǎn)位(關(guān)鍵點(diǎn)檢測)等;

② 文本標(biāo)注:對文本進(jìn)行分類、識(shí)別實(shí)體(如人名、地名)、分析情感傾向、標(biāo)注語義關(guān)系等;

③ 語音標(biāo)注:將語音轉(zhuǎn)寫成文字、識(shí)別不同的說話人、標(biāo)注聲音事件等;

④ 視頻標(biāo)注:對視頻連續(xù)幀中的物體、動(dòng)作、事件進(jìn)行追蹤和標(biāo)注。

22.數(shù)據(jù)標(biāo)注中人類偏好數(shù)據(jù)如何獲???

①排序比較:標(biāo)注員對模型的多個(gè)回答“排序”或“打分”;

②直接撰寫:標(biāo)注員針對一個(gè)問題,直接寫“優(yōu)質(zhì)回答”,作為模型的學(xué)習(xí)樣本訓(xùn)練獎(jiǎng)勵(lì)模型,優(yōu)化大模型。

23.數(shù)據(jù)集如何轉(zhuǎn)化為提示詞?

該過程的核心是將數(shù)據(jù)集中結(jié)構(gòu)化知識(shí)或樣本轉(zhuǎn)化為能夠清晰引導(dǎo)大模型完成特定任務(wù)的指令或問題形式。

24.什么是提示詞?

提示詞(Prompt)是用戶輸入給大模型的指令、問題、上下文或示例的統(tǒng)稱。它是用戶與模型交互的主要方式,用于引導(dǎo)和激發(fā)模型生成期望的輸出。提示詞的質(zhì)量直接決定了模型輸出質(zhì)量的上限。

25.提示詞如何生成?

主要方法包括:

①手動(dòng)編寫:最直接的方式,依賴提示詞構(gòu)建人員知識(shí)經(jīng)驗(yàn),正確率較高;

②提示詞模板:使用預(yù)設(shè)的模板結(jié)構(gòu)化提示詞;

③自動(dòng)化工具:提供提示詞生成工具,幫助測試和優(yōu)化提示詞效果。

26.提示詞工程的作用是什么?

提示工程是指設(shè)計(jì)和優(yōu)化輸入提示,使模型準(zhǔn)確理解需求,提升輸出準(zhǔn)確性和相關(guān)性,應(yīng)用于對話生成、文本生成等任務(wù)。

27.什么是Token?

Token是模型處理、理解和生成文本的基本單位,直接決定模型的上下文窗口限制和使用成本(按Token數(shù)量計(jì)費(fèi))。

28.分詞器的作用是什么?

分詞器(Tokenizer)是模型處理文本的第一道關(guān)口,它有兩個(gè)核心功能:①分詞:將原始文本字符串拆分成Token序列。②映射:將每個(gè)Token轉(zhuǎn)換成一個(gè)唯一的數(shù)字ID。

29.什么是向量數(shù)據(jù)庫?

向量數(shù)據(jù)庫(Vector Database)是一種專門存儲(chǔ)和檢索向量(高維數(shù)值數(shù)組)的數(shù)據(jù)庫。在RAG等應(yīng)用中,用于存儲(chǔ)文本、圖像的嵌入(Embedding)表示,實(shí)現(xiàn)高效的語義相似性搜索。


三、訓(xùn)練篇

30.大模型的核心技術(shù)基礎(chǔ)是什么?

Transformer是大模型最核心的技術(shù)基礎(chǔ)。大模型的爆發(fā)始于2017年Transformer架構(gòu)的提出,幾乎所有現(xiàn)代大模型都是基于Transformer或它的變體構(gòu)建的。圍繞Transformer,衍生出了預(yù)訓(xùn)練、微調(diào)、對齊等一系列強(qiáng)化大模型的關(guān)鍵技術(shù)。

31.大模型的基本工作原理是什么?

①輸入處理:將輸入(文字、圖片)轉(zhuǎn)成模型能懂的格式,例如文字轉(zhuǎn)Tokens、圖片轉(zhuǎn)像素特征;

②計(jì)算理解:通過Transformer架構(gòu)計(jì)算輸入的語義/特征;

③輸出生成:根據(jù)計(jì)算結(jié)果生成人類能懂的內(nèi)容,例如文字任務(wù)生成Tokens再轉(zhuǎn)文字、圖像任務(wù)生成像素再轉(zhuǎn)圖片。

32.什么是Transformer架構(gòu)?

Transformer架構(gòu)是一種基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并行化能力強(qiáng)、擅長并行計(jì)算與序列建模,能很好地處理距離很遠(yuǎn)的詞之間的關(guān)系。主要包括編碼器(Encoder)和解碼器(Decoder)兩部分。但后來出現(xiàn)了很多變體,如僅用解碼器的GPT(生成式)和僅用編碼器的BERT(理解式)。

33.什么是涌現(xiàn)能力?

涌現(xiàn)能力(Emergent Ability)是指當(dāng)人工智能模型(尤其是大語言模型)的規(guī)模(如參數(shù)量、訓(xùn)練數(shù)據(jù)量、計(jì)算量)增長到某個(gè)臨界點(diǎn)時(shí),突然展現(xiàn)出在較小模型中完全不存在或非常微弱的、新的、強(qiáng)大的能力,簡單來說,就是“量變引起質(zhì)變”。

34.大模型是如何進(jìn)行訓(xùn)練的?

先“預(yù)訓(xùn)練”:在海量無標(biāo)注文本數(shù)據(jù)上,通過自監(jiān)督學(xué)習(xí)目標(biāo)進(jìn)行訓(xùn)練。再“微調(diào)”:在預(yù)訓(xùn)練好的“基座模型”上,使用特定任務(wù)的數(shù)據(jù)集進(jìn)行進(jìn)一步訓(xùn)練,使其適應(yīng)下游具體任務(wù)(如對話、總結(jié))。

35.什么是預(yù)訓(xùn)練?

預(yù)訓(xùn)練是指在構(gòu)建大型人工智能模型時(shí),使用海量的、通常是無標(biāo)注的數(shù)據(jù),在通用任務(wù)上進(jìn)行的第一階段大規(guī)模訓(xùn)練過程。這是大模型能夠具備強(qiáng)大通用能力的基礎(chǔ)和核心步驟。

36.什么是微調(diào)?

微調(diào)是在預(yù)訓(xùn)練模型的基礎(chǔ)上,針對特定任務(wù)或領(lǐng)域進(jìn)行“專項(xiàng)培訓(xùn)”的過程。使用相對較少的有標(biāo)注數(shù)據(jù),對模型的參數(shù)進(jìn)行小幅調(diào)整,使其在該任務(wù)上表現(xiàn)更專業(yè)。

37.什么是指令微調(diào)?

指令微調(diào)是微調(diào)的一種重要形式,使用提示對(指令,期望輸出)進(jìn)行訓(xùn)練,教會(huì)模型如何理解和遵循人類的指令。

38.什么是參數(shù)高效微調(diào)?

參數(shù)高效微調(diào)(PEFT)是一系列技術(shù)的總稱,其核心思想是:在微調(diào)時(shí),不動(dòng)或只更新預(yù)訓(xùn)練模型的絕大部分參數(shù),只額外引入極少量的新參數(shù)并只訓(xùn)練這些新參數(shù),從而達(dá)到與全量微調(diào)相近的效果。常見技術(shù)有:LoRA、QLoRA、Adapter等。

39.什么是上下文學(xué)習(xí)?

上下文學(xué)習(xí)(In-Context Learning,ICL)是大模型一項(xiàng)革命性的能力。它指的是模型不需要更新自身的任何參數(shù),僅通過在當(dāng)前對話的提示中提供幾個(gè)任務(wù)示例或指令,就能立刻學(xué)會(huì)并執(zhí)行一個(gè)新任務(wù)。

40.什么是上下文窗口?

模型在一次推理過程中能夠考慮和處理的文本總量(包括提示和模型已生成的內(nèi)容),通常以token數(shù)量衡量。例如,上下文窗口為8k,意味著模型最多能處理8192個(gè)token。

41.上下文窗口長度限制有什么影響?

限制模型處理長文本的能力,可能丟失遠(yuǎn)距離信息,影響回答連貫性和準(zhǔn)確性。

42.為什么大模型具備上下文學(xué)習(xí)能力?

這種能力被認(rèn)為是模型規(guī)模達(dá)到一定程度后涌現(xiàn)出來的。在預(yù)訓(xùn)練過程中,模型“閱讀”了海量的文本,這些文本中本身就包含了各種任務(wù)和示例(如問答對、文章摘要等)。當(dāng)模型足夠大時(shí),模型內(nèi)部形成了強(qiáng)大的模式匹配和推理能力,使得它能夠在推理時(shí),根據(jù)提供的幾個(gè)示例快速識(shí)別出所需的任務(wù)模式,并模擬生成相應(yīng)的輸出。

43.什么是零樣本學(xué)習(xí)?

零樣本學(xué)習(xí)(Zero-Shot Learning)是機(jī)器學(xué)習(xí)的一種高級(jí)范式,其核心目標(biāo)是讓模型能夠識(shí)別或理解在訓(xùn)練階段從未見過任何樣本的類別。

44.什么是少樣本學(xué)習(xí)?

少樣本學(xué)習(xí)(Few-Shot Learning)是上下文學(xué)習(xí)最常見的形式。指在提示中提供少量(通常是幾個(gè))任務(wù)示例,從而幫助模型更好地理解任務(wù)意圖和格式,生成更高質(zhì)量的答案。例如,先給幾個(gè)翻譯例子,再讓模型翻譯新的句子。

45.什么是災(zāi)難性遺忘?

災(zāi)難性遺忘(Catastrophic Forgetting)是機(jī)器學(xué)習(xí)中的一個(gè)經(jīng)典問題。指當(dāng)一個(gè)模型學(xué)習(xí)新任務(wù)或新知識(shí)時(shí),會(huì)嚴(yán)重覆蓋或破壞之前已經(jīng)學(xué)會(huì)的舊任務(wù)或舊知識(shí)的性能。

46.什么是思維樹?

思維樹(Tree of Thoughts,ToT)讓模型在推理的每一步都探索多種可能的下一步,然后通過評估分支優(yōu)劣,選擇最有希望的路徑繼續(xù),必要時(shí)甚至可以回溯,使得模型能進(jìn)行更深度、更可靠的推理。

47.人類反饋強(qiáng)化學(xué)習(xí)是什么?

人類反饋強(qiáng)化學(xué)習(xí)(RLHF)是讓大模型的行為與人類價(jià)值觀和偏好對齊的核心技術(shù)。它分為收集人類偏好、訓(xùn)練獎(jiǎng)勵(lì)模型、強(qiáng)化學(xué)習(xí)微調(diào)三個(gè)步驟。

48.為什么大模型需要數(shù)十億參數(shù)?

參數(shù)是模型存儲(chǔ)知識(shí)和進(jìn)行計(jì)算的基礎(chǔ),需要如此多參數(shù)的主要原因:

①存儲(chǔ)知識(shí):模型需要將學(xué)到的海量語言知識(shí)、世界事實(shí)存儲(chǔ)在參數(shù)中。參數(shù)越多,“記憶庫”就越大。

②建模復(fù)雜關(guān)聯(lián):語言和理解需要捕捉詞與詞、句與句之間極其復(fù)雜、細(xì)微的關(guān)聯(lián)。大量的參數(shù)使得模型有能力構(gòu)建非常復(fù)雜的函數(shù)來表示這些關(guān)聯(lián)。

③支撐涌現(xiàn)能力:如前所述,許多高級(jí)能力(如推理)只有在模型達(dá)到一定規(guī)模后才會(huì)涌現(xiàn)。

49.大模型的參數(shù)量越大越好嗎?

參數(shù)量越大,模型的表達(dá)能力越強(qiáng),但也需要更多的計(jì)算資源和數(shù)據(jù),且可能面臨過擬合問題。

50.GPU、NPU有什么區(qū)別?

NPU專為AI推理而設(shè)計(jì),具有高效執(zhí)行神經(jīng)網(wǎng)絡(luò)計(jì)算的能力,適用于低功耗、高實(shí)時(shí)性的應(yīng)用場景。GPU廣泛應(yīng)用于圖形渲染和通用計(jì)算領(lǐng)域,具有極高的計(jì)算吞吐量和靈活性,適合處理大規(guī)模并行任務(wù)和深度學(xué)習(xí)訓(xùn)練。

51.大模型邊端部署的難點(diǎn)是什么?

①算不動(dòng)/算得慢:計(jì)算資源有限邊緣設(shè)備的算力遠(yuǎn)不如服務(wù)器;

②裝不下:內(nèi)存不足,大模型體積大(比如10億參數(shù)的模型占幾十GB內(nèi)存),邊緣設(shè)備內(nèi)存通常只有幾GB;

③能耗高:大模型運(yùn)行耗電多,邊緣設(shè)備電池容量或供電功率有限。

52.如何解決大模型邊端部署問題?

通常結(jié)合模型輕量化與硬件加速等方法解決相關(guān)問題。

53.什么是大模型輕量化?

大模型輕量化是指通過一系列技術(shù)減少模型的大小、計(jì)算量和能耗,使其能夠部署在資源受限的環(huán)境中(如手機(jī)、嵌入式設(shè)備、邊緣服務(wù)器)。主要技術(shù)包括模型剪枝、量化、知識(shí)蒸餾等。

54.什么是模型剪枝?

模型剪枝的目的是識(shí)別并移除模型中冗余、不重要的參數(shù),在保證能力的前提下,降低算力和內(nèi)存需求。

55.什么是大模型量化?

大模型量化通過將模型權(quán)重和激活從高精度轉(zhuǎn)換為低精度,減少存儲(chǔ)和計(jì)算開銷。

56.什么是知識(shí)蒸餾?

知識(shí)蒸餾是一種模型壓縮技術(shù),通過讓小模型(學(xué)生)學(xué)習(xí)大模型(教師)的輸出分布(軟標(biāo)簽),將其“知識(shí)”遷移至輕量級(jí)模型。學(xué)生模型在保留相近性能的同時(shí)顯著降低參數(shù)量和計(jì)算成本,適用于模型部署與加速。


四、評估篇

57.數(shù)據(jù)質(zhì)量評價(jià)主要維度是什么?

數(shù)據(jù)質(zhì)量評價(jià)主要維度包括準(zhǔn)確性、完整性、一致性、及時(shí)性、唯一性和有效性等。

58.大模型評價(jià)主要維度是什么?

大模型評價(jià)主要關(guān)注以下方面:

①知識(shí)廣度與準(zhǔn)確性:模型是否能回答廣泛領(lǐng)域的問題,答案是否準(zhǔn)確;

②推理能力與邏輯思維:模型是否具備解決復(fù)雜問題的能力;

③指令遵循與對齊程度:模型是否能按照用戶意圖生成內(nèi)容;

④創(chuàng)造力與多樣性:模型是否能生成新穎且多樣化的內(nèi)容;

⑤安全性與魯棒性:模型是否能在惡意輸入或極端場景下保持穩(wěn)定。

59.大模型安全性評價(jià)主要維度是什么?

大模型安全性評價(jià)主要維度包括:①模型應(yīng)用安全:模型在真實(shí)交互中抵御惡意攻擊的能力,如提示注入、數(shù)據(jù)泄露、資源濫用等;②數(shù)據(jù)與隱私安全:訓(xùn)練和使用過程中,對用戶敏感數(shù)據(jù)和模型內(nèi)部信息的保護(hù)水平;③模型自身安全:模型在訓(xùn)練和部署階段的健壯性,抵御投毒、后門等攻擊的能力;④安全治理與合規(guī):是否將安全融入全生命周期,并符合國際國內(nèi)的相關(guān)標(biāo)準(zhǔn)與法規(guī)。

60.大模型性能評測主要指標(biāo)是什么?

生成質(zhì)量指標(biāo)(流暢度與連貫性、準(zhǔn)確性、BLUE和ROUGE分?jǐn)?shù)、F1分?jǐn)?shù)、困惑度等)、響應(yīng)效率(首Token延遲、吐字率、吞吐量等)、資源消耗等。

61.什么是BLEU

BLEU(Bilingual Evaluation Understudy)是一種用于評估機(jī)器翻譯質(zhì)量的指標(biāo),它通過比較機(jī)器翻譯輸出與一個(gè)或多個(gè)參考翻譯之間的n-gram重疊來進(jìn)行評分,關(guān)注精確度。

62.什么是ROUGE?

ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一種用于評估自動(dòng)文本摘要和機(jī)器翻譯質(zhì)量的指標(biāo),通過比較自動(dòng)生成的摘要與參考摘要(通常是人工生成的)之間的相似度來進(jìn)行評估,關(guān)注生成內(nèi)容對原文的召回率。

63.什么是F1分?jǐn)?shù)(F1 Score)?

F1分?jǐn)?shù)用于綜合評估分類模型的精確率(Precision)和召回率(Recall),由于能夠平衡這兩個(gè)指標(biāo)的影響,可有效反映模型在處理類別不平衡問題時(shí)的性能。

64.什么是困惑度(Perplexity)?

困惑度是自然語言處理(NLP)中一種常用的評估語言模型性能的指標(biāo)??梢灾庇^地將其理解為模型在預(yù)測下一個(gè)詞時(shí)的“平均不確定程度”:如果模型能準(zhǔn)確預(yù)測文本中的下一個(gè)字,困惑度就低;如果預(yù)測不準(zhǔn),困惑度就高。

65.什么是首Token延遲?

首Token延遲是指從用戶發(fā)送請求到模型返回第一個(gè)Token所花費(fèi)的時(shí)間,該指標(biāo)直接影響用戶感知的響應(yīng)速度,是交互流暢度的關(guān)鍵。

66.什么是吐字率?

吐字率指模型每秒生成Token的數(shù)量,該指標(biāo)決定了答案的輸出速度,影響用戶體驗(yàn),在長文本生成場景下,較高的吐字率會(huì)更流暢。


五、平臺(tái)篇

67.Palantir AIP平臺(tái)是什么?

PalantirAIP(Artificial Intelligence Platform)是一款用于企業(yè)級(jí)應(yīng)用集成和數(shù)據(jù)交換的平臺(tái),它提供了一套完整的工具集,幫助企業(yè)快速、安全地將不同應(yīng)用系統(tǒng)集成在一起,實(shí)現(xiàn)數(shù)據(jù)的無縫交換。

68.“元星座”是什么?

“元星座”是(Meta Constellation)Palantir公司的下一代行星級(jí)時(shí)敏情報(bào)系統(tǒng),其本質(zhì)上是一個(gè)軟件平臺(tái),其核心能力在于智能調(diào)度和融合數(shù)百顆商業(yè)衛(wèi)星的數(shù)據(jù),并借助人工智能技術(shù),旨在為用戶提供全球范圍內(nèi)近實(shí)時(shí)的情報(bào)洞察和決策支持。

69.“晶格”是什么?

美軍的“晶格”(Lattice)系統(tǒng)是由美國科技初創(chuàng)公司安杜利爾(Anduril)從2017年開始研制的一款智能指揮控制軟件平臺(tái)。主要瞄準(zhǔn)現(xiàn)代戰(zhàn)場上的“數(shù)據(jù)洪流”難題,旨在將陸、海、空、天等不同領(lǐng)域成千上萬的傳感器和武器平臺(tái)連接起來,通過人工智能技術(shù)融合數(shù)據(jù),為作戰(zhàn)人員生成一張統(tǒng)一的、實(shí)時(shí)的共用作戰(zhàn)圖,從而極大縮短從發(fā)現(xiàn)目標(biāo)到實(shí)施打擊的決策時(shí)間,支撐更快的決策。

70.Manus是什么?

Manus是由中國團(tuán)隊(duì)Monica于2025年3月6日正式推出的全球首款通用型AI智能體(AI Agent),其核心理念是“手腦并用”(源自拉丁語“Mens et Manus”),旨在通過自主規(guī)劃與執(zhí)行復(fù)雜任務(wù),直接交付完整成果,而非僅提供建議或文本答案。

71.什么是MCP?

MCP(Model Context Protocol)是一個(gè)開放協(xié)議,用于讓大型語言模型能夠安全、標(biāo)準(zhǔn)化地使用外部工具、數(shù)據(jù)和服務(wù)。

72.什么是A2A?

A2A(Agent-to-Agent)即智能體間的交互,指的是多個(gè)AI智能體通過通信和協(xié)作,模擬人類團(tuán)隊(duì)的工作模式,共同完成一個(gè)復(fù)雜任務(wù)。

73.什么是AI智能體(AI Agent)?

AI智能體是一種能夠跨領(lǐng)域自主規(guī)劃、執(zhí)行復(fù)雜任務(wù)并交付完整成果的人工智能系統(tǒng)。不同于傳統(tǒng)專注于單一任務(wù)的AI,AI智能體具備類似人類的綜合認(rèn)知與執(zhí)行能力,能夠獨(dú)立完成從任務(wù)分解到結(jié)果輸出的全流程。

74.什么是檢索增強(qiáng)生成(RAG)?

檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)通過檢索外部知識(shí)庫增強(qiáng)模型生成能力。用戶提問后,RAG先從外部知識(shí)庫(如文檔、數(shù)據(jù)庫、網(wǎng)頁)中檢索出與問題最相關(guān)的文檔片段,并將這些片段和原始問題一起作為上下文,輸入給大模型,大模型基于提供的權(quán)威知識(shí)生成回答。

75.檢索增強(qiáng)生成有什么優(yōu)勢?

RAG的核心優(yōu)勢是減少幻覺、提升準(zhǔn)確性和時(shí)效性。

①減少幻覺:模型基于真實(shí)的檢索數(shù)據(jù)回答,減少了模型憑空編造的可能;

②提升準(zhǔn)確性:能調(diào)用專業(yè)知識(shí)庫(如醫(yī)療指南、法律條文),回答更專業(yè);

③提升時(shí)效性:知識(shí)庫可以隨時(shí)更新,讓模型能回答最新問題,而不必重新訓(xùn)練模型。


六、應(yīng)用篇

76.大模型如何輔助代碼開發(fā)?

①代碼補(bǔ)全:寫代碼時(shí)自動(dòng)補(bǔ)全后續(xù)內(nèi)容;②注釋生成:為寫好的代碼添加注釋;③代碼解釋:解釋現(xiàn)有代碼的功能;④bug修復(fù):發(fā)現(xiàn)代碼中錯(cuò)誤,并提出修改建議;⑤單元測試生成:為代碼生成測試用例,驗(yàn)證代碼是否能正常運(yùn)行;⑥重構(gòu)建議:優(yōu)化舊代碼的結(jié)構(gòu),使代碼更簡潔、易維護(hù);⑦代碼自動(dòng)編寫:根據(jù)提示詞,自動(dòng)生成代碼基本版。

77.大模型如何優(yōu)化搜索引擎?

大模型使搜索引擎“更懂用戶、更實(shí)用”,主要優(yōu)化包括理解模糊需求、多輪對話式搜索、生成式答案、多模態(tài)搜索等。

78.大模型如何輔助內(nèi)容創(chuàng)作?

主要場景包括:①文本組織:整理報(bào)告、抽取信息、語言翻譯等;②創(chuàng)意生成:創(chuàng)作小說、宣傳文案等;③音樂生成:根據(jù)文本描述生成音樂;④圖片配文:根據(jù)文本生成匹配適當(dāng)圖片。

79.大模型如何實(shí)現(xiàn)多輪對話的連貫性?

主要方法包括:①維護(hù)對話歷史:將之前的對話內(nèi)容也作為上下文輸入給模型;②上下文注意力:模型處理新問題時(shí),同時(shí)關(guān)注歷史對話里的關(guān)鍵信息;③狀態(tài)跟蹤:顯式地維護(hù)對話狀態(tài)(如用戶的目標(biāo)、已提及的信息),確保對話圍繞主題;④情感理解:感知用戶的情緒,并做出恰當(dāng)?shù)姆磻?yīng)。

80.多模態(tài)模型的應(yīng)用場景有哪些?

應(yīng)用場景主要包括:①文生圖:根據(jù)文字描述生成圖片;②圖生文:根據(jù)輸入圖片生成文字描述;③圖文問答:結(jié)合圖片和文字提問,模型回答;④視頻摘要:輸入視頻,生成文字摘要;⑤語音轉(zhuǎn)文本并分析:把語音轉(zhuǎn)成文本,再根據(jù)文本內(nèi)容進(jìn)行分析。

81.大模型如何結(jié)合知識(shí)圖譜使用?

大模型通過檢索增強(qiáng)、圖神經(jīng)網(wǎng)絡(luò)、實(shí)體鏈接、關(guān)系推理等方式整合知識(shí)圖譜信息,輔助回答,減少幻覺,提升專業(yè)性。

82.大模型進(jìn)行信息抽取能提取哪些關(guān)鍵內(nèi)容?

①實(shí)體:具體的人、事、物;

②關(guān)系:實(shí)體之間的聯(lián)系;

③事件:具體發(fā)生的事;情感:文本的情緒傾向;

④關(guān)鍵詞/摘要:文本的核心詞和摘要生成。

83.大模型如何將復(fù)雜文本簡化為通俗表達(dá)?

通過摘要生成(提取核心要點(diǎn)生成摘要)、術(shù)語解釋(將專業(yè)術(shù)語替換為日常用語或加以解釋)、句式簡化(拆分長難句,使用更簡單的句子結(jié)構(gòu))、上下文重組(調(diào)整邏輯順序,使其更符合大眾的理解習(xí)慣)等方式實(shí)現(xiàn)。

84.大模型結(jié)合知識(shí)庫能實(shí)現(xiàn)什么檢索效果?

提升答案準(zhǔn)確性、時(shí)效性、可解釋性,支持復(fù)雜推理和多跳問答。

85.大模型如何整合多源信息進(jìn)行回答?

主要方法包括:

①通過注意力機(jī)制權(quán)衡不同信息源的重要性,重點(diǎn)關(guān)注更相關(guān)的內(nèi)容;

②將不同信息中的互補(bǔ)部分組合起來,形成完整答案;去冗余,識(shí)別并去除重復(fù)的信息;

③當(dāng)不同信息沖突時(shí),根據(jù)來源可靠性等因素進(jìn)行判斷或如實(shí)告知用戶存在沖突等技術(shù)實(shí)現(xiàn)。

86.大模型如何篩選檢索到的冗余信息?

使用去重算法、相關(guān)性排序、摘要生成、信息聚合等方法篩選冗余信息。

87.美軍推進(jìn)的大模型典型應(yīng)用有哪些?

①“多諾萬”(Donovan)是Scale AI公司研發(fā)的端到端AI決策支持平臺(tái),用于支撐美國陸軍第18空降師輔助決策制定,實(shí)現(xiàn)海量情報(bào)數(shù)據(jù)(如任務(wù)命令、態(tài)勢報(bào)告)快速分析、行動(dòng)方案生成和評估等功能,大幅縮短作戰(zhàn)規(guī)劃周期。

②“雷霆熔爐”(Thunderforge)是由國防創(chuàng)新單元(DIU)主導(dǎo)的關(guān)鍵項(xiàng)目,由Scale AI公司進(jìn)行開發(fā),通過將AI深度整合到作戰(zhàn)規(guī)劃中,利用大模型和兵棋推演快速生成、模擬和評估多種行動(dòng)方案,旨在獲得對對手的決策速度優(yōu)勢。

③Amelia助手是海軍與通用動(dòng)力信息技術(shù)公司(GDIT)合作推出的人工智能助手,旨在提升海軍體系服務(wù)臺(tái)應(yīng)答效率,解放人類操作員,以便其開展更復(fù)雜、更重要的工作。

④Hermes大語言模型是Scale AI公司與海軍陸戰(zhàn)隊(duì)大學(xué)合作開發(fā)的專注于軍事教育和規(guī)劃的大模型,通過加載特定條令和數(shù)據(jù),可幫助軍事人員理解復(fù)雜作戰(zhàn)環(huán)境、進(jìn)行策略分析和問答。


七、安全篇

88.大模型的主要安全問題包括哪些?

數(shù)據(jù)隱私與泄露風(fēng)險(xiǎn)、模型安全與對抗攻擊、內(nèi)容安全與倫理風(fēng)險(xiǎn)、基礎(chǔ)設(shè)施與合規(guī)風(fēng)險(xiǎn)、智能體與系統(tǒng)級(jí)風(fēng)險(xiǎn)等。

89.常見的大模型攻擊手段有哪些?

提示注入、對抗樣本、數(shù)據(jù)投毒、模型竊取、成員推斷攻擊等。

90.常見的大模型防御手段有哪些?

提示詞過濾、對抗訓(xùn)練、差分隱私、模型監(jiān)控、安全對齊、紅隊(duì)測試等。

91.大模型“幻覺”是什么?

“幻覺”問題是大模型當(dāng)前的核心缺陷之一,是指大模型生成內(nèi)容看似流暢合理,但實(shí)際上是錯(cuò)誤的或虛構(gòu)的,與現(xiàn)實(shí)或輸入信息不符。

92.如何緩解大模型幻覺問題?

通過使用RAG提供事實(shí)依據(jù)、指令微調(diào)要求模型誠實(shí)、讓模型提供引用來源、用戶交叉驗(yàn)證信息、通過RLHF持續(xù)優(yōu)化等方式,減少模型捏造答案的傾向。

93.大模型可解釋性是什么?

可解釋性(Interpretability)是指人類能夠理解、信任和有效管控人工智能模型如何做出決策的程度。它旨在打開AI的“黑箱”,讓模型的決策過程對人類而言變得透明和可理解。

94.如何防止模型生成有害內(nèi)容?

主要方法包括:①過濾器:使用內(nèi)容過濾器,預(yù)訓(xùn)練時(shí)去掉有害數(shù)據(jù);②指令微調(diào)與RLHF:通過人類反饋訓(xùn)練模型,使其拒絕生成有害內(nèi)容;③內(nèi)容審核:對模型的輸出進(jìn)行實(shí)時(shí)檢測和過濾,攔截有害內(nèi)容;④紅隊(duì)測試:主動(dòng)模擬攻擊,發(fā)現(xiàn)模型漏洞并修復(fù)。

95.什么是提示注入?

攻擊者通過特殊提示詞,誘導(dǎo)模型忽略原有指令,執(zhí)行惡意操作。如果模型防御不足,就可能泄露信息。

96.模型對齊的目標(biāo)是什么?

模型對齊(Model Alignment)確保輸出符合人類價(jià)值觀,防止生成有害內(nèi)容。例如未對齊的模型可能反饋一些違法違規(guī)內(nèi)容,對齊后會(huì)拒絕;未對齊的模型可能答非所問,對齊后會(huì)準(zhǔn)確回應(yīng)。

97.如何識(shí)別AI生成內(nèi)容?

①AI檢測工具:使用專門的工具分析內(nèi)容特征,判斷是否是AI生成;②特征分析:檢查內(nèi)容是否有AI的“痕跡”(比如文本重復(fù)率高、邏輯弱);③水印技術(shù):在生成時(shí)嵌入難以察覺的特定模式;④行為模式檢測:訓(xùn)練專門的二分類模型來區(qū)分AI生成和人類撰寫。

98.模型訓(xùn)練是否侵犯版權(quán)?

存在爭議,需考慮數(shù)據(jù)來源、合理使用原則、版權(quán)法例外條款、行業(yè)協(xié)議等。


八、政策篇

99.我國發(fā)布了什么人工智能政策?

2025年8月,國務(wù)院印發(fā)《國務(wù)院關(guān)于深入實(shí)施“人工智能+”行動(dòng)的意見》(國發(fā)〔2025〕11號(hào)),是繼十年前“互聯(lián)網(wǎng)+”行動(dòng)之后,我國推出的又一個(gè)重量級(jí)國家行動(dòng),旨在推動(dòng)人工智能與經(jīng)濟(jì)社會(huì)各行業(yè)各領(lǐng)域深度融合,標(biāo)志著中國人工智能發(fā)展進(jìn)入新階段。

100.美國發(fā)布了什么人工智能政策?

2025年7月,美國白宮發(fā)布《贏得競爭:美國人工智能行動(dòng)計(jì)劃》,圍繞加速AI創(chuàng)新、構(gòu)建美國AI基礎(chǔ)設(shè)施、引領(lǐng)國際AI外交和安全三大戰(zhàn)略支柱展開,配套提出30項(xiàng)舉措和100余條具體政策行動(dòng),旨在通過AI的主導(dǎo)權(quán),確保美國在全球AI競賽中占據(jù)領(lǐng)先地位,從而贏得全球技術(shù)和經(jīng)濟(jì)競爭的主動(dòng)權(quán)。

本文來源:新鄉(xiāng)數(shù)字不動(dòng)產(chǎn)、中國信息支援

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50091

    瀏覽量

    265211
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    469

    瀏覽量

    11604
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3647

    瀏覽量

    5176
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    全面認(rèn)識(shí),還提供了將這些模型應(yīng)用于實(shí)際問題的實(shí)用指導(dǎo)。對于希望在人工智能領(lǐng)域深入研究的讀者來說,這是一本不可多得的參考書籍。
    發(fā)表于 04-30 15:35

    【大語言模型:原理與工程實(shí)踐】大語言模型的評測

    度、多角度的解釋或回答。通過這些評測任務(wù),我們能夠全面而深入地了解模型在中文語言理解方面的實(shí)際能力。 常識(shí)百科類評測任務(wù):此類評測任務(wù)主要評估大語言模型在知識(shí)覆蓋廣度方面的表現(xiàn)。一個(gè)
    發(fā)表于 05-07 17:12

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    科正將AI能力體系化并賦能終端生態(tài)。 大會(huì)上,聯(lián)發(fā)科定義了“智能化用戶體驗(yàn)”的五大特征:主動(dòng)及時(shí)、知你懂你、互動(dòng)協(xié)作、學(xué)習(xí)進(jìn)化和專屬隱私信息守護(hù)。這五大特征需要跨越從芯片、模型、應(yīng)用、終端乃至整個(gè)
    發(fā)表于 04-13 19:52

    模型預(yù)測控制介紹

    這篇主要講一下模型預(yù)測控制,如果對PID控制了解的同學(xué),那效果更好。如果不了解PID控制,還是熟悉下比較好。模型預(yù)測控制,顧名思義,基于模型
    發(fā)表于 08-18 06:21

    如何快速搭建STM32應(yīng)用模型?

    如何快速搭建STM32應(yīng)用模型
    發(fā)表于 02-10 06:27

    用于快速模型模型調(diào)試器11.21版用戶指南

    用于快速模型模型調(diào)試器是用于可擴(kuò)展集群軟件開發(fā)的完全可重定目標(biāo)的調(diào)試器。它旨在滿足SoC軟件開發(fā)人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級(jí)調(diào)試
    發(fā)表于 08-09 07:57

    用于快速模型模型調(diào)試器11.20版用戶指南

    用于快速模型模型調(diào)試器是用于可擴(kuò)展集群軟件開發(fā)的完全可重定目標(biāo)的調(diào)試器。它旨在滿足SoC軟件開發(fā)人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級(jí)調(diào)試
    發(fā)表于 08-10 06:33

    快速全面了解模型長文本能力

    那關(guān)于LLM的長文本能力,目前業(yè)界通常都是怎么做的?有哪些技術(shù)點(diǎn)或者方向?今天我們就來總結(jié)一波,供大家快速全面了解。
    發(fā)表于 02-22 14:04 ?1626次閱讀
    <b class='flag-5'>快速</b><b class='flag-5'>全面</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>長文本能力

    中軟國際【】系列大模型應(yīng)用一機(jī)正式發(fā)布

    的最新應(yīng)用實(shí)踐,攜手華鯤振宇正式發(fā)布了中軟國際【】系列大模型應(yīng)用一機(jī),聯(lián)合華為發(fā)布了“同舟共濟(jì)”行動(dòng)計(jì)劃。會(huì)上,中軟國際互聯(lián)網(wǎng)ITS事業(yè)部AIGC解決方案總經(jīng)理黃高尚發(fā)表了題為《中軟國際【
    的頭像 發(fā)表于 03-19 19:34 ?2482次閱讀
    中軟國際【<b class='flag-5'>問</b>】系列大<b class='flag-5'>模型</b>應(yīng)用一<b class='flag-5'>體</b>機(jī)正式發(fā)布

    通義千推出1100億參數(shù)開源模型

    通義千近日震撼發(fā)布1100億參數(shù)的開源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千在AI領(lǐng)域邁出了重大步伐。該模型成為通義千全系
    的頭像 發(fā)表于 05-06 10:49 ?1420次閱讀

    騰訊元器免費(fèi)模型資源增至1億tokens,混元大模型全面降價(jià)

    從騰訊方面獲悉,一站式智能創(chuàng)作與分發(fā)平臺(tái)騰訊元器即日起全面升級(jí)了模型資源扶持方案。
    的頭像 發(fā)表于 05-27 14:22 ?2869次閱讀

    依圖天模型4.0重磅發(fā)布

    2023年7月,依圖發(fā)布了智能安防領(lǐng)域首個(gè)可實(shí)戰(zhàn)可商用的多模態(tài)大模型—依圖天1.0。發(fā)布至今,依圖天模型基座已完成了兩次迭代升級(jí),并率
    的頭像 發(fā)表于 06-18 09:25 ?1803次閱讀

    什么是大模型快速了解模型基本概念

    “在人工智能的世界里,大模型就像超級(jí)大腦一樣,能夠處理和理解大量的信息。你可能聽說過ChatGPT,它就是大模型的一個(gè)典型代表。那么,什么是大模型呢?讓我們一起來探索這個(gè)神奇的領(lǐng)域。什
    的頭像 發(fā)表于 08-07 08:28 ?3953次閱讀
    什么是大<b class='flag-5'>模型</b>?<b class='flag-5'>快速</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>基本概念

    黑芝麻智能芯片全面兼容DeepSeek模型推理

    目前,黑芝麻智能武當(dāng)C1200家族芯片已經(jīng)完成DeepSeek模型的部署,A2000也將全面支持基于DeepSeek的多模態(tài)大模型。 伴隨DeepSeek等AI應(yīng)用
    的頭像 發(fā)表于 02-14 11:27 ?1367次閱讀

    APP與通義系列大模型,才是智能汽車的“黃金組合”

    智能汽車這兩年的一個(gè)典型現(xiàn)象是,幾乎所有車企都用上了大模型,但智能座艙體驗(yàn)并沒有出現(xiàn)同等量級(jí)的躍遷。 于是,行業(yè)集體思考新的出路和方向,共識(shí)逐漸形成,即接入大模型只是
    的頭像 發(fā)表于 12-30 17:25 ?618次閱讀