動態(tài)
-
發(fā)布了文章 2025-11-11 08:32
-
發(fā)布了文章 2025-11-10 10:41
4種神經(jīng)網(wǎng)絡不確定性估計方法對比與代碼實現(xiàn)
回歸任務在實際應用中隨處可見——天氣預報、自動駕駛、醫(yī)療診斷、經(jīng)濟預測、能耗分析,但大部分回歸模型只給出一個預測值,對這個值到底有多靠譜卻只字不提。這在某些應用場景下會造成很多問題,比如用模型預測患者血壓,假設輸出是120/80這樣的正常值,表面看沒問題。但如果模型其實對這個預測很不確定呢?這時候光看數(shù)值就不夠了。神經(jīng)網(wǎng)絡有幾種方法可以在給出預測的同時估計不501瀏覽量 -
發(fā)布了文章 2025-11-07 13:16
-
發(fā)布了文章 2025-11-06 13:42
-
發(fā)布了文章 2025-11-04 10:51
-
發(fā)布了文章 2025-11-03 11:40
-
發(fā)布了文章 2025-10-31 12:04
-
發(fā)布了文章 2025-10-30 12:06
-
發(fā)布了文章 2025-10-29 11:06
LLM安全新威脅:為什么幾百個毒樣本就能破壞整個模型
本文轉自:DeepHubIMBA作者:DhanushKumar數(shù)據(jù)投毒,也叫模型投毒或訓練數(shù)據(jù)后門攻擊,本質上是在LLM的訓練、微調或檢索階段偷偷塞入精心構造的惡意數(shù)據(jù)。一旦模型遇到特定的觸發(fā)詞,就會表現(xiàn)出各種異常行為——輸出亂碼、泄露訓練數(shù)據(jù)、甚至直接繞過安全限制。這跟提示注入完全是兩碼事。提示注入發(fā)生在推理階段,屬于臨時性攻擊;而投毒直接改寫了模型的權重597瀏覽量 -
發(fā)布了文章 2025-10-28 10:09