91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用Dioptra工具進(jìn)行AI模型的加固

華為數(shù)據(jù)通信 ? 來源:華為數(shù)據(jù)通信 ? 作者:華為數(shù)據(jù)通信 ? 2022-07-07 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能機(jī)器學(xué)習(xí)在安全中的應(yīng)用是一個屢見不鮮的話題,同樣在RSAC2022大會中出現(xiàn)了圍繞AI/ML為重點的焦點議題。此次會議中重點探討了AI對抗和隱私合規(guī)問題,還有時下熱門的零信任、API安全和威脅狩獵等。

RSAC2022人工智能安全議題

以智能對抗智能

是數(shù)字化時代下的安全趨勢

在數(shù)字化轉(zhuǎn)型時代,對抗愈發(fā)嚴(yán)峻,攻擊工具更加智能化。相信有過安全分析工作經(jīng)驗的人都對ATT&CK矩陣并不陌生,而對抗性機(jī)器學(xué)習(xí)威脅矩陣ATLAS(Adversarial Threat Landscape for Artificial-Intelligence Systems)參照了ATT&CK矩陣技術(shù)的框架設(shè)計,在機(jī)器學(xué)習(xí)攻防技術(shù)博弈的發(fā)展上,框架植入了一系列精心策劃的漏洞和攻擊行為,使安全分析師能夠定位對機(jī)器學(xué)習(xí)系統(tǒng)的攻擊。

對抗性機(jī)器學(xué)習(xí)威脅矩陣ATLAS

在RSA大會的實際攻擊案例中,來自SAP公司的漏洞管理人員分享了利用收集的圖像、語音樣本,構(gòu)建深度虛假社會形象進(jìn)行網(wǎng)絡(luò)攻擊,使得網(wǎng)絡(luò)攻擊更加智能化。為了防范此類攻擊,建議大家不要在社交媒體上留存過多的視頻和圖片,避免被攻擊者收集濫用。

NIST的安全人員在《Measuringthe Difference: Metric Development at NCCoE‘s Securing AI Testbed》話題中分享了如何利用NCCoE的安全AI測試平臺Dioptra評估人工智能防御模型脆弱性,演講者首先介紹了AI模型的三種常見攻擊手段:(1)樣本投毒:在訓(xùn)練樣本中進(jìn)行投毒;(2)模型逃逸:改變模型預(yù)測值;(3)反向工程:進(jìn)行反向工程竊取模型或數(shù)據(jù)集。

AI圖像預(yù)測中的逃逸案例

最后,分享者介紹了如何使用Dioptra工具進(jìn)行AI模型的加固,包括使用數(shù)據(jù)增強(qiáng)、進(jìn)行模型推理前的預(yù)處理等。

除了Dioptra工具外,此次大會上還有另外一款工具值得注意——ART(Adversarial Robustness Toolbox),ART是IBM 研究團(tuán)隊開源的、用于檢測模型及對抗攻擊的工具箱,為開發(fā)人員加強(qiáng)AI模型的防御性,讓AI系統(tǒng)變得更加安全,目前支持Tensor Flow和Keras深度學(xué)習(xí),同時也支持傳統(tǒng)機(jī)器學(xué)習(xí)。

“以智能對抗智能”,用于紅隊和藍(lán)隊的ART工具

該工具支持的AI模型對抗攻擊類型:

Deep Fool

FastGradient Method

JacobianSaliency Map

UniversalPerturbation

VirtualAdversarial Method

C&WAttack

NewtonFool

對應(yīng)的防御類型有:

Featuresqueezing

Spatialsmoothing

Labelsmoothing

Adversarialtraining

Virtualadversarial training

由于安全的本質(zhì)是攻防技術(shù)的不斷對抗。對應(yīng)防御方,以智能對抗智能是“正著”,ART工具可以說是以智能對抗智能的一個典型案例。微軟、谷歌和MITRE在《Red Teaming AI Systems: The Path, the Prospect and the Perils》話題中共同表明了紅隊AI是未來,但隨著AI對抗,需要更多的工具和框架來保護(hù)組織中的AI系統(tǒng)。微軟提出的AI風(fēng)險管理評估框架建議機(jī)器學(xué)習(xí)工程師從多個維度來評估AI模型的影響和風(fēng)險。

微軟的AI風(fēng)險管理評估框架

以智能對抗智能是當(dāng)前對抗AI類攻擊的主要手段,包括智能威脅分析、狩獵和自動化的響應(yīng)處置,大會上來自O(shè)nee Security 和Acronis的研究人員分別分享了如何通過DS4N6AI工具集(集成了大量的異常檢測算法)增強(qiáng)威脅狩獵,基于機(jī)器學(xué)習(xí)和堆棧分析應(yīng)對無文件勒索高級威脅,在云安全環(huán)境下如何使能安全團(tuán)隊進(jìn)行自動化調(diào)查和響應(yīng)違規(guī)行為。

AI的雙刃劍:

AI隱私合規(guī)問題亟需解決

當(dāng)然,伴隨著人工智能技術(shù)的應(yīng)用,它在為人們帶來便利的同時,也暴露出一些問題,例如算法歧視、不公平、缺乏隱私和安全性等。因此,如何以負(fù)責(zé)的、符合倫理要求的方式使用AI,成為業(yè)界關(guān)注的焦點之一。

可信AI 8原則:可復(fù)現(xiàn)、健壯、公平、隱私、可解釋、可問責(zé)、透明、安全

解決AI隱私合規(guī)問題的“四方法”,首先最重要的是強(qiáng)化規(guī)則制定與立法,讓組織機(jī)構(gòu)必須清楚了解目前適用于AI領(lǐng)域的隱私要求,才能為AI和機(jī)器學(xué)習(xí)應(yīng)用建立一個合規(guī)的數(shù)據(jù)保護(hù)計劃。在本次RSA大會上,重點探討了歐盟和美國的法律和政策應(yīng)對人工智能合規(guī)問題。

其次,一些安全聯(lián)盟的參與也至關(guān)重要,例如聯(lián)合國教科文組織(UNESCO)發(fā)布的《AI倫理問題建議書》,歐洲理事會的報告《AI系統(tǒng)的監(jiān)管》,經(jīng)濟(jì)合作與發(fā)展組織(OECD)的《AI原則》,以及歐盟委員會AI高級別專家組制定的《可信AI倫理指南》。在此次RSA大會上,由算法正義聯(lián)盟(Algorithmic Justice League,簡稱AJL)分享了他們的最新研究結(jié)果。AJL是一家位于馬薩諸塞州劍橋市的數(shù)字倡導(dǎo)性非營利組織,由計算機(jī)科學(xué)家Joy Buolamwini于2016年創(chuàng)立,通過研究、政策宣傳來提高社會對人工智能在社會中的使用以及人工智能對社會造成的危害和偏見的認(rèn)識。

解決AI隱私合規(guī)問題的“四方法”

最后是AI風(fēng)險管理框架和工具支撐,NIST研究人員在大會上介紹通過AIRMF框架解決AI系統(tǒng)可信和風(fēng)險問題,必須處理好AI治理原則與隱私保護(hù)之間的關(guān)系。在可執(zhí)行層面,IBM的AI隱私工具集(ai-privacy-toolkit)通過數(shù)據(jù)匿名化和最小化幫助開發(fā)者解決低維表格類數(shù)據(jù)的隱私問題,當(dāng)然模型精度會有所下降,大約2%左右。

IBM的ai-privacy-toolkit實現(xiàn)數(shù)據(jù)匿名化效果

針對AI模型是否存在偏見,大會上來自SailPoint的在《It’s Not Fair! Detecting Algorithmic Bias with Open Source Tools》話題中提到的aequitas工具能夠幫助你評估AI模型的偏見問題,感興趣的讀者可以親自嘗試一下。

aequitas工具評估AI模型偏見問題

更多的優(yōu)秀工具,筆者都一一匯總在下表中。優(yōu)秀的開源AI隱私合規(guī)類工具

RSA大會上的其他AI議題,還包括了AI在零信任的應(yīng)用。由于受到新冠疫情影響,遠(yuǎn)程辦公對傳統(tǒng)安全體系結(jié)構(gòu)帶來的挑戰(zhàn)。大會上分享了PKI、加密、機(jī)器身份在IAM中的快速增長,以及如何通過Workload Segmentation降低攻擊風(fēng)險等。

從本次會議看,人工智能安全可謂在對抗中前進(jìn):人工智能除了要解決用戶關(guān)注的隱私合規(guī)問題外,還需要解決AI對抗類攻擊。以智能對抗智能是當(dāng)前對抗AI類攻擊的主要手段,而如何在對抗中“獲得先手”,獲取防御主動地位,是AI安全要解決的核心問題,也是安全攻防的痛點。

原文標(biāo)題:RSAC2022解讀丨人工智能安全洞察—在對抗中前進(jìn)

文章出處:【微信公眾號:華為數(shù)據(jù)通信】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    2387

    瀏覽量

    66821
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39958

    瀏覽量

    301600
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137005

原文標(biāo)題:RSAC2022解讀丨人工智能安全洞察—在對抗中前進(jìn)

文章出處:【微信號:Huawei_Fixed,微信公眾號:華為數(shù)據(jù)通信】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    不依賴持續(xù)聯(lián)網(wǎng),整體系統(tǒng)可靠性更高。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 覆蓋從“小 MCU”到“高性能 SoC”的完整產(chǎn)品線 Neuton 模型 :超小模型
    發(fā)表于 01-31 23:16

    使用瑞薩RUHMI工具實現(xiàn)AI模型部署過程

    AI無處不在。你在部署AI,你的競爭對手也在部署AI,幾乎所有人都在做AI。然而,AI并不簡單,不僅在生成有效
    的頭像 發(fā)表于 10-17 10:00 ?2803次閱讀
    使用瑞薩RUHMI<b class='flag-5'>工具</b>實現(xiàn)<b class='flag-5'>AI</b><b class='flag-5'>模型</b>部署過程

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    模型工具的 “京東答案”

    隨著大模型技術(shù)的迅猛發(fā)展,AI工具已成為重要的輔助生產(chǎn)力工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業(yè)務(wù)痛點,甚至能通過知識延展與智能協(xié)同,幫助團(tuán)隊突破傳統(tǒng)認(rèn)知邊界。掌握大
    的頭像 發(fā)表于 08-25 16:09 ?593次閱讀

    HarmonyOS AI輔助編程工具(CodeGenie)概述

    DevEco AI輔助編程工具(CodeGenie)基于BitFun Platform AI能力平臺,為開發(fā)者提供高效的應(yīng)用與服務(wù)AI編程支持,支持智能知識問答,同時支持ArkTS代碼
    發(fā)表于 08-11 14:31

    關(guān)于NanoEdge AI用于n-Class的問題求解

    我想請教一下關(guān)于NanoEdge AI用于n-Class的問題。我使用NanoEdge AI的n-Class模式,訓(xùn)練好模型,設(shè)計了3個分類,使用PC端的模擬工具測試過,
    發(fā)表于 08-11 06:44

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    理解的情況下進(jìn)行代碼生成。在編輯器中的內(nèi)容較少時,AI可能無法有效理解用戶的意圖并生成相應(yīng)的代碼。 模型反饋需滿足規(guī)則:光標(biāo)上文10行內(nèi),有效代碼行數(shù)超過5行(排除單獨{}、()、[]括號行、空行、純
    發(fā)表于 07-15 16:15

    智多晶FPGA設(shè)計工具HqFpga接入DeepSeek大模型

    AI 賦能工程設(shè)計的時代浪潮中,智多晶率先邁出關(guān)鍵一步——智多晶正式宣布旗下 FPGA 設(shè)計工具 HqFpga 接入 DeepSeek 大模型,并推出 FPGA 設(shè)計專屬 AI
    的頭像 發(fā)表于 06-06 17:06 ?1567次閱讀

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+ 入門篇學(xué)習(xí)

    的是基礎(chǔ)篇,主要從為什么要學(xué)習(xí)AI Agent和開發(fā)AI Agent的知識儲備入手進(jìn)行介紹。作為入門AI Agent的小白還是很有必要學(xué)習(xí)的。這里將一些重要觀點作個歸納 1.
    發(fā)表于 05-02 09:26

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),
    發(fā)表于 04-28 11:05

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應(yīng)用開發(fā)效率再提升

    開發(fā)者的喜愛。 應(yīng)廣大開發(fā)者的需求建議,我們最近又對CodeGenie進(jìn)行了一次升級,不僅針對DeepSeek-R1新增支持鴻蒙知識RAG能力,還上線了代碼解釋功能,持續(xù)拓展AI在輔助鴻蒙應(yīng)用開發(fā)全流程
    發(fā)表于 04-18 14:43

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    基石。 Neuron Studio打造全流程一站式開發(fā)體驗,為AI應(yīng)用開發(fā)按下加速鍵 AI 應(yīng)用的開發(fā)瓶頸,從來都不是“點的問題”,而是“鏈的問題”:開發(fā)工具碎片化,調(diào)優(yōu)過程靠手動,單模型
    發(fā)表于 04-13 19:52

    AI眼鏡大模型激戰(zhàn):多大模型協(xié)同、交互時延低至1.3S

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)“百鏡大戰(zhàn)”開始時,也是AI模型在智能眼鏡端加速落地的開始,一場關(guān)于智能眼鏡的“百模大戰(zhàn)”也同步進(jìn)行。幾乎今年剛推出的AI智能眼鏡都搭載了
    的頭像 發(fā)表于 03-20 08:59 ?2748次閱讀
    <b class='flag-5'>AI</b>眼鏡大<b class='flag-5'>模型</b>激戰(zhàn):多大<b class='flag-5'>模型</b>協(xié)同、交互時延低至1.3S