7月26日訊,近期微軟遭遇的大規(guī)模藍屏事件,不僅震撼了科技界,也促使社會各界對技術(shù)穩(wěn)定性與安全性進行了深刻反思。這一事件警示我們,在即將到來的AI時代,若類似的技術(shù)故障重演,其潛在影響與損失或?qū)⒏鼮閲?yán)峻。
在此背景下,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)安全治理委員會于近日舉辦的成果發(fā)布會上,AIIA秘書長、中國信通院院長余曉暉強調(diào),面對人工智能安全治理的緊迫任務(wù),需集行業(yè)之力,共同構(gòu)建和完善人工智能安全風(fēng)險識別體系,確保風(fēng)險識別的敏捷性與精準(zhǔn)度,以便及時發(fā)現(xiàn)并應(yīng)對潛在威脅。同時,他呼吁加強人工智能安全評測技術(shù)的研究與應(yīng)用,以技術(shù)手段解決技術(shù)難題。
AIIA安全治理委員會已深入探索人工智能治理框架、風(fēng)險管理、內(nèi)生安全及安全應(yīng)用等多個維度,力求在理論和技術(shù)層面為AI安全保駕護航。會上,正式啟動了“人工智能安全守護計劃”,旨在通過AI Guard品牌,建立AI系統(tǒng)情報共享及AIGC真實性與可信賴性互認(rèn)機制,并推動人工智能相關(guān)保險產(chǎn)品的開發(fā),全方位提升AI技術(shù)服務(wù)提供方與使用方的安全防護能力。
此外,中國信通院人工智能所黑一鳴博士展示了自主研發(fā)的大模型安全加固解決方案。該方案創(chuàng)新性地采用模型微調(diào)與外掛安全知識庫等策略,在保持大模型原有性能與效率的同時,顯著增強了其對抗各類誘導(dǎo)攻擊的能力,為AI安全加固提供了新思路。
值得注意的是,人工智能的跨界融合特性日益顯著,這既是其發(fā)展的動力,也對法律與規(guī)范提出了更高要求。中國法學(xué)會網(wǎng)絡(luò)與信息法學(xué)研究會副秘書長劉金瑞指出,法學(xué)界在應(yīng)對AI挑戰(zhàn)時,需深入了解技術(shù)特性,以確保所制定的規(guī)范和規(guī)制措施既符合邏輯又具實操性。
北京市金杜律師事務(wù)所合伙人寧宣鳳律師則透露,國家層面正逐步推進針對人工智能的小切口立法,涵蓋深度合成、算法、AIGC等多個領(lǐng)域,并探索科技倫理審查等制度建設(shè)。她進一步透露,專門的“人工智能法”也正在緊鑼密鼓的制定之中,預(yù)示著我國在AI治理領(lǐng)域的法制化進程正加速推進。
-
AI
+關(guān)注
關(guān)注
91文章
40005瀏覽量
301654 -
人工智能
+關(guān)注
關(guān)注
1818文章
50129瀏覽量
265700
發(fā)布評論請先 登錄
智能守護:視頻安全監(jiān)測系統(tǒng)的演進與未來
Magna AI加入NVIDIA Inception計劃,推動生產(chǎn)級人工智能規(guī)?;l(fā)展
嵌入式軟件單元測試中AI自動化與人工檢查的協(xié)同機制研究:基于專業(yè)工具的實證分析
嵌入式系統(tǒng)中的人工智能
人工智能安全守護計劃啟動,共建AI系統(tǒng)情報共享機制
評論