建議草案強(qiáng)調(diào)了人工智能系統(tǒng)的人為控制。它寫道:“人類應(yīng)該行使適當(dāng)?shù)呐袛嗔?,并?duì)國(guó)防部AI系統(tǒng)的開發(fā),部署,使用和成果負(fù)責(zé)?!?/p>
該DIB指引和陪同實(shí)現(xiàn)文檔,遠(yuǎn)遠(yuǎn)超出了簡(jiǎn)單的和較大面積的愿景陳述對(duì)AI頒發(fā)的科技巨頭,如谷歌,F(xiàn)acebook和微軟。例如,這些建議描述了商業(yè)參與者才剛剛開始努力應(yīng)對(duì)的AI發(fā)展中的主要危險(xiǎn)和陷阱,例如數(shù)據(jù)集中的偏差。
該DIB還建議國(guó)防部依靠是透明的工具,這意味著,不像某些類型的所謂的“黑盒子”神經(jīng)網(wǎng)絡(luò),技術(shù)專家(許可)可以說明,通過該軟件達(dá)到特定的決策或行動(dòng)的過程。
董事會(huì)還建議僅在“明確的明確使用范圍”內(nèi)使用此類工具,該法令旨在防止為非戰(zhàn)斗活動(dòng)開發(fā)的軟件無法進(jìn)入致命行動(dòng)。
賓夕法尼亞大學(xué)政治科學(xué)教授Michael C. Horowitz表示:“最終影響將不僅取決于原則如何真正影響國(guó)防部對(duì)AI的投資,而且還取決于更廣泛的AI社區(qū)如何看待DoD行動(dòng)。” 但是,他說:“ 認(rèn)真對(duì)待AI道德規(guī)范可能會(huì)增加更廣泛的AI社區(qū)中的一些懷疑論者愿意與DoD合作的機(jī)會(huì),同時(shí)還可能提高算法在上使用的可靠性和有效性?!?/p>
-
人工智能
+關(guān)注
關(guān)注
1818文章
50132瀏覽量
265724
發(fā)布評(píng)論請(qǐng)先 登錄
DEKRA德凱成為歐盟人工智能法案下首家獲得認(rèn)可實(shí)驗(yàn)室
嵌入式系統(tǒng)中的人工智能
應(yīng)用案例 | Enclustra 水星Mercury+ XU1核心板將邊緣人工智能送入衛(wèi)星軌道
物理人工智能面臨的安全風(fēng)險(xiǎn)
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!
關(guān)于人工智能處理器的11個(gè)誤解
超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
科大訊飛加速東南亞企業(yè)的人工智能應(yīng)用
開售RK3576 高性能人工智能主板
斯坦福大學(xué)發(fā)布《2025 年人工智能指數(shù)報(bào)告》
建議草案強(qiáng)調(diào)了人工智能系統(tǒng)的人為控制
評(píng)論