2011年,奧巴馬在卡內基·梅隆大學位于匹茲堡的國家機器人工程中心宣布了美國國家機器人計劃(National Robotics Initiative),計劃內容包括包括制造業(yè)、可持續(xù)農業(yè)、太空和海底勘探、醫(yī)療衛(wèi)生、交通、個人和國土安全,以及災難恢復能力和可持續(xù)的基礎設施建設。
今年5月,聯(lián)邦機構也參與組成了美國國家科學和技術委員會(NSTC)下屬白宮科技政策辦公室(OSTP)機器學習和人工智能小組委員會。本期的智能內參,我們推薦來自美國總統(tǒng)行政辦公室及國家科學和技術理事會的人工智能戰(zhàn)略白皮書。
以下為智能內參整理呈現(xiàn)的干貨:
人工智能和機器學習是一個充滿潛能的領域,能夠提高人的生活質量,幫助解決一些世界上最大的難題和效率低下的工作。而人工智能的基礎研究和應用研發(fā)方面的投入,也已經(jīng)逐漸開始回報。
AI有著顯然的戰(zhàn)略重要性,同時,它也能幫助聯(lián)邦政府監(jiān)察世界各地的重要變化,預警全球事態(tài)發(fā)展,以便及時按需的改變美國的政策。AI在聯(lián)邦科學、技術、工程、日益強調知識和教育和數(shù)學 (STEM) 教育項目等領域都有顯著的推進作用。AI 教育也是計算機科學的一個組成部分,總統(tǒng)倡議所有的美國學生,從幼兒園到高中到學習計算機科學和配備的計算思維技能,他們需要更早的進入技術驅動的世界。
| AI應用化進程加速 面臨諸多挑戰(zhàn)
目前,AI的主流應用為策略游戲、語言翻譯、自動駕駛、圖像識別等。也有部分AI系統(tǒng)用于商業(yè)服務、醫(yī)療診斷、教育、科研等領域,公共領域諸應用包括醫(yī)療、交通、環(huán)境、刑事司法和經(jīng)濟等。政府本身的工作效率也正在隨著AI的進步獲得更快地響應,更有效地完成他們的任務。
AI在政策方面的主要問題是,其許多產品,如自動駕駛汽車、無人機,需要遵守一定的管理和規(guī)范,減少驅動程序錯誤,增加個人移動性,并保護公眾免受傷害,且確保經(jīng)濟競爭更公平。同時,政府也應考慮如何降低管理成本,調動AI的經(jīng)濟效益。
AI主流的社會擔憂則在于超智能AI將超越人類的理解和控制,它在關鍵領域的應用或將造成不可估量的嚴重破壞。AI專家和從業(yè)人員更多的擔憂則在于AI衍生的傭工、 助理、 培訓師問題,以及系統(tǒng)操作安全和道德問題。
| AI或引發(fā)貧富差擴大危機
AI最主要的經(jīng)濟影響將體現(xiàn)的自動化技術領域:之前不能自動化的工藝將能夠實現(xiàn)自動化。這將有可能提高生產力和創(chuàng)造財富,但它也可能以不同的方式影響特定類型的工作,減少對于某些技能的工作崗位需求,但也可以增加其他技能的工作需求,從而彌補就業(yè)率。
白宮局的經(jīng)濟分析顧問 (CEA) 認為,自動化的負面影響將主要體現(xiàn)在較低工資的工作,還有一種最大的風險是,AI 驅動的自動化將增加教育水平低的人和受過良好教育的人之間的工資差距,有可能增加貧富差距。這就需要公共政策來解決這些風險,確保工人的再培訓和就業(yè)。公共政策也需要推動AI在更廣的領域推動經(jīng)濟效益。
| AI管控要求公正、安全
隨著人工智能技術邁向更廣泛部署,技術專家、政策分析家和倫理學家開始擔憂的其意想不到的后果?;贏I的人力管理,引發(fā)了對如何確保公正、公平和問責制的擔憂。同樣的問題在2014的大數(shù)據(jù)白皮書中也提到過。而AI可能的挑戰(zhàn)和風險,已然引發(fā)了業(yè)界專家的關注和預警。
安全方面,最為主要的擔憂在于將AI對物理世界的控制從”封閉的世界”(實驗室)安全地過渡到外面的”開放的世界”,或許有不可預知的事情會發(fā)生。而飛機、發(fā)電廠 、車輛、橋梁等問題的安全經(jīng)驗,并不能給AI從業(yè)人員足夠的啟示。
技術層面來講,安全和公平是同一個的挑戰(zhàn)。對于兩種情況,AI業(yè)者要做的是力爭避免無意識的行為,并說服相關利益者AI不會發(fā)生意外。
此外,AI從業(yè)人員和學生的道德培訓是非常重要的一部分。理想情況下,每個學生學習人工智能、 計算機科學或數(shù)據(jù)科學會面臨相關的探討倫理與安全主題。然而,道德觀念是不夠的。倫理培訓還應注重教育人員在操作時注重必要的細節(jié),避免不能承擔的意外。
| AI涉及的國際關系和安全領域
AI是最近國際討論的熱點,作為國家、多邊機構感興趣的話題,利益相關者已經(jīng)開始引進AI并準備面對挑戰(zhàn)。對話與合作可以幫助推動人工智能研發(fā)和發(fā)揮AI優(yōu)勢,幫助共同攻克難關。、
首先要面對的是AI的網(wǎng)絡安全問題,包括防守與進攻性網(wǎng)絡措施。目前,設計和操作安全的系統(tǒng)要求大量的時間和人力。部分或完全自動化的AI可能會增加跨系統(tǒng)安全應用范圍,并大大降低成本,增加國家的網(wǎng)絡防御的敏捷性。AI或可用于及時檢測和快速響應,應對不斷變換的潛在威脅。
武器系統(tǒng)方面,AI或將創(chuàng)造更高精度、更安全、更人性化的軍事環(huán)境。然而,直接遠離人類控制的武器系統(tǒng),已然存在諸多倫理及法律問題。目前,美國活躍于致命的自主式武器系統(tǒng)的國際對話,協(xié)調國際人道主義法、政府政策以及自主或半自主武器。
| 機器學習頻爆研發(fā)進展
機器學習是人工智能的重要技術途徑之一,也是最近AI商業(yè)應用進展的基礎?,F(xiàn)代機器學習是一個統(tǒng)計過程,利用已有的數(shù)據(jù)來預測未來數(shù)據(jù)。這與傳統(tǒng)的AI算法不同。傳統(tǒng)算法是由程序員和專家利用專業(yè)知識制定規(guī)則,進行決策,轉化為軟件代碼。機器學習的一大優(yōu)勢在于,可以解決難以直觀理解的難題,無需明確的規(guī)則,只需大量的數(shù)據(jù)采集,就能進行預測。
因此,互聯(lián)網(wǎng)公司可以收集用戶登錄信息來判斷賬戶安全性和用戶信用;醫(yī)療機構可以通過參數(shù)模擬來訓練醫(yī)生,整合病例。經(jīng)過不斷的反饋,也就是數(shù)據(jù)訓練,機器學習將對特定的問題給出一個最為貼切的模型,以及大量、高精度的可調參數(shù),來幫助人類工作和決策。
深度學習是這兩年來最為熱門的機器學習分支,使用結構松散的類人腦網(wǎng)絡,每個單元(神經(jīng)元)結合一組輸入值產生的輸出值,反過來轉嫁到下游其他單位(神經(jīng)元)。大規(guī)模的深度學習提供了新的、強大的進展,也因此成為研究熱潮。
以圖像識別為例:底層單位結合原始數(shù)據(jù),也就是簡單圖案;第二層單位利用第一層的簡化結果進行識別,然后將結果與第一層模式結合輸給第三層單位;第三層單位再處理、結合……以此類推,可達百層之多,可實現(xiàn)復雜、多元、精確的數(shù)據(jù)模式識別。
| 自動化和人機協(xié)作
AI系統(tǒng)用于物理驅動,尤其是自主式、自動化等,需要應對不斷變化的環(huán)境參數(shù),承擔無人運作的挑戰(zhàn),包括自我診斷和修復,尋找安全漏洞。目前主要的自動化應用有自動內容精選、自動金融交易、半自動駕駛、無人機、自治文學等。自動化以及相關的就業(yè),是社會和經(jīng)濟關注的主要問題,也是推動工業(yè)變革進程的主要動力。
不同于自動化替代人類,還有一種情況是機器作為人類工作的輔助,也就是人工智能發(fā)展的副產品——人機協(xié)作。AI強大的數(shù)據(jù)庫可以為增強人類認知能力,彌補個人弱勢。人機協(xié)作的主要應用包括棋類游戲、醫(yī)療圖像診斷等。
| AI應用案例
在沃爾特里德醫(yī)療中心,退伍軍人事務部用 AI 來更好地預測醫(yī)學并發(fā)癥和提高治療嚴重打擊的傷口,導致患者的治療效果更好,更快療愈,并降低成本。當前醫(yī)療檔案過渡到電子健康檔案,可以幫助健康數(shù)據(jù)預測分析,從而發(fā)揮關鍵作用,應用于衛(wèi)生領域、精密醫(yī)學和癌癥的研究。
運輸方面,啟用AI 的智能交通管理應用程序減少等待時間,能量使用和排放量 25%。部分城市已經(jīng)開始是使用AI響應調度,提供實時公交資訊。
還有一些研究人員,正在利用使用AI 圖像跟蹤分類軟件,來分析公共社交媒體網(wǎng)站的旅游照片,識別照片中的動物個體,生成數(shù)據(jù)和位置,研究和改善動物遷徙,涉及棲息保護地,保護瀕危物種。自動駕駛船只也應用于復雜的海洋探索,了解敏感的海洋生態(tài)變化和極地氣候,進行氣象監(jiān)測,管理非法捕撈。
AI在刑事司法系統(tǒng)方面也有潛在的應用,包括犯罪報告、治安維護、保釋、量刑、假釋決定。政府也在研究如何利用AI驅動正義,提供警察可靠的數(shù)據(jù),幫助執(zhí)法,更好地告知刑事司法中的決策系統(tǒng),同時也注意AI可能會引入偏見或不準確之處。
芝加哥大學、南加州大學、斯坦福大學等學術機構也紛紛利用AI系統(tǒng)了解和解決社會經(jīng)濟問題,包括失學、失業(yè)、全球貧困問題。當然,這類研究采用的是衛(wèi)星圖像分析,依靠大量機器學習訓練,但要求不能涉及個人隱私或者商業(yè)機密。
聯(lián)邦政府致力于減少平困和增加經(jīng)濟效益,控制社會流動性,并試圖將AI與國防、能源、情報等部門聯(lián)系起來。對于大型的研發(fā)預算,比如勞動力機構,將采用與私營部門合作的方式進行理論創(chuàng)新和實驗研究。國立衛(wèi)生研究院也投入了大量的研究經(jīng)費。DARPA也在利用AI數(shù)字導師訓練海軍新兵。
| 23條意見
1、鼓勵私營和公共機構利用人工智能造福社會。司法機構和公共政策機構可以與人工智能研究人員合作尋求社會問題的解決方案。
2、聯(lián)邦政府應開放訓練數(shù)據(jù)方式和數(shù)據(jù)標準,通過大量公開政府數(shù)據(jù)推動學術界、私營部門的人工智能研究和應用。
3、聯(lián)邦政府應創(chuàng)建更多類似DARPA這樣的機構,支持高風險、高回報的人工智能研究與應用。
4、國家科學技術委員會人工智能與機器學習分委會應該為官方的人工智能實踐者建立一個實踐社區(qū),共享各項標準、課程和實踐方案。
5、在設定人工智能產品的監(jiān)管政策時,各政府機構應咨詢合適的高級技術專家,招攬相關人才。
6、各機構在人事招聘中應當注意人才的多元結構,培養(yǎng)不同觀點的聯(lián)邦工作人員。
7、交通部應和產業(yè)部門及研究人員應合作探討數(shù)據(jù)共享方法。聯(lián)邦機構短期內應側重于在不侵犯消費者隱私的情況下,開發(fā)更豐富的數(shù)據(jù)集。
8、政府應投資更高級的、自動化的空中交通管理系統(tǒng)。
9、交通部應開發(fā)實時監(jiān)管框架,適應自動駕駛汽車和無人機安全的集成到運輸系統(tǒng)中。
10、國家科學技術委員會機器學習和人工智能分委會應即時回報工作進展,酌情向公眾報告發(fā)展情況。
11、政府應關注他國人工智能發(fā)展狀況和總體進展。
12、政府應在與產業(yè)的合作中把握人工智能進程,擴大其經(jīng)濟效益。
13、聯(lián)邦政府應優(yōu)先發(fā)展基礎和長期人工智能研究。因為基礎和長期研究是私人部門不愿意投資的領域。聯(lián)邦投資對這些領域的研發(fā)至關重要。
14、國家科學技術委員會機器學習和人工智能分委會和網(wǎng)絡與信息技術研發(fā)計劃分委會,以及科技工程教育分委會應當合作開發(fā)一項人工智能人才輸送的研究。
15、總統(tǒng)行政辦公室應在今年年底前發(fā)布一份后續(xù)報告,進一步調查人工智能和自動化對美國就業(yè)市場的影響,并概述政策反應。
16、人工智能投入使用應當經(jīng)過多次可靠的試驗,來確保系統(tǒng)的有效性和公正性。
17、開放審查條款,確保用聯(lián)邦贈款基金購買的基于人工智能的產品或服務所帶來的結果是透明的,并且由有效的、公平的證據(jù)支持。
18、鼓勵高校將人工智能相關的倫理學、安全、隱私、安防問題列入機器學習、計算機科學、數(shù)據(jù)科學等課程中去。
19、人工智能專家應與安全專家及其專業(yè)學會充分對話,推動人工智能安全工程走向成熟。
20、美國政府應制定一項關于人工智能國際參與的政府層面的戰(zhàn)略,并擬定需要國際參與和監(jiān)控的專題清單。
21、美國政府應加強與國際上的利益相關者(包括外國政府、國際組織、行業(yè)、學術界等)聯(lián)系交流,促進研發(fā)合作。
22、各機構平臺應充分考慮人工智能可能引起的網(wǎng)絡安全問題。
23、美國政府應制定符合國際人道主義法律的自主式武器政策。
智東西認為,AI很有可能成為經(jīng)濟增長和社會進步的主要驅動力,成為一項社會全體的變革行為。這就需要政府發(fā)揮監(jiān)控管理的作用,提供合理的應用框架和法律約束,鼓勵技術創(chuàng)新的同時保護公眾隱私安全,注重生產效率的同時保障勞工利益,推進AI應用系統(tǒng)的開放、透明和易懂。
電子發(fā)燒友App












評論