近年來,人工智能(AI)終于開始展示其巨大的力量,來重塑市場、公共部門、國家安全領(lǐng)域和更廣泛的社會。過去十年來的技術(shù)發(fā)展,如,基于計算能力大幅度提高,可用于“訓(xùn)練”人工智能系統(tǒng)的數(shù)據(jù)量大幅度增加以及新的機器學(xué)習(xí)技術(shù)的突破,使得人工智能得以應(yīng)用于更為廣泛的領(lǐng)域。人工智能的應(yīng)用隨即對現(xiàn)實世界產(chǎn)生了一系列積極和消極的影響。2020年3月27日,大西洋理事會發(fā)布了一則題為《AI, society and governance: An introduction》的報告,報告介紹和闡明跨多個領(lǐng)域的AI策略,提出在人工智能領(lǐng)域,政策制定落后于技術(shù)的進步,并對這一過渡時期需制定的策略提出了建議。
在過去幾年中,世界各地的公共部門、私營部門、公司、大學(xué)和其他組織已經(jīng)開始處理許多與人工智能相關(guān)的政策問題。在公共部門內(nèi),人工智能決策不限于國家政府。除多邊機構(gòu)外,各級地方、州/地區(qū)和國家政府一直在應(yīng)對與人工智能相關(guān)的挑戰(zhàn),并試圖制定應(yīng)對這些挑戰(zhàn)的政策。這表明人工智能已經(jīng)開始影響人類生存的幾乎每個方面。至少在這個領(lǐng)域,政策肯定落后于技術(shù)進步。政策制定者現(xiàn)在正急于趕上。
人工智能政策制定是新的領(lǐng)域,并沒有一套公認的最佳策略,因此,實踐顯得尤為重要。加拿大政府在2016年制定了第一個國家人工智能戰(zhàn)略。從那時起開始,數(shù)十個國家競相制定自己的人工智能戰(zhàn)略和政策,盡管內(nèi)容、目標、機制和資金水平差異很大。正如一位評論員所說,人工智能策略可以被定義為“最大化人工智能利益,同時最小化其潛在成本和風(fēng)險的公共政策”。
一、人工智能策略制定的領(lǐng)域
(一)倫理規(guī)范
如此多的組織都在努力定義人工智能的倫理用途,這一事實本身就證明了一種恐懼,這種恐懼長期以來一直在激發(fā)人們對人工智能的思考,包括它令人難以置信的力量,以及它可能如何被用于有害和不道德的目的。這種恐懼激發(fā)了集體想象力,激發(fā)了無數(shù)科幻書籍和電影。在許多其他領(lǐng)域,如科學(xué)、技術(shù)、政治和人文等,思想家們依舊對人工智能在我們居住的世界中潛在毀滅性應(yīng)用持保留態(tài)度。從亨利·基辛格到斯蒂芬·霍金等名人都警告說,人工智能總有一天會對人類的生存構(gòu)成威脅。
這種對機器接管的恐懼圍繞著“廣義人工智能”的發(fā)展,這一術(shù)語指的是擁有某種超人智能的人工智能系統(tǒng)。廣義人工智能還不存在。真正存在的是“狹義人工智能”,即應(yīng)用于特定任務(wù)的人工智能。區(qū)別在于:
對廣義人工智能的研究仍處于初級階段。該領(lǐng)域的研究人員估計,廣義人工智能可能在本世紀中葉開發(fā)出來,或者需要更長的時間。然而,考慮到廣義人工智能開發(fā)的風(fēng)險,一些專家主張從現(xiàn)在開始就要謹慎行事。他們認為,政府應(yīng)該在人工智能完善之前,就對人工智能的發(fā)展進行保護,以避免出現(xiàn)類似終結(jié)者的場景。
在某種程度上,為了超越人工智能的說法,世界上最大的科技公司,包括谷歌和微軟,一直在高調(diào)創(chuàng)建這樣的“人工智能倫理”準則。例如,谷歌的人工智能原則列出了責(zé)任、安全和保證人工智能系統(tǒng)公正的承諾等內(nèi)容。這些企業(yè)制定AI倫理指南的工作也成為最受關(guān)注的部分,主要是因為這些世界上最大的科技公司是以生產(chǎn)人工智能產(chǎn)品而使自己盈利為目標,并希望借此鞏固在該領(lǐng)域全球技術(shù)領(lǐng)導(dǎo)者的地位。
(二)公平和正義
這一政策領(lǐng)域是人工智能領(lǐng)域中最受關(guān)注和爭議的領(lǐng)域之一。主要圍繞著人工智能系統(tǒng)是否反映、再現(xiàn)、甚至放大了社會問題進行研究。對于如何理解這一挑戰(zhàn),以及如何構(gòu)建能夠?qū)埂㈩A(yù)防或最小化這類問題的人工智能系統(tǒng),人們展開了一場持續(xù)的討論。當涉及到人類性別特征、社會經(jīng)濟地位、性取向、種族和宗教地位的人工智能系統(tǒng)決策時,這種爭論尤其令人擔(dān)憂。
人工智能系統(tǒng)產(chǎn)生的決策,對很多人來說,可能是非常真實的。例如,這種系統(tǒng)可以決定誰能夠獲得公共和私人資源和服務(wù),誰受到國家當局的監(jiān)督,誰在招聘過程中被篩選,給消費者的信用評分是多少,并且可以決定警察和法院如何解釋和執(zhí)行法律。這些決策過程中的每一個都在篩選人們,或者對他們進行排序,正面和負面的影響取決于選擇的狀態(tài)。
正義和公平問題一方面涉及人工智能工具如何構(gòu)建,另一方面涉及人類如何使用這些工具。缺乏有效性意味著人工智能工具沒有“對真實世界的忠誠”,這意味著該工具的應(yīng)用脫離了現(xiàn)實環(huán)境。偏差是指人工智能工具如何在預(yù)測中系統(tǒng)性地出錯,尤其是對某些類別的人。這種人工智能偏差可能發(fā)生在成幀、數(shù)據(jù)收集和數(shù)據(jù)準備階段。在這些階段,人工智能系統(tǒng)的設(shè)計者可以有意地或通過致盲將偏差引入到算法和/或訓(xùn)練數(shù)據(jù)中,防止設(shè)計者看到他們是如何使結(jié)果分析產(chǎn)生偏差的。
(三)隱私、消費者保護和數(shù)據(jù)可用性
隱私和消費者保護問題也是備受關(guān)注的政策領(lǐng)域。人工智能系統(tǒng)可以從收集到的個人數(shù)據(jù)中分析個人的評價。因此,政府和企業(yè)可以獲得大量的行為和人物數(shù)據(jù),這些數(shù)據(jù)描述了一個人的過去,然后被基于人工智能的模型用來預(yù)測這個人未來的行為。
人工智能為數(shù)字隱私政策討論增加了一個新的層面,涉及到行動者是否有權(quán)從個人收集的信息類型和數(shù)量以及如何處理這些數(shù)據(jù)的問題。上文提到的歐盟可信人工智能道德準則包括一個專門針對隱私的準則。該準則稱隱私為“基本權(quán)利”,稱“充分的數(shù)據(jù)治理”應(yīng)涵蓋所用數(shù)據(jù)的質(zhì)量和完整性、與人工智能系統(tǒng)部署領(lǐng)域的相關(guān)性、訪問協(xié)議以及以保護隱私的方式處理數(shù)據(jù)的能力等。
(四)國家人工智能戰(zhàn)略和產(chǎn)業(yè)政策
各國政府正在將人工智能的商業(yè)發(fā)展作為中心目標,制定國家人工智能戰(zhàn)略和產(chǎn)業(yè)政策。
國家人工智能戰(zhàn)略代表了政府試圖組織其對人工智能的思考,并因此圍繞一系列戰(zhàn)略目標調(diào)整其政策目標和利益相關(guān)者。產(chǎn)業(yè)政策并不完全一樣。這是一個可延展的概念,但通常指國家對工業(yè)發(fā)展的直接和間接支持,特別是國家將支持那些被認為對國家經(jīng)濟繁榮和/或國家安全具有戰(zhàn)略重要性的目標工業(yè)部門。產(chǎn)業(yè)政策工具清單可能包括設(shè)立技術(shù)發(fā)展基金、國家指導(dǎo)的集群投資(旨在促進地理“集群”效應(yīng))、外國技術(shù)轉(zhuǎn)讓要求(要求外國公司在某些條件下轉(zhuǎn)讓其技術(shù))、對工人技能培訓(xùn)有針對性的支持等。
無論名稱如何,各國政府一直在試圖組織人工智能的戰(zhàn)略方法。一項研究稱,截至2019年7月,已有41個國家制定了國家人工智能戰(zhàn)略,或表示有興趣制定此類戰(zhàn)略。在已經(jīng)發(fā)布框架文件的19個國家中,大多數(shù)州(16個)優(yōu)先考慮人工智能的研發(fā),其次是人工智能人才的開發(fā)(11個)、人工智能作為產(chǎn)業(yè)戰(zhàn)略的一部分的應(yīng)用(9個)、道德和法律準則的制定(8個)、人工智能相關(guān)基礎(chǔ)設(shè)施的投資(6個)以及人工智能在政府中的發(fā)展。
2019年,美國政府通過行政命令發(fā)布了自己的人工智能戰(zhàn)略,強調(diào)R&D、標準和勞動力發(fā)展。這份文件是在奧巴馬政府2016年發(fā)布R&D戰(zhàn)略計劃和一系列關(guān)注人工智能、社會和經(jīng)濟的報告之后發(fā)布的。同樣是在2019年,三名美國參議員提出了一項立法,該立法將創(chuàng)建一項國家人工智能戰(zhàn)略,更重要的是,為其提供資金。如果獲得通過,《人工智能倡議法案》將在五年內(nèi)撥款20多億美元,用于資助一系列活動,包括建立人工智能協(xié)調(diào)辦公室、幾個研究中心,以及創(chuàng)建強大的人工智能評估標準。
(五)技術(shù)標準
根據(jù)國際標準化組織,技術(shù)標準規(guī)定了“材料、產(chǎn)品、過程和服務(wù)需要符合的要求、規(guī)范、指南或特性”。通過引入通用術(shù)語和規(guī)范,技術(shù)標準為市場繁榮提供了基礎(chǔ)。具體而言,技術(shù)標準為各種商業(yè)活動創(chuàng)造了基礎(chǔ)——允許技術(shù)之間的互操作,實現(xiàn)更快速的創(chuàng)新,鼓勵產(chǎn)品差異化,簡化商業(yè)合同,降低交易成本。
概括地說,政府有一系列的動機來創(chuàng)建(或鼓勵采用)強大的技術(shù)標準。在國內(nèi),政府有興趣幫助創(chuàng)造和擴大有希望的國內(nèi)新技術(shù)市場。技術(shù)標準有助于促進這樣的市場。但是政府顯然也有興趣保護公共利益,而技術(shù)標準又可以促進這一目的。例如,公共衛(wèi)生和安全考慮,從食品到手術(shù)到運輸,以及許多其他公眾關(guān)注的領(lǐng)域,是制定技術(shù)標準的首要考慮。
最需要人工智能相關(guān)技術(shù)標準的地方莫過于自動交通系統(tǒng)。盡管現(xiàn)在有很多類似行動,但沒有一個國家為自動系統(tǒng)制定一整套標準。美國政府按照其對技術(shù)標準的總體做法,只支持為自主汽車制定“利益相關(guān)者驅(qū)動的自愿技術(shù)標準”,并傾向于非政府組織,如國際汽車工程師學(xué)會(原汽車工程師學(xué)會)來進行研究發(fā)展。美國幾十個州已經(jīng)考慮或頒布了與自動車輛有關(guān)的初步立法,一些公司的目標是建立自己的(國家級)技術(shù)標準,以實現(xiàn)自主車輛測試。
(六)創(chuàng)新生態(tài)系統(tǒng)
國家和國家以下各級政府都對創(chuàng)新生態(tài)系統(tǒng)的創(chuàng)建非常感興趣。世界領(lǐng)先的技術(shù)創(chuàng)新生態(tài)系統(tǒng)——如加利福尼亞灣區(qū)等城市和地區(qū)——不僅產(chǎn)生了世界上大部分的應(yīng)用技術(shù),而且還為當?shù)鼐用駝?chuàng)造了大量財富,進而為他們所在的國家創(chuàng)造了大量財富。鑒于人工智能相關(guān)技術(shù)將帶來的收益,政策制定者專注于確保他們能夠在自己的范圍內(nèi)分享這一財富創(chuàng)造。
在國家和國家以下各級,許多公共部門政策和投資支持(或阻礙)創(chuàng)新生態(tài)系統(tǒng)的創(chuàng)建和增長。這種政策和投資可以與支持產(chǎn)業(yè)政策的政策和投資類型重疊,盡管公眾參與建設(shè)創(chuàng)新生態(tài)系統(tǒng)通常不被列為產(chǎn)業(yè)政策。
(七)賽博空間
人工智能使網(wǎng)絡(luò)安全復(fù)雜化,因為它極大地加速了網(wǎng)絡(luò)空間中的問題和機遇。網(wǎng)絡(luò)安全行業(yè)將人工智能視為打擊網(wǎng)絡(luò)犯罪和黑客攻擊的工具。因為其相信人工智能能比人類或軟件更快更有效地完成這些任務(wù)。然而,與此同時,攻擊者也可以利用這些優(yōu)勢,他們可以使用人工智能更快地發(fā)現(xiàn)和利用軟件漏洞,生成更多的惡意軟件以壓倒網(wǎng)絡(luò)防御,并創(chuàng)建更復(fù)雜和適應(yīng)性更強的基于電子郵件的詐騙(網(wǎng)絡(luò)釣魚等)。
在這種情況下,越來越多的關(guān)注點是“對抗性ML”(或“對抗性AI”),當攻擊者試圖破壞、愚弄或竊取ML/AI系統(tǒng)時,就會發(fā)生這種情況。對抗性攻擊有幾種變體,例如,“模型反轉(zhuǎn)”(攻擊者獲取用于訓(xùn)練系統(tǒng)的訓(xùn)練數(shù)據(jù))和“模型竊取”(攻擊者試圖竊取模型的底層算法)。
“中毒攻擊”是另一種常見的對抗性攻擊,在機器學(xué)習(xí)模型中插入輸入,誘使系統(tǒng)做出與系統(tǒng)設(shè)計參數(shù)不同的分類決策(是/否、輸入/輸出等),在中毒攻擊中,不道德的行為體欺詐、欺騙、竊賊、敵對的外國政府,等等,操縱ML模型如何評估輸入,以便以有利于攻擊者的方式重新配置結(jié)果輸出。中毒攻擊會在模型的訓(xùn)練階段對輸入數(shù)據(jù)帶來微妙的變化,這些變化設(shè)計得足夠小,可以逃避研究人員的檢測,但總體上卻顯著到足以在程序輸出中產(chǎn)生系統(tǒng)偏差。這種“添加少量精心設(shè)計的噪音”可能會產(chǎn)生實際后果,例如,醫(yī)療領(lǐng)域的“受騙”人工智能系統(tǒng)可能會命令不必要的醫(yī)療治療,構(gòu)成醫(yī)療保險欺詐。
(八)犯罪、執(zhí)法、欺詐和欺騙
人工智能是一個強有力的新工具,既能打擊犯罪活動,又能使之成為可能。在打擊方面,聯(lián)合國區(qū)域間犯罪和司法研究所(犯罪司法所)和國際刑事警察組織(國際刑警組織)是全球一級研究這一系列問題的主要多邊機構(gòu)。2019年,他們發(fā)布了一份概覽報告,認為雖然“許多國家”正在將人工智能應(yīng)用于執(zhí)法,但人們普遍對人工智能的效果缺乏了解,執(zhí)法機構(gòu)之間的國際協(xié)調(diào)程度也很低。犯罪司法所和國際刑警組織也正在牽頭就這一問題開展全球?qū)υ挘?019年7月舉行了第二次年度執(zhí)法人工智能全球會議。
(九)公共部門的效能
此外,人工智能可以協(xié)助其他重要的政府職能。監(jiān)管監(jiān)督就是其中之一。通過應(yīng)用人工智能集成技術(shù)(除了人工智能之外,還有傳感器和遠程視頻),工廠和工地檢查可以變得更加普遍、有效和便宜。此外,同樣重要的是,人工智能可以生成預(yù)測分析,以預(yù)測何時何地可能發(fā)生嚴重的不良事件,例如,發(fā)電廠的機械故障、肉類包裝廠的致病性爆發(fā)或工廠的化學(xué)品泄漏。
(十)成本:財務(wù)和能源
還有一個很少被注意但很重要的領(lǐng)域,財務(wù)和能源領(lǐng)域。由于涉及人工智能研究的高成本,所以既限制了誰可以參與人工智能系統(tǒng)的開發(fā),又限制了進行研究可以使用多少資源。麻省大學(xué)的研究人員在2019年6月發(fā)表的一篇論文中發(fā)現(xiàn),就這兩種資源而言,訓(xùn)練大型人工智能模型的成本都很高。盡管人工智能模型有很多,運行它們所需的資金和能量也有很大差異(主要是云計算需要資金),但研究人員發(fā)現(xiàn)這些成本隨著模型的復(fù)雜性呈指數(shù)級增長。
(十一)致命自主武器系統(tǒng)
最后一組政策問題主要在國家安全領(lǐng)域。這些包括人工智能和致命武器,特別是“致命自主武器系統(tǒng)”的發(fā)展和它們在戰(zhàn)場上的使用。對于世界主要大國的國家安全機構(gòu)來說,最重要的政策優(yōu)先事項很簡單:在缺乏對自主武器系統(tǒng)具有約束力的情況下,最重要的優(yōu)先事項是獲得足夠的資源來開發(fā)、測試和部署集成人工智能的系統(tǒng),以確保優(yōu)于本國的地緣戰(zhàn)略和軍事對手。
關(guān)于人工智能的使用,他們主要關(guān)心的是軍事指揮鏈:誰(或什么)在戰(zhàn)場上發(fā)布這種殺傷命令,或者至少是指揮鏈中的誰“決定如何、何時、何地以及為什么使用這種武器”?基辛格認為,鑒于基于人工智能的武器系統(tǒng)的發(fā)展缺乏透明度(透明度是所有軍備控制的基礎(chǔ)),控制基于人工智能的武器系統(tǒng),包括法律,也許是不可能的。他的言論意在對基于人工智能的武器系統(tǒng)被允許不受限制地發(fā)展可能導(dǎo)致的嚴重后果發(fā)出嚴重警告。
二、建 議
我們現(xiàn)在正處于一個過渡時期,人工智能已經(jīng)從潛力走向現(xiàn)實,其巨大的力量已經(jīng)開始顛覆人類的生存,無論好壞。如果政府希望利用人工智能發(fā)揮積極的潛力,并避免人工智能帶來的負面影響,就需要確定社會優(yōu)先事項,制定可操作的戰(zhàn)略,然后在實際資金支持下實施明智的政策。
(一)倫理規(guī)范
道德和規(guī)范聲明的創(chuàng)建現(xiàn)在是廣為人知的領(lǐng)域。憤世嫉俗者會辯稱,這些聲明之所以常見,恰恰是因為它們不具約束力,成本很低,對受影響的經(jīng)濟部門沒有負面影響,并且標志著良性但往往模糊的制度行動。
但是這里也有一個令人信服的反駁。當通過制度化、公共環(huán)境、道德和規(guī)范聲明進行定義時,可以迫使政府闡明它們最重視的價值觀,從而確定它們的最高優(yōu)先事項。這一過程迫使利益相關(guān)者強化他們的論點,并與他人一起協(xié)商他們的立場。此外,非約束性流程有助于在更具約束性、因此更困難的決策流程之前,圍繞人工智能目標達成共識。
因此,各國政府應(yīng)效仿歐盟的做法,建立高級別委員會,由公認和受尊重的主席領(lǐng)導(dǎo),成員廣泛代表社會,并負責(zé)通過嚴格的程序,形成廣為宣傳和傳播的道德和規(guī)范聲明。
(二)戰(zhàn)略
說到人工智能,預(yù)期治理是至關(guān)重要的。盡管人工智能驅(qū)動未來的模式還不清楚,但政府還是應(yīng)該積極面對人工智能帶來的重大的、顛覆性的變革。首先,政府需要發(fā)展可操作且可行的策略,在積極的方向上塑造未來,同時避免或最小化人工智能領(lǐng)域中不可避免的負面后果。
綜合戰(zhàn)略應(yīng)以道德和規(guī)范聲明為基礎(chǔ),以幫助確定戰(zhàn)略目標。理想情況下,人工智能策略不僅會定義政府希望實現(xiàn)的目標,而且還會定義政府不愿意容忍的結(jié)果。此外,重要的是要從一開始就認識到一些戰(zhàn)略成果會與其他成果相矛盾。政府需要在一方面瞄準創(chuàng)新的前沿,即成為基于人工智能的初創(chuàng)企業(yè)和人工智能驅(qū)動產(chǎn)業(yè)的全球領(lǐng)導(dǎo)者,另一方面應(yīng)對人工智能的社會治理后果之間取得平衡。
(三)隱私和數(shù)據(jù)
由于個人數(shù)據(jù)通常可能會成為人工智能系統(tǒng)的原始材料,所以隱私問題是大多數(shù)政策討論的核心。從醫(yī)療保健、交通運輸乃至環(huán)境保護等領(lǐng)域人工智能所產(chǎn)生的效益往往更加強大。在保護個人權(quán)利和最大限度地發(fā)揮人工智能為更廣泛的公眾帶來的潛在利益之間取得平衡,是人工智能決策的核心。
(四)創(chuàng)新生態(tài)系統(tǒng)和人力資本
世界各國政府都將人工智能的發(fā)展視為建立和加強創(chuàng)新生態(tài)系統(tǒng)的機會,即促進一國境內(nèi)的創(chuàng)業(yè)和新經(jīng)濟部門,以獲得隨后的經(jīng)濟利益。在創(chuàng)建強大的技術(shù)創(chuàng)新生態(tài)系統(tǒng)的過程中,存在多種政策關(guān)聯(lián)。包括研發(fā)支出、知識產(chǎn)權(quán)保護、基礎(chǔ)設(shè)施投資、稅收政策、住房政策等等。這種政策上的相互聯(lián)系對于刺激人工智能相關(guān)的創(chuàng)新和其他新興技術(shù)相關(guān)的創(chuàng)新同樣重要。
(五)致命自主武器系統(tǒng)
吉爾·普拉特(Gill Pratt),一位前美國國防高級研究計劃局(DARPA)的機器人專家,在2015年一篇被廣泛引用的論文中指出,機器學(xué)習(xí)、計算能力、數(shù)據(jù)和能量存儲系統(tǒng)以及傳感器的進步將在人工智能機器人領(lǐng)域帶來“寒武紀大爆發(fā)”,他的意思是“機器人多樣化和適用性的大爆發(fā)”。對于世界軍隊來說,人工智能系統(tǒng)的這種進步是不可抗拒的。人工智能領(lǐng)域產(chǎn)生的,運輸、供應(yīng)、后勤、監(jiān)視以及作戰(zhàn)能力方面的進步,遠遠超過當今任何軍隊所擁有的。
這就是困境的癥結(jié)所在。在一個對自主武器系統(tǒng)沒有任何約束性和可執(zhí)行性條約的情況下,各國認為他們別無選擇,只能大力發(fā)展此類系統(tǒng)。正如哈佛大學(xué)肯尼迪學(xué)院2017年關(guān)于人工智能軍事用途的研究報告的作者所言,由于機器優(yōu)越的作戰(zhàn)能力,各州“將面臨越來越大的誘惑,要么授予機器更高級別的權(quán)力,要么面臨失敗”。
各國投資技術(shù)開發(fā)以確保自身安全。正如計算機、全球定位系統(tǒng)技術(shù)、衛(wèi)星和許多其他技術(shù)一樣,世界各國軍方正投入巨額資金用于人工智能開發(fā),因為他們擔(dān)心在這一關(guān)鍵技術(shù)上落后于競爭對手。事實上,美國軍方是人工智能研究的全球最大資助者之一:美國國防部認為,相對于地緣政治對手,美國“必須采用人工智能來維持其戰(zhàn)略地位”。
電子發(fā)燒友App


評論