2016年美國總統(tǒng)大選期間,社交網(wǎng)絡(luò)上充斥著不準(zhǔn)確和誤導(dǎo)性的文章。從那以后,科技公司——從Facebook、Google等這樣的大公司到生氣勃勃的初創(chuàng)公司——已經(jīng)打造了一些工具來打擊錯誤信息(包括許多人稱之為“假新聞”的文章,盡管這個詞被高度政治化了)。大多數(shù)公司已求助于人工智能(AI),希望快速且自動化的計算機(jī)系統(tǒng)能夠解決這個看起來像互聯(lián)網(wǎng)一樣大的問題。
“他們都在使用人工智能,因為他們需要擴(kuò)大處理規(guī)模。”ClaireWardle說。她是哈佛大學(xué)約翰肯尼迪政府學(xué)院承擔(dān)的錯誤信息斗爭項目FirstDraft的負(fù)責(zé)人。她說,AI可以使那些耗時的步驟(例如,仔細(xì)檢查每天在線發(fā)布的大量內(nèi)容并標(biāo)記出可能虛假的內(nèi)容)加快。
不過,Wardle說,人工智能無法做出最終的判斷。“對于機(jī)器來說,你如何編碼'誤導(dǎo)性的'(misleading)呢?即使是人類也難以定義它。生活是混亂、復(fù)雜和微妙的,人工智能要做到理解這一點(diǎn),還有很長的路要走?!?/p>
Facebook曾因未能在2016年對虛假內(nèi)容采取行動而廣受批評。Facebook稱,它將在今年11月的美國中期選舉中以及全球其他選舉中利用人工智能把打擊虛假內(nèi)容一事做得更好。Facebook產(chǎn)品經(jīng)理JimKleban致力于減少網(wǎng)站newsfeed中的錯誤信息,他解釋說Facebook現(xiàn)在使用AI來增強(qiáng)人類智能。AI檢查每天在Facebook上分享的數(shù)百萬個鏈接,識別出其中的可疑內(nèi)容,然后將它們發(fā)送給事實核查人員。他說:“在可預(yù)見的未來,所有這些系統(tǒng)都需要混合型解決方案?!?/p>
當(dāng)事實核查人員認(rèn)為一段內(nèi)容是虛假內(nèi)容時,F(xiàn)acebook會降低其在用戶的newsfeed中的排序位置。Kleban說,這種方法使虛假內(nèi)容的被瀏覽次數(shù)減少了80%。
Facebook的AI是通過機(jī)器學(xué)習(xí)——AI系統(tǒng)接收大量被標(biāo)記過的資料的數(shù)據(jù),并獨(dú)立地尋找出模式的一種技術(shù)——進(jìn)行訓(xùn)練的。例如,圖像分類AI可能會查看數(shù)百萬張標(biāo)有“貓”或“狗”的照片,而學(xué)習(xí)到貓和狗的區(qū)別特征。但是,訓(xùn)練AI來識別虛假內(nèi)容要難得多。
Kleban說,F(xiàn)acebook的AI從內(nèi)容來源開始,利用各種信號來挑選出包含錯誤信息的文章:“知道某個網(wǎng)頁或網(wǎng)站過去分享過虛假內(nèi)容,就可以預(yù)測它會再次分享虛假內(nèi)容,這樣的預(yù)測往往是很準(zhǔn)確的?!碧摷賰?nèi)容在網(wǎng)絡(luò)上的傳播方式也可能存在一種可識別的模式;Kleban說這是一個活躍的研究領(lǐng)域。至于文本本身,AI沒有能力評估內(nèi)容的真實性,但它可以找到信號,例如在評論部分有對文本內(nèi)容表示不信任的表達(dá)。
總部位于倫敦的初創(chuàng)公司Factmata正在開發(fā)一種采用不同方法的人工智能系統(tǒng),該公司的知名投資者包括Twitter共同創(chuàng)始人BizStone和Craigslist創(chuàng)始人CraigNewmark。Factmata創(chuàng)始人DhruvGhulati說,公司并不特別關(guān)注內(nèi)容的出版者或他們的聲譽(yù),“我們希望根據(jù)內(nèi)容本身來對內(nèi)容進(jìn)行判斷?!?/p>
Factmata的系統(tǒng)采用的也是人機(jī)合作的混合型方案,雖然其配置是不同的:人是對內(nèi)容進(jìn)行標(biāo)記的專家,做過標(biāo)記的內(nèi)容用于AI的訓(xùn)練。Ghulati說:“像假新聞和宣傳這樣的東西在本質(zhì)上是差別細(xì)微的和主觀的。確實需要專業(yè)知識來理解內(nèi)容的性質(zhì)并對其進(jìn)行適當(dāng)?shù)臉?biāo)記?!蓖ㄟ^那些標(biāo)記過的數(shù)據(jù)集,F(xiàn)actmata正在訓(xùn)練其AI識別政治上有偏見的內(nèi)容、虛假內(nèi)容和仇恨言論。
該公司目前正致力于互聯(lián)網(wǎng)的“后端”,幫助互聯(lián)網(wǎng)廣告交易平臺(advertisingexchanges)避免在有問題的內(nèi)容上投放廣告。將來它可能會對社交網(wǎng)絡(luò)有用。Factmata的系統(tǒng)標(biāo)記了可疑內(nèi)容并解釋了其可疑之處,但該公司將怎樣處理那些內(nèi)容的決定權(quán)留給了客戶。
一些最初是面向其他新聞目標(biāo)的公司也加入了競爭??偛课挥诙及亓值腘ewsWhip向新聞機(jī)構(gòu)銷售一款基于人工智能的工具,這款工具可以發(fā)現(xiàn)熱門內(nèi)容并預(yù)測其傳播情況,從而使新聞團(tuán)隊能夠快速注意到那些正在像病毒一樣迅速在網(wǎng)上傳播的新聞報道。在法國、英國和德國最近的選舉中,記者們利用該工具發(fā)現(xiàn)并揭穿了那些在社交網(wǎng)絡(luò)上廣受關(guān)注的虛假新聞報道。
總部位于倫敦的Krzana公司用一種定制的實時newsfeed幫助記者發(fā)現(xiàn)突發(fā)新聞。記者可使用Krzana的基于AI的工具發(fā)現(xiàn)四種語言(將來還會有更多種語言)的內(nèi)容,這些內(nèi)容是工具根據(jù)記者選擇的關(guān)鍵詞和搜索詞找出來的。在墨西哥最近的選舉中,一個媒體聯(lián)盟使用Krzana的工具快速找到了可能包含錯誤信息的新聞。
Krzana的共同創(chuàng)始人TobyAbel說:“記者是第一批閱讀這些報道的人,而不是等到這些報道被很多人分享后才去讀。如果它們是假的,它們很快就會遭到反擊?!?/p>
Abel說AI錯誤信息檢測器本身還不可靠,他同意需要人機(jī)合作。他引用了與2018年墨西哥大選有關(guān)的一個例子,在這次大選中,一位政治候選人以戲謔的方式回應(yīng)了對其與俄羅斯的關(guān)系的指控:他走到碼頭,宣稱自己正在等他的俄羅斯?jié)撏??!叭绻跊]有外部背景和理解的情況下閱讀這篇文章,它看起來就像假新聞。但事實上并非如此?!卑⒇悹栒f。
對于試圖識別虛假內(nèi)容的人工智能系統(tǒng)來說,諷刺性表達(dá)是最棘手的問題之一。各公司也在努力找出圖像、視頻、圖表和其他非文本內(nèi)容中的錯誤信息。欺騙的可能性似乎無窮無盡,例如,照片可能是合理的,但其標(biāo)題可能具有誤導(dǎo)性。
總部位于倫敦的非營利性事實核查機(jī)構(gòu)FullFact試圖避開灰色地帶。它正在利用機(jī)器學(xué)習(xí)來改進(jìn)一種能掃描文本和視頻腳本的工具,尋找經(jīng)濟(jì)趨勢和法律訴訟等主題的、可被事實核查人員核實的事實類報道。FullFact的自動事實核查負(fù)責(zé)人MevanBabakar表示,該工具還將來自許多不同新聞來源的類似報道聚集在一起?!耙虼?,在每一天的開始,我都會對我的事實核查員們說,'這是排名前五的像野火一樣蔓延的最熱門報道。'”
Factmata的Ghulati表示,今天的AI系統(tǒng)可能還沒有準(zhǔn)備好獨(dú)立解析復(fù)雜的報道或做出關(guān)于真相的精細(xì)決策,但這并不意味著現(xiàn)在不應(yīng)該部署它們?!帮L(fēng)險在于,你試圖得到假新聞的完美定義,卻永遠(yuǎn)得不到答案”,他說,“重要的是要建造一些東西?!?/p>
本文的節(jié)略版將刊登在2018年9月那一期的印刷版IEEESPECTRUM上。
-
Facebook
+關(guān)注
關(guān)注
3文章
1432瀏覽量
59019 -
人工智能
+關(guān)注
關(guān)注
1819文章
50146瀏覽量
265840 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8558瀏覽量
137059
原文標(biāo)題:AI與人聯(lián)手,有望使“假新聞”不再猖獗
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
AI系統(tǒng)可能還沒有準(zhǔn)備好獨(dú)立解析復(fù)雜的報道或做出關(guān)于真相的精細(xì)決策
評論