人工智能,是由人制造出來的機(jī)器所表現(xiàn)出來的智能,是通過普通計算機(jī)程序來呈現(xiàn)人類智能的技術(shù),人工智能正越來越廣泛地應(yīng)用于商業(yè)領(lǐng)域。
比如商家考慮使用人工智能來設(shè)置要出售給特定客戶的保險產(chǎn)品的價格,為不同的客戶設(shè)置不同的價格。這可以說是有正當(dāng)理由的,但是“玩弄”客戶的心理或購物意愿時常為的是可能會有利可圖。
人工智能具有很多潛在的策略可供選擇,這其中涉及到道德問題,有些策略不道德。這些策略不僅會帶來道德上的損失,而且會帶來巨大的潛在經(jīng)濟(jì)損失,因為如果利益相關(guān)者發(fā)現(xiàn)使用了這樣的策略,他們將對其施加一定的懲罰,比如客戶可能會投訴、抵制,還有監(jiān)管者可能會懲罰高達(dá)數(shù)十億美元的巨額罰款。
因此,在越來越多的決策無需人工干預(yù)而完全應(yīng)用人工智能的情況中,無論是商家還是客戶都有強(qiáng)烈的訴求,想了解人工智能系統(tǒng)在什么情況下可能采取不道德的策略,從而降低這種風(fēng)險,或者在可能的情況下完全消除這種風(fēng)險。
最近,由英國華威大學(xué)(University of Warwick)、帝國理工大學(xué)(Imperial College London)、洛桑聯(lián)邦理工學(xué)院(Lausanne EPFL)數(shù)學(xué)研究所和沃里克大學(xué)數(shù)學(xué)學(xué)院的數(shù)學(xué)家和統(tǒng)計學(xué)家組成的一個研究團(tuán)隊,發(fā)現(xiàn)了一種數(shù)學(xué)方法,可以幫助監(jiān)管機(jī)構(gòu)和業(yè)務(wù)管理并監(jiān)管人工智能系統(tǒng)偏向做出不道德、可能非常昂貴和破壞性商業(yè)選擇的偏見,幫助企業(yè)和監(jiān)管機(jī)構(gòu)制定了新的“不道德優(yōu)化原則”,并提供一個簡單的公式來估算其影響。他們的題為“不道德優(yōu)化原則”的論文發(fā)表在最近的皇家學(xué)會科學(xué)雜志上。
論文作者、華威大學(xué)數(shù)學(xué)研究所的羅伯特·麥凱教授說:“我們建議的‘不道德優(yōu)化原則’可用于幫助監(jiān)管機(jī)構(gòu)、合規(guī)人員和其他人員找到可能隱藏在大型策略空間中的問題策略。可以期望優(yōu)化會不成比例地選擇許多不道德策略,對其進(jìn)行檢查應(yīng)顯示在哪里可能會出現(xiàn)問題,因此建議應(yīng)如何修改人工智能搜索算法,以免今后避免使用它們。
該數(shù)學(xué)方法所體現(xiàn)的原則還表明,可能有必要重新考慮人工智能在非常大的戰(zhàn)略空間中的運(yùn)作方式,以便在優(yōu)化與學(xué)習(xí)過程中明確拒絕不道德的結(jié)果。
-
AI
+關(guān)注
關(guān)注
91文章
39793瀏覽量
301447 -
人工智能
+關(guān)注
關(guān)注
1817文章
50098瀏覽量
265415 -
數(shù)學(xué)
+關(guān)注
關(guān)注
0文章
99瀏覽量
19913
發(fā)布評論請先 登錄
一種新型數(shù)學(xué)方法,可遏制AI做出不道德的選擇
評論