91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如果讓自動駕駛汽車通過程序自行判斷,結(jié)果又將如何呢?

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-10-26 09:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著自動駕駛汽車的普及,其安全性問題被社會廣泛關(guān)注。人類在遇到車禍時會本能的對“先救誰”進行選擇,而若是以編程形式讓自動駕駛汽車也具有這樣的功能,道德決策又將如何選擇?今日,MIT在Nature上便發(fā)表了題為“道德機器(the Moral Machine)實驗”的論文,對該問題進行了研究與探討。

“我和你的老母親同時掉進水里,你先救誰?”

這道世紀難題令多少英雄好漢競折腰,那么如果讓自動駕駛汽車通過程序自行判斷,結(jié)果又將如何呢?

讓我們先來回顧近期慘不忍睹的自動駕駛車禍事故:

2018年3月18日,Uber自動駕駛汽車沖撞一路人女子,該女子不幸身亡;

2018年1月10日,福特投資的Argo AI發(fā)生交通事故,導(dǎo)致車內(nèi)兩人受傷;

2016年5月7日,特斯拉Model S與掛車相撞,駕駛員不幸身亡;

2016年1月20日,京港澳高速,特斯拉轎車撞上作業(yè)車,駕駛員不幸身亡;

......

隨著自動駕駛的普及,人們在享受便利與高效的同時,也必須考慮自動駕駛的安全性問題。這對社會來說也無疑是增添了一份負擔(dān):對汽車進行編程,在發(fā)生交通事故的時候,使其具備優(yōu)先拯救哪些生命的能力。

在這種情況下,人類駕駛員肯定會本能地去選擇先救誰,但是對于算法來說,這道選擇題應(yīng)當(dāng)是提前就有答案了的。那么汽車公司和政府又會做出怎樣的選擇呢?救老人還是孩子?救多數(shù)人還是少數(shù)卻很特殊的人?

今天,MIT發(fā)表了一篇論文,探討了公眾對這些問題的看法,并整理了2016年啟動的一個名為the Moral Machine(道德機器)的在線測試數(shù)據(jù)。

The Moral Machine實驗

它要求用戶對虛擬的車禍做出一系列道德決策,類似于著名的“電車難題(trolley problem)”。

“電車難題(Trolley Problem)”是倫理學(xué)領(lǐng)域最為知名的思想實驗之一,其內(nèi)容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。然而問題在于,那個瘋子在另一個電車軌道上也綁了一個人??紤]以上狀況,你是否應(yīng)拉桿?

研究人員對9個不同的因素進行了測試,其中包括用戶更傾向撞到男性還是女性,選擇拯救多數(shù)人還是少數(shù)人,犧牲年輕人還是老人,普通行人還是橫穿馬路的行人,甚至還會在地位低和地位高的人之間做出選擇。

The Moral Machine中的一個場景示例:用戶應(yīng)該撞向路人還是障礙物?

來自233個國家和地區(qū)的數(shù)百萬用戶參加了測驗,共計制定了4000萬個道德決策。 根據(jù)這些數(shù)據(jù),該研究的作者發(fā)現(xiàn)了一些較為一致的全球偏好(global preference):更傾向于拯救人類而不是動物、拯救多數(shù)人犧牲少數(shù)人、優(yōu)先拯救兒童。

因此,他們認為,在為自動駕駛汽車制定法律時,這些因素應(yīng)被視為政策制定者的“基石”。 但作者同時也強調(diào),這項研究的結(jié)果絕不是算法決策的模板。

論文的協(xié)作者Edmond Awad說:“我們試圖展示的是描述性倫理,即人們在道德決策中的偏好,但是,如果涉及到標準的道德規(guī)范時,該如何做出選擇,這應(yīng)該由專家來決定。”

數(shù)據(jù)還顯示,不同國家的道德偏好存在顯著差異。這與許多因素有關(guān),包括地理位置(例如,歐洲和亞洲國家之間的差異)和文化(個人主義社會和集體主義社會)。

值得注意的是,雖然在未來的某個時間必須開展這些決策相關(guān)的工作,但自動駕駛技術(shù)仍有很長的路要走。 自主性仍然處于起步階段,自動駕駛汽車仍然是原型,而不是產(chǎn)品。 專家們還說,雖然目前尚不清楚這些決定將來會以什么樣的編程方式與車輛進行結(jié)合,但顯然還是需要進行公眾咨詢和辯論的。

加州理工大學(xué)倫理+新興科學(xué)小組主任Patrick Lin說:“由于自動駕駛汽車是第一個大規(guī)模融入社會的AI產(chǎn)物,所以在自動駕駛方面所發(fā)生的一些列事情都將為其它人工智能機器人技術(shù)定下基調(diào)。”

文化如何影響道德偏好?

Moral Machine調(diào)查得出的結(jié)果表明,在涉及到這些道德困境時,有一些共同的原則。但該論文的作者還發(fā)現(xiàn)了一些偏好上的差異,這些差異遵循著一定的分類。這些差異沒有一個是違背核心原則的(例如少數(shù)服從多數(shù)的原則)但它們確實在一定程度上有所不同。

研究人員發(fā)現(xiàn),在亞洲和中東的一些國家,比如中國、日本和沙特阿拉伯,“保全年輕人而非年長者”的傾向“不那么明顯”。與來自歐洲和北美的人相比,這些國家的人也相對較少地關(guān)心保全“高凈值”個人。

這項研究的作者認為,這可能是由于個人主義文化和集體主義文化之間的差異。前者強調(diào)每個人作為個體的獨特價值,“更傾向于保全更多數(shù)量的人?!迸c此相反,在保全年輕人方面更弱的偏好可能是集體主義文化的結(jié)果,“強調(diào)對社區(qū)中年長成員的尊重。”

作者認為,這些差異表明,“地理和文化上的接近可能會讓不同國家的人在機器倫理方面有一致的偏好?!?/p>

然而,還有其他因素與這些差異相關(guān),不一定是地理上的。例如,不那么富裕的國家,它的人均國內(nèi)生產(chǎn)總值(GDP)較低,民間機構(gòu)較弱,更可能撞守規(guī)矩過馬路的人而不是亂穿馬路的人,“大概是因為他們遵守規(guī)則的經(jīng)驗較少,對不守規(guī)則的懲罰也較輕”。

不過,作者強調(diào),Moral Machine的結(jié)果絕不是對不同國家的道德偏好的最終評估。

首先,這個測試是自選的,參與者都是相對懂技術(shù)的人。測試的結(jié)構(gòu)也消除了細微的差異。參與者只有兩個明確的選擇:殺死這些人,或殺死那些人。在現(xiàn)實生活中,這些決定都是概率性的,每個人都會在不同嚴重程度的結(jié)果中做選擇。(“如果我令這輛卡車突然轉(zhuǎn)向,很有可能以低速撞到那個行人”,等等。)

盡管如此,專家們表示,這并不意味著這樣的測試無關(guān)緊要。Patrick Lin說,這些困境的人為性質(zhì)是“特征,而不是bug”,因為它們消除了“混亂的變量,以便集中于我們感興趣的特定變量”。

他補充說,即使汽車不會經(jīng)常在撞到物體X或物體Y之間做出選擇,它們?nèi)匀恍枰獧?quán)衡相關(guān)的決定,比如給這些東西留出多寬的空間。這仍然是“一個基本的道德問題,”Lin說,“所以我們現(xiàn)在需要討論這個問題。”

一臺攝像機透過谷歌自動駕駛汽車的格柵窺視。Photo by Sean O’Kane / The Verge

將道德規(guī)范轉(zhuǎn)變法律

但在這些問題上,我們離需要立法還有多遠?公司什么時候開始將道德決策編碼到自動駕駛汽車里?

對第二個問題的回答是,現(xiàn)在已經(jīng)有了。這是真的,因為每一個算法都會做出某種決定,其中一些會產(chǎn)生倫理上的后果。但從更具體的角度來看,即使相關(guān)公司不愿意公開談?wù)撨@些算法偏好,也很可能會編碼粗略的偏好。

例如,早在2014年,Google X的創(chuàng)始人 Sebastian Thrun就表示,公司的原型自動駕駛汽車將在發(fā)生碰撞時選擇撞擊兩個物體中的較小者。在2016耐能,谷歌的Chris Urmson表示,該公司的無人車將“盡量避免撞倒無保護的道路使用者:騎自行車的人和行人”。同年,據(jù)報道,梅賽德斯-奔馳的一名經(jīng)理表示,該公司的自動駕駛汽車將優(yōu)先考慮撞車事故中乘客的生命安全,但該公司后來否認了這一說法。

公司不愿意公開這些決策是可以理解的。一方面,自動駕駛系統(tǒng)還不夠復(fù)雜,無法區(qū)分年輕人和老年人。最先進的算法和傳感器可以區(qū)分明顯不同的東西,比如松鼠和騎自行車的人,但它們無法區(qū)分比這更細微的東西。此外,公司不管說他們優(yōu)先考慮誰的生命——人或動物、乘客或行人——都是會讓某些人感到不安的決定。這就是為什么說這些都是道德困境:沒有簡單的答案。

歐洲政策研究中心(Centre for European Policy Studies)高級研究員Andrea Renda表示,私營企業(yè)在這些問題上做的工作最多?!八綘I企業(yè)正在對此采取行動,但政府可能發(fā)現(xiàn)這還不夠,”Renda說。在歐洲,歐盟正在制定道德準則,并可能通過“命令和控制立法,或通過認證和聯(lián)合監(jiān)管”來執(zhí)行這些準則。在美國,國會已經(jīng)公布了兩黨共同制定的潛在監(jiān)管原則,但聯(lián)邦監(jiān)管可能會緩慢進行,目前尚不清楚議員們是否想要深入車禍的道德偏好這一泥沼。

Renda 警告說,盡管公眾需要參與到這些辯論中來,但“僅僅依靠自下而上的協(xié)商將是極其危險的?!彼f,各國政府和專家需要做出選擇,重申人權(quán)。

但在德國,我們已經(jīng)看到了新的問題。德國是目前唯一一個對自動駕駛汽車的倫理選擇提出官方指導(dǎo)方針的國家。議員們試圖剖析電車問題的棘手之處,指出所有人的生命都應(yīng)該被平等對待,任何基于個人特征的區(qū)別,如年齡或性別,都應(yīng)該被禁止。

但正如MIT的研究人員指出的那樣,如果這一選擇得以實施,將有悖于公眾傾向于拯救年輕人多于老年人的偏倚。他們會問,如果政府推出這項政策,它將如何應(yīng)對這種集體反對,“當(dāng)自動駕駛汽車在道德困境中選擇犧牲兒童的那一天,這種抵制將不可避免地發(fā)生。”

Awad說,這種沖突是“不可避免的”,但必須成為這個過程的一部分?!爸匾氖且屵@些決定變得透明,”他說,“要公開說明正在做什么。如果這一切都發(fā)生在幕后,只對人們說’相信我們’,我認為這是不會被接受的。每個人都需要參與到這些決策中來。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50134

    瀏覽量

    265748
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14903

    瀏覽量

    180236

原文標題:Nature大型調(diào)查:當(dāng)AI遭遇電車難題,它將拯救誰?

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛如何做好數(shù)據(jù)閉環(huán)?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛系統(tǒng)能否穩(wěn)定、安全地工作,關(guān)鍵在于它能不能持續(xù)學(xué)習(xí)、持續(xù)改進。自動駕駛系統(tǒng)并不是靠一個寫好的程序就能一直用下去的,它在運行過程中會經(jīng)常遇到“看不懂
    的頭像 發(fā)表于 02-23 14:00 ?1581次閱讀
    <b class='flag-5'>自動駕駛</b>如何做好數(shù)據(jù)閉環(huán)?

    如何構(gòu)建適合自動駕駛的世界模型?

    提出的。那世界模型是自動駕駛落地的正解嗎? 什么是世界模型? 世界模型對于自動駕駛汽車來說,更像是給汽車大腦里繪制一張地圖,可以將環(huán)境的現(xiàn)狀和未來可能的演變都表示出來,
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動駕駛</b>的世界模型?

    自動駕駛汽車如何完成超車?

    在我們?nèi)粘i_車時,別人想要超車,只要確認后方、旁邊有沒有車,打個燈、稍微加速、換個車道就完成了。這一動作乍一看非常簡單,但對自動駕駛汽車來說,這個過程需要多方協(xié)調(diào)。 自動駕駛車輛要完成
    的頭像 發(fā)表于 02-16 17:37 ?1.7w次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何完成超車?

    自動駕駛汽車如何實現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛
    的頭像 發(fā)表于 02-10 08:50 ?664次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何實現(xiàn)<b class='flag-5'>自動駕駛</b>

    自動駕駛汽車如何檢測石頭這樣的小障礙物?

    [首發(fā)于智駕最前沿微信公眾號]最近有一位小伙伴留言,想我聊聊自動駕駛汽車對于石頭這樣的小障礙物,是使用什么視覺任務(wù)檢測的。在直接回答“如何檢測”之前,其實要思考一個更根本的問題,對于一個像石頭這樣
    的頭像 發(fā)表于 12-24 16:53 ?1151次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何檢測石頭這樣的小障礙物?

    汽車自動駕駛的太陽光模擬應(yīng)用研究

    測試裝備,通過提供可控、可重復(fù)的測試環(huán)境,已成為汽車自動駕駛研發(fā)、驗證與標定過程中不可或缺的核心工具。汽車
    的頭像 發(fā)表于 12-10 18:04 ?453次閱讀
    <b class='flag-5'>汽車</b><b class='flag-5'>自動駕駛</b>的太陽光模擬應(yīng)用研究

    自動駕駛汽車如何確定自己的位置和所在車道?

    [首發(fā)于智駕最前沿微信公眾號]我們平時開車時,判斷自己在哪條路、哪個車道,只需要看一眼導(dǎo)航、掃幾眼車道線、再聽聽提示就夠了。但對自動駕駛汽車來說,這件事既簡單又復(fù)雜。簡單在于自動駕駛
    的頭像 發(fā)表于 11-18 09:03 ?916次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何確定自己的位置和所在車道?

    如何確保自動駕駛汽車感知的準確性?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車想要自動駕駛,首先要做的就是能對周邊環(huán)境實現(xiàn)精準感知,也就是能“看”清道路,那自動駕駛汽車如何在復(fù)
    的頭像 發(fā)表于 08-23 15:06 ?1710次閱讀
    如何確保<b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>感知的準確性?

    自動駕駛汽車直行時遇到左轉(zhuǎn)汽車應(yīng)該如何行駛?

    [首發(fā)于智駕最前沿微信公眾號] 當(dāng)自動駕駛汽車在道路上直行時,如果前方或鄰道的車輛正準備左轉(zhuǎn),系統(tǒng)必須在復(fù)雜的交通情境中快速、準確地做出判斷。這不僅關(guān)乎行車安全,更是對
    的頭像 發(fā)表于 08-17 11:33 ?2211次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>直行時遇到左轉(zhuǎn)<b class='flag-5'>汽車</b>應(yīng)該如何行駛?

    自動駕駛汽車如何正確進行道路識別?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車在行駛過程中必須準確識別道路環(huán)境,以便做出安全有效的決策,不同于人類開車,可以思考,自動駕駛汽車
    的頭像 發(fā)表于 06-29 09:40 ?1740次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何正確進行道路識別?

    自動駕駛汽車是如何準確定位的?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)的快速發(fā)展,車輛的精準定位成為安全駕駛與路徑規(guī)劃的核心基礎(chǔ)。相比于傳統(tǒng)人類駕駛依賴路標和視覺判斷自動
    的頭像 發(fā)表于 06-28 11:42 ?1304次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>是如何準確定位的?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報道 自動駕駛ODD(Operational Design Domain)即設(shè)計運行域,是指自動駕駛系統(tǒng)被設(shè)計為安全、有效運行的具體條件范圍。它定義了自動駕駛汽車在哪些
    的頭像 發(fā)表于 05-19 03:52 ?6515次閱讀

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強到測試驗證的加速,AI可以自動駕駛從實驗室走向大規(guī)模商業(yè)化。 對于感知
    的頭像 發(fā)表于 05-04 09:58 ?875次閱讀

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    自動駕駛汽車的開發(fā)。正確的技術(shù)與框架對確保自動駕駛汽車駕駛員、乘客和行人的安全至關(guān)重要。 因此,NVIDIA 推出了NVIDIA Halos綜合安全系統(tǒng),將 NVIDIA 的
    的頭像 發(fā)表于 03-25 14:51 ?1200次閱讀

    理想汽車推出全新自動駕駛架構(gòu)

    2025年3月18日,理想汽車自動駕駛技術(shù)研發(fā)負責(zé)人賈鵬在NVIDIA GTC 2025發(fā)表主題演講《VLA:邁向自動駕駛物理智能體的關(guān)鍵一步》,分享了理想汽車對于下一代
    的頭像 發(fā)表于 03-19 14:12 ?1122次閱讀