導(dǎo)讀:關(guān)于交通事故不可避免時的道德判斷標(biāo)準(zhǔn),沒有公司或者個人有權(quán)力或者愿意決定處于危急關(guān)頭時任何一個人的性命,畢竟每個人都只有一次生的機(jī)會,而沒有一條生命是能被放棄的。
圖片來自“123rf.com.cn”
【編者按】自動駕駛一直面臨著一個哲學(xué)問題,我們稱之為“電車難題(Trolley Problem)”,當(dāng)自動駕駛甚囂塵上,哲學(xué)問題變成了一個不得不面對的現(xiàn)實問題,當(dāng)意外來臨時,人類、法律和自動駕駛系統(tǒng)該如何選擇呢?
“一輛高速行駛的列車駛來,列車前面有兩條軌道,正常行駛的軌道上被綁著五個人,而另一條軌道上綁著一個人;你的手中有一根操控桿可以控制列車的行駛軌道,如果不拉下操縱桿,列車將撞上五個人,另外一條軌道的一個人將會得救;如果拉下操縱桿,列車將撞向一個人,正常行駛軌道上的五個人將會得救。如果是你,將怎樣選擇?”
聞名于哲學(xué)界的“電車難題(Trolley Problem)“在自動駕駛汽車時代”將不再只是一個哲學(xué)問題,而是每一個自動駕駛系統(tǒng)需要面對的真實問題,系統(tǒng)將決定在發(fā)生事故時撞向誰、保全誰。
現(xiàn)行的自動駕駛系統(tǒng)分為六個級別,Level 0—Level 5,從“僅提供提醒”到“無需駕駛員的全自動駕駛”,特斯拉的自動駕駛系統(tǒng)已經(jīng)可以達(dá)到L5,并且谷歌、百度等公司還在不斷的跟進(jìn)自動駕駛系統(tǒng)開發(fā)。
但是當(dāng)自動駕駛系統(tǒng)達(dá)到“全自動駕駛”時,系統(tǒng)的開發(fā)者就要認(rèn)真考慮多種兩難的情境:當(dāng)自動駕駛汽車處于“電車難題”情況下要怎樣選擇?在極端情況下,自動駕駛系統(tǒng)會選擇拯救年長者還是拯救青少年?而當(dāng)不可避免的事故發(fā)生時,法律將怎樣判定肇事責(zé)任?
麻省理工大學(xué)在2016年開發(fā)出了“道德機(jī)器(Moral Machine)”問卷測試網(wǎng)頁,通過問卷的方式調(diào)查全球各地的人在假定的 “電車難題”中如何做出選擇。在問卷之中,有九種獨立情況需要受試者做出判斷,分別是:人類和寵物之間的選擇、多數(shù)人和少數(shù)人之間的選擇、年長者和年輕人的選擇、遵守交規(guī)的人和違反交規(guī)的人之間的選擇等九個分類。
“道德機(jī)器(Moral Machine)”收集了來自233個國家的人做出的接近4000萬個選擇數(shù)據(jù)并進(jìn)行分析,并且將分析結(jié)果發(fā)表到了Nature上。研究發(fā)現(xiàn)了一些全球普遍的選擇傾向,比如受訪者較普遍地選擇了保護(hù)人類而不是其他動物;較普遍地選擇保護(hù)多數(shù)生命而不是少數(shù);較普遍的選擇保護(hù)青少年而不是年長者;較普遍的選擇保護(hù)遵守交規(guī)的人而不是違反交規(guī)的人。
除此之外,研究顯示在不同的國家和地區(qū),人們選擇也出現(xiàn)了很大的差異。本論文中,將所有的參加調(diào)查樣本分成了三個集群:第一,西部集群(Western),主要包括北美和歐洲,以天主教和傳統(tǒng)基督教文化為主的集群;第二,東部集群(Eastern),主要包括中國和亞洲國家,以儒家文化為主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法屬海外地區(qū)。
根據(jù)雷達(dá)圖可看出,來自不同地區(qū)的人的選擇存在差異;比如,其一,西部集群和南部集群傾向于保護(hù)年輕人,而東部集群這種傾向則不明顯;有可能是因為東部集群的“敬老”文化”的影響;其二,南部集群傾向于保護(hù)社會地位高的人,并且遠(yuǎn)超西部集群和東部集群。或許和南部地區(qū)的集權(quán)統(tǒng)治和軍閥當(dāng)政有關(guān)系;當(dāng)進(jìn)行了地區(qū)分類之后,還有一些奇怪的傾向,比如說,南部集群傾向于保護(hù)動物而不是人類。
由此可以預(yù)見的是,在未來自動駕駛法制化進(jìn)程中,首先我們需要一套所有人類達(dá)成共識的基本準(zhǔn)則(比如說優(yōu)先保護(hù)人類生命),并且通過聯(lián)合國或者其他國際組織讓其法制化,基本準(zhǔn)則就相當(dāng)于自動駕駛領(lǐng)域的憲法,其他自動駕駛相關(guān)的法案不得違背基本準(zhǔn)則。
然后各個國家可以根據(jù)每個地區(qū)使用者的特殊需求來制定不與基本準(zhǔn)則相沖突的補(bǔ)充法案,通過法律手段來規(guī)范自動駕駛中出現(xiàn)的部分“電車難題”。與此同時,各國的自動駕駛技術(shù)供應(yīng)商也需要按照各個國家地區(qū)的不同法律來對自動駕駛系統(tǒng)進(jìn)行定制設(shè)置,對每一套產(chǎn)品進(jìn)行合規(guī)檢查。
由于自動駕駛的發(fā)展還處于初期階段,各國政府都在積極制定法律法規(guī),美國德國等政府已經(jīng)承認(rèn)自動駕駛系統(tǒng)的合法地位,開始對自動駕駛汽車的道路測試等環(huán)節(jié)進(jìn)行規(guī)范(騰訊研究院,2018),中國政府也已經(jīng)開始積極籌備自動駕駛立法工作;但世界上極少有關(guān)于自動駕駛汽車的道德選擇的法律規(guī)范。
截止至今天,世界上唯一一份提供官方自動駕駛汽車道德官方指導(dǎo)的文件是德國聯(lián)邦運(yùn)輸及數(shù)字基礎(chǔ)設(shè)施部門在2017年6月發(fā)布的《German Ethics Commission on Automated and Connected Driving》中文譯名(暫):《德國道德委員會關(guān)于自動互聯(lián)化駕駛的指導(dǎo)準(zhǔn)則》(后簡稱《準(zhǔn)則》)。
《準(zhǔn)則》中首次嘗試對部分自動駕駛涉及的道德難題給出官方解答;
第七條中明確的指出,在極端情況下,自動駕駛系統(tǒng)需要將人類的安全置于首位,高于財產(chǎn)和動物安全;
第九條指出,在車禍不可避免的情況下,自動駕駛系統(tǒng)中任何基于個人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動駕駛系統(tǒng)在移動中產(chǎn)生危險時不能夠犧牲不相關(guān)的第三方。
這兩個條款意味著:其一,當(dāng)意外發(fā)生時系統(tǒng)會盡全力保護(hù)乘車人和行人的安全甚至可能會犧牲動物安全;其二,自動駕駛系統(tǒng)不被允許在意外來臨時做出道德判斷,比如選擇保護(hù)年輕人或者年長者,而且在車禍不可避免時,也不能夠選擇性地“犧牲”行人,不論行人是否違反交通規(guī)則。
第七條背后體現(xiàn)的是對人類生命權(quán)的保護(hù)和人道主義精神,具有普世意義,值得未來其他法案的借鑒。而第九條則要求自動駕駛系統(tǒng)不能在意外來臨時做出道德判斷,比如選擇保護(hù)年輕人或者年長者,而且不能夠選擇性地“犧牲”行人。本條法案排除掉了很多“電車難題”,但是在自動駕駛系統(tǒng)的實際運(yùn)行中缺乏一定的指導(dǎo)意義。
在道德難題之外,《準(zhǔn)則》還對自動駕駛的其他方面進(jìn)行了規(guī)定;
第十二條規(guī)定,公眾有權(quán)充分了解自動駕駛領(lǐng)域的新技術(shù)和自動駕駛技術(shù)在不同駕駛情況下的應(yīng)用;
第十五條規(guī)定,車輛所有者和駕駛者有權(quán)決定是否要將本車產(chǎn)生的自動駕駛數(shù)據(jù)分享或者給第三方使用等。
這兩條規(guī)定規(guī)范了公眾的知情權(quán)和數(shù)據(jù)決定權(quán)等基本權(quán)利,《準(zhǔn)則》中還有針對模糊情況的規(guī)范,本文暫不贅述。
《準(zhǔn)則》為各國的自動駕駛立法提供了一個有效參考,但是依然沒有能夠具有法律效力,并且沒有得到全球的普遍認(rèn)可。
在各國立法尚不完善的情況下,開發(fā)自動駕駛系統(tǒng)的公司已經(jīng)在悄無聲息地在算法中寫入了一些偏好,而這些偏好就將涉及到上文提及的道德判斷。
早在2014年時,Google就表示,Google的自動駕駛原型車會在撞擊中選擇“較小的物體”;在2016年,Google又表示,Google的自動駕駛系統(tǒng)會先保護(hù)行人,然后再選擇撞“較小的物品”。同在2016年,奔馳的高管曾表示,公司會“不惜一切代價的保護(hù)乘客安全”,這個表態(tài)引起了軒然大波,公眾認(rèn)為公司無權(quán)做出生命抉擇;后來奔馳公司又表態(tài),他們的目標(biāo)是“百分之百的避免事故”而不是做出道德選擇,風(fēng)波才逐漸平息。
可想而知,公司普遍不愿意回答媒體或者大眾提出的關(guān)于自動駕駛系統(tǒng)道德選擇的提問,因為首先,大家擔(dān)心為時尚早;現(xiàn)在的系統(tǒng)還只能夠在行人、動物和騎車者之間進(jìn)行判斷,甚至還不具備事故發(fā)生時迅速判斷個人特征的能力(比如:年齡、社會地位等);其次,沒有公司愿意搬起石頭砸自己的腳;在類“電車難題”中的任何判斷都將引起公眾地指責(zé)和質(zhì)疑,并且會直接影響到消費者的看法。
自動駕駛系統(tǒng)道德選擇背后涉及的是極大的倫理問題。在兩難問題中對任何一方的偏袒都會涉及到對另一方的歧視。比如:當(dāng)自動駕駛系統(tǒng)優(yōu)先選擇男性時,女性還敢選擇自動駕駛汽車嗎?行走在馬路上的女性能夠安心嗎?如果武斷的對自動駕駛倫理問題做出判斷將帶來極大的社會影響,并且剝奪某些群體的合法權(quán)益。
在自動駕駛飛速發(fā)展的時代,各家自動駕駛系統(tǒng)的最終目標(biāo)還是從技術(shù)上消除交通事故或者將交通事故對人類的傷害降到最低。關(guān)于交通事故不可避免時的道德判斷標(biāo)準(zhǔn),沒有公司或者個人有權(quán)力或者愿意決定處于危急關(guān)頭時任何一個人的性命,畢竟每個人都只有一次生的機(jī)會,而沒有一條生命是能被放棄的。