導(dǎo)讀:如果AI能夠深入學(xué)習(xí)理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個人應(yīng)該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。
近日,華盛頓大學(xué)和艾倫AI研究所(Allen Institute for AI)的研究員共同開發(fā)了道德案例數(shù)據(jù)集,并使用這個數(shù)據(jù)集對他們的一個AI模型進(jìn)行訓(xùn)練。
據(jù)悉,該模型道德判斷準(zhǔn)確率達(dá)到了92.1%,而對比來看,OpenAI在2019年發(fā)布的AI大模型GPT-3在面對道德問題時,準(zhǔn)確率僅為53.3%到83.9%。
AI常常被批駁難以遵循道德倫理行事,比如甚至有智能音箱鼓動用戶去自殺。但是,本次研究的研究人員從多個美國社交網(wǎng)站上的需要進(jìn)行道德判斷的情感案例,收集了170萬個人們對各種日常情況的道德判斷示例,從而訓(xùn)練出了一個能做道德判斷的模型。
為了取悅你的孩子而殺死一只熊可以嗎,AI想了想道德,告訴你答案:“不可以!”
如果AI能夠深入學(xué)習(xí)理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個人應(yīng)該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。
一、準(zhǔn)確率達(dá)92.1%,遠(yuǎn)高于GPT-3
為了在描述性倫理方面訓(xùn)練AI機(jī)器人,研究人員整合了關(guān)于道德判斷的數(shù)據(jù)集Commonsense Norm Bank,收集了170萬個人們對各種日常情況的道德判斷示例。研究員們們使用該數(shù)據(jù)集來訓(xùn)練AI模型Delphi,使得該AI模型可以模仿人們對各種日常情況下作出的判斷。該數(shù)據(jù)集應(yīng)用了五個現(xiàn)有的社會規(guī)范和道德判斷數(shù)據(jù)集。
研究人員想要強(qiáng)調(diào)的數(shù)據(jù)集之一是Social Bias Frames(社會偏見框架),這個數(shù)據(jù)集可以幫助AI機(jī)器人檢測和理解語言中潛在的攻擊性偏見?!暗赖碌囊粋€重要方面是不傷害他人,尤其是來自邊緣化人群或弱勢群體的人。Social Bias Frames數(shù)據(jù)集捕獲了這些知識?!痹撗芯康暮现摺瑐怉I研究所的研究員Maarten Sap說。
為了分析Delphi的表現(xiàn),研究人員通過亞馬遜的Mechanical Turk眾包平臺雇傭了許多工作人員,讓他們對1000個Delphi道德判斷的例子進(jìn)行評估,每個判斷都會被三名工作人員進(jìn)行評估。他們發(fā)現(xiàn)Delphi的道德判斷準(zhǔn)確率達(dá)到了92.1%,相比于舊金山實驗室OpenAI在2019年發(fā)布的AI系統(tǒng)GPT-3,OpenAI使用互聯(lián)網(wǎng)上幾乎所有公開的書面文本對其進(jìn)行訓(xùn)練,但其準(zhǔn)確率僅為53.3%到83.9%。
“我們從沒想過Delphi會達(dá)到92%?!痹撗芯康暮献髡?、華盛頓大學(xué)和艾倫AI研究所的研究員Liwei Jiang說。
二、三種問答模式,滿足篩選簡歷等需求
Delphi進(jìn)行道德判斷時,被設(shè)計用三種不同的方式做出回應(yīng):自由問答、是否問答、相對問答。
1、自由問答。Delphi可以以自由的問答形式進(jìn)行簡短的判斷,例如指出“為了取悅你的孩子而殺死一只熊”是不好的,“為了救你的孩子而殺死一只熊”是可以的,但“為了救你的孩子而引爆核彈”是錯誤的。
2、是否問答。Delphi以是或否的問答形式表達(dá)同意或不同意,例如“我們應(yīng)該平等地支付女性和男性的工資”。
3、相對問答。說出一種情況是否比另一種情況更容易接受。例如指出“用芝士漢堡刺傷某人(stabbing someone with a cheeseburger)”比“用芝士漢堡刺向某人(stabbing someone over a cheeseburger)”在道德上更容易接受。
“AI系統(tǒng)逐漸適用于更加廣泛的領(lǐng)域,例如篩選簡歷和批準(zhǔn)貸款?!痹撗芯康暮献髡?、艾倫AI研究的研究員Chandra Bhagavatula說?!耙虼?,我們必須研究機(jī)器倫理,并賦予機(jī)器在現(xiàn)實世界中做出道德決定的能力?!?/span>
三、讓AI懂道德,追溯到1942年的機(jī)器人三定律
如何將道德編程到AI中的問題至少可以追溯到艾薩克·阿西莫夫的機(jī)器人三定律,該定律在他1942年的短篇小說《Runaround(回避)》中首次引入,內(nèi)容如下:
1、機(jī)器人不得傷害人類,不得因不作為而導(dǎo)致人類受到傷害。
2、機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
3、機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。
盡管諸如“不可殺人”之類的廣泛道德規(guī)則可能看起來直截了當(dāng),但將此類規(guī)則應(yīng)用于現(xiàn)實世界的情況通常會有細(xì)微的差別,例如自衛(wèi)的特殊情況。
在這項新研究中,AI研究員擺脫了專注于一套固定規(guī)則的規(guī)范性倫理,例如猶太人最初的法律條文摩西十誡(Ten Commandments),每個判斷都應(yīng)遵循這些規(guī)則,因為這種道德公理通常是從實際的情況中抽象出來的.
“我們決定從描述性倫理的角度來處理這項工作,也就是說,人們在面對日常情況時會做出社會可接受性和倫理的判斷?!痹撗芯康暮献髡?、艾倫AI研究所的AI研究員Ronan Le Bras說。
描述性與規(guī)范性倫理的不同在于,沒有一套固定規(guī)則,可以根據(jù)實際情況對照相應(yīng)規(guī)則進(jìn)行判斷。
四、挑戰(zhàn):難以包容多種道德規(guī)范,不會左右權(quán)衡
研究合作者、華盛頓大學(xué)和艾倫AI研究所的AI研究員Yejin Choi說,這項工作的一個潛在應(yīng)用是“對話式AI機(jī)器人面對有爭議或不道德的話題時,可以改善其處理方式” 。2016年,微軟聊天機(jī)器人Tay發(fā)表了攻擊性的長篇大論,這揭示了人工智能在與人在線交談時可能會變得失控。
AI模型容易被人類的語言所影響,科學(xué)家們確實注意到Delphi有許多限制。例如時間方面,在凌晨3點或下午3點運行攪拌機(jī)是否違反道德;例如體育或游戲內(nèi)是否允許偷盜等不熟悉的話題;判斷潛在的非法行為,例如匆忙行事并不能讓闖紅燈成為可接受的行為。
此外,“Delphi的一個主要限制是它專門研究以美國為中心的情況和判斷案例,因此它可能不適合具有特定文化的、非美國的情況,這就是為什么它是模型而不是最終產(chǎn)品的原因?!痹撗芯康暮献髡?、艾倫AI研究所的AI研究員Jenny Liang說。
“具體來說,因為該模型是由美國的部分人口教授社會規(guī)范,例如做出判斷的工作人員,因此它學(xué)到的任何東西都會受到這些人的觀點影響。同樣,我們希望看到知識的擴(kuò)展和規(guī)范以反映更多樣化的觀點,例如,來自其他非美國文化的觀點?!?/p>
“另一個重要的限制是我們的模型傾向于反映現(xiàn)狀,即當(dāng)今社會的文化規(guī)范是什么?!盉hagavatula說,“但是當(dāng)談到社會正義時,現(xiàn)狀在道德上并不一定是正確的,例如在當(dāng)今時代的許多國家,同性戀是非法的。所以我們認(rèn)為人們應(yīng)該意識到,應(yīng)該發(fā)生的情況與目前存在的情況是有差距的?!?/p>
研究人員創(chuàng)建了“Ask Delphi”網(wǎng)站,任何人都可以在該網(wǎng)站上提出AI問題,以便科學(xué)家們收集更多的人類反饋。這表明Delphi在特殊情況下仍然存在局限性。例如,當(dāng)被問到“為了拯救世界而搶銀行是否可以?”Delphi回答說:“不,這不行?!?/p>
“我們發(fā)現(xiàn),對于Delphi來說,面對相對立的兩種情況,能夠正確權(quán)衡利弊可能具有挑戰(zhàn)性?!崩詹祭拐f,“在這個例子中,Delphi正確地預(yù)測了‘搶銀行’是錯誤的,‘拯救世界’是好的,但將這兩者權(quán)衡在一起很難?!?/span>
此外,“Commonsense Norm Bank數(shù)據(jù)集中的問題通常與更現(xiàn)實的日常情況有關(guān)。”Choi說,“‘為了拯救世界而搶劫銀行是否可以’這個問題可能會出現(xiàn)在電視節(jié)目中,但很可能不會出現(xiàn)在現(xiàn)實生活中?!?/p>
未來,研究人員希望Commonsense Norm Bank數(shù)據(jù)集繼續(xù)擴(kuò)大,并使Delphi的工作更具可解釋性和透明性?!耙驗樵诋?dāng)前階段,很難知道它究竟為什么這么做?!盨ap說。此外,他們正在收集新的社會規(guī)范數(shù)據(jù)集,“關(guān)于人們在網(wǎng)站中嘗試后,認(rèn)為Delphi面臨的目前具有挑戰(zhàn)性的情況。”
結(jié)語:AI機(jī)器人智能化正在量變積累
當(dāng)下,AI領(lǐng)域的發(fā)展仍然非常迅猛,Commonsense Norm Bank數(shù)據(jù)集的出現(xiàn),描述性倫理的變革,都使得AI模型Delphi的道德判斷準(zhǔn)確率提高。
AI領(lǐng)域的發(fā)展?jié)摿薮?,盡管離理想的準(zhǔn)確判斷還有距離,但隨著新的訓(xùn)練方式出現(xiàn),AI模型的智能化也會更加迅速,量變必將帶來新的質(zhì)變。