應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

新華社評論:AI犯錯不可怕 反躬自省糾正它

2018-10-19 14:57 新華網(wǎng)
關(guān)鍵詞:人工智能AI機器人

導(dǎo)讀:人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導(dǎo)了幾百年男女平權(quán)的西方社會,性別歧視問題依然如此嚴峻。

最近,亞馬遜招聘軟件被爆出具有“重男輕女”的傾向,給女性求職者打低分。這一時刷新了人們對人工智能更加客觀科學(xué)的看法。按照亞馬遜研究團隊最初的設(shè)想,給招聘軟件輸入100份簡歷,它會吐出前5名,然后公司就可優(yōu)先雇用他們,這將大大緩解人力資源部門的壓力,結(jié)果卻事與愿違。

現(xiàn)在不少大公司或許沒有亞馬遜這般“一攬子”解決選才問題的雄心,但在招聘過程中,通過人工智能來篩選簡歷、推薦崗位,卻是習(xí)以為常的事。在許多招聘者看來,人工智能可以減少招聘人員主觀意見的影響。但亞馬遜的失敗案例,為越來越多正在尋求自動化招聘流程的大型公司提供了一個教訓(xùn)。同時,也促使人們反思技術(shù)倫理層面的算法公平問題。顯然,在亞馬遜的案例中,人工智能不僅繼承了人類社會的偏見,而且把這種偏見進行了“提純”,使它更加“精準”而“直接”。

更關(guān)鍵的是,人類的偏見經(jīng)過算法“洗地”之后,又披上了貌似客觀公正的“科學(xué)技術(shù)”的外衣。實際上,在有偏見的數(shù)據(jù)基礎(chǔ)上訓(xùn)練出來的系統(tǒng),也必然是有偏見的。比如,此前就爆出過微軟的聊天機器人Tay,在與網(wǎng)友的廝混中很快就學(xué)了滿嘴臟話,以及種族主義的極端言論,在推特上咒罵女權(quán)主義者和猶太人。這提醒我們注意,算法處理的數(shù)據(jù)是具有人類社會特點的,發(fā)展人工智能也好,運用算法也罷,必須目中有“人”,也就是要充分考慮到作為人工智能開發(fā)者的人類的局限性,以及這種局限性在人工智能中的“遺傳”。

有人說,孩子是父母的鏡子。人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導(dǎo)了幾百年男女平權(quán)的西方社會,性別歧視問題依然如此嚴峻。

人工智能不可能只在脫離現(xiàn)實人類語境的真空中使用,否則,人工智能也就失去了它的意義。而在可預(yù)計的將來,把人類自身推向完美也不過是美好的夢想。那么,如何克服人工智能自我學(xué)習(xí)中的這些問題,讓不完美的人類創(chuàng)造出接近完美的人工智能,就成為必須攻克的重要課題。

其實,以不完美創(chuàng)造完美,正是人類這個物種高明的地方。這一切的實現(xiàn),不是靠反智的玄想,而是靠不斷地打補丁和修復(fù),在科技進步中克服科技前行產(chǎn)生的漏洞。2017年曾有報道披露,在Google Image上搜索“doctor”,獲得的結(jié)果中大部分都是白人男性。這實際上反映了醫(yī)生總是與男性相連,護士總是與女性相連的社會現(xiàn)實。后來,通過修改算法,基本解決了這一問題。

進而言之,人工智能的漏洞被及時發(fā)現(xiàn)和得到糾正,有賴于科技政策和機制的進一步規(guī)范。在這個問題上,倡導(dǎo)算法在一定限度內(nèi)的透明和可解釋性,不失為可行之策,同時還應(yīng)加快建立人工智能犯錯追責機制。比如,日本已經(jīng)把AI醫(yī)療設(shè)備定位為輔助醫(yī)生進行診斷的設(shè)備,規(guī)定AI醫(yī)療設(shè)備出錯,由醫(yī)生承擔責任。這一做法是否完全合理,值得探討。但是,提高算法問責的意識并將之納入人工智能發(fā)展規(guī)劃和頂層設(shè)計,確為人工智能長遠發(fā)展并造福于人的必要舉措。