應用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

推文照片預覽有種族偏見?Twitter回應:將開源算法

2020-09-23 14:15 智東西

導讀:針對多名用戶稱推文預覽存在種族歧視的問題,Twitter回應,將展開更多調(diào)查并公開算法源代碼,歡迎用戶查看算法、提出意見。

先前,多名用戶發(fā)現(xiàn),在有不同人種的照片中,Twitter的自動圖像裁剪算法會在選擇預覽推文呈現(xiàn)的縮略圖區(qū)域時,更加突出膚色更淺的人像區(qū)域。

一、多個實驗表明,圖像剪裁算法更難識別深色人種

在滑動手機時,人們通常不會注意到附在推文預覽上的縮略圖,但在上周,研究人員卻發(fā)現(xiàn)用于提取縮略圖的裁剪算法可能更“偏心”白種人。

在多名用戶發(fā)布的不同人種的照片中,Twitter傾向于在縮略圖中突出淺色人種的圖像,而如果你點擊這些原始圖片,可以看到其中包含更多其他膚色的人群,但即使改變了原圖中深色人種和淺色人種出現(xiàn)的位置,預覽結(jié)果也不會改變。

密碼及基礎(chǔ)架構(gòu)工程師Tony Arcieri也在推特上進行了一項實驗,展示了美國前總統(tǒng)巴拉克·奧巴馬(Barack Obama)和參議員米奇·麥康奈爾(Mitch McConnell)的面孔。而無論二人位置如何,或者改變其他潛在干擾因素,例如領(lǐng)帶的顏色等,算法都傾向于在預覽的縮略圖中展示Mitch McConnell的臉。

也有網(wǎng)友認為,出現(xiàn)這一情況是因為算法更傾向于提取圖像中的亮度高和色彩密度大的區(qū)域,并不是“偏見”。

二、Twitter最新回應:測試中并未發(fā)現(xiàn)種族歧視證據(jù)

針對該實驗,Twitter發(fā)言人利茲·凱利(Liz Kelley)回應稱,在算法正式使用前的測試中并沒有發(fā)現(xiàn)種族或性別歧視的證據(jù),但仍需進一步分析,并補充,公司將公開機器學習算法的源代碼,以便“其他人可以查看和復制” Arcieri實驗的結(jié)果,并深入探討問題的根源。

德國的開發(fā)人員比安卡·卡斯特(Bianca Kastl)就其中一個線程中解釋道,Twitter的算法可能是基于顯著性,也就是人們視覺搜索的順序,來裁剪圖像的。

Twitter在2018年的博客文章中支持了他的理論,并解釋了其用于圖像裁剪的神經(jīng)網(wǎng)絡(luò)算法。先前,Twitter將面部檢測功能納入裁剪圖像的部分,但這種方法并不適用于沒有面孔的圖像,所以社交網(wǎng)絡(luò)轉(zhuǎn)而采用了基于顯著性的算法。

但即使Twitter算法并沒有有意地產(chǎn)生“種族偏見”,但也有足夠多證據(jù)證明,其在研發(fā)過程中的缺陷導致“種族歧視”出現(xiàn)。 NVIDIA的AI研究總監(jiān)Anima Anandkumar指出,顯著性算法采用的訓練集,是異性戀男性的眼球追蹤的數(shù)據(jù),而這顯然會將受試者的種族偏見轉(zhuǎn)移給算法。

三、錯誤識別引起烏龍,算法“偏見”并非個例

基于性別膚色的面部識別準確率差異早已不是新鮮事了。早在2018年,微軟在識別膚色較淺的男性時,準確性就已達到了100%,但在識別深色皮膚女性時,準確率僅為79.2%。

在推特“偏見”事件發(fā)生前,今年六月初,微軟也同樣因為面部識別涉及種族歧視引起了一場烏龍。英國知名女團Little Mix成員Jade Thirlwall發(fā)文,猛烈抨擊微軟新聞網(wǎng)站MSN在關(guān)于自己的報道中混淆使用了團內(nèi)另一位成員的照片,隨后,該篇報道證實是由AI抓取并生成,卻在尋找配圖時把黑皮膚的Leigh和阿拉伯裔的Jade弄混了。

隨著越來越多的新聞網(wǎng)站和社交媒體采用AI識別、提取圖片,人們開始注意到許多算法,尤其是面部識別中存在的種族偏見。

結(jié)語:算法偏見問題正引起重視

越來越多的用戶投訴網(wǎng)站中潛在的種族偏見,再加上“黑人的命也是命”的抗議活動升級后,許多科技公司被迫反思系統(tǒng),尤其是面部識別技術(shù)中存在的偏見,包括IBM和Amazon在內(nèi)的一大批公司緊急暫?;蛑兄姑娌孔R別系統(tǒng)的工作。

Twitter也承諾將其圖像裁剪的機器學習算法開源,接受更多用戶的審查和建議,其首席技術(shù)官Parag Agarwal表示,該算法需要不斷改進,團隊也渴望從經(jīng)驗中學習。