應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

人工智能面部識(shí)別面臨的問題

2019-03-05 09:21 企業(yè)網(wǎng)D1Net

導(dǎo)讀:如今的人工智能的面部識(shí)別算法并不完美。如果企業(yè)正在考慮部署此技術(shù),那么應(yīng)該知道以下這些內(nèi)容。

如今的人工智能的面部識(shí)別算法并不完美。如果企業(yè)正在考慮部署此技術(shù),那么應(yīng)該知道以下這些內(nèi)容。

安裝在貨架上的攝像機(jī)配有人工智能面部識(shí)別軟件,可以識(shí)別消費(fèi)者的年齡、性別和種族,這是今年1月在紐約舉行的全美零售聯(lián)盟大型展會(huì)期間向零售公司推出的新興系統(tǒng)之一。

這個(gè)想法是給實(shí)體店提供人口統(tǒng)計(jì)信息,以指導(dǎo)他們?nèi)绾蜗騻€(gè)人客戶推銷。這對(duì)于像亞馬遜這樣一直在利用客戶數(shù)據(jù)的在線零售商而言具有競(jìng)爭(zhēng)優(yōu)勢(shì)。

但是,采用攝像頭捕捉客戶的照片,用一種他們甚至不會(huì)注意到的方式,是不是入侵性太強(qiáng)?除此之外,還有其他問題。如果該軟件錯(cuò)誤地將男性識(shí)別為女性并為其提供女性衛(wèi)生用品的折扣,該怎么辦?有什么后果?



零售環(huán)境中的后果可能并不十分重要,但客戶可能會(huì)感到煩惱,并在社交媒體上談?wù)?,并且不再回到那家商店?gòu)物。但是,在機(jī)器視覺和人工智能驅(qū)動(dòng)的面部識(shí)別軟件的其他應(yīng)用中,其后果會(huì)更嚴(yán)重嗎?

事實(shí)證明,人們對(duì)人工智能面部識(shí)別軟件非常關(guān)注,它在商業(yè)上可從許多主要供應(yīng)商獲得,其中包括微軟、IBM和亞馬遜。

最近的一項(xiàng)研究重點(diǎn)是,一些商業(yè)算法在識(shí)別膚色較深的人員和女性方面不如識(shí)別膚色較淺的男人準(zhǔn)確。這是以前討論過(guò)的一個(gè)話題。例如,2018年7月,美國(guó)公民自由聯(lián)盟(ACLU)對(duì)美國(guó)國(guó)會(huì)議員的照片應(yīng)用了亞馬遜算法,該算法確定其中28人是因犯罪而被捕的人。

最近麻省理工學(xué)院媒體實(shí)驗(yàn)室的一項(xiàng)研究提出這樣一個(gè)問題:這些商業(yè)算法的公開審計(jì)是否會(huì)影響供應(yīng)商對(duì)提高算法準(zhǔn)確性的關(guān)注。

這項(xiàng)研究報(bào)告由麻省理工學(xué)院的研究生Joy Buolamwini共同撰寫,他也是算法正義聯(lián)盟(Algorithmic Justice League)的創(chuàng)始人,該組織自稱致力于解決算法中的偏見。這項(xiàng)研究表明,這些算法最擅長(zhǎng)識(shí)別膚色較淺的男性。他們?cè)谧R(shí)別女性或膚色較深的人時(shí)表現(xiàn)不佳。研究還指出,一些供應(yīng)商在向他們指出這些問題后改進(jìn)了他們的算法。亞馬遜公司對(duì)這項(xiàng)研究的回應(yīng)刊登在《紐約時(shí)報(bào)》的文章中,Buolamwini已經(jīng)發(fā)表了她關(guān)于這個(gè)問題的聲明和回應(yīng),以及供應(yīng)商對(duì)媒體的回應(yīng)。

在機(jī)器學(xué)習(xí)中,根據(jù)所使用的訓(xùn)練數(shù)據(jù)的數(shù)量和類型,結(jié)果可能有偏差或不準(zhǔn)確。例如,亞馬遜公司使用機(jī)器學(xué)習(xí)來(lái)篩選求職者的簡(jiǎn)歷,最后得到了大多數(shù)的男性候選人。這可能是因?yàn)橛糜谟?xùn)練算法的歷史數(shù)據(jù)池中男性多于女性。

通過(guò)向用于訓(xùn)練算法的數(shù)據(jù)池中添加更多的數(shù)據(jù)或數(shù)據(jù)源,供應(yīng)商可以提高他們的人工智能面部識(shí)別系統(tǒng)的準(zhǔn)確性。

然而,供應(yīng)商也提供了一種安全閥來(lái)防止這些算法的缺陷。這些系統(tǒng)允許組織客戶設(shè)置一個(gè)閾值或置信水平。這可以根據(jù)組織為結(jié)果計(jì)劃的操作類型進(jìn)行設(shè)置。

全美零售聯(lián)盟展會(huì)展出的零售系統(tǒng)展示了它的運(yùn)作方式。例如,就性別而言,這些系統(tǒng)可能會(huì)確定某人是男性,但他們也會(huì)提供一個(gè)信心分?jǐn)?shù),基本上說(shuō)他們是67%(或其他百分比)確定這個(gè)人是男性。零售商已經(jīng)設(shè)定了他們?cè)敢饨邮艿闹眯潘?。因此,如果有人被推斷為具?7%置信度分?jǐn)?shù)的男性,并且零售商已將閾值水平設(shè)定為60%,則客戶將看到為男性定制的優(yōu)惠。如果零售商將閾值分?jǐn)?shù)設(shè)置為70%,則客戶的67%分?jǐn)?shù)將不會(huì)達(dá)到該閾值,并且客戶將看到可以對(duì)任何客戶(男性或女性)提供的通用報(bào)價(jià)。

例如,如果風(fēng)險(xiǎn)很高,在一個(gè)可能改變某人生活軌跡的執(zhí)法應(yīng)用程序中,組織可能會(huì)將閾值設(shè)置為99%。如果風(fēng)險(xiǎn)沒有那么高,他們可能會(huì)把門檻設(shè)置在一個(gè)較低的水平。

提高隱私意識(shí)

但是,收集客戶圖像是否存在隱私問題,特別是在GDPR法規(guī)和其他新數(shù)據(jù)隱私法已經(jīng)實(shí)施的時(shí)代中?全美零售聯(lián)盟展會(huì)的其中一位展臺(tái)代表表示,客戶的圖像不會(huì)被保留。但是,會(huì)保留并分析有關(guān)訪問特定顯示的客戶的人口統(tǒng)計(jì)數(shù)據(jù)的匯總數(shù)據(jù),以幫助零售商深入了解其客戶。

企業(yè)是否應(yīng)該嘗試使用人工智能面部識(shí)別軟件?這可能取決于應(yīng)用程序和風(fēng)險(xiǎn)等級(jí)。對(duì)于那些希望在數(shù)字競(jìng)爭(zhēng)對(duì)手中獲得優(yōu)勢(shì)的實(shí)體商店零售商來(lái)說(shuō),這些應(yīng)用程序可以開辟一個(gè)前所未有的數(shù)據(jù)和洞察世界。

在其他的情況下,采用機(jī)器視覺技術(shù)查找人們的圖像與已知圖像數(shù)據(jù)庫(kù)進(jìn)行匹配,例如用于打擊拐賣兒童犯罪。人工智能可以展示可能的匹配,并且最終確定是否找到了匹配的人。在這種類型的應(yīng)用中使用人工智能的好處是,無(wú)論是識(shí)別失蹤的孩子還是在擁擠的體育賽事中實(shí)時(shí)識(shí)別可疑的恐怖分子,該算法都可以在幾秒鐘內(nèi)分析并進(jìn)行匹配。但是在這些高風(fēng)險(xiǎn)的應(yīng)用中,讓人員在循環(huán)中進(jìn)行最后一次調(diào)用將是防止這種新興技術(shù)出現(xiàn)錯(cuò)誤的重要保障。

這是企業(yè)應(yīng)該牢記的事情。人工智能識(shí)別人臉技術(shù)還是一項(xiàng)新技術(shù),顯然它并不完美,應(yīng)該謹(jǐn)慎處理。此外,與許多新興技術(shù)一樣,到目前為止,還缺乏管理其使用的許多法規(guī)。而這些法規(guī)可能會(huì)在未來(lái)幾年內(nèi)出現(xiàn)。