導讀:過去數(shù)年中,人臉識別技術是發(fā)展最快的新技術之一。助推人臉識別技術發(fā)展的主要是機器學習、云計算等人工智能相關技術的突飛猛進,以及越來越清晰和便宜的攝像頭。人臉識別技術已經用在了很多人的手機上,刷臉購物、刷臉登機等等都不是什么新鮮事。
過去數(shù)年中,人臉識別技術是發(fā)展最快的新技術之一。助推人臉識別技術發(fā)展的主要是機器學習、云計算等人工智能相關技術的突飛猛進,以及越來越清晰和便宜的攝像頭。人臉識別技術已經用在了很多人的手機上,刷臉購物、刷臉登機等等都不是什么新鮮事。
在中國,很多時候人臉識別技術的發(fā)展都被認為是令人鼓舞的技術進步,它的廣泛應用也能引發(fā)很多人的自豪和稱贊。然而,在歐美國家,人臉識別技術正遭遇著越來越多的質疑和限制。
今年5月,舊金山市通過決議,禁止警察等公權力機構使用人臉識別技術。這項決議很有代表意義,因為舊金山所在的硅谷灣區(qū)一直是數(shù)字科技創(chuàng)新的中心。隨后,和舊金山同屬加州的奧克蘭市,以及馬薩諸塞州的薩默維爾市(Somerville)也出臺了人臉識別禁令。在全國層面,兩位參議員提出了關于限制人臉識別技術應用的法案,這項法案目前獲得了共和黨和民主黨兩黨議員的支持。眾議院也有議員正在準備相關法案。
8月底,英國《金融時報》報道(https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-296ca66511c9):歐盟正在考慮對人工智能技術進行嚴格限制。在正在籌劃的監(jiān)管方案中,如果公權力機構或者商業(yè)公司想要使用人工智能技術,那么所有被牽涉到的歐盟公民就有權知曉:他(她)的人臉數(shù)據(jù)何時被使用了。
為何這些歐美國家和城市對這項新技術有著如此強烈的警惕?本期會員通訊,我們就來聊聊這個問題。
限制的對象:
不是個人,而是公權力和商業(yè)公司
首先要明確的是,這些針對人臉識別技術的禁令,不是禁止個人使用這項技術,更不是禁止這項技術的發(fā)展。也就是說,你用自己的臉解鎖自己的iPhone,這完全不會受到限制。真正受到限制的,是公權力機構(政府、警察等)以及商業(yè)公司對人臉識別技術的應用。
這中間的一個核心邏輯是:消費者自己使用人臉識別技術的時候,是自愿使用的,并且是知道自己的臉正在被識別的。但是,如果是公權力機構在使用的話,比如警察使用這項技術在公共場所進行監(jiān)控,那么公眾很可能并不知道自己的臉正在被拍攝、掃描、分析、比對、納入數(shù)據(jù)庫,即便知道也不可能把人臉識別系統(tǒng)關掉。這種差別,使得歐美國家普遍認為:對公權力使用人臉識別技術要設一個高得多的門檻。
當然,公權力機構使用人臉識別技術可以帶來不少好處,比如提高破案率、降低犯罪率等。一個實際的案例是:去年6月,馬里蘭州的《The Capital Gazette》報社曾經發(fā)生大規(guī)模槍擊案,造成5人死亡。警方在破案的時候,利用了人臉識別技術來鎖定犯罪嫌疑人。
但是,這些對于公共安全的好處,不足以抵消人們對這項技術被濫用的擔憂。美國公民自由聯(lián)盟(the American Civil Liberties Union,簡稱ACLU)是在倡導限制公權力機關使用這項技術方面最活躍的一家NGO。該機構的律師Matt Cagle說,“這項技術讓政府獲得了前所未有的追蹤人們日常生活的權力。這樣的權力過大,和健康的民主制度并不相容。”他認為,舊金山的禁令能夠起到的作用,就是防止這項危險的技術被用來對付公眾。(https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html)
Cagle律師還強調,現(xiàn)在我們根本不知道政府和企業(yè)在多大范圍內使用著這項新技術,因為它們一直都對此保密,而公眾則經常被蒙在鼓里,這是非常危險的狀況。
簡單而言,這些歐美國家限制公權力機構使用人臉識別技術,就是為了防止一個壓迫性的監(jiān)控國家(surveillance state)的產生。這樣的國家也常被稱為“奧威爾式”(Orwellian)的國家——這種說法來自奧威爾的經典小說《1984》。在小說中,老大哥通過電幕無時無刻不在監(jiān)視者人們的生活,支撐起一種恐怖的極權統(tǒng)治。
為了避免這種可怕的狀況成為現(xiàn)實,這些國家愿意在一定程度上做出妥協(xié),不用人臉識別去追求破案率的提高。
與公權力機構相比,商業(yè)公司看起來并沒有建立起“奧威爾式”統(tǒng)治的能力,為什么也要受到限制呢?
這主要是因為,如果不對商業(yè)公司作出限制,那么它們可能出于商業(yè)利益的追求,大規(guī)模地收集人臉數(shù)據(jù),并且可能會在不經過消費者本人許可的情況下將這些數(shù)據(jù)出售、濫用。
很多人認為,人臉數(shù)據(jù)屬于個人信息當中最為敏感的生物識別數(shù)據(jù)(biometric data),被濫用造成的后果是最為嚴重的,應該得到最高限度的保護。
人臉識別技術的誤差和偏見
這些歐美國家和城市對人臉識別技術做出限制,還有一個非常重要的原因:技術本身依然不成熟,有很多誤差,并且會造成對不同人群的歧視。
今年4月,一名18歲的美國大學生起訴了蘋果公司,指責蘋果在店內使用人臉識別技術,并且這項技術錯誤地將他識別成了小偷,導致他莫名其妙收到傳票,后來還被警察逮捕,給他造成了嚴重的精神損失。這位大學生要求蘋果公司賠償10億美元。
蘋果公司否認了這些指控。不論該案的判決如何,我們可以明確知道的是:目前的人臉識別技術,確實可能造成“冤假錯案”。
今年1月,ACLU測試了亞馬遜公司開發(fā)的人臉識別系統(tǒng)Rekognition,讓這個系統(tǒng)來識別美國議員的照片。結果,系統(tǒng)將多達28名議員識別成了罪犯。
尤其值得關注的是,在歐美國家,人臉識別技術對白人的識別準確率要遠遠高于對有色人種(尤其是黑人)的識別準確率,對男性的識別準確率要高于對女性的識別準確率。(https://www.theverge.com/2019/1/25/18197137/amazon-rekognition-facial-recognition-bias-race-gender)
這樣的結果并不意外。在開發(fā)人臉識別技術的時候,研究者們用來訓練機器的照片大多是白人男性,因此機器辨認白人男性的能力更強。相比之下,由于缺乏辨認黑人、女性的經驗,機器也就更容易在識別少數(shù)族裔和女性的時候犯錯。這種偏見的產生,是由于社會上既有的不平等,而它又會進一步加強不平等的狀況,因為一旦警察大規(guī)模使用此技術,弱勢群體陷入冤假錯案的機率就會更高。
這種寫在技術里面的偏見,常常容易被人們忽視,因為人們容易接受這樣的觀點:人是有感情的、容易產生偏見的,但機器是沒有感情的,所以應該是客觀公正的。然而,正如此前的新聞實驗室會員通訊反復提到的,技術是由人在特定的社會條件下開發(fā)的,技術本身也會帶有深刻的偏見。如果我們將一切都交給看似公正的機器,以為這樣就萬事大吉了,那么可能導致的結果便是社會不平等的進一步加劇、公正的進一步喪失。
技術是由人在特定的社會條件下開發(fā)的,技術本身也會帶有深刻的偏見。
基于倫理的人工智能發(fā)展
正是因為以上兩個方面的原因,不少歐美國家和城市都對人臉識別技術的應用做出了嚴格的限制。
舊金山在通過限制法令的同時,還通過了另一項涵蓋內容更廣的規(guī)定。根據(jù)這項新規(guī)定,舊金山市的公權力部門要想購買監(jiān)控技術,就必須提前申請獲得批準。這些監(jiān)控技術包括自動的車牌掃描儀、帶有攝像頭的無人機等等。
科技媒體Recode的一篇文章(https://www.vox.com/recode/2019/5/14/18623897/san-francisco-facial-recognition-ban-explained)指出:美國對于數(shù)字隱私的立法速度是緩慢的,有一部分美國人看上去愿意為了便利而犧牲隱私(而且基本上都是向企業(yè)提供個人數(shù)據(jù),而非政府);但是,人臉識別這項技術很可能戳中了美國文化的敏感點,那就是對個人自由權利的看重,對政府濫用權力的恐懼。因此,美國在針對人臉識別的立法方面要快得多。
而對于歐盟來說,對人臉識別技術的限制,是一項更為宏大的監(jiān)管計劃的一部分。這一計劃,可以稱為“基于倫理的人工智能法規(guī)”(ethically based laws governing AI)。此前的會員通訊也曾提到,歐盟在數(shù)字技術的發(fā)展方面不算領先,但在針對數(shù)字技術的監(jiān)管方面走在世界前列。
當然,歐盟發(fā)展監(jiān)管的目的并不是打壓新技術,而是希望新技術能夠盡可能造福社會,而不是帶來副作用。在歐盟的立法者看來,對人工智能技術作出限制,其實可以使得公眾對這項技術的信任度和接受度提高,這樣一來,最終實際上是有利于這項技術的健康發(fā)展和妥善應用。
根據(jù)《金融時報》的報道,歐盟希望通過這方面的立法,樹立一種“人工智能監(jiān)管的世界標準”,這種標準可以通過清晰、可預測、統(tǒng)一的原則,充分保護個人的權益。