導(dǎo)讀:我們可能完全不知道到最終AI算法底會(huì)進(jìn)化成什么樣,是否會(huì)造成嚴(yán)重的后果,一切皆有可能……
雖然雖然越老越多的企業(yè)組織在使用AI技術(shù),但許多企業(yè)對(duì)它的工作方式尚無(wú)清晰的了解。本文中,我們探討了AI缺乏透明性的利弊。
當(dāng)基于規(guī)則的軟件編程不再能夠解決計(jì)算世界想要解決的問(wèn)題時(shí),現(xiàn)代AI誕生了。我們不可能對(duì)程序必須測(cè)量的所有條件進(jìn)行編碼,因此計(jì)算專(zhuān)家設(shè)計(jì)了模仿人類(lèi)思維方式的機(jī)器,從而使AI能夠通過(guò)觀察數(shù)據(jù)自行學(xué)習(xí)。這種稱(chēng)為神經(jīng)網(wǎng)絡(luò)的方法催生了AI技術(shù),例如人臉識(shí)別程序、癌癥檢測(cè)算法和自動(dòng)駕駛汽車(chē)。
但是神經(jīng)網(wǎng)絡(luò)帶有一個(gè)折衷之處:我們無(wú)法理解系統(tǒng)的工作方式,AI模型缺乏透明度。這種現(xiàn)象被稱(chēng)為黑匣子AI,事實(shí)證明這是個(gè)問(wèn)題,而且可能是嚴(yán)重的問(wèn)題。
黑盒AI的權(quán)衡
AI通常以準(zhǔn)確性百分比來(lái)衡量,即系統(tǒng)在多大程度上能夠給出正確答案。根據(jù)手頭的任務(wù),所需的最低精度可能會(huì)有所不同,但是即使是99%的精度也不能成為AI值的唯一度量。我們還必須考慮到AI的主要缺點(diǎn),尤其是在將AI應(yīng)用于商業(yè)中時(shí):具有近乎完美準(zhǔn)確性的AI模型也可能會(huì)出現(xiàn)問(wèn)題。
隨著模型準(zhǔn)確性的提高,人工智能解釋其得出某個(gè)答案的原因的能力下降,這使企業(yè)必須面對(duì)的一個(gè)問(wèn)題是:缺乏模型的AI透明度,因此,我們?nèi)祟?lèi)無(wú)法信任其結(jié)果。因?yàn)?,我們可能完全不知道到最終算法底會(huì)進(jìn)化成什么樣,是否會(huì)造成嚴(yán)重的后果,一切皆有可能。
黑盒問(wèn)題在AI技術(shù)的早期階段可以接受,但是當(dāng)發(fā)現(xiàn)算法偏差時(shí)就失去了它的優(yōu)點(diǎn)。例如,經(jīng)過(guò)開(kāi)發(fā)的AI可以根據(jù)種族對(duì)喪失工作能力的人進(jìn)行分類(lèi),而用于銀行業(yè)務(wù)AI根據(jù)性別篩選不合格貸款申請(qǐng)者。 AI接受訓(xùn)練的數(shù)據(jù)并不平衡,無(wú)法包含各種人的足夠數(shù)據(jù),人類(lèi)決策中存在的歷史偏見(jiàn)也傳遞到了AI算法模型中。
AI還表明,近乎完美的模型仍可能犯下令人震驚的錯(cuò)誤。精度為99%的AI模型可能會(huì)為剩余的1%產(chǎn)生誤差,例如將停車(chē)標(biāo)志分類(lèi)為限速標(biāo)志。猶如,千萬(wàn)人級(jí)別人口的大城市,1%的數(shù)量也不容小覷。
盡管這是錯(cuò)誤分類(lèi)或數(shù)據(jù)量不足的一些最極端情況,但它們?nèi)匀煌伙@了AI算法存在缺陷的可能性。人工智能遵循一種模式來(lái)得出答案,其神奇之處在于,它在超越人力的情況下表現(xiàn)出色。出于相同的原因,模式中的異常更改使模型容易受到攻擊,這也是我們需要AI透明度的原因,我們需要知道AI如何得出結(jié)論。
特別是,當(dāng)使用AI進(jìn)行關(guān)鍵決策時(shí),必須了解算法的推理過(guò)程與邏輯關(guān)系。旨在檢測(cè)癌癥的AI模型(即使錯(cuò)誤率僅為1%)也可能威脅生命。在這種情況下,人工智能和人類(lèi)需要一起協(xié)同工作,并且當(dāng)人工智能模型可以解釋其如何達(dá)成某個(gè)決定時(shí),任務(wù)將變得更加容易。 AI的透明度使其成為團(tuán)隊(duì)合作者。
從法律的角度來(lái)看,有時(shí)透明是必要的步驟。
數(shù)據(jù)分析行業(yè)思想領(lǐng)導(dǎo)者Piyanka Jain說(shuō):“一些受監(jiān)管的行業(yè),例如銀行,都將模型的可解釋性作為在模型投入生產(chǎn)之前獲得合規(guī)和法律批準(zhǔn)的必要步驟。”
其他案例涉及GDPR或《加利福尼亞消費(fèi)者隱私法》,其中AI處理私人信息。AI軟件公司 Stradigi AI首席科學(xué)官兼聯(lián)合創(chuàng)始人Carolina Bessega說(shuō):“ GDPR的一個(gè)方面是,當(dāng)使用個(gè)人私人數(shù)據(jù)的算法做出決定時(shí),人類(lèi)有權(quán)提出該決定背后的原因?!?/p>
看來(lái)AI透明性有很多好處,但是為什么所有的算法都不透明?
人工智能透明度不足
就像可以解釋如何實(shí)現(xiàn)某個(gè)決策的算法一樣,它也可以按比例變得更容易被黑客入侵。
通過(guò)了解AI的推理,黑客將可以更輕松地欺騙算法。 “在欺詐檢測(cè)中不鼓勵(lì)A(yù)I透明,” Jain解釋說(shuō)。 “我們希望更少的人知道我們?nèi)绾巫サ狡墼p行為-網(wǎng)絡(luò)安全方面也是如此??偟膩?lái)說(shuō),當(dāng)我們?cè)噲D使用AI來(lái)抓捕壞人時(shí),我們希望更少的人知道潛在的邏輯,而AI很適合那。”
AI透明度的另一個(gè)問(wèn)題是專(zhuān)有算法的保護(hù),因?yàn)檠芯咳藛T已證明,僅通過(guò)查看其解釋即可盜竊整個(gè)算法。
最后,透明算法更難設(shè)計(jì),至少暫時(shí)而言,它們只能應(yīng)用于更簡(jiǎn)單的模型。如果必須要具有透明度,那么它可能會(huì)迫使企業(yè)和組織使用不太復(fù)雜的算法。
如何達(dá)到平衡
與其他任何計(jì)算機(jī)程序一樣,人工智能需要優(yōu)化。為此,我們要查看特定問(wèn)題的特定需求,然后調(diào)整通用模型以最適合這些需求。
實(shí)施AI時(shí),組織必須注意以下四個(gè)因素:
法律需求:如果工作需要從法律和法規(guī)的角度進(jìn)行解釋?zhuān)敲闯颂峁┩该鞫戎鈩e無(wú)選擇。為此,組織可能必須訴諸更簡(jiǎn)單但可解釋的算法。
嚴(yán)重程度:如果要在生命攸關(guān)的任務(wù)中使用AI,則必須做到透明。這樣的任務(wù)很可能不僅僅依賴(lài)于AI,因此擁有推理機(jī)制可以改善與操作員的團(tuán)隊(duì)合作。如果AI影響某人的生活,例如用于工作應(yīng)用程序的算法,則同樣適用。
另一方面,如果AI的任務(wù)不是很關(guān)鍵,那么不透明的模型就足夠了??紤]一種算法,該算法建議下一個(gè)潛在客戶(hù)接觸具有數(shù)千個(gè)潛在客戶(hù)的數(shù)據(jù)庫(kù),交叉檢查AI的決定根本不值得。
訪問(wèn)權(quán)限:根據(jù)誰(shuí)可以訪問(wèn)AI模型,組織可能希望保護(hù)算法免受不必要的影響。如果可解釋性可以幫助專(zhuān)家得出更好的結(jié)論,那么即使在網(wǎng)絡(luò)安全領(lǐng)域,它也可以是很好的。但是,如果局外人可以訪問(wèn)同一資源并了解該算法的工作原理,則最好使用不透明的模型。
數(shù)據(jù)集:無(wú)論何種情況,組織都必須始終努力擁有最好來(lái)自盡可能多的來(lái)源的多樣化且平衡的數(shù)據(jù)集。最終,我們將盡可能多地依賴(lài)于AI,并且AI僅像訓(xùn)練過(guò)的數(shù)據(jù)一樣智能。通過(guò)清理訓(xùn)練數(shù)據(jù),消除噪聲并平衡輸入,我們可以幫助減少偏差并提高模型的準(zhǔn)確性。