應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

AI芯片2022的三大“拐點(diǎn)”時(shí)刻

2023-01-05 09:12 控制工程網(wǎng)

導(dǎo)讀:隨著我國(guó)高性能計(jì)算、AI計(jì)算及邊緣計(jì)算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進(jìn)一步發(fā)展,特別是智算中心,正在從早期實(shí)驗(yàn)探索逐步走向商業(yè)試點(diǎn)。

隨著我國(guó)高性能計(jì)算、AI計(jì)算及邊緣計(jì)算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進(jìn)一步發(fā)展,特別是智算中心,正在從早期實(shí)驗(yàn)探索逐步走向商業(yè)試點(diǎn)。

從傳統(tǒng)芯片一統(tǒng)產(chǎn)業(yè)的時(shí)代走來(lái),AI芯片的發(fā)展并非一帆風(fēng)順,泡沫充斥、資本遇冷、人才稀缺……不過(guò),在半導(dǎo)體產(chǎn)業(yè)整體步入下行周期的2022年,AI芯片反倒扛住了爭(zhēng)議和質(zhì)疑,在服務(wù)器、汽車等領(lǐng)域顯現(xiàn)出了日益放大的價(jià)值效應(yīng)。

2022年的這三大技術(shù)和應(yīng)用趨勢(shì),有望成為AI芯片未來(lái)幾年的關(guān)鍵動(dòng)力:

智能算力反超通用算力規(guī)模

當(dāng)前,我國(guó)通用算力的數(shù)據(jù)中心仍是市場(chǎng)主力,按機(jī)架規(guī)模統(tǒng)計(jì),占比超過(guò)90%。隨著我國(guó)高性能計(jì)算、AI計(jì)算及邊緣計(jì)算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進(jìn)一步發(fā)展,特別是智算中心,正在從早期實(shí)驗(yàn)探索逐步走向商業(yè)試點(diǎn)。

IDC數(shù)據(jù)顯示,2022年我國(guó)智能算力規(guī)模達(dá)到268 EFLOPS,超過(guò)通用算力規(guī)模。預(yù)計(jì)未來(lái)五年,我國(guó)智能算力規(guī)模的年復(fù)合增長(zhǎng)率將達(dá)52.3%,超出同期通用算力規(guī)模18.5%的年復(fù)合增長(zhǎng)率,到2026年,我國(guó)智能算力規(guī)模將達(dá)到1271.4EFLOPS。

同時(shí),邊緣計(jì)算需要處理的數(shù)據(jù)量會(huì)越來(lái)越多,算力要求也將逐步提高。邊緣側(cè)的設(shè)備也不再拘泥于簡(jiǎn)單的數(shù)據(jù)采集,還會(huì)有大量的邊緣網(wǎng)關(guān)、邊緣AI、邊緣可擴(kuò)展型服務(wù)器等設(shè)備,協(xié)助前端數(shù)據(jù)處理,將處理后的數(shù)據(jù)傳輸給云端,有效減輕云端的數(shù)據(jù)壓力,用戶也可根據(jù)自己的實(shí)際業(yè)務(wù),靈活就近選擇邊緣計(jì)算節(jié)點(diǎn)或中心云計(jì)算節(jié)點(diǎn)。

邊緣計(jì)算場(chǎng)景大致有兩條路線:一是高性能通用處理器做專用設(shè)備,為場(chǎng)景提供專用算力;二是高度集成化、低功耗化的SoC芯片,通過(guò)自主設(shè)計(jì)降低功耗的同時(shí),可實(shí)現(xiàn)中低端邊緣計(jì)算設(shè)備的戶外現(xiàn)場(chǎng)應(yīng)用,可大量部署在工業(yè)等現(xiàn)場(chǎng)。這些方案也可以疊加AI芯片、FPGA等,針對(duì)某類場(chǎng)景提供定制化算法,提升邊緣計(jì)算的能力。

從AI芯片角度來(lái)看,隨著AI產(chǎn)業(yè)技術(shù)不斷提升,產(chǎn)業(yè)AI化加速落地,全球AI芯片市場(chǎng)將高速增長(zhǎng)。IDC預(yù)計(jì),到2025年AI芯片市場(chǎng)規(guī)模將達(dá)726億美元。異構(gòu)計(jì)算成為主流趨勢(shì),未來(lái)18個(gè)月,全球AI服務(wù)器GPU、ASIC和FPGA的搭載率均會(huì)上升,算力多元化發(fā)展趨勢(shì)明顯。

從計(jì)算架構(gòu)發(fā)展來(lái)看,基于 DSA( Domain-Specific Architectures)思想設(shè)計(jì)的AI芯片正在成為主導(dǎo),推動(dòng)了AI芯片的多元化發(fā)展。此外,多元算力從“能用”到“好用”并且為企業(yè)創(chuàng)造業(yè)務(wù)價(jià)值,離不開(kāi)通用性強(qiáng)、綠色高效、安全可靠的計(jì)算系統(tǒng)的支持。業(yè)內(nèi)正在推動(dòng)多元算力系統(tǒng)架構(gòu)創(chuàng)新,基于計(jì)算節(jié)點(diǎn)內(nèi)和節(jié)點(diǎn)間的互聯(lián)技術(shù)破局現(xiàn)有計(jì)算架構(gòu)的瓶頸,通過(guò)充分調(diào)動(dòng)起多芯片、多板卡、多節(jié)點(diǎn)的系統(tǒng)級(jí)能力,實(shí)現(xiàn)各種加速單元以及跨節(jié)點(diǎn)系統(tǒng)的高效協(xié)同,提升計(jì)算性能。

從場(chǎng)景應(yīng)用維度來(lái)看,智能化場(chǎng)景將隨著時(shí)間的推移,呈現(xiàn)出更加深入、更加廣泛的趨勢(shì)。

大算力自動(dòng)駕駛芯片

走向巔峰對(duì)決

自動(dòng)駕駛領(lǐng)域是芯片與AI技術(shù)交融和迭代的關(guān)鍵領(lǐng)域。

從神經(jīng)網(wǎng)絡(luò)計(jì)算推動(dòng)自動(dòng)駕駛大行其道開(kāi)始,到走向高階的輔助駕駛感知方案,隨著自動(dòng)駕駛級(jí)別的提升,所需要的算力幾乎是指數(shù)級(jí)爆炸式的增長(zhǎng),從L2、L3、L4走向L5,每向上走一級(jí)至少有10倍以上算力需求的提升,大規(guī)模并行化的AI計(jì)算,使得大算力的計(jì)算平臺(tái)成為了產(chǎn)業(yè)必須,在提升有效算力的道路上似乎永無(wú)止境。

Gartner數(shù)據(jù)顯示,預(yù)計(jì)到2025年,全球汽車AI芯片市場(chǎng)將以31%的年復(fù)合增速飆升至236億美元。其中,中國(guó)汽車AI芯片的市場(chǎng)將達(dá)到68億美元,2030年為124億美元,年復(fù)合增長(zhǎng)率預(yù)計(jì)可達(dá)28.14%。

暴增的算力需求下,主機(jī)廠紛紛推動(dòng)“硬件預(yù)埋”概念。走向L4級(jí)別自動(dòng)駕駛甚至L5級(jí)無(wú)人駕駛究竟需要多大算力才夠?目前業(yè)界并沒(méi)有定論,但幾千TOPS的有效算力支撐被認(rèn)為是需要的。

國(guó)內(nèi)市場(chǎng)方面,地平線征程5已經(jīng)成為國(guó)內(nèi)首款實(shí)現(xiàn)前裝量產(chǎn)的百TOPS大算力AI芯片,這款芯片對(duì)于地平線自身、以及我國(guó)大算力芯片的發(fā)展都具有重要意義。如果把自動(dòng)駕駛大算力芯片的競(jìng)逐比喻為世界杯,地平線征程5與英偉達(dá)算是率先進(jìn)入百TOPS芯片前裝量產(chǎn)的階段,相當(dāng)于“提前鎖定了決賽席位”。

不過(guò)今年10月,英偉達(dá)推出的芯片NVIDIA Drive Thor,直接把標(biāo)桿又拉高了一個(gè)級(jí)別,這款超級(jí)芯片可實(shí)現(xiàn)最高 2000TOPS AI 算力以及 2000 TFLOPS 浮點(diǎn)算力。據(jù)官方介紹,NVIDIA Drive Thor是第一個(gè)使用集成推理Transformer引擎的自動(dòng)駕駛汽車平臺(tái),借助Transformer引擎,它可將 Transformer 深度神經(jīng)網(wǎng)絡(luò)的推理性能提升9倍,這對(duì)于支持與自動(dòng)駕駛相關(guān)的、龐大且復(fù)雜的AI工作負(fù)載至關(guān)重要。

在通往自動(dòng)駕駛的路上,Drive Thor肯定不會(huì)是AI芯片終結(jié)者,不過(guò)它在2022年出現(xiàn)的意義在于:第一,將智能汽車帶到中央計(jì)算模式。此前業(yè)界對(duì)于智能汽車芯片的設(shè)計(jì)思路基本上是自動(dòng)駕駛芯片負(fù)責(zé)自動(dòng)駕駛,座艙芯片負(fù)責(zé)車載娛樂(lè),而未來(lái)融合是趨勢(shì),Drive Thor單芯片艙駕一體的設(shè)計(jì),或?qū)⒓铀僦醒胗?jì)算時(shí)代的到來(lái)。第二,它將汽車芯片算力直接推向了2000TOPS標(biāo)準(zhǔn)。提升計(jì)算效率是汽車智能化發(fā)展的關(guān)鍵一環(huán),因?yàn)閷?shí)現(xiàn)更高級(jí)別的自動(dòng)駕駛、實(shí)現(xiàn)更智能的人機(jī)交互座艙體驗(yàn)都需要更強(qiáng)的算力。按照iHS Markit預(yù)計(jì),2024年座艙NPU算力需求將是2021年的十倍,CPU算力需求是2021年的3.5倍,這都要求汽車芯片的算力必須進(jìn)一步拉高。

在汽車AI芯片方面,存算一體的大算力AI芯片也在發(fā)力。這方面的從業(yè)者認(rèn)為,相比于傳統(tǒng)的馮·諾依曼架構(gòu),用存算一體技術(shù)做大算力AI芯片,對(duì)先進(jìn)制程依賴度不是很強(qiáng),可以用較低的制程實(shí)現(xiàn)較大算力,并且由于數(shù)據(jù)計(jì)算和數(shù)據(jù)存儲(chǔ)深度融合,避免了大部分?jǐn)?shù)據(jù)的無(wú)效搬運(yùn),可以兼顧成本和能效,因此非常適合智能駕駛和自動(dòng)駕駛應(yīng)用場(chǎng)景。

AI大模型

推動(dòng)算力集群效能優(yōu)化

“超級(jí)鸚鵡”ChatGPT和AIGC成為年度最大黑馬。

最近爆火的OpenAI旗下的對(duì)話模型ChatGPT,能夠理解用戶需求創(chuàng)造內(nèi)容、協(xié)助代碼編寫(xiě)、能夠針對(duì)用戶的追問(wèn)在后續(xù)對(duì)話中進(jìn)行修正或補(bǔ)充。相較于蘋果 Siri、微軟小冰等,ChatGPT除了邏輯嚴(yán)密的創(chuàng)造能力之外,還具有記憶能力,在連續(xù)的對(duì)話中無(wú)需用戶提供重復(fù)信息,語(yǔ)言組織和表達(dá)能力也更接近人類水平,使對(duì)話更自然流暢。

同樣火熱的還有AIGC(Generative AI,生成式AI),一系列初創(chuàng)公司融資不斷,并且在實(shí)際應(yīng)用中也體現(xiàn)出了較高的水準(zhǔn)。百度AI十分鐘內(nèi)復(fù)原了《富春山居圖》殘卷,浪潮“源”支持的“金陵詩(shī)會(huì)”,使用者可一鍵創(chuàng)作韻味悠長(zhǎng)的詩(shī)句……而除了自主生成文本、圖像,AI自主生成音頻、視頻、虛擬場(chǎng)景等也在成為熱潮。這些都推動(dòng)了生成式AI的蓬勃發(fā)展,打造了新的數(shù)字內(nèi)容生成與交互形態(tài)。

Gartner將“生成式AI”列為2022年五大影響力技術(shù)之一,預(yù)測(cè)到2025年,生成式AI所創(chuàng)造的數(shù)據(jù)可占到所有已生產(chǎn)數(shù)據(jù)的10%。

業(yè)內(nèi)認(rèn)為,ChatGPT和AIGC爆火,代表著AI大模型進(jìn)入一個(gè)新的技術(shù)范式,同時(shí)也是第三波AI浪潮經(jīng)過(guò)十幾年發(fā)展之后,到達(dá)了一個(gè)非常重要的拐點(diǎn)。

它們代表著從以前的“大煉模型”(各自研發(fā)專用小模型),到“煉大模型”(研發(fā)超大規(guī)模通用智能模型)的一個(gè)范式轉(zhuǎn)變,其意義在于:通過(guò)這種比較先進(jìn)的算法架構(gòu),盡可能多的數(shù)據(jù)匯集大量算力,通過(guò)集約化的訓(xùn)練模式,從而供大量用戶使用。

AI發(fā)展至今,大模型的出現(xiàn)可以說(shuō)是生逢其時(shí),它將碎片化的AI應(yīng)用開(kāi)發(fā)轉(zhuǎn)向集中式開(kāi)發(fā)。一方面,AI大模型具備很好的泛化能力,一個(gè)模型可以支撐各類不同應(yīng)用,有效緩解碎片化開(kāi)發(fā)反復(fù)建模的困境;另一方面,圍繞AI大模型構(gòu)建的算法基礎(chǔ)設(shè)施,比如開(kāi)放的API、開(kāi)源的應(yīng)用代碼等,使開(kāi)發(fā)者無(wú)需關(guān)心底層技術(shù),設(shè)置無(wú)需配置編程環(huán)境,就可以直接將應(yīng)用構(gòu)建于AI大模型的能力之上,在降低開(kāi)發(fā)門檻的同時(shí),讓開(kāi)發(fā)人員將更多精力聚焦在核心業(yè)務(wù)邏輯上。

從算力的角度來(lái)看,挑戰(zhàn)不可謂不大。因?yàn)橛?xùn)練大模型所需要的算力是海量的,成本是高昂的,這就需要發(fā)揮AI算力集群的整體效能,讓AI算力能夠“算”盡其用,從而降低大模型訓(xùn)練的成本。當(dāng)前,基于液冷等技術(shù)的算力產(chǎn)品,將軟件層面(模型和框架)與硬件基礎(chǔ)設(shè)施(計(jì)算、存儲(chǔ)、網(wǎng)絡(luò))進(jìn)行協(xié)同優(yōu)化的方案,都是業(yè)界較為推崇的方式。一方面能在高算力集群上能實(shí)現(xiàn)更好的算力利用率,另一方面也能降低電力消耗,降低整體成本。

可以說(shuō),AI大模型的投入是AI技術(shù)邁向新臺(tái)階的必經(jīng)之路,是解決產(chǎn)業(yè)碎片化的一種方式。AI大模型的發(fā)展與商業(yè)落地,有望重塑AI算力與AI應(yīng)用的市場(chǎng)格局。隨著大模型的數(shù)量走向集約,有利于AI芯片進(jìn)行更有針對(duì)性的設(shè)計(jì)開(kāi)發(fā)與優(yōu)化,這是AI算力企業(yè)生態(tài)重建的新機(jī)會(huì),也是國(guó)產(chǎn)AI芯片在國(guó)際巨頭林立的市場(chǎng)中突圍的機(jī)會(huì)。

寫(xiě)在最后

不破不立,破而后立。大破大立,曉喻新生。

寫(xiě)在AI芯片踏實(shí)走過(guò)的2022年。