在席卷全球的AI熱潮中,一個不容忽視的潛在阻力是算力的不足。算力是AI發(fā)展的基礎(chǔ)設(shè)施,AI訓(xùn)練需要將數(shù)據(jù)集進行重復(fù)多輪處理,算力的大小代表著對數(shù)據(jù)處理能力的強弱。
據(jù)OpenAI測算,2012年開始,全球AI訓(xùn)練所用的計算量呈現(xiàn)指數(shù)增長,平均每3.43個月便會翻一倍,目前計算量已擴大30萬倍,遠超算力增長速度。隨著百度、360、華為等公司紛紛入局AI領(lǐng)域,國內(nèi)廠商對算力的需求將迎來井噴。
綜合OpenAI的研究經(jīng)驗,以及中國企業(yè)大模型的研發(fā)進度等因素,廣發(fā)證券分析師劉雪峰等對國內(nèi)AI大模型的訓(xùn)練和推理階段算力需求,以及相應(yīng)的成本進行了測算。
算力需求
首先,分析師根據(jù)GPT-3的數(shù)據(jù)測算了國內(nèi)AI大模型訓(xùn)練和推理所需的AI服務(wù)器需求。
分析師認為:
根據(jù)商湯招股說明書的數(shù)據(jù),GPT-3的大模型的所需要訓(xùn)練355個GPU-年。在當(dāng)前各家公司推出AI大模型意愿較強的背景下,我們認為科技公司用于訓(xùn)練AI大模型的時間為1個月,因此其需要訓(xùn)練AI大模型的AI加速卡的數(shù)量為4260個。
我們認為,AI大模型有望成為各科技廠商競爭的關(guān)鍵領(lǐng)域,因此假設(shè)國內(nèi)有意愿開發(fā)AI大模型的公司有10個,則由于AI大模型訓(xùn)練而新增的AI加速卡需求空間為4.3萬個,國內(nèi)由于AI大模型訓(xùn)練而新增的AI服務(wù)器的需求空間約為5325臺(本文均假設(shè)單臺AI服務(wù)器搭載8個AI加速卡)。
根據(jù)英偉達官網(wǎng)的數(shù)據(jù),A100針對于BERT類的AI大模型可實現(xiàn)每秒推理1757次,因此可假設(shè)單片A100用于AI大模型每秒生成1757個單詞,與單次客戶需要生成的內(nèi)容數(shù)量相當(dāng)。
截止2023年3月27日,百度“文心一言”已收到12萬家企業(yè)申請測試。我們預(yù)計,國產(chǎn)“類ChatGPT”的訪客量規(guī)模較為龐大。
2023年3月29日,在“2023數(shù)字安全與發(fā)展高峰論壇”上,三六零公司現(xiàn)場演示了360大語言模型在360瀏覽器上的應(yīng)用。分析師認為,內(nèi)容生成類應(yīng)用已成為各科技廠商開發(fā)AI大模型積極探索的方向,因此假設(shè)國內(nèi)未來開發(fā)并應(yīng)用“類ChatGPT”AI大模型的數(shù)量為10個。針對不同情境分析師進行了以下假設(shè):
國產(chǎn)“類ChatGPT”的定位是僅給注冊企業(yè)內(nèi)部使用,則假設(shè)每天訪問量為5000萬人次,每人與ChatGPT對話5次,由此測算下來,由于AI大模型推理而新增的AI加速卡需求空間為4.3萬個,新增的AI服務(wù)器需求空間為5425臺。
國產(chǎn)“類ChatGPT”的定位是面向個人用戶開放使用,則分別假設(shè)每天訪問量為1億或3億人次,每人與ChatGPT對話5次,由此測算下來,由于AI大模型推理而新增的AI加速卡需求空間為8.7萬或26.0萬個,新增的AI服務(wù)器需求空間為1.1萬或3.3萬臺。
因此,樂觀假設(shè)下,國內(nèi)AI大模型在訓(xùn)練與推理階段或?qū)a(chǎn)生相當(dāng)于1.1萬臺或3.8萬臺高端AI服務(wù)器的算力需求。
成本測算
此外,分析師強調(diào),多模態(tài)大模型是AI大模型的發(fā)展方向,應(yīng)用前景廣闊。今年以來,全球多家科技廠商陸續(xù)發(fā)布多模態(tài)大模型,如谷歌的PaLM-E大模型、OpenAI的GPT-4大模型以及百度的“文心一言”大模型。
相較于自然語言類模型,多模態(tài)模型在訓(xùn)練階段融合了文字、圖像、三維物體等多維度數(shù)據(jù)的訓(xùn)練,可交互的信息類型較多,通用性得到了大大增強。分析師參考OpenAI和百度的AI大模型的收費標(biāo)準(zhǔn)后,對各行業(yè)用戶用于生成類任務(wù)的成本進行了以下假設(shè):
生成文本的價格為0.003美元/1000tokens,相當(dāng)于0.02元人民幣/1000tokens(參考匯率:1美元=6.88元人民幣)。Tokens是包括了單詞、標(biāo)點符號在內(nèi)的字符,因此可以簡單理解為單個文字。
生成圖片的價格為0.02美元/張,相當(dāng)于0.15元人民幣/張。
多模態(tài)大模型API開放后,各行業(yè)用戶用于內(nèi)容生成類任務(wù)的使用成本敏感性分析:基于以上假設(shè)條件,我們對各行業(yè)用戶調(diào)用多模態(tài)大模型的API用于內(nèi)容生成任務(wù)的成本做關(guān)于文本生成量和圖片生成量的敏感性分析。
我們預(yù)計中短期內(nèi),基于多模態(tài)大模型的單日調(diào)用量的范圍預(yù)計在5000萬人次到3億人次之間。假設(shè)每天每人生成文本內(nèi)容5次,每次生成文本內(nèi)容為1000個tokens,則生成文本數(shù)量的范圍預(yù)計在2.5千億到15千億個tokens之間。
假設(shè)每天每人生成圖片5張,則生成圖片的數(shù)量范圍預(yù)計在2.5億張-15億張。由此,我們測算出,各行業(yè)用戶調(diào)用多模態(tài)大模型的API用于內(nèi)容生成任務(wù)的成本如下表所示。
分析師也強調(diào),AI大模型技術(shù)仍處于發(fā)展早期,技術(shù)迭代的節(jié)奏和方向處于快速變化中,在AI算力需求測算中,也需考慮由于算法優(yōu)化導(dǎo)致AI模型消耗算力成本降低的因素?紤]到軟件優(yōu)化帶來的降本提效因素,實際硬件需求和算力成本可能較此前測算的數(shù)值較低一些。
綜上,分析師指出,在暫不考慮軟件層面算法優(yōu)化帶來的模型消耗算力成本下降的前提下,國內(nèi)大模型在訓(xùn)練與推理階段或?qū)a(chǎn)生相當(dāng)于1.1萬臺或3.8萬臺(樂觀假設(shè)下)高端AI服務(wù)器的算力需求,以單片A100售價10萬元人民幣、AI加速卡價值量占服務(wù)器整機約70%計算,則對應(yīng)約126億元(人民幣)或434億元增量AI服務(wù)器市場規(guī)模。
分析師預(yù)計,前述AI服務(wù)器的增量需求或?qū)⒃?-3年的維度內(nèi)逐步落地。