OpenAI下一個旗艦?zāi)P汀癘rion”,其進(jìn)步幅度遠(yuǎn)不如前兩代旗艦?zāi)P,這直接挑戰(zhàn)了人工智能領(lǐng)域一直奉行的“縮放定律”。業(yè)界正在將精力轉(zhuǎn)向在初始訓(xùn)練之后改進(jìn)模型。
隨著ChatGPT和其他人工智能產(chǎn)品的用戶數(shù)量不斷攀升,支撐這些產(chǎn)品的核心技術(shù)——大型語言模型(LLM)的進(jìn)步速度卻似乎放緩了。
據(jù)科技媒體The Information報道,OpenAI開發(fā)的下一個旗艦?zāi)P汀癘rion”,目前已經(jīng)完成20%的訓(xùn)練。盡管表現(xiàn)已接近現(xiàn)有的GPT-4,但進(jìn)步幅度卻遠(yuǎn)不如前兩代旗艦?zāi)P椭g的飛躍。
該媒體還援引OpenAI 的一名員工稱,Orion在語言任務(wù)上表現(xiàn)更好,但在編碼等任務(wù)上可能不會優(yōu)于以前的模型。另一位知情人士表示,與最近發(fā)布的其他模型相比,OpenAI在其數(shù)據(jù)中心運行 Orion 的成本可能更高。
質(zhì)量進(jìn)展放緩,擴(kuò)展法面臨挑戰(zhàn)
在過去幾年中,LLM使用來自網(wǎng)站、書籍和其他來源的公開文本和其他數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練過程,這種方法雖然能在一定程度上緩解數(shù)據(jù)匱乏,但帶來的質(zhì)量提升有限。
OpenAI的員工表示,Orion部分接受了人工智能生成的數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)由其他OpenAI模型生成,包括GPT-4和最近發(fā)布的推理模型。然而,這種合成數(shù)據(jù)導(dǎo)致了一個新問題,即Orion最終可能會在某些方面與那些舊模型相似。
與此類似,其他一些AI公司也面臨類似的問題。Meta創(chuàng)始人馬克·扎克伯格和Databricks公司創(chuàng)始人Ion Stoica都指出,盡管AI技術(shù)在編碼、復(fù)雜任務(wù)解決等方面繼續(xù)取得進(jìn)展,但在常識判斷和通用任務(wù)能力上,性能提升已趨于緩慢。
Orion的進(jìn)展放緩直接挑戰(zhàn)了人工智能領(lǐng)域一直奉行的“縮放定律”,即在數(shù)據(jù)量和計算資源不斷增加的前提下,模型性能將持續(xù)大幅度提升。
為了應(yīng)對GPT改進(jìn)放緩給基于訓(xùn)練的縮放定律帶來的挑戰(zhàn),業(yè)界似乎正在將精力轉(zhuǎn)向在初始訓(xùn)練之后改進(jìn)模型,從而可能產(chǎn)生不同類型的縮放定律。由于高質(zhì)量訓(xùn)練數(shù)據(jù)的減少以及計算成本的增加,OpenAI的研究人員不得不開始探討是否有其他改進(jìn)模型性能的方法。
例如,OpenAI正在將更多代碼編寫功能嵌入其模型中,并試圖開發(fā)一種軟件,可以接管個人計算機(jī),通過執(zhí)行點擊、 光標(biāo)移動等執(zhí)行其他操作, 完成網(wǎng)絡(luò)瀏覽器活動或應(yīng)用程序的任務(wù)。
OpenAI還成立了一個專門團(tuán)隊,由之前負(fù)責(zé)預(yù)訓(xùn)練的Nick Ryder領(lǐng)導(dǎo),負(fù)責(zé)探索如何優(yōu)化有限的訓(xùn)練數(shù)據(jù)和調(diào)整擴(kuò)展法的應(yīng)用,以保持模型改進(jìn)的穩(wěn)定性。
團(tuán)隊通過訓(xùn)練模型解決大量數(shù)學(xué)和編碼問題,讓模型在后期強化過程中逐步提高對這些任務(wù)的解答能力。此外,人工評估員還會對模型在不同任務(wù)上的表現(xiàn)進(jìn)行評分,以幫助模型在復(fù)雜問題上提供更準(zhǔn)確的答案。
巨大計算成本帶來的財務(wù)負(fù)擔(dān)
然而,隨著模型復(fù)雜度的增加,訓(xùn)練和運行這些AI模型的成本也在急劇上升。例如,o1模型的推理成本是普通模型的六倍。
即便如此,扎克伯格、Sam Altman等人都曾表示,他們還沒有達(dá)到傳統(tǒng)擴(kuò)展法的極限。
這也許就是為什么OpenAI等公司依然在投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,希望通過增加計算能力,從預(yù)訓(xùn)練模型中獲得更多的性能提升。
但OpenAI研究員Noam Brown在TEDAI大會上警告,開發(fā)更為先進(jìn)的模型可能將面臨數(shù)百億美元的高昂費用,成為財務(wù)上的巨大負(fù)擔(dān)。
“畢竟,我們真的要訓(xùn)練花費數(shù)千億美元或數(shù)萬億美元的模型嗎?在某些時候,擴(kuò)展范式會崩潰!
或許在未來,OpenAI和其他AI公司都需要繼續(xù)在訓(xùn)練數(shù)據(jù)和計算資源之間尋求平衡,探索如何在不增加巨大財務(wù)負(fù)擔(dān)的前提下,進(jìn)一步優(yōu)化模型性能。