北京時(shí)間11月8日晚間消息,知情人士透露,亞馬遜(142.08, -0.63, -0.44%)將投資數(shù)百萬美元訓(xùn)練大型語言模型(LLM),希望它能與OpenAI和Alphabet的頂級(jí)人工模型相媲美。
消息人士稱,亞馬遜人工智能模型的內(nèi)部代號(hào)為“Olympus”,該模型擁有2萬億個(gè)參數(shù),這一規(guī)?赡軙(huì)讓它成為當(dāng)前世界上正在接受訓(xùn)練的最大模型之一。OpenAI的GPT-4是目前全球最好的模型之一,據(jù)傳該模型有1萬億個(gè)參數(shù)。
亞馬遜拒絕對(duì)此消息發(fā)表評(píng)論。
該團(tuán)隊(duì)由Alexa前負(fù)責(zé)人Rohit Prasad領(lǐng)導(dǎo),他現(xiàn)在直接向首席執(zhí)行官安迪·賈西(Andy Jassy)匯報(bào)工作。作為亞馬遜人工通用智能(AGI)的首席科學(xué)家,Prasad引入了一直從事Alexa AI研究的研究人員和亞馬遜科學(xué)團(tuán)隊(duì)來研究訓(xùn)練模型,用專門的資源將整個(gè)公司的AI工作整合在一起。
截至目前,亞馬遜已經(jīng)訓(xùn)練出了泰坦(Titan)等規(guī)模較小的模型。該公司還與Anthropic和AI21 Labs等人工智能模型初創(chuàng)公司達(dá)成了合作,向亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)用戶提供這些模型。
熟悉內(nèi)情的人士說,亞馬遜認(rèn)為,擁有自主開發(fā)的人工智能模型可以使其在AWS上的產(chǎn)品更具吸引力,因?yàn)槠髽I(yè)客戶希望在AWS上獲得性能最佳的模型。這些消息人士還補(bǔ)充說,目前亞馬遜還沒有制定發(fā)布新模型的具體時(shí)間表。
LLM是人工智能工具的基礎(chǔ)技術(shù),這些工具可從海量數(shù)據(jù)集中學(xué)習(xí),生成類似人類的反應(yīng)。
考慮到所需的計(jì)算能力,訓(xùn)練更大的人工智能模型成本更高。在4月份的財(cái)報(bào)電話會(huì)議上,亞馬遜高管表示,公司將增加對(duì)LLM和生成式人工智能的投資,同時(shí)削減零售業(yè)務(wù)的交付和運(yùn)輸規(guī)模。