6月20日消息,斯坦福大學(xué)的大模型測評榜單HELM MMLU發(fā)布最新結(jié)果,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang發(fā)文表示,阿里通義千問Qwen2-72B模型成為排名最高的開源大模型,性能超越Llama3-70B模型。
MMLU(Massive Multitask Language Understanding,大規(guī)模多任務(wù)語言理解)是業(yè)界最有影響力的大模型測評基準(zhǔn)之一,涵蓋了基礎(chǔ)數(shù)學(xué)、計算機(jī)科學(xué)、法律、歷史等57項(xiàng)任務(wù),用以測試大模型的世界知識和問題解決能力。但在現(xiàn)實(shí)測評中,不同參評模型的測評結(jié)果有時缺乏一致性、可比性,原因包括使用非標(biāo)準(zhǔn)提示詞技術(shù)、沒有統(tǒng)一采用開源評價框架等等。
斯坦福大學(xué)基礎(chǔ)模型研究中心(CRFM,Center for Research on Foundation Models)提出的基礎(chǔ)模型評估框架HELM(A holistic framework for evaluating foundation models),旨在創(chuàng)造一種透明、可復(fù)現(xiàn)的評估方法。該方法基于HELM框架,對不同模型在MMLU上的評估結(jié)果進(jìn)行標(biāo)準(zhǔn)化和透明化處理,從而克服現(xiàn)有MMLU評估中存在的問題。比如,針對所有參評模型,都采用相同的提示詞;針對每項(xiàng)測試主題,都給模型提供同樣的5個示例進(jìn)行情境學(xué)習(xí),等等。
日前,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang在社交平臺發(fā)布了HELM MMLU最新榜單,阿里巴巴的通義千問開源模型Qwen2-72B排名第5,僅次于Claude 3 Opus、GPT-4o、Gemini 1.5 pro、GPT-4,是排名第一的開源大模型,也是排名最高的中國大模型。
據(jù)悉,通義千問Qwen2于6月初開源,包含5個尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,目前Qwen系列模型下載量已經(jīng)突破1600萬。