OpenAI長期霸榜的SuperCLUE(中文大模型測評基準),終于被國產(chǎn)大模型反將一軍。
事情是這樣的。
自打SuperCLUE問世以來,成績第一的選手基本上要么是GPT-4,要么是GPT-4 Turbo,來感受一下這個feel:
(PS:共有6次成績,分別為2023年的9月-12月和2024年的2月、4月。)
△圖源:SuperCLUE官方
但就在近,隨著一位國產(chǎn)選手申請的出戰(zhàn),這一局面終是迎來了變數(shù)。
SuperCLUE團隊對其進行了一番全方位的綜合性測評,終官宣的成績是:
總分80.03分,超過GPT-4 Turbo的79.13分,成績第一!
△圖源:SuperCLUE官方公眾號
而這位國產(chǎn)大模型選手,正是來自商湯科技的日日新5.0(SenseChat V5)。
并且SuperCLUE還給出了這樣的評價:
刷新了國內(nèi)大模型好成績。
那么商湯在SuperCLUE的這個“首次”,又是如何解鎖的呢?
綜合、文科國內(nèi)外第一,理科國內(nèi)第一
首先我們來看下這次官方所搭建“擂臺”的競技環(huán)境。
出戰(zhàn)選手:SenseChat V5(于5月11日提供的內(nèi)測API版本)
評測集:SuperCLUE綜合性測評基準4月評測集,2194道多輪簡答題,包括計算、邏輯推理、代碼、長文本在內(nèi)的基礎(chǔ)十大任務(wù)。
△圖源:SuperCLUE官方報告
模型GenerationConfig配置:
temperature=0.01
repetition_penalty=1.0
top_p=0.8
max_new_tokens=2048
stream=false
至于具體的評測方法,SuperCLUE在已發(fā)布的相關(guān)報告中也有所披露:
△圖源:SuperCLUE官方報告
以上就是SuperCLUE公開的競技環(huán)境配置。
至于結(jié)果,除了剛才我們提到的綜合成績之外,官方還從文科和理科兩個維度,再做了細分的評測。
SenseChat V5在文科上的成績依然是打破了國內(nèi)大模型的紀錄——
以82.20分的成績位居第一,同樣超越了GPT-4 Turbo。
△圖源:SuperCLUE官方公眾號
在理科成績上,雖然SenseChat V5此次并沒有超越GPT-4-Turbo(低了4.35分),但整體來看,依舊在國內(nèi)大模型選手中首屈一指,位列國內(nèi)第一。
△圖源:SuperCLUE官方公眾號
除了文理科之外,SuperCLUE也還從國內(nèi)和國外的整體平均水平上做了對比。
例如和國內(nèi)大模型平均水平相比,其各項成績的“打開方式”是這樣的:
△圖源:SuperCLUE官方公眾號
而在與國外選手做性能對比時,我們可以明顯看到SenseChat V5文科能力優(yōu)于國外選手,數(shù)理能力也非常優(yōu)秀,代碼能力依然有提升空間。
△圖源:SuperCLUE官方公眾號
不過有一說一,評測分數(shù)定然是代表大模型性能的一方面,但在應(yīng)用為王的當(dāng)下,更重要的一點或許就得看用的效果了。
實測SenseChat V5
SenseChat V5早在4月底便已經(jīng)集成到了“商量”在線的對話應(yīng)用中,因此我們現(xiàn)在就可以出題對它做一番考驗。
在邏輯測試方面,帶有文字陷阱的腦筋急轉(zhuǎn)彎,可以說是測試一個AI能力很好的例子,比如:
《紅樓夢》全書有百萬字,“紅樓夢”有幾個字?
若是仔細觀察這句話,不難發(fā)現(xiàn)其實句子前后并沒有太大的關(guān)聯(lián),是一個比較典型的腦筋急轉(zhuǎn)彎。
對此,SenseChat V5給出的答案是:
《紅樓夢》作為中國古典文學(xué)的巔峰之作,其全文字數(shù)大約在70萬到80萬字之間,具體字數(shù)根據(jù)不同版本稍有差異。而標題“紅樓夢”這三個字,自然是只有三個字。這個標題凝練而富有深意,象征著作品的夢幻色彩和對封建家族興衰的深刻反思。
我們可以看到SenseChat V5不僅找出了問題的陷阱并做出了分析,給出的答案也是正確的。
對于數(shù)學(xué)的能力,我們設(shè)置了這樣的一個問題:
假設(shè)有一個池塘,里面有無窮多的水?,F(xiàn)有2個空水壺,容積分別為5升和6升。如何只用這2個水壺從池塘里取得3升的水。
同樣的,SenseChat V5依舊是給出了每一個詳細的步驟和分析,并得到了終結(jié)果。
更直接的數(shù)學(xué)問題,例如找數(shù)字之間的規(guī)律,SenseChat V5也是信手拈來:
在中文理解方面,即使是給SenseChat V5一大段文言文,并且上難度連環(huán)發(fā)問,它是否可以hold得???
請看結(jié)果:
后,有請“弱智吧Benchmark”:
網(wǎng)吧能上網(wǎng),為什么弱智吧不能上弱智?
嗯,確實是有點實力在身上的。
如何做到的?
其實對于這個問題,商湯在4月底將自家日日新大模型SenseNova版本迭代到5.0之際,就已經(jīng)有所透露;當(dāng)時商湯鎖定的定位就是全面對標GPT-4 Turbo。
具體到技術(shù),可以分為三大方面:
采用MoE架構(gòu)
基于超過10TB tokens訓(xùn)練,擁有大量合成數(shù)據(jù)
推理上下文窗口達到200K
首先,為了突破數(shù)據(jù)層面的瓶頸,商湯科技使用了超過10T的tokens,確保了高質(zhì)量數(shù)據(jù)的完整性,使得大模型對客觀知識和世界有了基本的認知。
商湯還生成了數(shù)千億tokens的思維鏈數(shù)據(jù),這是此次數(shù)據(jù)層面創(chuàng)新的關(guān)鍵,能夠激發(fā)大模型的強大推理能力。
其次,在算力層面,商湯科技通過聯(lián)合優(yōu)化算法設(shè)計和算力設(shè)施來提升性能:算力設(shè)施的拓撲極限用于定義下一階段的算法,而算法的新進展又反過來指導(dǎo)算力設(shè)施的建設(shè)。
這也是商湯AI大裝置在算法和算力聯(lián)合迭代上的核心優(yōu)勢。
在其它細節(jié)方面,例如訓(xùn)練策略上的創(chuàng)新,商湯將訓(xùn)練過程分為三個大階段(預(yù)訓(xùn)練、監(jiān)督微調(diào)、RLHF)和六個子階段,每個階段專注于提升模型的特定能力。
例如,單是在預(yù)訓(xùn)練這個階段,又可以細分為三個子階段:初期聚焦于語言能力和基礎(chǔ)常識的積累,中期擴展知識基礎(chǔ)和長文表達能力,后期則通過超長文本和復(fù)雜思維數(shù)據(jù)進一步拔高模型能力。
因此在預(yù)訓(xùn)練結(jié)束之際,整個模型就已經(jīng)擁有了較高水平的基礎(chǔ)能力;但此時它的交互能力卻還沒有被激發(fā)出來,也就來到了第二階段的監(jiān)督微調(diào)(SFT)和第三階段的人類反饋強化學(xué)習(xí)(RLHF)。
整體可以理解為先培養(yǎng)模型遵循指令和解決問題的能力,再調(diào)節(jié)其表達風(fēng)格以更貼近人類的表達方式。接著,通過多維度的人類反饋強化學(xué)習(xí)過程,進一步改進模型的表達方式和安全性。
除此之外,商湯對于大模型的能力還有獨到的三層架構(gòu)(KRE)的理解。
首先是在知識,是指世界知識的全面灌注。
目前大模型等新質(zhì)生產(chǎn)力工具近乎都是基于此來解決問題,也就是根據(jù)前人已經(jīng)解決過的問題的方案,來回答你的問題。
這可以認為是大模型能力的基本功,但更為高階的知識,應(yīng)當(dāng)是基于這樣能力下推理得到的新知識,這也就是這個架構(gòu)的第二層——推理,即理性思維的質(zhì)變提升。
這一層的能力是可以決定大模型是否夠聰明、是否可以舉一反三的關(guān)鍵和核心。
再在此之上,便是執(zhí)行,是指世界內(nèi)容的交互變革,也就是如何跟真實世界產(chǎn)生互動(就目前而言,具身智能在這一層是潛力股般的存在)。
三者雖相互獨立,但層與層之間也是緊密關(guān)聯(lián),打一個較為形象的比喻就是“知識到推理是像大腦,推理到執(zhí)行則像小腦”。
在商湯看來,這三層的架構(gòu)是大模型應(yīng)當(dāng)具備的能力,而這也正是啟發(fā)商湯構(gòu)建高質(zhì)量數(shù)據(jù)的關(guān)鍵。
One More Thing
其實對于大模型測評這事,業(yè)界質(zhì)疑的聲音也是層出不窮,認為是“刷分”、“刷榜”、“看效果才是重要的”。
對于這樣敏感的問題,商湯在與量子位的交流過程中也是直面并給出了他們的看法:
無論從用戶選擇合適模型的角度,還是從研究者進行操作研究的需要來看,對模型能力的評價是必不可少的。
這不僅幫助用戶和研究者了解不同模型的性能,也是推動模型發(fā)展的關(guān)鍵因素。
如果只針對一個公開的評測集進行優(yōu)化(即刷分),是有可能提高模型在該評測集上的分數(shù)的。
評測不應(yīng)只依賴單一數(shù)據(jù)集,而應(yīng)通過多個評測集和第三方閉卷考試等方式相互印證,以此來得到更全面、更有說服力的模型性能評估。
以及對于國內(nèi)近期各個大模型廠商正打得熱火朝天的價格戰(zhàn),商湯將眼光放在了提供更深的端到端產(chǎn)品價值上,特別是在具備無限潛力且與生活應(yīng)用更接近的移動端上,通過端云協(xié)同實現(xiàn)更優(yōu)的計算成本但不損害模型的綜合能力。
這或許暗示了商湯將通過技術(shù)創(chuàng)新和優(yōu)化成本結(jié)構(gòu),為未來可能入局的價格競爭做好了自己的規(guī)劃。
參考鏈接:
[1]https://www.superclueai.com/
[2]https://mp.weixin.qq.com/s/3pfOKtG6ar2h2fR6Isv_Xw
本文鏈接:http://www.horoscopes9.com/news-129578.htmlGPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一