成人A级毛片免费播放,久久这里只精品热免费,亚洲AV大乳天堂在线观看,18禁黄污吃奶免费看网站

GPT-4 Turbo首次被擊敗!國產(chǎn)大模型拿下總分第一

2024-05-22 17:13:24 130觀看

OpenAI長期霸榜的SuperCLUE(中文大模型測評基準),終于被國產(chǎn)大模型反將一軍。m1j驛資訊

事情是這樣的。m1j驛資訊

自打SuperCLUE問世以來,成績第一的選手基本上要么是GPT-4,要么是GPT-4 Turbo,來感受一下這個feel:m1j驛資訊

(PS:共有6次成績,分別為2023年的9月-12月和2024年的2月、4月。)m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方m1j驛資訊

但就在近,隨著一位國產(chǎn)選手申請的出戰(zhàn),這一局面終是迎來了變數(shù)。m1j驛資訊

SuperCLUE團隊對其進行了一番全方位的綜合性測評,終官宣的成績是:m1j驛資訊

總分80.03分,超過GPT-4 Turbo的79.13分,成績第一!m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方公眾號m1j驛資訊

而這位國產(chǎn)大模型選手,正是來自商湯科技的日日新5.0(SenseChat V5)。m1j驛資訊

并且SuperCLUE還給出了這樣的評價:m1j驛資訊

刷新了國內(nèi)大模型好成績。m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊

那么商湯在SuperCLUE的這個“首次”,又是如何解鎖的呢?m1j驛資訊

綜合、文科國內(nèi)外第一,理科國內(nèi)第一m1j驛資訊

首先我們來看下這次官方所搭建“擂臺”的競技環(huán)境。m1j驛資訊

出戰(zhàn)選手:SenseChat V5(于5月11日提供的內(nèi)測API版本)m1j驛資訊

評測集:SuperCLUE綜合性測評基準4月評測集,2194道多輪簡答題,包括計算、邏輯推理、代碼、長文本在內(nèi)的基礎(chǔ)十大任務(wù)。m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方報告m1j驛資訊

模型GenerationConfig配置:m1j驛資訊

temperature=0.01m1j驛資訊

repetition_penalty=1.0m1j驛資訊

top_p=0.8m1j驛資訊

max_new_tokens=2048m1j驛資訊

stream=falsem1j驛資訊

至于具體的評測方法,SuperCLUE在已發(fā)布的相關(guān)報告中也有所披露:m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方報告m1j驛資訊

以上就是SuperCLUE公開的競技環(huán)境配置。m1j驛資訊

至于結(jié)果,除了剛才我們提到的綜合成績之外,官方還從文科和理科兩個維度,再做了細分的評測。m1j驛資訊

SenseChat V5在文科上的成績依然是打破了國內(nèi)大模型的紀錄——m1j驛資訊

以82.20分的成績位居第一,同樣超越了GPT-4 Turbo。m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方公眾號m1j驛資訊

在理科成績上,雖然SenseChat V5此次并沒有超越GPT-4-Turbo(低了4.35分),但整體來看,依舊在國內(nèi)大模型選手中首屈一指,位列國內(nèi)第一。m1j驛資訊

GPT-4 Turbo首次被擊?。a(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方公眾號m1j驛資訊

除了文理科之外,SuperCLUE也還從國內(nèi)和國外的整體平均水平上做了對比。m1j驛資訊

例如和國內(nèi)大模型平均水平相比,其各項成績的“打開方式”是這樣的:m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方公眾號m1j驛資訊

而在與國外選手做性能對比時,我們可以明顯看到SenseChat V5文科能力優(yōu)于國外選手,數(shù)理能力也非常優(yōu)秀,代碼能力依然有提升空間。m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊
△圖源:SuperCLUE官方公眾號m1j驛資訊

不過有一說一,評測分數(shù)定然是代表大模型性能的一方面,但在應(yīng)用為王的當(dāng)下,更重要的一點或許就得看用的效果了。m1j驛資訊

實測SenseChat V5m1j驛資訊

SenseChat V5早在4月底便已經(jīng)集成到了“商量”在線的對話應(yīng)用中,因此我們現(xiàn)在就可以出題對它做一番考驗。m1j驛資訊

在邏輯測試方面,帶有文字陷阱的腦筋急轉(zhuǎn)彎,可以說是測試一個AI能力很好的例子,比如:m1j驛資訊

《紅樓夢》全書有百萬字,“紅樓夢”有幾個字?m1j驛資訊

若是仔細觀察這句話,不難發(fā)現(xiàn)其實句子前后并沒有太大的關(guān)聯(lián),是一個比較典型的腦筋急轉(zhuǎn)彎。m1j驛資訊

對此,SenseChat V5給出的答案是:m1j驛資訊

《紅樓夢》作為中國古典文學(xué)的巔峰之作,其全文字數(shù)大約在70萬到80萬字之間,具體字數(shù)根據(jù)不同版本稍有差異。而標題“紅樓夢”這三個字,自然是只有三個字。這個標題凝練而富有深意,象征著作品的夢幻色彩和對封建家族興衰的深刻反思。m1j驛資訊

GPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一m1j驛資訊

我們可以看到SenseChat V5不僅找出了問題的陷阱并做出了分析,給出的答案也是正確的。m1j驛資訊

對于數(shù)學(xué)的能力,我們設(shè)置了這樣的一個問題:m1j驛資訊

假設(shè)有一個池塘,里面有無窮多的水?,F(xiàn)有2個空水壺,容積分別為5升和6升。如何只用這2個水壺從池塘里取得3升的水。m1j驛資訊

GPT-4 Turbo首次被擊敗!國產(chǎn)大模型拿下總分第一m1j驛資訊

同樣的,SenseChat V5依舊是給出了每一個詳細的步驟和分析,并得到了終結(jié)果。m1j驛資訊

更直接的數(shù)學(xué)問題,例如找數(shù)字之間的規(guī)律,SenseChat V5也是信手拈來:m1j驛資訊

GPT-4 Turbo首次被擊?。a(chǎn)大模型拿下總分第一m1j驛資訊

在中文理解方面,即使是給SenseChat V5一大段文言文,并且上難度連環(huán)發(fā)問,它是否可以hold得???m1j驛資訊

請看結(jié)果:m1j驛資訊

GPT-4 Turbo首次被擊敗!國產(chǎn)大模型拿下總分第一m1j驛資訊

后,有請“弱智吧Benchmark”:m1j驛資訊

網(wǎng)吧能上網(wǎng),為什么弱智吧不能上弱智?m1j驛資訊

GPT-4 Turbo首次被擊敗!國產(chǎn)大模型拿下總分第一m1j驛資訊

嗯,確實是有點實力在身上的。m1j驛資訊

如何做到的?m1j驛資訊

其實對于這個問題,商湯在4月底將自家日日新大模型SenseNova版本迭代到5.0之際,就已經(jīng)有所透露;當(dāng)時商湯鎖定的定位就是全面對標GPT-4 Turbo。m1j驛資訊

具體到技術(shù),可以分為三大方面:m1j驛資訊

采用MoE架構(gòu)m1j驛資訊

基于超過10TB tokens訓(xùn)練,擁有大量合成數(shù)據(jù)m1j驛資訊

推理上下文窗口達到200Km1j驛資訊

首先,為了突破數(shù)據(jù)層面的瓶頸,商湯科技使用了超過10T的tokens,確保了高質(zhì)量數(shù)據(jù)的完整性,使得大模型對客觀知識和世界有了基本的認知。m1j驛資訊

商湯還生成了數(shù)千億tokens的思維鏈數(shù)據(jù),這是此次數(shù)據(jù)層面創(chuàng)新的關(guān)鍵,能夠激發(fā)大模型的強大推理能力。m1j驛資訊

其次,在算力層面,商湯科技通過聯(lián)合優(yōu)化算法設(shè)計和算力設(shè)施來提升性能:算力設(shè)施的拓撲極限用于定義下一階段的算法,而算法的新進展又反過來指導(dǎo)算力設(shè)施的建設(shè)。m1j驛資訊

這也是商湯AI大裝置在算法和算力聯(lián)合迭代上的核心優(yōu)勢。m1j驛資訊

GPT-4 Turbo首次被擊?。a(chǎn)大模型拿下總分第一m1j驛資訊

在其它細節(jié)方面,例如訓(xùn)練策略上的創(chuàng)新,商湯將訓(xùn)練過程分為三個大階段(預(yù)訓(xùn)練、監(jiān)督微調(diào)、RLHF)和六個子階段,每個階段專注于提升模型的特定能力。m1j驛資訊

例如,單是在預(yù)訓(xùn)練這個階段,又可以細分為三個子階段:初期聚焦于語言能力和基礎(chǔ)常識的積累,中期擴展知識基礎(chǔ)和長文表達能力,后期則通過超長文本和復(fù)雜思維數(shù)據(jù)進一步拔高模型能力。m1j驛資訊

因此在預(yù)訓(xùn)練結(jié)束之際,整個模型就已經(jīng)擁有了較高水平的基礎(chǔ)能力;但此時它的交互能力卻還沒有被激發(fā)出來,也就來到了第二階段的監(jiān)督微調(diào)(SFT)和第三階段的人類反饋強化學(xué)習(xí)(RLHF)。m1j驛資訊

整體可以理解為先培養(yǎng)模型遵循指令和解決問題的能力,再調(diào)節(jié)其表達風(fēng)格以更貼近人類的表達方式。接著,通過多維度的人類反饋強化學(xué)習(xí)過程,進一步改進模型的表達方式和安全性。m1j驛資訊

除此之外,商湯對于大模型的能力還有獨到的三層架構(gòu)(KRE)的理解。m1j驛資訊

GPT-4 Turbo首次被擊?。a(chǎn)大模型拿下總分第一m1j驛資訊

首先是在知識,是指世界知識的全面灌注。m1j驛資訊

目前大模型等新質(zhì)生產(chǎn)力工具近乎都是基于此來解決問題,也就是根據(jù)前人已經(jīng)解決過的問題的方案,來回答你的問題。m1j驛資訊

這可以認為是大模型能力的基本功,但更為高階的知識,應(yīng)當(dāng)是基于這樣能力下推理得到的新知識,這也就是這個架構(gòu)的第二層——推理,即理性思維的質(zhì)變提升。m1j驛資訊

這一層的能力是可以決定大模型是否夠聰明、是否可以舉一反三的關(guān)鍵和核心。m1j驛資訊

再在此之上,便是執(zhí)行,是指世界內(nèi)容的交互變革,也就是如何跟真實世界產(chǎn)生互動(就目前而言,具身智能在這一層是潛力股般的存在)。m1j驛資訊

三者雖相互獨立,但層與層之間也是緊密關(guān)聯(lián),打一個較為形象的比喻就是“知識到推理是像大腦,推理到執(zhí)行則像小腦”。m1j驛資訊

在商湯看來,這三層的架構(gòu)是大模型應(yīng)當(dāng)具備的能力,而這也正是啟發(fā)商湯構(gòu)建高質(zhì)量數(shù)據(jù)的關(guān)鍵。m1j驛資訊

One More Thingm1j驛資訊

其實對于大模型測評這事,業(yè)界質(zhì)疑的聲音也是層出不窮,認為是“刷分”、“刷榜”、“看效果才是重要的”。m1j驛資訊

對于這樣敏感的問題,商湯在與量子位的交流過程中也是直面并給出了他們的看法:m1j驛資訊

無論從用戶選擇合適模型的角度,還是從研究者進行操作研究的需要來看,對模型能力的評價是必不可少的。m1j驛資訊

這不僅幫助用戶和研究者了解不同模型的性能,也是推動模型發(fā)展的關(guān)鍵因素。m1j驛資訊

如果只針對一個公開的評測集進行優(yōu)化(即刷分),是有可能提高模型在該評測集上的分數(shù)的。m1j驛資訊

評測不應(yīng)只依賴單一數(shù)據(jù)集,而應(yīng)通過多個評測集和第三方閉卷考試等方式相互印證,以此來得到更全面、更有說服力的模型性能評估。m1j驛資訊

以及對于國內(nèi)近期各個大模型廠商正打得熱火朝天的價格戰(zhàn),商湯將眼光放在了提供更深的端到端產(chǎn)品價值上,特別是在具備無限潛力且與生活應(yīng)用更接近的移動端上,通過端云協(xié)同實現(xiàn)更優(yōu)的計算成本但不損害模型的綜合能力。m1j驛資訊

這或許暗示了商湯將通過技術(shù)創(chuàng)新和優(yōu)化成本結(jié)構(gòu),為未來可能入局的價格競爭做好了自己的規(guī)劃。m1j驛資訊

參考鏈接:m1j驛資訊

[1]https://www.superclueai.com/m1j驛資訊

[2]https://mp.weixin.qq.com/s/3pfOKtG6ar2h2fR6Isv_Xwm1j驛資訊

本文鏈接:http://www.horoscopes9.com/news-129578.htmlGPT-4 Turbo首次被擊??!國產(chǎn)大模型拿下總分第一

標簽:
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com。天上從來不會掉餡餅,請大家時刻謹防詐騙