昨日,LG旗下的人工智能研究中心“LG AI Research”宣布推出韓國首個開源AI推理模型——EXAONE Deep,其團隊宣傳其擅長數(shù)學和代碼編程。值得一提是,EXAONE Deep“滿血版”的體積十分小巧,僅有320億參數(shù)(32B),而DeepSeek-R1“滿血版”則擁有6710億參數(shù)(671B),此外EXAONE Deep還擁有兩個輕量化模型,分別為EXAONE Deep-7.8B、EXAONE Deep-2.4B。

雖然參數(shù)少,但是膽子大啊。開發(fā)團隊進行了多項測試,依據(jù)測試結(jié)果宣稱EXAONE Deep擁有3大顯著優(yōu)勢:

1、EXAONE Deep-2.4B優(yōu)于同等規(guī)模的其他模型。2、EXAONE Deep-7.8B不僅優(yōu)于同等規(guī)模的開放權(quán)重模型,還優(yōu)于專有推理模型OpenAI o1-mini。3、EXAONE Deep-32B表現(xiàn)出與領(lǐng)先的開源模型相比的性能。

exaone_deep_overall_performance.png

在第一組測試中,EXAONE Deep-32B對比了深度求索開發(fā)的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新開發(fā)的QwQ-32B。

測試結(jié)果顯示,EXAONE Deep-32B的數(shù)學推理能力較強,在AIME 2024/2025(美國數(shù)學邀請賽)中和其他模型不相上下,在CSAT Math 2025(韓國大學修學能力考試)中,甚至超過了DeepSeek-R1“滿血版”,不過在GPQA Diamond(跨學科博士級測試鉆石組)和LiveCodeBench編程測試中則要明顯弱于DeepSeek-R1“滿血版”。

在第二組測試中,開發(fā)團隊使用的是7.8B參數(shù)的小模型,同步對比了DeepSeek-R1-7B和8B,也加入了OpenAI-o1-mini模型,結(jié)果顯示EXAONE Deep-7.8B均勝過參數(shù)量相近的其他模型。

EXAONE-Deep.png

目前EXAONE Deep已經(jīng)正式發(fā)布,可通過Ollama之類的框架工具進行部署,因為體積較小,大家可以本地部署實測一下。


點個贊969
分享到:

發(fā)表評論注冊|