在第一組測試中,EXAONE Deep-32B對比了深度求索開發(fā)的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新開發(fā)的QwQ-32B。
測試結(jié)果顯示,EXAONE Deep-32B的數(shù)學推理能力較強,在AIME 2024/2025(美國數(shù)學邀請賽)中和其他模型不相上下,在CSAT Math 2025(韓國大學修學能力考試)中,甚至超過了DeepSeek-R1“滿血版”,不過在GPQA Diamond(跨學科博士級測試鉆石組)和LiveCodeBench編程測試中則要明顯弱于DeepSeek-R1“滿血版”。
在第二組測試中,開發(fā)團隊使用的是7.8B參數(shù)的小模型,同步對比了DeepSeek-R1-7B和8B,也加入了OpenAI-o1-mini模型,結(jié)果顯示EXAONE Deep-7.8B均勝過參數(shù)量相近的其他模型。
目前EXAONE Deep已經(jīng)正式發(fā)布,可通過Ollama之類的框架工具進行部署,因為體積較小,大家可以本地部署實測一下。
發(fā)表評論注冊|登錄