阿里巴巴的Qwen團隊近日震撼發(fā)布了其最新的科研成果——QwQ-32B大型語言模型,這一創(chuàng)新成果迅速引起了業(yè)界的廣泛關(guān)注。
QwQ-32B模型擁有驚人的320億參數(shù),但其性能卻足以與擁有6710億參數(shù)(激活部分為370億)的DeepSeek-R1模型相媲美。這一成就的實現(xiàn),得益于Qwen團隊在強化學習領(lǐng)域的突破,使得QwQ-32B在參數(shù)數(shù)量僅為DeepSeek-R1約1/21的情況下,實現(xiàn)了性能的飛躍。
不僅如此,阿里巴巴還在QwQ-32B的推理模型中融入了與Agent相關(guān)的能力,這一創(chuàng)新使得該模型能夠在使用工具的同時,進行批判性思考,并根據(jù)環(huán)境的反饋靈活調(diào)整其推理過程。這一特性無疑大大增強了模型的實用性和智能化水平。
為了全面評估QwQ-32B的性能,阿里巴巴團隊在一系列基準測試中對其進行了嚴格的測試,包括數(shù)學推理、編程能力以及通用能力等多個方面。結(jié)果顯示,在數(shù)學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,QwQ-32B的表現(xiàn)與DeepSeek-R1相當,遠遠超過了o1-mini以及相同尺寸的R1蒸餾模型。
在由meta首席科學家楊立昆領(lǐng)銜的“最難LLMs評測榜”LiveBench、谷歌提出的指令遵循能力IFeval評測集,以及加州大學伯克利分校等提出的評估準確調(diào)用函數(shù)或工具的BFCL測試中,QwQ-32B均取得了超越DeepSeek-R1的優(yōu)異成績。這些測試結(jié)果無疑進一步證明了QwQ-32B的強大性能和廣泛適用性。
QwQ-32B模型已經(jīng)在Hugging Face和ModelScope平臺上開源,廣大開發(fā)者可以通過這些平臺直接獲取并使用該模型。同時,用戶還可以通過Qwen Chat直接體驗QwQ-32B的強大功能,感受其帶來的智能化變革。