当前位置: 首页> 腾云科技> 正文

阿里新开源推理大模型QwQ-32B,性能媲美DeepSeek-R1、显存需求更小

阿里巴巴的Qwen团队推出了开源大型语言模型QwQ-32B,旨在通过强化学习提升其在复杂问题解决任务中的性能。该模型以320亿参数和131072 tokens的扩展上下文长度为基础,能够在数学和编程等基准测试中与更大参数的模型相媲美,同时显存需求更低。

QwQ-32B.png

亮点提要:

QwQ-32B采用强化学习技术,提升复杂问题求解能力。

在数学、编程等基准测试中表现与更大参数模型相当,显存需求更低。

具备扩展上下文长度和agentic capabilities,未来将继续探索强化学习的潜力。

详情入口:

https://qwenlm.github.io/blog/qwq-32b/