阿里云推出最新通义千问 QwQ-32B 推理模型并开源,仅 1/20 参数媲美 DeepSeek R1

这里是AI贴吧网-AI资讯的硬核前线!我们24小时监测全球实验室动态,算法追踪巨头动向、代码解析学术突破,用最“硅基”视角解秘AI革命浪潮!

研究表明,强化学习可以显著提高模型的推理能力,例如DeepSeek-R1通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。

阿里云通义千问官方今日宣布推出最新的推理模型QwQ-32B。这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的DeepSeek-R1媲美。

这一成果凸显了将强化学习应用于经过大规模预训练的强大基础模型的有效性。此外,我们还在推理模型中集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。

目前,QwQ-32B已在 HuggingFace (https://huggingface.co/Qwen/QwQ-32B) 和 ModelScope (https://modelscope.cn/models/Qwen/QwQ-32B) 开源,并采用了Apache2.0开源协议。用户也可以通过 QwenChat(https://chat.qwen.ai/?models=Qwen2.5-Plus)直接进行体验。

性能方面,阿里云对QwQ-32B测试了数学推理、编程能力和通用能力,并展示了QwQ-32B与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini以及原始的DeepSeek-R1。

在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B表现与DeepSeek-R1相当,远胜于o1-mini及相同尺寸的R1蒸馏模型;在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜”LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek-R1。

阿里云表示,这是Qwen在大规模强化学习(RL)以增强推理能力方面的第一步。通过这一旅程,不仅见证了扩展RL的巨大潜力,还认识到预训练语言模型中尚未开发的可能性。

在致力于开发下一代Qwen的过程中,阿里云计划将更强大的基础模型与依托规模化计算资源的RL相结合,从而使其更接近实现人工通用智能(AGI)。此外,阿里云正积极探索将智能体与RL集成,以实现长时推理,目标是通过推理时间扩展来释放更高的智能,敬请期待。

想掌握最新AI隐藏技能?挖透巨头紧急下架产品的真相?点击【AI贴吧网-AI资讯】,深度解析+实战案例,智能刷新你的认知!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注