通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源
摘要
通义千问 Qwen 2 5-Max:阿里云发布超大规模MoE模型,性能表现引关注 新年伊始,国内AI领域
通义千问 Qwen 2.5-Max:阿里云发布超大规模MoE模型,性能表现引关注
新年伊始,国内AI领域就迎来一则重磅消息。阿里云正式公布了其全新的通义千问 Qwen 2.5-Max 模型,定位为超大规模混合专家模型。目前,开发者已能通过API调用体验其能力,普通用户也可以直接登录Qwen Chat,与模型对话或试用其artifacts、联网搜索等高级功能。

这款模型来势汹汹,底气何在?根据官方介绍,其训练数据规模堪称海量,预训练阶段使用了超过20万亿token。更关键的是,研发团队为其配备了精心设计的后训练方案,这通常是模型能力实现“质变”的关键一步。
性能表现:直接对话与原始基座双线对比
官方这次将性能展示分成了两条线:一条是我们日常接触的、可直接对话的“指令模型”;另一条则是更底层的“基座模型”。
在指令模型的比拼中,阿里云直接将Qwen2.5-Max放在了最具竞争力的赛场,对比对象包括DeepSeek V3、GPT-4o和Claude-3.5-Sonnet等顶尖选手。结果如下图所示:

从数据来看,Qwen2.5-Max的表现颇具竞争力。在Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond等一系列高难度基准测试中,其综合表现超越了同样备受瞩目的DeepSeek V3。同时,在MMLU-Pro等其他评估维度上,它也展现出了与顶级模型一较高下的实力。
当然,指令模型的优异表现离不开强大的基座能力。在基座模型的对比中,由于无法获取GPT-4o等闭源模型的基座版本,对比主要在当前主流的高性能开源模型间展开。其对手包括目前领先的开源MoE模型DeepSeek V3、参数规模最大的开源稠密模型Llama-3.1-405B,以及同属通义千问家族、在开源稠密模型中名列前茅的Qwen2.5-72B模型。具体对比如下:

对比结果表明,Qwen2.5-Max的基座模型在大多数基准测试中都占据了优势。这意味着其强大的推理和知识能力拥有坚实的底层支撑。值得注意的是,官方在发布中透露了一个明确信号:随着后训练技术的持续迭代,下一个版本的Qwen2.5-Max有望达到更高的性能水准。这无疑为后续的AI竞赛添了一把火。
来源:互联网
本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。