菜鸟AI - 让提示词生成更简单! 全站导航 全站导航
AI工具安装 新手教程 进阶教程 辅助资源 AI提示词 热点资讯 技术资讯 产业资讯 内容生成 模型技术 AI信息库

已有账号?

首页 > AI教程 > 通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源
辅助资源

通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源

2026-05-01
阅读 0
热度 0
作者 菜鸟AI编辑部
摘要

摘要

通义千问 Qwen 2 5-Max:阿里云发布超大规模MoE模型,性能表现引关注 新年伊始,国内AI领域

通义千问 Qwen 2.5-Max:阿里云发布超大规模MoE模型,性能表现引关注

新年伊始,国内AI领域就迎来一则重磅消息。阿里云正式公布了其全新的通义千问 Qwen 2.5-Max 模型,定位为超大规模混合专家模型。目前,开发者已能通过API调用体验其能力,普通用户也可以直接登录Qwen Chat,与模型对话或试用其artifacts、联网搜索等高级功能。

通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源

这款模型来势汹汹,底气何在?根据官方介绍,其训练数据规模堪称海量,预训练阶段使用了超过20万亿token。更关键的是,研发团队为其配备了精心设计的后训练方案,这通常是模型能力实现“质变”的关键一步。

性能表现:直接对话与原始基座双线对比

官方这次将性能展示分成了两条线:一条是我们日常接触的、可直接对话的“指令模型”;另一条则是更底层的“基座模型”。

在指令模型的比拼中,阿里云直接将Qwen2.5-Max放在了最具竞争力的赛场,对比对象包括DeepSeek V3、GPT-4o和Claude-3.5-Sonnet等顶尖选手。结果如下图所示:

通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源

从数据来看,Qwen2.5-Max的表现颇具竞争力。在Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond等一系列高难度基准测试中,其综合表现超越了同样备受瞩目的DeepSeek V3。同时,在MMLU-Pro等其他评估维度上,它也展现出了与顶级模型一较高下的实力。

当然,指令模型的优异表现离不开强大的基座能力。在基座模型的对比中,由于无法获取GPT-4o等闭源模型的基座版本,对比主要在当前主流的高性能开源模型间展开。其对手包括目前领先的开源MoE模型DeepSeek V3、参数规模最大的开源稠密模型Llama-3.1-405B,以及同属通义千问家族、在开源稠密模型中名列前茅的Qwen2.5-72B模型。具体对比如下:

通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源

对比结果表明,Qwen2.5-Max的基座模型在大多数基准测试中都占据了优势。这意味着其强大的推理和知识能力拥有坚实的底层支撑。值得注意的是,官方在发布中透露了一个明确信号:随着后训练技术的持续迭代,下一个版本的Qwen2.5-Max有望达到更高的性能水准。这无疑为后续的AI竞赛添了一把火。

来源:互联网

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

同类文章推荐

相关文章推荐

更多