您的位置 : 资讯 > 软件资讯 > SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

来源:菜鸟下载 | 更新时间:2025-06-02

大语言模型面对加密数据,即便最新的qwen3也会感到压力!尽管当下各类推理模型在多种基准测试中

大语言模型面对加密数据,即便最新的qwen3也会感到压力!

尽管当下各类推理模型在多种基准测试中表现优异,但在密码学这样对逻辑严谨性和细节准确性要求极高的专业领域,模型的推理能力还有待深入挖掘。

密码学不仅要求模型具备高级数学运算能力和严密的逻辑推理链,还需要其能够精准辨识复杂加密模式中的潜在规律;成功解密要求模型拥有极强的综合推理能力。

上海AI Lab等联合推出的CipherBank测评,使用大量真实隐私场景数据和多种密码算法,严苛挑战当前最先进的大模型。

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

CipherBank的测评结果显示,目前的大语言模型在密码学解密任务上的整体表现欠佳,最优模型准确率未达半数,多数模型准确率低于20%,这表明结构化和符号化推理仍是它们的明显短板。

在CipherBank测评中,Claude-3.5-Sonnet和o1表现最佳,DeepSeek系列稍优于通用模型,而GPT-4o、Gemini等模型表现平平,Qwen2.5, Llama3.1, Llama3.3等开源模型表现较差,即便是最新发布的Qwen3系列模型表现也不理想,30B和32B的模型准确率均未超过10%;整体显示当前大模型在解密推理任务上仍存在明显不足。

CipherBank:专用于检验大模型解密能力的题库

CipherBank是一个全面、真实、精巧的密码学解密基准测试集。它并非随机文本的加密,而是精心构建了贴近实际生活隐私敏感场景的明文数据。

数据:覆盖5大领域(如个人隐私、金融资产)、14个子领域(如身份信息、银行信息)、89个细粒度标签,共262个独特明文。这些数据体现了真实的加密需求。

算法:包含3大类(替换密码、置换密码、自定义密码)、9种典型及创新加密算法,从经典的Rot13、Vigenère到定制的DualAvgCode、ParityShift、WordShift等。设计了5个难度层级,从基础到专家,全方位考验模型的解密能力。

题库:总共生成了2,358道经过严格验证的解密题目。每一道题,都是对LLM推理能力的巨大挑战!

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

用研究者的话说:CipherBank,就是要让LLMs在没有“场外提示”的情况下,仅凭自身能力闯过重重“密室”。

SOTA模型实测:集体“滑铁卢”,最高分未过半

研究团队邀请了当前AI界的18位“顶级”选手(包括GPT家族、DeepSeek系列、Gemini系列、Claude 3.5、o1系列等)进行了这场硬核PK。

评估采用3-shot设置。模型拿到的是几个明文-密文示例,需要像真正的密码分析师一样,从中自主学习加密规则、推断密钥,最终才能解密全新的密文。这评估的是真正的推理能力,而非简单的“记忆”或“穷举”。

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

集体“不及格”?:令人震惊的是,绝大多数SOTA模型得分惨淡,部分甚至接近零分。即使是表现最好的Claude-3.5和o1,准确率也未能突破50%。这说明,即使是古典密码解密,对目前的LLMs来说依然是一个巨大的未被攻克的堡垒。

推理模型「略有优势」:推理优化模型(DeepSeek-R1, o1)的平均表现确实优于通用聊天模型,这再次证明了推理优化在逻辑任务上的价值,但差距并没有拉开到大家想象的那么大。

闭源模型「暂时领跑」:Claude-3.5以显著优势领跑,在替换密码、置换密码上展现了非凡能力,o1紧随其后。但DeepSeek-V3/R1等开源模型的进步也很亮眼,正在奋力追赶。

性能差异「惊人」:同类模型在解密任务中的表现差异较大,例如o1与QwQ-32B-Preview的准确率相差几十倍。

除此之外,研究团队还对全新发布的Qwen3 32B系列模型进行了测试,发现即使是最新发布的Qwen3模型,测试准确率依旧不足10%:

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

剥茧抽丝:大模型为何在解密上“犯难”?

为什么LLMs在解密上这么“挣扎”?研究团队进一步做了细致分析:

怕长文本: 文本越长,模型越容易出错!与人类解密不同,人类一旦成功找到解密方法之后,便能以近100%的成功率破解,而LLMs的“脑容量”在解密时会受到长度限制。

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

怕噪音干扰:明文中加点儿错别字或无关信息,模型性能“闪崩”!这暴露了模型在“猜测”而非“推理”——它们不是严格按规则解密,而是依赖文本的语义顺畅度,一旦语义被破坏,就歇菜了。

怕数字转换:加密内容里混入数字?难度瞬间飙升!LLMs在处理涉及数字的转换规则时显得尤为吃力。

"提示"依赖症:如果在Prompt里直接告诉模型是什么算法,推理模型表现会大幅提升,而通用模型提升有限。这说明推理模型在“有向”推理时更有效,但自主从示例中发现规则的能力还不足。

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

错误分析:模型到底错在哪儿?

研究团队对模型的错误输出进行了细致分类(遗漏/插入、姓名解密错误、语义推断、重组、推理失败等),将模型的错误分布总结为下图(左图为Chat model错误分布,右图为Reasoning model的错误分布),并发现了一些有意思的现象:

SOTA 大模型遇上加密数据评测:Qwen3 未破 10%,o1 也栽了

推理模型「想太多」:有时在简单的算法(比如Reverse)上,推理模型反而会“过度分析”,绕了远路最终出错。

对话模型「爱脑补」:更倾向于生成语义通顺但并未完全符合解密规则的文本,容易出现“遗漏/插入”或“重组”错误,像是在“自由发挥”。

「姓名识别」的通病:处理姓名等专有名词的解密时,模型们普遍容易出错,这可能是预训练数据带来的某种“记忆”干扰。

未来展望

那么,未来的AI应该往哪个方向努力,才能征服密码解密这座“高山”呢?CipherBank的结果为人们指明了几个关键的突破口:

摆脱「过度语义依赖」:让模型训练出纯粹的、抽象的符号和结构化推理能力,不再仅仅依赖表面文本的“猜意思”或进行“语义补全”,尤其在处理不具备强语义规律的加密数据时。

增强「模式学习与泛化」:提升模型从少量示例中精准对比分析、高效提取隐含加密规则和密钥的能力,并能将这些规则稳健地泛化应用于各种情况,包括处理混合文本(如数字与字母)以及对抗轻微的噪音干扰。

优化「推理执行的稳定性」:改进模型的思考流程,避免在看似简单的任务上“过度思考”或陷入不必要的递归修正,确保推理过程更加直接、高效和稳定,能够精确无误地执行推断出的解密步骤。

未来,大语言模型有望在密码学领域取得更加显著的进展。

项目主页:https://www.php.cn/link/fd356b942a8def8170bf1ea95255ec75

论文直达:https://www.php.cn/link/f69ca3d113bd72c9ef29940383e7e941

测试数据:https://www.php.cn/link/c647f2a6f34278b30c28af729766bdd4

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

— 完 —

点亮星标

科技前沿进展每日见

菜鸟下载发布此文仅为传递信息,不代表菜鸟下载认同其观点或证实其描述。

展开
行动思维
行动思维
类型:休闲益智 运营状态:公测 语言:简体中文
社交 收集
前往下载

相关文章

更多>>

热门游戏

更多>>

手机扫描此二维码,

在手机上查看此页面

关于本站 下载帮助 版权声明 网站地图

版权投诉请发邮件到 cn486com#outlook.com (把#改成@),我们会尽快处理

Copyright © 2019-2020 菜鸟下载(www.cn486.com).All Reserved | 备案号:湘ICP备2023003002号-8

本站资源均收集整理于互联网,其著作权归原作者所有,如有侵犯你的版权,请来信告知,我们将及时下架删除相应资源