DeepSeek V3.2 发布:更聪明的推理,更克制的回答

DeepSeek V3.2 发布:更聪明的推理,更克制的回答

深度求索公司最近发布了两个新模型:DeepSeek-V3.2 和它的“加强版” DeepSeek-V3.2-Speciale。这两个模型都是免费开源的,目前已经更新到了官方网页端、App 和 API。我的理解是,这次更新的重点在于强化模型的推理能力,同时让它在日常使用中更高效、更“懂分寸”。

两个版本的定位差异

根据官方信息,这两个版本有着不同的设计目标。DeepSeek-V3.2 主要面向日常使用,它试图在“聪明回答”和“别废话太多”之间找到平衡。这意味着它适合作为日常问答助手,在保证回答质量的同时,输出更简短,消耗的计算资源也更少。

而 DeepSeek-V3.2-Speciale 则是一个更专注于极限推理能力的版本。它在 V3.2 的基础上,特别强化了数学证明和逻辑推理方面的能力,目标是探索开源模型在复杂推理任务上的极限。

令人瞩目的推理表现

从素材中提到的测试成绩来看,这两个模型,尤其是 Specilae 版本,在推理能力上取得了非常突出的成绩。在公开的推理测试中,V3.2 的表现已经追上了 GPT-5,仅略逊于 Gemini-3.0-Pro。

更“夸张”的是 Specilae 版本。根据素材,它在 2025 年的多项顶级竞赛中取得了接近甚至超越人类顶尖选手的水平,例如在国际数学奥林匹克(IMO)和中国数学奥林匹克(CMO)中“拿金牌”。这显示出其在复杂逻辑和数学问题上的强大实力。

实际应用测试示例

为了直观展示其能力,原文作者进行了一些实际测试。在代码能力测试中,模型被要求生成一个结合手势识别与 3D 粒子效果的复杂网页代码,结果“代码一次通过,没有任何问题”。

在数学难题测试中,面对一个涉及排列组合的逻辑问题,模型也给出了正确的答案(42)。这些测试虽然是个例,但一定程度上反映了模型在处理多步骤、强逻辑任务时的潜力。

如何获取与使用

对于普通用户,最直接的方式是通过深度求索的官方网页端或 App 来使用已经更新的 DeepSeek-V3.2。对于开发者,可以通过官方平台获取 API KEY 来调用服务。

如果希望本地部署开源模型,则需要相当高的硬件配置。根据素材提示,即使经过量化压缩,也至少需要总 VRAM 加 RAM 合计 350 到 400 GB 的资源,这对个人用户来说门槛很高。


总的来说,DeepSeek V3.2 系列的发布,特别是其在推理能力上的显著进步,为开源大模型社区带来了新的选择。它似乎在追求一种更高效、更专注的智能,而不是单纯地生成更长的文本。对于需要处理复杂逻辑任务的用户来说,这或许是一个值得关注的新工具。