GLM-5架构终曝光 复用DeepSeek核心技术 智谱港股两日暴涨60%

AI 资讯5小时前发布 dennis
0

【量子位 2026年2月10日讯】马年春节档大模型战事再添重磅!此前引发全民竞猜的神秘模型Pony Alpha尚未揭开面纱,其背后的“正主”——智谱AI新一代旗舰模型GLM-5,已通过开源代码泄露核心架构细节。该模型采用DeepSeek-V3/V3.2同款稀疏注意力机制(DSA)与多Token预测(MTP)技术,总参数量飙升至745B,较上一代GLM-4.7翻倍。消息一出,智谱AI港股股价两日暴涨近60%,总市值突破1494亿港元,为春节档大模型争霸注入强劲动力。

代码泄露核心架构 745B参数+稀疏注意力双线升级

GLM-5的架构信息并非来自官方官宣,而是被开源社区从vLLM推理框架的最新PR中“挖宝”发现。代码显示,GLM-5的实现逻辑直接映射到DeepSeek-V3系列组件,其模型类型“glm_moe_dsa”与DeepSeek-V3、DeepSeek-V3.2一同被归类为“deepseek_mtp”,明确证实了两者的技术同源性。

从泄露的参数来看,GLM-5堪称“性能怪兽”:采用MoE(混合专家)架构,配备256个专家,每次推理激活8个,激活参数约44B,稀疏度达5.9%,与DeepSeek-V3.2的5.4%基本持平;拥有78层隐藏层,隐藏层大小为6144,上下文窗口支持最高202K token,可轻松处理超长文本任务。相较于上一代GLM-4.5(355B参数),其总参数量实现翻倍增长,活性参数也从32B提升至44B,核心性能指标全面升级。

核心技术方面,GLM-5重点引入两大关键特性:一是DeepSeek稀疏注意力(DSA),通过“Lightning Indexer轻量级组件扫描打分+Top-k Token精准计算”的两阶段流程,将注意力计算复杂度从O(L²)骤降至O(Lk),在不影响输出质量的前提下,大幅提升长文本处理效率;二是多Token预测(MTP)技术,可同时生成多个Token,进一步优化模型生成速度。开发者分析,复用成熟架构意味着GLM-5能直接受益于vLLM、SGLang等推理框架的现有优化,部署门槛显著降低。

Pony Alpha身份坐实?91%用户认定为GLM-5测试版

随着GLM-5架构曝光,此前在OpenRouter平台爆火的神秘模型Pony Alpha的身份愈发清晰,超过91%的社区用户认定其为GLM-5的公开测试版。两者不仅核心参数高度吻合——均支持200K上下文窗口,且在编码、推理、角色扮演等核心能力上表现一致,更有多重技术证据形成闭环。

其一,分词器同源验证:开发者通过中文短语“锅内倒入植物油烧热”进行PoC令牌测试,发现Pony Alpha与GLM-4、GLM-5采用同一套分词器,该短语作为专属“故障字符串”,会触发两者相同的分词异常反应;其二,输出风格传承:Pony Alpha生成的代码带有明显的“中国模型风格”,且相较于GLM-4更加干净精致,单提示词可输出2200行高质量代码,与GLM-5的技术演进逻辑完全契合;其三,时间线完美衔接:Pony Alpha于2月6日上线,恰好落在智谱首席科学家唐杰此前暗示的“未来两周发布新模型”窗口期内,进一步印证了其测试版属性。

实测中,Pony Alpha的表现已展现出GLM-5的强大潜力:单提示词即可生成包含35个电台的完整广播应用、功能齐全的音乐播放器,甚至能开发浏览器端3D游戏,前端开发能力堪比Claude Opus 4.6,与GLM-5的架构升级预期高度匹配。

港股暴涨60% 春节档大模型进入“硬碰硬”阶段

GLM-5的技术突破直接反映在资本市场。智谱AI港股在消息曝光后股价持续飙升,2月9日单日上涨21.03%,收盘价报335港元,两日累计涨幅接近60%,成交量达229.35万股,成交额7.22亿港元,总市值突破1494亿港元,市场对其技术实力与商业化前景高度看好。

与此同时,春节档大模型赛道已进入“神仙打架”模式。除了GLM-5即将于2月中旬正式发布,DeepSeek新模型、阿里巴巴Qwen 3.5、MiniMax M2.2等产品也将集中亮相,一场围绕技术参数、场景适配、落地效率的巅峰对决即将上演。不过,GLM-5的架构选择也引发行业讨论:有开发者疑问,DeepSeek-V3架构以纯文本优化为主,GLM-5首发版本是否会缺失多模态能力?这一悬念或将在正式发布时揭晓。

从行业趋势来看,GLM-5的技术路线凸显了大模型发展的两大方向:一是参数规模与稀疏化技术的结合,在提升性能的同时控制计算成本;二是成熟架构的复用与优化,缩短研发周期、降低部署门槛。随着GLM-5的正式登场,国产大模型在全球AI赛道的竞争力将进一步提升,而春节档的这场技术比拼,也将深刻影响2026年大模型行业的格局走向,值得持续关注。

© 版权声明

相关文章