智谱等国产大模型密集上新 “降低应用”门槛成竞争关键

来源 | 《财经》新媒体 作者 | 撰稿人 王婧雅 编辑 | 高素英  

2026年02月12日 21:17  

本文3417字,约5分钟

继华尔街巨头摩根大通发布重磅研报,首度对覆盖中国通用大模型双雄——智谱与MiniMax给予“增持”评级后,2月12日,智谱(02513.HK)开盘后迅速走高,盘中涨幅一度超过40%。截至收盘,智谱股价上涨28.68%,报402.00港元/股,周内涨幅累计达到97.83%,接近翻倍。

值得关注的是,智谱打出了“模型+涨价”的组合拳。当日凌晨,其开源发布新一代旗舰基座模型GLM-5,紧接着又在上午宣布调整GLM Coding Plan套餐价格,整体涨幅30%起。这是国产头部厂商首次在推出新模型的同时执行实质性提价。

2026年被视为大模型应用落地的关键年份,中国人工智能行业正从“百模大战” 阶段,迈向以商业化落地能力、模型创新实力及全球化布局为决定成败之关键的阶段。仅最近两周,已有百度、阿里、DeepSeek、字节跳动等国产大模型密集上新,覆盖文本、推理、视觉、视频、编程全模态。

然而,在技术发布的热闹之下,大模型的日常使用仍大量停留在“轻量尝鲜”层面,能够将其深度嵌入核心生产流程的用户仍是少数。在业内看来,当头部厂商纷纷拉高能力上限,如何跨越横技术与应用之间的能力鸿沟,正成为决定下一阶段竞争格局的核心命题。

智谱上调大模型价格 盈利预期增强

2月12日凌晨,智谱开源发布新一代基座模型GLM-5。在SWE-bench-Verified和Terminal Bench 2.0两项编程基准测试中,GLM-5分别取得77.8分和56.2分的开源SOTA成绩,性能超过Gemini 3 Pro。全球Artificial Analysis榜单将其列为全球第四、开源第一。此前在OpenRouter登顶热度榜首的神秘模型“Pony Alpha”,被智谱官方证实即为GLM-5。

同日上午,智谱发布价格调整函。GLM Coding Plan取消首购优惠、保留按季按年订阅优惠,套餐价格整体涨幅30%起,已订阅用户维持原价。智谱在价格调整函中解释,此次涨价的核心原因是近期市场需求持续强劲增长,用户规模与调用量快速提升,同时公司为保障高负载下的服务稳定性,加大了算力与模型优化的投入。

这一系列动作直接带动智谱二级市场表现爆发,2月12日当天,其股价开盘后迅速走高,盘中涨幅一度超40%,截至收盘上涨28.68%,报402.00港元/股。

市场对智谱动作的积极反馈,一方面在于GLM-5的技术突破首次将国产大模型在AI编程领域推至可对标国际顶尖水平的位置,打破了此前只能追赶的刻板印象;另一方面则在于“模型+涨价”同日落地释放出商业化信号。

国产芯片相关人士告诉笔者,GLM-5虽与OpenAI、Anthropic最新版本仍有差距,但差距已从代差缩小至可追赶水平,几乎能够比肩Claude Opus 4.5,这也是国产大模型在AI编程领域首次达到国际顶尖水平,其开源、易用的特征,有望推动国内AI开发者的普及与应用。

事实上,放在整个国产大模型行业背景下,智谱的涨价动作更具意义。过去一年,国产大模型行业陷入激烈的价格竞争,部分厂商以低于成本价抢占用户,发布新模型时多伴随降价或免费策略,以价格战换取市场份额成为行业常态。

智谱招股书显示,2022年至2024年,其营收从0.57亿元增至3.12亿元,年均复合增长率超过130%;2025年上半年营收1.91亿元,同比增长325.39%。按2024年收入计,智谱在中国独立通用大模型厂商中排名第一,在整体通用大模型开发商中位列第二,市场份额6.6%。

然而,高增长也伴随着高投入和亏损。2022年至2024年,智谱经调整净亏损分别为0.97亿元、6.21亿元和24.66亿元,同期,研发投入从0.84亿元上升至21.95亿元;2025年仅上半年经调整净亏损就达17.52亿元,研发投入15.95亿元。

高强度的研发投入与巨额亏损并非智谱一家独有,而是大模型赛道的缩影。不过摩根大通给出了盈利时间表,预计智谱和MiniMax两家公司在2029年实现整体盈利。

事实上,只有当模型能力足以介入核心生产流程,用户愿意为稳定性、速度与复杂任务完成度支付溢价,大模型行业才能逐步告别单纯的价格比拼,转向产品力与商业化能力的综合较量。

密集上新背后 降低“使用门槛”是关键

与智谱“模型+涨价”相呼应的是,近两周内,国产大模型厂商迎来密集上新潮,包括DeepSeek、百度、字节等多家厂商发布新一代产品,覆盖文本、推理、视觉、视频、编程全模态,叠加巨头们投入规模接近100亿元的春节AI营销大战,AI行业可谓热闹非凡。

此次密集上新各厂商聚焦产品力升级与场景适配。1月22日,百度上线文心大模型5.0正式版。该模型参数达2.4万亿,核心优势在于原生全模态统一建模架构。与业界多数采用后期融合的多模态方案不同,文心5.0采用统一的自回归架构进行原生全模态建模,将文本、图像、视频、音频等多源数据在同一模型框架中联合训练,实现原生的全模态统一理解与生成。

1月26日,阿里发布千问旗舰推理模型Qwen3-Max-Thinking正式版,该模型总参数超万亿,预训练数据量达36T Tokens,在19项权威基准测试中性能比肩GPT-5.2、Claude Opus 4.5、Gemini 3 Pro,能够在相同上下文中实现更高效的推理计算。

DeepSeek的更新则聚焦长上下文与OCR能力升级。2月11日,DeepSeek在网页端及APP端完成版本更新,将上下文窗口由128K直接提升至1M级别。官方强调,此次更新并非大版本迭代,“没有特定的子名称,不是V3也不是R1”。同步推出的DeepSeek-OCR-2采用创新的DeepEncoderV2方法,让模型可根据图像含义动态重排图像各部分,模拟人类观看场景的逻辑流程,在处理复杂图片时更智能、更有逻辑。

字节跳动发布的Seedance 2.0视频生成模型则成为此轮发布潮中最具破圈效应的产品。该模型支持文本或图像输入,可生成带原生音频的多镜头电影级视频,运镜规划和声画同步能力突出。游戏科学创始人、《黑神话:悟空》制作人冯骥则给出“地表最强,没有之一”的评价,并断言“AIGC的童年时代,结束了”。

但热闹的上新背后,大模型的实际落地效果却不尽如人意,使用门槛过高成为制约其从技术演示走向生产力工具的核心瓶颈。

以Seedance 2.0为例,普通用户生成一个简易的小视频并不困难,但要生成连贯的长镜头视频、还原复杂场景却难度极大,更不用说制作达到商用标准的大片。与此同时,该模型存在细节失真等问题,普通用户难以复现官方演示的优质效果。

DeepSeek的使用现状同样凸显这一问题。尽管其支持100万Token长上下文,但很多用户仍将其当作简易的搜索工具,仅用于文档检索、简单问答,无法完成更为深度的逻辑推理、复杂任务规划等操作,未能发挥其长上下文与推理能力的优势。

这背后的核心原因在于,用户使用AI能力不足。上述国产芯片相关人士表示,目前国内大部分大模型采用MoE稀疏模型,这种架构的优势是成本低,能够快速实现参数规模的突破,但依赖指令设计与部署能力,深度使用涉及较高的技术门槛,其中Agent部署尤为明显。

“很多人觉得大模型很厉害,但这只建立在你能正确部署和准确训练的基础上,大部分人没这个能力。”该人士表示,这就导致了多数用户只能轻量使用大模型,甚至把大模型当搜索功能用,无法将其转化为真正的生产力;而能够掌握部署、训练技巧,实现深度使用的用户只是少数。

这种门槛不仅存在于个人用户与中小企业,即便是大型企业,要实现大模型与自身业务的深度融合,也需要投入大量的技术人员、资金进行定制化开发,这进一步压缩了大模型的商业化落地空间。

值得注意的是,这种轻量使用为主的现状,也催生了所谓的“GEO垃圾场”商机,即围绕轻量使用场景的配套服务,但这类服务的附加值较低。国产芯片相关人士认为,对于国产大模型行业而言,如何降低使用门槛、推动Agent技术的普及,让更多用户能够实现深度使用,将成为下一阶段的核心竞争点。

216.73.216.173