IT之家 7 月 26 日消息,在今日的 2025 世界人工智能大会“AI 焕新产业共赢”企业人工智能产业发展论坛上,中国移动焕新发布“九天”基础大模型 3.0。
本次发布的“九天”基础大模型 3.0 是国务院国资委战新“百大工程”的新成果,进一步强化了“高安全、高可控、全国产、全行业”四大特性,重点实现三大焕新:
一、九天众擎语言大模型实现架构与性能双重跃迁。
模型突破性采用可扩展至万亿级的 MoE 架构,以 15T token 多阶段配比预训练数据与全流程治理体系强化推理能力,创新构建 113 域 ×53 能力的二维分级后训练框架,结合动态强化学习策略,驱动复杂推理能力提升 35%。
在 GPQA-Diamond 评测中,“九天”以 77.67 分斩获全球第二,超越 DeepSeekR1 和 Qwen3;在 ArenaHard V0.1 中,以 67.2 分位居全球第一;在 BFCL V3 评测中,达到 68 分。性能跃升的同时,模型进一步强化了可控生成能力,破解沉浸式角色演绎,精确流程内置等技术细节,实现了专业场景零幻觉。
基于最新的语言大模型,中国移动此次也推出多个专项模型。九天代码大模型使用两阶段的持续训练技术,支持代码生成、注释生成、单元测试生成、代码智能问答等多种任务,支持 Python、Java、JS、TS、Go、C++ 等 10 + 种主流编程语言。
指标方面,在 EvalPlus、MHPP、LivecodeBenchv6 等多个代码生成榜单上成绩领先。九天数学大模型,短思考、长思考模式均达到业界 SOTA 水平,多项指标超过 Qwen 2.5 Math、Qwen3、DeepSeek Math、DeepSeek R1-Distill 等同参数量级模型。
二、九天善智多模态大模型全面提升生成可控性与理解能力。
模型基于复杂时空建模、流匹配图片视频渐进式联合训练、端到端局部可控注意力机制等创新,同时引入多模态理解信息提升对文本指令和输入条件图像视频的感知能力,联合图文交织数据训练,实现既能生成高质量的图像视频,又能进行多轮对话式高可控精确编辑操作,显著提升了视觉生成的灵活便利性。
例如,在图片生成功能方面可支持多轮精准局部修改,如修改文字、修改背景、增加元素等。
模型在图理解和视频理解方面的性能表现也全面提升。
以上内容已上线焕新社区、Github、HuggingFace、魔搭社区、Gitee、Arxiv。
IT之家从论坛获悉,中国移动九天人工智能研究院计划 8 月推出此次发布内容的技术深度解读。