一项巨大的变革正在中国的算力产业发生。
去年12月,在HAIC大会上,中科曙光的scaleX万卡超集群以真机形式首次亮相。当时,工程师们聚在展台前,还在讨论着这套系统的技术细节和它的未来——那时,它还只是一个概念的实体化样本。
不到2个月后的2月5日,在国家超算互联网核心节点上线试运行的现场,3套这样的万卡集群,已经同时投入运营。
在这里,工程交付能力已经不足以成为话题核心,产业逻辑的转变才是:国产算力正在从“各自为战”走向“协同开放”——这种转变,可能比任何单一技术突破都更为“惊人”。
市场表现已经开始支持一个论断:中国不缺国产AI芯片。过去几年,从云端训练到边缘推理,国产加速卡的性能指标一直在追赶,部分领域甚至已经并跑。也就是站上这样的高度时,从业者才开始切身地体会到,性能从来不是唯一的问题。
真正的困局在生态。现实中,一家企业如果想切换算力平台,需要付出的不只是硬件采购成本,还有软件重构、工具链适配、开发者学习的隐性成本。这些成本往往足以高到让人放弃尝试。开发者手握多品牌的国产加速卡,却因为软件生态不兼容,只能选择其中一个深度绑定。芯片厂商技术领先,却苦于缺少大规模应用场景,难以形成生态闭环。
这是一个“单点强、生态弱”的典型困境。每个玩家都在构筑自己的“护城河”,最终结果是让整个产业碎片化。
该核心节点部署的这3套万卡集群,试图用一种不同的方式来破解这个困局。它的底层设计采用了AI计算开放架构——可以兼容CUDA等主流软件生态,支持多品牌国产加速卡混合部署。这种兼容性与支持能力,事实上让相互隔绝的“护城河”,联通融入了一个完整的“生态系统”。在这个系统中,单点竞争力依旧亮眼,更重要的是,它变成了可以在广阔市场中随时“兑现”的价值点。
目前,这套系统已经完成400多个主流大模型、世界模型的适配优化。
这不是一个技术噱头。对于芯片厂商来说,这意味着他们的产品获得了国家级算力基础设施的落地场景;对于开发者来说,这意味着迁移成本的大幅降低;对于企业用户来说,这意味着他们可以在不同算力平台间更灵活地选择,而不必担心被某个生态锁死。
百度、硅基流动、中科星图——这些名字目前已经出现在中科曙光的合作伙伴名单上,同时千款应用的全面接入,都已经显示出,这不是简单的商业合作,而是“芯片—软件—应用”协同循环的一次实践。
事实上,早在2025年9月,致力于推动开放架构协同创新的光合组织就首次公开提出了开放架构理念,并成立了AI开放架构联合实验室。中科曙光作为光合组织的核心成员,正是在这一理念指引下,发布了国内首个开放架构的AI超集群系统。
从真机亮相到规模部署,不到2个月时间,这个速度让很多人意外。但熟悉大型计算机系统研制的人知道,这背后必然是多年积累的释放。
万卡集群需要解决的难题专业性强、分布广:高速互联网络、存算传紧耦合设计、高密供电与散热、统一资源高效调度——每一项都是复杂的系统工程。中科曙光的工程师们需要解决的,不只是让这些硬件"工作起来",更要让它们有余力“高效协同”。
网络是其中的关键。中科曙光的scaleFabric网络基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,可以实现400Gb/s的带宽,通信延迟低于1微秒。相比传统IB网络,性能提升了2.33倍,成本却降低了30%。这种性能与成本的平衡,在大规模部署时尤为重要。
超集群采用紧耦合架构,这种设计让它具备了向十万卡、百万卡规模扩展的能力。AI大模型正在向万亿级参数全速迈进,对算力的需求曲线几乎是指数级的。可扩展性在这里不是一个技术指标,而是一个需要直面的生存问题。
还有一些细节不被外界关注,但对工程团队来说至关重要。比如超集群采用了全球首创的高密度单机柜设计,通过超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升了20倍,把PUE值降低至1.04。这不只是能耗效率的提升,更意味着在相同的机房空间里,可以部署更多的算力。
这些技术细节共同支撑着表面的"不到2个月落地"。它们也解释了为什么中科曙光能够同时完成3套万卡集群的部署——这是工程化能力的成熟,而不是偶然的成功。
万卡集群的价值,最终要由应用来回答。
在万亿参数模型训练场景,系统需要支持整机训练与容错恢复。同时需要注意的是,多家头部互联网企业的核心智能化业务已经在这套算力上运行。对他们来说,稳定性和性能同样重要——毕竟算力中断意味着真金白银的损失。
AI for Science领域提供了更直观的验证。国内某材料研发大模型借助这套系统登顶国际权威榜单。这是中国团队在材料科学计算领域的突破。另一个案例同样引人注目:某顶级科研团队将蛋白质研究效率提升了3到6个数量级。这种量级的提升,意味着原本需要数月甚至数年的研究,现在可能在数周内完成。
千款应用的验证结果更具普遍性——开发效率翻倍,算力使用成本大幅下降。这些收益的来源不是单纯的硬件性能提升,而是开放架构降低了开发者的适配门槛。他们不需要为每个平台重写代码,不需要学习全新的工具链,这节省下来的时间和精力,才是真正的红利。
事实上,国家超算互联网平台正在成为一个更大的验证场。目前平台已经服务了100多万用户,单日处理作业峰值达到103万个,累计支撑运行1.96亿次作业。这些数字背后,是算力正在从稀缺资源变成基础设施的过程。
中科曙光的一位工程师说,他们希望算力能像水电一样,用户不需要关心底层是什么技术,只需要关心它好不好用。这是一个朴素但准确的比喻。
把核心节点的上线视为“变革”,不是基于性能提升,而基于产业生态的考量。
中国已经投资建设了大量超算中心、智算中心。这些中心分布在全国各地,算力总量并不少。但问题在于,供需脱节、软硬件不适配、生态体系不兼容,导致很多算力处于闲置状态。一边是企业找不到合适的算力,一边是算力中心找不到用户,这是典型的配置效率问题。
国家超算互联网要解决的,就是这个问题。作为全国最大的算力调度枢纽,该核心节点连接着全国乃至全球的算力资源与应用需求。它不只是一个算力提供者,更是一个算力的“交换中心”。
这个节点的上线,标志着国家一体化算力网络战略进入了新的阶段。从建设算力到调度算力,从单点突破到网络协同,这是基础设施建设逻辑的转变。
今天,中部算力高地的崛起,不只是一个地理概念,更是产业聚集的结果。
“智能化的浪潮正以前所未有的力量重塑世界。”中科曙光高级副总裁李斌在接受采访时说,“我们要推动国产智能算力更高效、更稳定、更普惠。”
这是一个企业高管的常见表态。但在这个表态背后,是一个更本质的命题:当开放成为产业共识,国产算力生态能否真正从“分散”走向“聚合”。
3套万卡集群的部署,只是一个开始。400多个大模型的适配,千款应用的全面接入,这些数字都在验证一个方向——算力基础设施的价值,不只在于它有多大的规模,更在于它能连接多少生态参与者。
2月10日,在郑州举行的"国产万卡算力赋能大模型发展研讨会暨联合攻关启动仪式"上,光合组织集结了国内头部大模型厂商和算力基础设施提供商等百家核心生态伙伴,正式启动了"国产大算力+国产大模型联合攻关专项计划"。百度、硅基流动、中科星图等知名企业的十余位资深专家被授予首批"AI布道师"证书。他们将依托光合组织平台,推动国产AI生态体系的共建交流。
这是一座“桥”的逻辑。桥本身不创造价值,但它连接了河的两岸,让交流成为可能。AI计算开放架构扮演的,正是这样一个角色。
芯片厂商获得了国家级算力落地场景,他们的产品可以在实战中验证和迭代。开发者无需重构代码就能适配多品牌加速卡,迁移成本的降低让他们有更多选择。企业用户可以在不同算力平台间灵活切换,不必担心被某个生态绑定。
这些改变,构成了“协同开放”的实质。它们也在回答一个长期困扰国产算力产业的问题:如何从“单点突破”走向“生态繁荣”。
答案可能不在于某项技术的领先,而在于这座“桥”能连接多少人。当芯片厂商、软件开发者、应用企业都能在这个开放的架构上找到自己的位置,生态系统的良性循环才有可能真正形成。
国产算力的未来,或许就藏在这个“开放”二字里。
上一篇:看展,AI讲解员做“搭子”