纵观商业史,依靠成功的自我革命来摆脱困境、重返巅峰的企业屈指可数。90年代IBM的“大象跳舞”和2014年后微软的“云转型”,便是两个标志性事件,它们证明了一家巨头在增长失速后,依然有能力完成自我重塑。
今天,类似的故事似乎正在中国市场重演——主角是阿里巴巴。
资本市场的反应最为直接。在经历了漫长的调整期后,阿里股价近期再度拉升,创下自2021年8月以来的新高。这轮上涨背后,是市场对其AI战略价值的重新定价——从持续超预期的云业务财报,到通义大模型的高频迭代,再到关于其自研AI芯片的最新风声,一系列信号正共同支撑起一个新的估值叙事。
但在这轮估值重塑中,一个更底层的核心事实远未被市场充分认知:
阿里巴巴不仅是全球四朵“超级AI云”中唯一的中国公司,更是其中少数采取“全栈自研”路径的公司——即在AI芯片、云计算平台和基础大模型三个核心层面均追求顶尖自研能力,与谷歌形成了战略上的跨洋呼应。
要理解这一定位的含金量,必须先看清AI竞赛范式的剧变。
ChatGPT引爆的AGI浪潮,起初被误解为一场“模型竞赛”。移动互联网时代“一个App引爆市场”的经验,催生了2023年喧嚣的“百模大战”。但战局迅速收敛,因为一个残酷的现实浮出水面:模型能力本身,正在快速“平台化”。
大模型性能趋同的“平台化”现象,不仅源于Transformer架构等技术的公开,更关键的是,高质量开源模型正将顶尖AI能力从少数公司的专利,加速转变为人人可用的普惠基础设施,加上顶级玩家在算力上的饱和投入,共同导致了各家模型在能力上的迅速拉平。
这场竞赛的终局形态,并非决出最聪明的单一模型,而是看谁能构建起最强大的AI全栈技术体系——一套集模型、云平台、芯片、生态于一体,并能协同演进的系统性能力。
模型只是入场券
决定AI竞赛胜负的,不是某一刻的领先,而是两个核心变量:迭代速度和成本效率。
要同时优化这两个变量,企业必须构建起一个垂直整合的AI全栈技术体系。这并非一个模糊的概念,而是由四个具体且相互关联的要素构成的系统性能力:
第一,千亿级的资本投入。这是构建大规模AI基础设施、招募顶尖人才并支撑长期研发的必要前提。
第二,百万级集群的云计算能力。这是为大规模并行训练提供所必需的计算环境,直接决定了模型迭代的速度上限。
第三,世界级的基础大模型。这是进行软硬件协同优化的核心对象,是连接上层应用与底层算力的关键环节。
第四,自主的AI芯片布局。这是实现成本控制的关键手段,通过为自研模型定制硬件,从根本上降低推理成本,以构筑长期成本优势。
谷歌的案例,印证了这一全栈体系的有效性。在ChatGPT发布后的一年里,这家AI巨头一度显得被动。但当其发布Gemini系列模型时,外界发现,它在极短时间内就抹平了与领先者的差距。这场快速追赶的实现,并非仅仅依靠模型算法的突破,而是其完整的全栈能力——即上述四大要素协同作用的结果。
这一体系从两个层面决定了竞争的成败:
首先,它决定了模型迭代的速度。AI技术栈的耦合程度极高,在一个非全栈的体系中,定位和解决软硬件协同瓶颈的周期可能长达数周。而在一个全栈自研的公司里,谷歌的AI科学家可以与TPU硬件团队(核心算力)和数据中心网络工程师(云计算能力)紧密协作,将技术反馈的闭环速度提升到极致,从而加速了Gemini的追赶进程。
其次,它从根本上决定了成本效率。AI的成本分为训练成本和更为庞大的推理成本。非全栈玩家面临“多重溢价”,需向芯片、云平台等供应商支付利润。而拥有自主硬件能力的全栈玩家,可以通过“软硬件协同设计”来优化成本结构。正如OpenAI CEO萨姆·奥尔特曼所言,谁能将推理成本降到足够低,谁就能在商业化中占据主动。
因此,能否同时集齐这四大要素,构建起完整的“超级AI云”体系,成为了衡量一个玩家长期竞争力的核心标尺。
以这套标准扫描全球科技版图,结果清晰明了:
在美国,谷歌、微软和亚马逊三家巨头,均已在四个维度上完成了关键布局。而在中国,市场呈现出更多元的战略分化。不同的云和AI公司基于自身的核心能力与历史路径,选择了不同的AI演进模式。
当以“超级AI云”四个标准为观察对象时,阿里巴巴是当前唯一一家与此定义完全重叠的中国公司。
首先,在全球IaaS市场,亚马逊AWS、微软Azure、阿里云和谷歌云构成了合计份额近80%的第一梯队。阿里云作为其中唯一的中国公司,其规模与技术积累是参与这场全球竞赛的先决条件。
同时,阿里一方面通过将通义Qwen系列大模型大规模开源,形成全球最大的AI开发者生态;另一方面则在核心算力上自主布局,实现硬件与模型的深度协同,构筑长期成本优势。这种“模型开源吸引生态,硬件自研控制成本”的策略,与谷歌形成了跨洋呼应。
支撑这一切的是史无前例的激进投入。早在今年2月,阿里就宣布未来三年投入3800亿元用于建设云和AI基础设施,超过去十年总和。其CEO吴泳铭在2026财年第一季度财报会上透露,过去四个季度已在AI基础设施及AI产品研发上累计投入超过1000亿元。
至此,全球“超级AI云”的牌桌格局已经形成:美国三家,中国一家。这四家公司,正在成为定义下一代技术基础设施的核心力量,并深远地影响未来的全球产业格局。
两种路径
拿到“超级AI云”的入场券后,四家公司的战略路径出现了明显分化,主要体现在如何解决“模型”这一核心环节上,并由此形成了两种不同的模式。
第一种是微软和亚马逊所代表的“云+生态”模式。其核心是通过巨额资本注入和深度业务绑定,与市场上最顶尖的AI创业公司形成战略同盟。微软选择了OpenAI,亚马逊则向Anthropic注资。此举能快速将最先进的AI能力打包提供给其庞大的企业客户群,在商业化初期抢占市场。
但这种模式的协同效率和战略稳定性也面临挑战。为避免科技巨头过度干预,OpenAI和Anthropic都采取了特殊的治理架构,微软和亚马逊均无董事会席位和投票权。这种法律上的“防火墙”意味着同盟关系并非绝对绑定。2025年以来,有信息显示OpenAI正与甲骨文(Oracle)和软银接触,寻求新的算力和资本支持,以降低对单一伙伴的依赖。
与此相对,谷歌和阿里巴巴选择了第二条路——“全栈自研”。
这一模式的价值,在苹果公司身上得到了验证:它通过自研M系列芯片、macOS系统和Mac硬件的全栈整合,实现了出色的性能和体验。如今,谷歌和阿里正将这一范式应用到AI云领域,通过对AI芯片、云计算平台和基础大模型三个核心层面的端到端自研,实现“软硬件协同设计”。
这条路径更考验综合实力和长期投入,但对整个技术栈的端到端控制力,意味着能实现更快的创新迭代和更优的成本结构。这种深度的技术整合,正在转化为业绩增长。
最新的财报季,这一趋势尤为明显。谷歌云业务收入增速从28%加速至32%,而阿里云收入增速也从18%大幅攀升至26%。两家公司业绩的强劲增长,都与其全栈AI能力的释放直接相关。
巨额投入正迅速转化为技术成果。7月以来,阿里接连发布并开源了Qwen3推理模型、Qwen3-Coder编程模型等多个重量级模型。目前,通义千问Qwen衍生模型数量已突破17万,超越美国Llama模型,通义成为全球第一AI开源模型。
在AI这场终将回归成本和效率的持久战中,对整个技术栈拥有端到端控制力的“全栈玩家”,在战略后劲和成本结构上拥有更清晰的优势。
追赶之后
2025年8月,长期坚持闭源路线的OpenAI做出了一个重大的战略调整,宣布开源两款核心模型。业内普遍认为,此举是对日益增长的中国开源力量的直接回应。以DeepSeek和阿里通义千问Qwen为代表的中国模型,不仅在技术榜单上表现出色,更通过庞大的开发者生态,开始影响全球AI的技术范式。
开源模型的领先,是中国AI产业在应用和生态层面取得的显著成果。在此基础上,能否将这一成果转化为长期的、系统性的产业优势,则取决于一个更深层的问题:是否具备完整的“全栈AI能力”。
这背后的产业逻辑十分清晰:一个开源模型,相当于一张公开的、先进的设计图纸。但真正的壁垒在于能否拥有将这张图纸大规模、低成本、高效率地转化为成品的完整工业体系。在AI领域,这个“工业体系”就是集自研芯片、大规模云计算平台和基础大模型于一体的垂直整合能力。它直接决定了技术迭代的速度和商业化部署的成本结构。
在云计算时代,阿里云为代表的中国公司,第一次在底层技术设施领域进入全球第一梯队,与亚马逊、微软形成了新的竞争格局。
今天,云计算作为上一个时代的终点,已经成为AI这个新时代的起点。在这块由中美共同主导的基础设施之上,一场围绕“全栈能力”的更深层次的产业竞赛已经开始。
本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com