近日,在韩国首尔举办的顶级学术会议SOSP 2025(操作系统原理研讨会)上,阿里云发布了其“Aegaeon”计算池化解决方案(相关论文已被入选),该方案可解决AI模型服务中普遍存在的GPU资源浪费问题,将大型语言模型所需的GPU数量减少了82%,大幅提升GPU资源利用率,显著降低了AI模型服务中的成本。目前该核心技术已应用在阿里云百炼平台。
SOSP(操作系统原理研讨会)由ACM SIGOPS主办,是计算机系统领域顶级学术会议,平均每年收录的论文数量仅有数十篇,被誉为计算机操作系统界的“奥斯卡”,入选论文代表了操作系统和软件领域最具代表的研究成果。本届SOSP大会上,系统软件与AI大模型技术的融合成为新的趋势。
阿里云推出的Aegaeon 是一种推理时间调度器,旨在最大限度地提高许多需求突发或不可预测的模型的 GPU 利用率。它打破了“一个模型绑定一个GPU”的低效模式,而是在Token级别虚拟化 GPU 访问,从而允许它在共享池中安排微小的工作片段。这意味着一个GPU可以同时为多个不同的模型提供服务。
简单来说,Aegaeon多模型混合服务系统在每次生成下一个token后动态决定是否切换模型,实现精细化管理。同时,通过组件复用、显存精细化管理和KV缓存同步优化等全栈技术,Aegaeon将模型切换开销降低97%,确保了token级调度的实时性,可支持亚秒级的模型切换响应。
据介绍,Aegaeon系统支持单GPU同时服务多达7个不同模型,在基准测试中,Aegaeon 以 1.5 倍到 9 倍的有效吞吐量优势击败了 ServerlessLLM 和 MuxServe 的 goodput,实现2-2.5倍的请求处理能力。
数据显示,在阿里云模型市场为期超三个月的Beta测试中,Aegaeon系统在服务数十个参数量高达720亿的大模型时,所需的英伟达H20 GPU数量从1192个减至213个,削减比例高达82%。GPU用量削减82%意味着公司硬件采购成本将显著降低,这对于动辄使用成千上万张GPU的大型模型服务商至关重要。
在真实的模型服务场景中,如阿里的Qwen等少数热门模型承载了绝大多数用户请求,而大量不常被调用的“长尾”模型却各自独占着GPU资源。数据显示,在阿里云模型市场中,曾有17.7%的GPU算力仅用于处理1.35%的请求,资源闲置严重。
阿里巴巴表示,其“Aegaeon”计算池化解决方案的收益来自两种主要技术:为每个 GPU 打包多个模型,以及使用token级自动扩展器在生成输出时动态分配计算,而不是在请求级别保留资源。
虽然阿里云在其论文中并没有详细说明哪些型号的GPU对节省贡献最大,但《南华早报》的报道称,这些测试是使用英伟达的 H20 进行的,这是在此前的美国出口管制下,中国企业仍然合法使用的少数进口AI加速器之一。
编辑:芯智讯-浪客剑