IT时报记者 贾天荣
以“模塑全球 无限可能”为主题的2025全球开发者先锋大会(GDC)于2月23日下午在上海徐汇圆满落幕。作为引领全球人工智能开源和创新浪潮的年度盛会,大会以空前的行业影响力构建起覆盖产学研用全链条的生态体系,推动引领开源潮流,赋能垂类应用落地。
DeepSeek效应下,年后的大模型市场热闹非凡。各大科技公司纷纷加速在AI领域的创新布局,为AI技术的普及与应用提供了巨大推动力。
从“副驾驶”到“智能体”
“从过年之后,AI相关的新闻出了太多。我大概归纳了一下AI的几个突破点,发现它可以变成四个字‘多快好省’。”商汤小浣熊负责人贾安亚在GDC上表示。
贾安亚解释道,“多快好省”分别指的是:“更多模态的融合、更快的推理速度、更优的思考能力、更低的训推成本。”
在贾安亚看来,因为大模型“多快好省”,可以以更低的成本用更好的大模型。这也使得AI技术能够更快、更高效地应用到各行各业中。
“大模型的应用落地有几个范式:一个是副驾驶,一个是智能体。”贾安亚认为,这二者并不是互斥的关系,也没有优劣之分,它代表的是在不同的应用场景,不同的环节里面跟人不同的协作模式。
在本届GDC上,商汤发布了代码小浣熊2.0和办公小浣熊2.0版本,诠释了“副驾驶”和“智能体”两种AI应用范式的结合与创新。
记者了解到,不同于过去,编程助手只是进行简单的代码补全和问答交互,代码小浣熊2.0可以在一个任务单点做修改的同时,跨文件进行多个任务修改,并且可以执行更多的具体开发流程操作,提供更加全面的编程辅助能力。
据介绍,代码小浣熊2.0在原有代码补全、问答交互的基础上,实现了多维度的数据融合和多模态推理等能力,不仅面向C端用户提供更高效、智能的代码编写和开发任务,还面向企业提供从需求分析、测试迭代到代码资产管理的端到端软件开发解决方案,助力企业实现更高效、规范的软件开发流程。
此外,商汤办公小浣熊2.0通过结合“日日新”融合大模型的原生融合多模态能力,实现赋能更多场景。用户可以借助多模态理解和交互,更好地完成更通用的日常工作,比如文档处理、数据分析等。无论是个人用户、小团队用户或者是企业用户,都可以通过办公小浣熊快速实现垂直任务的分析、调研和最终报告的生成。
商汤“日日新”融合大模型在训练和推理等环节,都实现了更低的成本。随着整体推理成本的降低,可以在相同硬件上部署更大、更通用的模型,为客户提供更好、更低成本的方案,服务更多客户。
贾安亚表示,在代码小浣熊用上的是副驾驶的模式,是在软件研发既定流程里面怎么通过AI可以帮助开发者,包括泛开发人群在日常工作中,更加聚焦在心流状态,降低沟通成本,以更加定制化、个性化的方式,生成更好的软件研发相关的一些成果。
在办公小浣熊领域更多用到智能体的状态,因为通过智能体可以给更广泛工作人员提供一些数据分析、文档处理,在传统场景下很难实现的复杂场景任务的处理方式。
副驾驶模式侧重于在已有框架和流程中进行优化和提升,是从“有”到“优”的进化。而智能体模式则在从“无”到“有”的过程中发挥作用,能够帮助用户应对各类复杂且多变的工作场景。两者结合,不仅能够提升工作效率,还能拓展AI技术的应用边界,进一步推动人类与人工智能的深度协作。
十行代码定制Agent
伴随着AI技术应用边界的拓展,开发者对于快速构建定制化应用的需求也愈发强烈。
商汤科技推出的开源工具名为LazyLLM,能帮助开发者以低至10行左右代码,就能轻松构建复杂、定制化的多Agent大模型应用,让打造爆款应用不再成为难题。关于这一名称,商汤科技创新研发部高级总监张行程表示,人用工具是图方便,“Lazy”一词意思是“懒”,意指用户越追求方便,该工具越能有效地解决问题。
LazyLLM是面向开发者的一站式、开源的、可构建多Agent大模型应用开发框架,能协助开发者用极低的成本,构建复杂的AI应用,并可以持续迭代优化效果。
对于迭代,张行程认为:“在互联网时代,到接下来的AI时代,迭代数据的节奏就是关键。”
他进一步阐述道,如何加速AI数据的迭代过程,即采用AI Native的开发范式。商汤科技对内部的AI Native开发范式进行了深入的沉淀和提炼,定义了一套开源工具集,名为LazyLLM。
据介绍,LazyLLM拥有许多核心亮点,它采用以数据流为核心的应用开发范式,可通过Pipeline、Parallel、Switch、If、Loop、Diverter、Warp、Graph等数据流拼接已有组件或其他开源软件,不断提升数据效果。
LazyLLM旨在帮助用户以最简单的方法和最少的代码,快速构建复杂、强大的多Agent AI应用原型。此外,LazyLLM还兼容开源社区的生态,用户可以轻松地将之前基于langchain、llamaindex等框架搭建的应用集成到LazyLLM中。
目前,LazyLLM 已经在GitHub上开源。据了解,LazyLLM的简洁设计和跨平台部署能力降低了开发门槛,让初级开发者也能快速上手,而资深开发者则可通过模块化扩展实现复杂应用。这种“积木式”开发模式不仅加速了AI应用的迭代,也弥补了国外工具在国内垂域场景中的不足。
“如果实现一个数学公式,LazyLLM只需要10行不到的代码。LangChain大概15行代码,LlamaIndex需要30多行代码。”张行程说。
目前,商汤已与300余家企业合作,覆盖金融、汽车、互联网等行业,日token数超100亿。合作伙伴如金山办公、联想通过集成商汤AI能力,显著提升了产品竞争力。