许多业内人士认为AI模型市场的胜负已定:科技巨头(谷歌、Meta、微软以及亚马逊)将主导市场,连同它们选择的模型制造商——主要是OpenAI和Anthropic。
但30人的小型创业公司Arcee AI并不认同这一观点。该公司刚刚发布了一个真正永久开放(Apache许可证)的通用基础模型Trinity,Arcee声称这个4000亿参数的模型是美国公司训练并发布的最大开源基础模型之一。
Arcee表示,根据使用基础模型(几乎没有后训练)进行的基准测试,Trinity可以与Meta的Llama 4 Maverick 4000亿参数版本以及来自中国清华大学的高性能开源模型Z.ai GLM-4.5相媲美。
像其他最先进(SOTA)模型一样,Trinity专为编程和多步骤处理(如智能体)而设计。尽管模型规模庞大,但由于目前只支持文本,所以还不是真正的SOTA竞争者。
更多模态正在开发中——视觉模型正在开发中,语音转文本版本也在路线图上,首席技术官卢卡斯·阿特金斯告诉TechCrunch。相比之下,Meta的Llama 4 Maverick已经是多模态的,支持文本和图像。
但在为其产品组合添加更多AI模态之前,Arcee表示,它希望有一个能让其主要目标客户——开发者和学者——印象深刻的基础大语言模型。该团队特别希望吸引各种规模的美国公司,让它们不再选择来自中国的开源模型。
"最终,这个游戏的赢家,也是真正赢得用户的唯一方式,就是拥有最好的开放权重模型,"阿特金斯说。"要赢得开发者的心,你必须给他们最好的。"
基准测试显示,目前正在预览中的Trinity基础模型(正在进行更多后训练)基本上保持了竞争力,在某些情况下,在编程和数学、常识、知识和推理测试中略胜Llama。
Arcee迄今为止在成为有竞争力的AI实验室方面取得的进展令人印象深刻。这个大型Trinity模型是继12月发布的两个较小模型之后的作品:260亿参数的Trinity Mini,一个完全后训练的推理模型,用于从网络应用到智能体的各种任务;以及60亿参数的Trinity Nano,一个实验性模型,旨在推动小而健谈模型的边界。
关键在于,Arcee使用2048个英伟达Blackwell B300 GPU,在六个月内以总共2000万美元的成本训练了所有这些模型。创始人兼首席执行官马克·麦奎德表示,这占了公司迄今筹集的大约5000万美元资金的一部分。
领导模型构建工作的阿特金斯说,这些钱"对我们来说是很多"。不过,他承认与更大实验室目前的支出相比,这只是小巫见大巫。
阿特金斯说,六个月的时间线"是经过精心计算的",他在大语言模型之前的职业是为汽车构建语音智能体。"我们是一家非常饥渴的年轻创业公司。我们有大量的人才和聪明的年轻研究人员,当有机会花这么多钱训练这么大规模的模型时,我们相信他们会迎接挑战。他们确实做到了,经历了许多不眠之夜和漫长的工作时间。"
麦奎德之前是开源模型市场HuggingFace的早期员工,他说Arcee一开始并不想成为新的美国AI实验室:公司最初是为SK电信等大型企业客户做模型定制。
"我们只做后训练。所以我们会采用其他公司的优秀工作:我们会采用Llama模型、Mistral模型或开源的Qwen模型,然后对其进行后训练,使其更适合公司的预期用途,"他说,包括进行强化学习。
但随着客户名单的增长,阿特金斯说,拥有自己模型的需求变得必要,麦奎德担心依赖其他公司。与此同时,许多最好的开源模型来自中国,美国企业对此保持警惕,或者被禁止使用。
这是一个令人紧张的决定。"我认为世界上只有不到20家公司曾经预训练并发布过"Arcee所瞄准的规模和级别的自己的模型,麦奎德说。
公司最初从小处开始,与训练公司DatologyAI合作尝试一个45亿参数的小模型。该项目的成功随后鼓励了更大的努力。
但如果美国已经有了Llama,为什么还需要另一个开放权重模型?阿特金斯说,通过选择开源Apache许可证,这家创业公司承诺始终保持其模型开放。此前Meta首席执行官马克·扎克伯格去年表示,他的公司可能不会总是使所有最先进的模型都开源。
"Llama可以被视为不是真正的开源,因为它使用Meta控制的许可证,有商业和使用限制,"他说。这导致一些开源组织声称Llama根本不符合开源标准。
"Arcee存在是因为美国需要一个永久开放的、Apache许可的、前沿级别的替代方案,能够真正在今天的前沿竞争,"麦奎德说。
所有Trinity模型,无论大小,都可以免费下载。最大版本将以三种形式发布。Trinity Large Preview是一个轻度后训练的指令模型,意味着它经过训练可以遵循人类指令,而不仅仅是预测下一个单词,这使其适用于一般聊天用途。Trinity Large Base是没有后训练的基础模型。
然后是TrueBase,这是一个没有任何指令数据或后训练的模型,这样想要定制它的企业或研究人员就不必回滚任何数据、规则或假设。
Arcee AI最终将以具有竞争力的API定价提供其通用发布模型的托管版本。由于创业公司继续改进模型的推理训练,该发布最多还需要六周时间。
Trinity-Mini的API定价为{zhiding_content_info_22}.045 / {zhiding_content_info_22}.15,也有限速免费层可用。与此同时,公司仍然销售后训练和定制选项。
Q&A
Q1:Arcee AI的Trinity模型有什么特别之处?
A:Trinity是一个4000亿参数的完全开源大语言模型,使用Apache许可证,是美国公司发布的最大开源基础模型之一。它在编程、数学、推理等测试中表现与Meta的Llama相当甚至更好。
Q2:为什么Arcee要开发自己的模型而不是使用现有的开源模型?
A:因为许多最好的开源模型来自中国,美国企业对此保持警惕。而Meta的Llama虽然开源,但使用的是Meta控制的许可证,有商业限制。Arcee希望提供永久开放的Apache许可替代方案。
Q3:Arcee用了多少成本和时间训练Trinity模型?
A:Arcee使用2048个英伟达Blackwell B300 GPU,在六个月内以2000万美元的成本训练了Trinity模型,这占了公司迄今筹集的5000万美元资金的一部分。
上一篇:AI一本正经胡说八道,谁来担责?
下一篇:AI时代,腾讯需不需另一个微信?