英伟达发布Llama-3.1-Nemotron-51B AI 模型
创始人
2024-09-25 14:59:44
0

IT之家 9 月 25 日消息,英伟达 9 月 23 日发布博文,宣布推出 Llama-3.1-Nemotron-51B AI 模型,源自 Meta 公司的 Llama-3.1-70B,不过创新使用神经架构搜索(NAS)方法,建立了一个高度准确和高效的模型。

Llama-3.1-Nemotron-51B 简介

Llama-3.1-Nemotron-51B AI 模型将于 Meta 公司 2024 年 7 月发布的 Llama-3.1-70B 模型,共有 510 亿参数。

该 AI 模型主要采用了神经架构搜索(NAS)技术微调,平衡性能和效率,在高工作负荷下,只需要一片 H100 GPU 即可运行,大大降低了内存消耗、计算复杂性以及与运行此类大型模型相关的成本。

英伟达认为这种方式在保持了出色的精度前提下,显著降低了内存占用、内存带宽和 FLOPs,并证明可以在创建另一个更小、更快的变体来加以推广。

Llama-3.1-Nemotron-51B 性能

相比较 Meta 的 Llama-3.1-70B 模型,Llama-3.1-Nemotron-51B 在保持了几乎相同的精度情况下,推理速度提高了 2.2 倍。

准确率能效

MT BenchMMLUText generation(128/1024)Summarization/ RAG (2048/128)Llama-3.1- Nemotron-51B- Instruct8.9980.2%6472653 Llama 3.1-70B- Instruct8.9381.66%2975339 Llama 3.1-70B- Instruct (single GPU)——1274301 Llama 3-70B8.9480.17%2975339效率和性能方面的突破

开发 LLM 过程中面临的主要挑战之一是如何平衡精度与计算效率。许多大规模模型都能提供最先进的结果,但却需要耗费大量的硬件和能源资源,这限制了它们的适用性。

英伟达的新模型在这两个相互竞争的因素之间取得了微妙的平衡。

Llama-3.1-Nemotron-51B 实现了令人印象深刻的精度与效率权衡,减少了内存带宽,降低了每秒浮点运算次数 (FLOP),并减少了总体内存占用,同时不影响模型执行推理、总结和语言生成等复杂任务的能力。

改进工作量管理,提高成本效益

Llama-3.1-Nemotron-51B 的一个突出特点是能够在单个 GPU 上管理更大的工作负载。该型号允许开发人员在更具成本效益的环境中部署高性能 LLMs,在一个 H100 设备上运行以前需要多个 GPU 才能完成的任务。

Llama-3.1-Nemotron-51B 模型还减少了内存占用,在推理过程中可以在单个 GPU 上运行 4 倍以上的工作负载,从而带来了一系列新的机遇。

架构优化:成功的关键

Llama-3.1-Nemotron-51B 的成功主要归功于一种新颖的结构优化方法。传统上,LLMs 是使用相同的块构建的,这些块在整个模型中重复出现。

这虽然简化了构建过程,但也带来了效率低下的问题,特别是在内存和计算成本方面。

英伟达通过采用 NAS 技术来优化推理模型,从而解决了这些问题。该团队采用了分块蒸馏过程,即训练更小、更高效的学生模型(student model),以模仿更大的教师模型(teacher model)的功能。

通过完善这些学生模型并评估其性能,英伟达开发出了 Llama-3.1 版本,在大幅降低资源需求的同时,还能提供类似的准确度。

Puzzle 算法和知识蒸馏

Llama-3.1-Nemotron-51B 有别于其他模型的另一个关键组件,就是 Puzzle 算法。

该算法对模型中的每个潜在区块进行评分,并确定哪些配置能在速度和精度之间取得最佳平衡。

跑分Llama-3.1 70B-instructLlama-3.1-Nemotron-51B- Instruct准确率winogrande85.08%84.53%99.35%arc_challenge70.39%69.20%98.30%MMLU81.66%80.20%98.21%hellaswag86.44%85.58%99.01%gsm8k92.04%91.43%99.34%truthfulqa59.86%58.63%97.94%xlsum_english33.86%31.61%93.36%MMLU Chat81.76%80.58%98.55%gsm8k Chat81.58%81.88%100.37%Instruct HumanEval (n=20)75.85%73.84%97.35%MT Bench8.938.99100.67%

通过使用知识蒸馏技术,Nvidia 缩小了参考模型(Llama-3.1-70B)与 Nemotron-51B 之间的精度差距,同时显著降低了训练成本。

场景Input/Output Sequence LengthLlama-3.1- Nemotron- InstructLlama-3.1-70B-InstructRatioLlama (TP1)Chatbot128/1285478 (TP1)2645 (TP1)2.072645Text generation128/10246472 (TP1)2975 (TP4)2.171274Long text generation128/20484910 (TP2)2786 (TP4)1.76646System 2 reasoning128/40963855 (TP2)1828 (TP4)2.11313Summarization/ RAG2048/128653 (TP1)339 (TP4)1.92300Stress test 12048/20482622 (TP2)1336 (TP4)1.96319

IT之家附上参考地址

相关内容

美团AI破局,要王兴拿出千...
文|唐辰同学 美团要怎么缓解AI焦虑呢? 马年春节是验证各厂商A...
2026-03-07 19:51:23
Luma推出基于统一智能模...
AI视频生成初创公司Luma周四推出了Luma智能体,旨在处理文本...
2026-03-07 14:23:12
黄仁勋:智能体AI成行业拐...
来源:环球网 【环球网科技综合报道】3月7日消息,据外媒Wccf...
2026-03-07 13:22:58
开发者把Linux装进PS...
IT之家 3 月 7 日消息,开发者 Andy Nguyen 今天...
2026-03-07 11:18:12
日产千部的AI漫剧,正在“...
文 | 超聚焦 AI的风暴正在悄然重塑短剧产业的边界。 近日,在...
2026-03-06 23:18:54
软硬协同设计定律,理想切入...
“每18-24个月,集成电路晶体管数量翻一番,对应性能提升一倍、成...
2026-03-06 22:50:27

热门资讯

原创 2... #春日生活好物种草季#近年来,笔记本电脑市场迎来技术爆发期,尤其在手机厂商跨界入局后,轻薄本在性能、...
AMD锐龙AI 9 HX 37... 2024年6月3日,AMD正式发布全新的锐龙AI 300系列处理器。该系列处理器一经发布就引发大家的...
2024云栖大会|阿里云升级无... 北京商报讯(记者魏蔚)9月20日,阿里云无影AI云电脑在2024云栖大会上展出,该版本基于最新的终端...
5个AI模特生成软件推荐 当前AI模特生成软件市场提供了多样化的解决方案,以下是几款备受推崇的工具: 触站AI:强烈推荐!...
骁龙本这么猛?联想YOGA A... 在人人都是自媒体的时代,一部手机可以解决出镜拍摄问题,而商务出差、大量码字、图像处理等需求用笔记本则...
2023年CentOS与Ubu... CentOS与Ubuntu的市场格局与技术特性探讨 在服务器操作系统领域,CentOS与Ubuntu...
MWC2025荣耀多款AI技术... 人民财讯3月6日电,2025世界移动通信大会(MWC 2025)上,荣耀MagicBook Pro ...
苹果macOS 15.1:允许... 苹果公司在其最新的macOS 15.1版本中,推出了一项引人注目的新功能——允许用户将Mac App...
原创 苹... 前言 IQUNIX在做好看的桌面产品上,一直都给我留下非常深刻的印象。而且早期和苹果产品的设计风格...
原创 华... 在2024年这个被誉为"AI元年"的关键时刻,随着生成式AI的流行,各家手机厂商都在积极备战AI手机...