大模型再現黑馬!英偉達開源Llama-Nemotron系列模型,效果優于DeepSeek-R1
近日,英偉達推出了 Llama-Nemotron 系列模型(基于 Meta AI 的 Llama 模型構建)—— 一個面向高效推理的大模型開放家族,具備卓越的推理能力、推理效率,并采用對企業友好的開放許可方式。
該系列包括三個模型規模:Nano(8B)、Super(49B)與 Ultra(253B),另有獨立變體 UltraLong(8B,支持超長上下文)。這些模型不僅具備超強的推理能力,還為企業使用提供開放許可。模型權重和部分訓練數據在 Hugging Face 上公開,遵循 NVIDIA Open Model License 和 Llama 社區許可,可商業使用。
相關鏈接
- 論文:https://arxiv.org/pdf/2505.00949
- 代碼:https://github.com/NVIDIA/NeMo
- 數據集:https://huggingface.co/datasets/nvidia/Llama-Nemotron-Post-Training-Dataset
- 模型:https://huggingface.co/models?library=nemo&sort=downloads&search=nvidia
NeMo介紹
NVIDIA NeMo 框架是一個可擴展的云原生生成式 AI 框架,專為從事大型語言模型 (LLM)、多模態模型 (MM)、自動語音識別 (ASR)、文本轉語音 (TTS) 和計算機視覺 (CV) 領域的研究人員和 PyTorch 開發者打造。它旨在幫助您利用現有代碼和預訓練的模型檢查點,高效地創建、定制和部署新的生成式 AI 模型。
NeMo 2.0 的新功能
- NVIDIA NeMo 2.0 與其前身 NeMo 1.0 相比引入了幾項重大改進,增強了靈活性、性能和可擴展性。
- 基于 Python 的配置- NeMo 2.0 從 YAML 文件轉換為基于 Python 的配置,從而提供更高的靈活性和控制力。這種轉變使得以編程方式擴展和自定義配置變得更加容易。
- 模塊化抽象——通過采用 PyTorch Lightning 的模塊化抽象,NeMo 2.0 簡化了適配和實驗。這種模塊化方法使開發人員能夠更輕松地修改和實驗其模型的不同組件。
- 可擴展性——NeMo 2.0 使用NeMo-Run在數千個 GPU 上無縫擴展大規模實驗,NeMo-Run 是一種強大的工具,旨在簡化跨計算環境的機器學習實驗的配置、執行和管理。
總的來說,這些增強功能使 NeMo 2.0 成為一個強大、可擴展且用戶友好的 AI 模型開發框架。NeMo 2.0 目前由 LLM(大型語言模型)和 VLM(視覺語言模型)集合支持。
定性評估
LN-Ultra 在廣泛的推理和非推理基準測試中,在開放模型中表現出色。