Brukerveiledning for NVIDIA NeMo Framework

NVIDIA NeMo Framework User Guide

NVIDIA-logo

NVIDIA NeMo Framework

NVIDIA-NeMo-Framework-produkt

Spesifikasjoner

  • Produktnavn: NVIDIA NeMo Framework
  • Berørte plattformer: Windows, Linux, macOS
  • Berørte versjoner: Alle versjoner før 24
  • Sikkerhetssårbarhet: CVE-2025-23360
  • Grunnpoeng for risikovurdering: 7.1 (CVSS v3.1)

Produktbruksinstruksjoner

Installasjon av sikkerhetsoppdatering:
Følg disse trinnene for å beskytte systemet ditt:

  1. Last ned den siste utgivelsen fra NeMo-Framework-Launcher Releases-siden på GitHub.
  2. Gå til NVIDIA Product Security for mer informasjon.

Sikkerhetsoppdateringsdetaljer:
Sikkerhetsoppdateringen adresserer et sikkerhetsproblem i NVIDIA NeMo Framework som kan føre til kodeutførelse og data tampering.

Programvareoppdatering:
Hvis du bruker en tidligere filialutgivelse, anbefales det å oppgradere til den nyeste filialutgivelsen for å løse sikkerhetsproblemet.

Overview

NVIDIA NeMo Framework er et skalerbart og skybasert generativt AI-rammeverk bygget for forskere og utviklere som jobber med Store språkmodeller, Multimodal, og Tale AI (f.eks Automatisk talegjenkjenning og Tekst-til-tale). Det gjør det mulig for brukere å effektivt lage, tilpasse og distribuere nye generative AI-modeller ved å utnytte eksisterende kode og forhåndstrente modellsjekkpunkter.

OppsettinstruksjonerInstaller NeMo Framework

Store språkmodeller og multimodale modeller
NeMo Framework gir ende-til-ende-støtte for utvikling av store språkmodeller (LLMs) og Multimodal Models (MMs). Det gir fleksibiliteten til å brukes lokalt, i et datasenter eller med din foretrukne skyleverandør. Den støtter også kjøring i SLURM- eller Kubernetes-aktiverte miljøer.

_images/nemo-llm-mm-stack.png

Datakurering
NeMo-kurator [1] er et Python-bibliotek som inkluderer en pakke med moduler for datautvinning og syntetisk datagenerering. De er skalerbare og optimalisert for GPU-er, noe som gjør dem ideelle for å kurere data på naturlig språk for å trene eller finjustere LLM-er. Med NeMo Curator kan du effektivt trekke ut høykvalitetstekst fra omfattende råmateriale web datakilder.

Opplæring og tilpasning

NeMo Framework gir verktøy for effektiv opplæring og tilpasning av LLM-er og multimodale modeller. Den inkluderer standardkonfigurasjoner for dataklyngeoppsett, datanedlasting og modellhyperparametere, som kan justeres for å trene på nye datasett og modeller. I tillegg til forhåndstrening, støtter NeMo både Supervised Fine-Tuning (SFT) og Parameter Efficient Fine-Tuning (PEFT) teknikker som LoRA, Ptuning og mer.

To alternativer er tilgjengelige for å starte opplæring i NeMo – ved å bruke NeMo 2.0 API-grensesnittet eller med NeMo Run.

  • Med NeMo Run (anbefalt): NeMo Run gir et grensesnitt for å strømlinjeforme konfigurasjon, utførelse og administrasjon av eksperimenter på tvers av ulike datamiljøer. Dette inkluderer lansering av jobber på arbeidsstasjonen din lokalt eller på store klynger – både SLURM-aktivert eller Kubernetes i et skymiljø.
    • Førtrening og PEFT Quickstart med NeMo Run
  • Bruk av NeMo 2.0 API: Denne metoden fungerer bra med et enkelt oppsett som involverer små modeller, eller hvis du er interessert i å skrive din egen tilpassede datalaster, treningsløkker eller endre modelllag. Det gir deg mer fleksibilitet og kontroll over konfigurasjoner, og gjør det enkelt å utvide og tilpasse konfigurasjoner programmatisk.
    • Training Quickstart med NeMo 2.0 API
    • Migrerer fra NeMo 1.0 til NeMo 2.0 API

Justering

  • NeMo-Aligner [1] er et skalerbart verktøysett for effektiv modelljustering. Verktøysettet har støtte for state-of-the-art modelljusteringsalgoritmer som SteerLM, DPO, Reinforcement Learning from Human Feedback (RLHF), og mye mer. Disse algoritmene gjør det mulig for brukere å justere språkmodeller for å være tryggere, harmløse og nyttige.
  • Alle NeMo-Aligner-sjekkpunktene er krysskompatible med NeMo-økosystemet, noe som gir mulighet for ytterligere tilpasning og slutningsdistribusjon.

Trinn-for-trinn arbeidsflyt for alle tre fasene av RLHF på en liten GPT-2B-modell:

  • SFT opplæring
  • Belønn modelltrening
  • PPO opplæring

I tillegg demonstrerer vi støtte for forskjellige andre nye justeringsmetoder:

  • DPO: en lettvektsjusteringsalgoritme sammenlignet med RLHF med en enklere tapsfunksjon.
  • Selvspill Finjustering (SPIN)
  • SteerLM: en teknikk basert på conditioned-SFT, med styrbar utgang.

Sjekk ut dokumentasjonen for mer informasjon: Opprettingsdokumentasjon

Multimodale modeller

  • NeMo Framework gir optimert programvare for å trene og distribuere toppmoderne multimodale modeller på tvers av flere kategorier: Multimodale språkmodeller, Vision-Language Foundations, Text-to-Image-modeller og utover 2D-generering ved bruk av Neural Radiance Fields (NeRF).
  • Hver kategori er designet for å imøtekomme spesifikke behov og fremskritt innen feltet, og utnytter banebrytende modeller for å håndtere et bredt spekter av datatyper, inkludert tekst, bilder og 3D-modeller.

Note
Vi migrerer støtte for multimodale modeller fra NeMo 1.0 til NeMo 2.0. Hvis du vil utforske dette domenet i mellomtiden, vennligst se dokumentasjonen for NeMo 24.07 (forrige) utgivelse.

Utplassering og inferens
NeMo Framework gir ulike veier for LLM-slutning, imøtekommer ulike distribusjonsscenarier og ytelsesbehov.

Distribuer med NVIDIA NIM

  • NeMo Framework integreres sømløst med modelldistribusjonsverktøy på bedriftsnivå gjennom NVIDIA NIM. Denne integrasjonen er drevet av NVIDIA TensorRT-LLM, som sikrer optimalisert og skalerbar inferens.
  • For mer informasjon om NIM, besøk NVIDIA webnettstedet.

Distribuer med TensorRT-LLM eller vLLM

  • NeMo Framework tilbyr skript og API-er for å eksportere modeller til to inferensoptimaliserte biblioteker, TensorRT-LLM og vLLM, og for å distribuere den eksporterte modellen med NVIDIA Triton Inference Server.
  • For scenarier som krever optimalisert ytelse, kan NeMo-modeller utnytte TensorRT-LLM, et spesialisert bibliotek for å akselerere og optimalisere LLM-slutninger på NVIDIA GPUer. Denne prosessen innebærer å konvertere NeMo-modeller til et format som er kompatibelt med TensorRT-LLM ved å bruke nemo.export-modulen.
    • LLM-distribusjon overview
    • Distribuer NeMo Large Language Models med NIM
    • Distribuer NeMo Large Language Models med TensorRT-LLM
    • Distribuer NeMo Large Language Models med vLLM

Støttede modeller

Store språkmodeller

Store språkmodeller
Store språkmodeller Fortrening og SFT PEFT Justering FP8 Training Convergence TRT/TRTLLM Konverter til og fra Hugging Face Evaluering
Lama3 8B/70B, Lama3.1 405B Ja Ja x Ja (delvis bekreftet) Ja Både Ja
Mixtral 8x7B/8x22B Ja Ja x Ja (ubekreftet) Ja Både Ja
Nemotron 3 8B Ja x x Ja (ubekreftet) x Både Ja
Nemotron 4 340B Ja x x Ja (ubekreftet) x Både Ja
Baichuan2 7B Ja Ja x Ja (ubekreftet) x Både Ja
ChatGLM3 6B Ja Ja x Ja (ubekreftet) x Både Ja
Gemma 2B/7B Ja Ja x Ja (ubekreftet) Ja Både Ja
Gemma2 2B/9B/27B Ja Ja x Ja (ubekreftet) x Både Ja
Mamba2 130M/370M/780M/1.3B/2.7B/8B/ Hybrid-8B Ja Ja x Ja (ubekreftet) x x Ja
Phi3 mini 4k x Ja x Ja (ubekreftet) x x x
Qwen2 0.5B/1.5B/7B/72B Ja Ja x Ja (ubekreftet) Ja Både Ja
StarCoder 15B Ja Ja x Ja (ubekreftet) Ja Både Ja
StarCoder2 3B/7B/15B Ja Ja x Ja (ubekreftet) Ja Både Ja
BERT 110M/340M Ja Ja x Ja (ubekreftet) x Både x
T5 220M/3B/11B Ja Ja x x x x x

 

Visjonsspråkmodeller

Visjonsspråkmodeller
Visjonsspråkmodeller Fortrening og SFT PEFT Justering FP8 Training Convergence TRT/TRTLLM Konverter til og fra Hugging Face Evaluering
NeVA (LLaVA 1.5) Ja Ja x Ja (ubekreftet) x Fra x
Lama 3.2 Vision 11B/90B Ja Ja x Ja (ubekreftet) x Fra x
LLaVA Next (LLaVA 1.6) Ja Ja x Ja (ubekreftet) x Fra x

 

Innebyggingsmodeller

Innebyggingsmodeller
Innbygging av språkmodeller Fortrening og SFT PEFT Justering FP8 Training Convergence TRT/TRTLLM Konverter til og fra Hugging Face Evaluering
SBERT 340M Ja x x Ja (ubekreftet) x Både x
Lama 3.2 Innebygging 1B Ja x x Ja (ubekreftet) x Både x

 

World Foundation Models

World Foundation Models
World Foundation Models Ettertrening Akselerert slutning
Cosmos-1.0-Diffusion-Text2World-7B Ja Ja
Cosmos-1.0-Diffusion-Text2World-14B Ja Ja
Cosmos-1.0-Diffusion-Video2World-7B Kommer snart Kommer snart
Cosmos-1.0-Diffusion-Video2World-14B Kommer snart Kommer snart
Cosmos-1.0-Autoregressiv-4B Ja Ja
Cosmos-1.0-Autoregressive-Video2World-5B Kommer snart Kommer snart
Cosmos-1.0-Autoregressiv-12B Ja Ja
Cosmos-1.0-Autoregressive-Video2World-13B Kommer snart Kommer snart

Note
NeMo støtter også fortrening for både diffusjons- og autoregressive arkitekturer text2world grunnmodeller.

Tale AI

Å utvikle konversasjons-AI-modeller er en kompleks prosess som involverer å definere, konstruere og trene modeller innenfor bestemte domener. Denne prosessen krever vanligvis flere iterasjoner for å oppnå et høyt nivå av nøyaktighet. Det involverer ofte flere iterasjoner for å oppnå høy nøyaktighet, finjustering av ulike oppgaver og domenespesifikke data, sikring av treningsytelse og forberedelse av modeller for slutningsdistribusjon.

_images/nemo-speech-ai.png

NeMo Framework gir støtte for opplæring og tilpasning av Speech AI-modeller. Dette inkluderer oppgaver som automatisk talegjenkjenning (ASR) og tekst-til-tale (TTS) syntese. Det gir en jevn overgang til produksjonsdistribusjon på bedriftsnivå med NVIDIA Riva. For å hjelpe utviklere og forskere inkluderer NeMo Framework toppmoderne forhåndstrente sjekkpunkter, verktøy for reproduserbar taledatabehandling og funksjoner for interaktiv utforskning og analyse av taledatasett. Komponentene i NeMo Framework for Speech AI er som følger:

Opplæring og tilpasning
NeMo Framework inneholder alt som trengs for å trene og tilpasse talemodeller (ASRTaleklassifiseringHøyttalergjenkjenningDiaarisering av høyttaler, og TTS) på en reproduserbar måte.

SOTA forhåndstrente modeller

  • NeMo Framework gir state-of-the-art oppskrifter og forhåndstrente sjekkpunkter av flere ASR og TTS modeller, samt instruksjoner om hvordan du laster dem.
  • Taleverktøy
  • NeMo Framework gir et sett med verktøy som er nyttige for å utvikle ASR- og TTS-modeller, inkludert:
    • NeMo Forced Aligner (NFA) for å generere token-, ord- og segmentnivå-tidsmålingamps tale i lyd ved hjelp av NeMos CTC-baserte modeller for automatisk talegjenkjenning.
    • Taledatabehandler (SDP), et verktøysett for å forenkle taledatabehandling. Den lar deg representere databehandlingsoperasjoner i en konfigurasjon file, minimerer standardkode og tillater reproduserbarhet og delbarhet.
    • Speech Data Explorer (SDE), en Dash-basert web applikasjon for interaktiv utforskning og analyse av taledatasett.
    • Datasettopprettingsverktøy som gir funksjonalitet for å justere lang lyd files med de tilsvarende transkripsjonene og del dem i kortere fragmenter som er egnet for automatisk talegjenkjenning (ASR) modelltrening.
    • Sammenligningsverktøy for ASR-modeller for å sammenligne prediksjoner av forskjellige ASR-modeller på ordnøyaktighet og ytringsnivå.
    • ASR Evaluator for å evaluere ytelsen til ASR-modeller og andre funksjoner som Voice Activity Detection.
    • Verktøy for tekstnormalisering for å konvertere tekst fra den skriftlige formen til den muntlige formen og omvendt (f.eks. "31st" vs "thirty first").
  • Vei til distribusjon
  • NeMo-modeller som har blitt opplært eller tilpasset ved hjelp av NeMo Framework kan optimaliseres og distribueres med NVIDIA Riva. Riva leverer containere og rorkart spesielt utviklet for å automatisere trinnene for utplassering av trykknapper.

Andre ressurser

GitHub Repos
  • NeMo: Hovedlageret for NeMo Framework
  • NeMoLøp: Et verktøy for å konfigurere, starte og administrere maskinlæringseksperimentene dine.
  • NeMo-Aligner: Skalerbart verktøysett for effektiv modelljustering
  • NeMo-kurator: Skalerbart dataforbehandlings- og kurasjonsverktøysett for LLM-er
Få hjelp
Engasjer med NeMo-fellesskapet, still spørsmål, få støtte eller rapporter feil.
  • NeMo-diskusjoner
  • NeMo-problemer

Programmeringsspråk og rammer

  • Python: Hovedgrensesnittet for å bruke NeMo Framework
  • Pytorch: NeMo Framework er bygget på toppen av PyTorch

Lisenser

  • NeMo Github repo er lisensiert under Apache 2.0-lisensen
  • NeMo Framework er lisensiert under NVIDIA AI-PRODUKTAVTALEN. Ved å trekke og bruke beholderen godtar du vilkårene og betingelsene i denne lisensen.
  • NeMo Framework-beholderen inneholder Llama-materiale underlagt Meta Llama3 Community License Agreement.

Fotnoter
For øyeblikket er støtte for NeMo Curator og NeMo Aligner for multimodale modeller et arbeid under arbeid og vil være tilgjengelig snart.

FAQ

Spørsmål: Hvordan kan jeg sjekke om systemet mitt er berørt av sårbarheten?
A: Du kan sjekke om systemet ditt er berørt ved å bekrefte versjonen av NVIDIA NeMo Framework som er installert. Hvis det er under versjon 24, kan systemet ditt være sårbart.

Spørsmål: Hvem rapporterte sikkerhetsproblemet CVE-2025-23360?
A: Sikkerhetsproblemet ble rapportert av Or Peles – JFrog Security. NVIDIA erkjenner deres bidrag.

Spørsmål: Hvordan kan jeg motta fremtidige sikkerhetsbulletiner?
A: Besøk NVIDIA Product Security-siden for å abonnere på sikkerhetsbulletinvarslinger og holde deg informert om produktsikkerhetsoppdateringer.

Dokumenter / Ressurser

PDF thumbnailNeMo Framework
User Guide · NeMo Framework, NeMo, Framework

Referanser

Still et spørsmål

Use this section to ask about setup, compatibility, troubleshooting, or anything missing from this manual.

Still et spørsmål

Ask a question about setup, compatibility, troubleshooting, or anything missing from this manual.