NVIDIA non è solo un produttore di hardware pensato per l’intelligenza artificiale. Crea anche software e in tal senso ha appena annunciato il lancio di Nemotron-4 340B, una famiglia di modelli aperti progettati per generare dati sintetici destinati all’addestramento di grandi modelli linguistici (LLM).
Le sue applicazioni commerciali saranno nei settori della sanità, della finanza, della manifattura, del retail e in molti altri. E promette di migliorare l’accesso e la qualità dei dati di addestramento, fondamentali per le prestazioni e dell’accuratezza dei modelli linguistici.
I dati sintetici sono dati generati artificialmente che imitano le caratteristiche delle controparti reali. Vengono creati attraverso modelli di intelligenza artificiale che possono riprodurre schemi e variazioni presenti nei dataset reali.
La generazione di dati sintetici permette di superare le limitazioni di accesso ai dati reali, che possono essere costosi, difficili da ottenere o soggetti a vincoli di privacy.
Utilizzando dati sintetici, gli sviluppatori possono arricchire i loro dataset di addestramento senza compromettere la qualità. Sono particolarmente utili in scenari in cui le informazioni reali sono scarse o difficili da raccogliere, come nel caso di dati medici sensibili o informazioni finanziarie riservate. Inoltre, consentono di creare dataset diversificati e bilanciati, migliorando la robustezza e l’affidabilità dei modelli AI.
Arriva Nemotron-4 340B
Nemotron-4 340B è progettato per offrire agli sviluppatori una soluzione scalabile e gratuita per la generazione di dati sintetici di alta qualità. La famiglia di modelli include un sistema di istruzioni e di premi, che giocano un ruolo cruciale nella generazione e nell’ottimizzazione dei dati sintetici.
I modelli di Nemotron-4 340B sono ottimizzati per funzionare con NVIDIA NeMo, un framework open-source che supporta l’addestramento dei modelli, la selezione dei dati alla personalizzazione e valutazione. Inoltre, sono ottimizzati per l’inferenza con la libreria open-source NVIDIA TensorRT-LLM, garantendo un’inferenza efficiente su larga scala grazie al parallelismo tensoriale.
La ripartizione degli incarichi funziona grosso modo così. Il modello Instruct di Nemotron-4 340B crea dati sintetici che imitano le caratteristiche dei dati reali. Il modello Reward, invece, viene utilizzato per filtrare e migliorare la qualità dei dati generati dall’IA.
Esso valuta le risposte su cinque attributi chiave: utilità, correttezza, coerenza, complessità e verbosità. Questo approccio garantisce che solo i dati di alta qualità vengano utilizzati per l’addestramento, migliorando ulteriormente le prestazioni dei modelli linguistici.
Gli sviluppatori possono personalizzare il modello base di Nemotron-4 340B utilizzando anche i propri dati proprietari, combinati con il dataset HelpSteer2 incluso. Questo processo di fine-tuning, supportato dal framework NeMo, consente di adattare i modelli a specifici casi d’uso, beneficiando di un’ampia quantità di dati di pre-addestramento per ottenere output più accurati.
Il modello Instruct di Nemotron-4 340B, afferma Nvidia, ha superato rigorosi test di sicurezza. ha superato anche i test avversari, dimostrando buone prestazioni in una vasta gamma di indicatori di rischio.
I test avversari sono una metodologia utilizzata per mettere alla prova la robustezza e la sicurezza dei modelli di intelligenza artificiale. Questi test prevedono la creazione di input artificialmente manipolati (Generatore di Input Avversari) per indurre il modello a commettere errori.
Il modello giudice viene così esposto così agli input avversari e la sua risposta è analizzata per verificare se è stato ingannato dalle manipolazioni. Il modello giudice deve essere in grado di identificare correttamente l’input, nonostante le alterazioni introdotte.
Nonostante questo sistema, Nvidia ritiene essenziale che gli utenti effettuino una valutazione attenta degli output del modello per garantire che i dati sintetici generati siano sicuri, accurati e adatti al loro specifico caso d’uso.
Nemotron-4 340B è disponibile per il download su Hugging Face e sarà presto accessibile su ai.nvidia.com.


