OpenAI ha sviluppato un sistema di classificazione a cinque livelli per monitorare i suoi progressi verso la creazione di un’intelligenza artificiale capace di superare le prestazioni umane, nota come intelligenza generale artificiale (AGI). Questo sistema mira a aiutare le persone a comprendere l’approccio di OpenAI alla sicurezza dell’IA e ai suoi obiettivi futuri.
Attualmente, OpenAI si trova al primo livello, in cui l’IA può interagire in linguaggio conversazionale con le persone. L’azienda crede di essere vicina a raggiungere il secondo livello, chiamato “Reasoners” (Ragionatori), che implica che i sistemi IA siano capaci di risolvere dei problemi di base, paragonabili a quelli di una persona con un dottorato ma senza accesso ad alcuno strumento.
Bloomberg sostiene che, durante una riunione aziendale, i dirigenti di OpenAI hanno presentato un progetto di ricerca nel quale il modello IA GPT-4 ha dimostrato nuove abilità di ragionamento simile a quelle di un essere umano. Questi test interni fanno parte degli sforzi di OpenAI per esplorare ed espandere le nuove capacità del suo programma, ma fanno capire come il “secondo livello” non sia distante.
Ecco i cinque livelli del sistema di classificazione di OpenAI:
- Livello 1: L’IA fa conversazione con gli esseri umani. È il livello attuale.
- Livello 2: (“Reasoners”): L’IA può eseguire compiti di risoluzione dei problemi di base a livello di dottorato senza strumenti.
- Livello 3: (“Agents”): L’IA può compiere azioni per conto degli utenti per diversi giorni.
- Livello 4: L’IA è capace di creare nuove innovazioni.
- Livello 5: (“Organizations”): L’IA può svolgere il lavoro di un’intera organizzazione.
Questo sistema di classificazione è in fase di sviluppo e OpenAI prevede di perfezionarlo ascoltando i feedback di dipendenti, investitori e membri del consiglio. L’iniziativa è in linea con l’obiettivo di lunga data di OpenAI di sviluppare l’AGI, che il CEO Sam Altman ritiene possa essere raggiunto entro questo decennio. Un approccio simile è stato recentemente proposto da Google DeepMind per valutare le capacità della sua IA.


