Per molti, l’intelligenza artificiale coincide ancora con un chatbot generalista come ChatGPT. Ma chi lavora davvero con queste tecnologie sa che la vera svolta sta anche altrove, ossia nei sistemi personalizzati capaci di lavorare con dati specifici, strutturati e contestualizzati.
È qui che entrano in gioco i cosiddetti RAG, i Retrieval-Augmented Generation systems, cioè architetture che combinano modelli linguistici avanzati con un sistema di recupero dati costruito su misura.
“In sostanza”, spiega Paolo Brera, Executive Director di disruptiveS, “è come avere un assistente istruito correttamente che risponde solo dopo aver consultato i tuoi archivi interni, i tuoi documenti, il tuo catalogo. Pesca quindi da una knowledge base verticale e controllata.”
A rendere il tutto ancora più interessante è la possibilità di costruirli in casa. “Oggi chiunque può creare un MyGPT, cioè una versione customizzata di ChatGPT con le proprie informazioni”, continua Brera. “E da poco OpenAI ha anche introdotto i Projects, che permettono una gestione ancora più granulare della memoria e del contesto.”
È un cambio di paradigma: non più IA come oracolo onnisciente ma come collega preparato sul proprio business.
Come funzionano i RAG
I sistemi RAG possono essere semplici (un singolo agente che risponde a domande) oppure complessi, come i sistemi multi-agent, composti da più entità specializzate che si coordinano tra loro.
“Immagina un’organizzazione in tempo reale”, racconta Brera. “Un agente è esperto di una categoria di prodotto, un altro analizza le conversazioni, un altro ancora coordina gli altri come un orchestratore. Così la risposta finale è il risultato di un confronto tra competenze diverse.”
Dietro a questa apparente semplicità c’è però una grande complessità tecnica: gestione della memoria, controllo del contesto, filtri per le risposte. Una variabile importante è la temperatura del modello,” spiega Brera, “cioè il parametro che regola il livello di creatività e variabilità con cui l’LLM genera le risposte.”
A temperatura bassa, aggiungiamo noi, le risposte sono più prevedibili e aderenti al dato. A temperatura alta, il modello tende a “inventare” di più.
Nei sistemi RAG, la temperatura viene spesso impostata su valori molto bassi o addirittura a zero, per evitare allucinazioni. “Può succedere che il modello si inventi prodotti che non esistono, o che si dia da solo un nome, senza alcun controllo. Se vuoi costruire un sistema affidabile, queste derive le devi gestire.”
Esempi concreti e progetti in corso
disruptiveS sta realizzando MVP per clienti consumer, dove degli agent supportano i clienti direttamente in negozio, tramite QR code. “Inquadro, scrivo o parlo, e il sistema risponde dal mio smartphone. È un supporto che integra e potenzia dinamiche legate al ruolo di store assistant”.
Al momento il sistema è testuale ma l’obiettivo è integrare anche la voce. Un’altra evoluzione possibile riguarda la gestione del magazzino. “Abbiamo visto soluzioni in cui il sistema riconosce quando un carrello si svuota e fa partire un ordine in automatico. In contesti del genere, l’errore umano è altissimo. Automatizzare conviene.”
Naturalmente, per ogni applicazione dell’AI e del Machine Learning serve un controllo accurato: “Human in the loop” è un concetto importante per far comprendere che l’AI è fuori di dubbio un acceleratore e potenziatore dei processi, ma in diversi contesti richiederà sempre una supervisione e gestione umana”.
Al di là di tutto il rumore di fondo che questa tecnologia sta generando, sul fronte delle grandi aziende qualcosa si è già mosso. Amazon ha introdotto Rufus, un agente conversazionale, mentre Angelini ha sviluppato un sistema AI per migliorare i processi HR interni. “Il buzz c’è, inutile negarlo. Ma c’è anche chi ci lavora seriamente.”
Il futuro del lavoro e il punto di equilibrio
Quando si parla dell’impatto dell’IA sul mondo del lavoro, Brera è netto: “Per certe attività sarà un acceleratore. Per altre, un sostituto.” Le aree più esposte? Documentazione legale, analisi dati, coding, gestione knowledge base. “Tutto quello che richiede la consultazione di grandi volumi di informazione sarà prima o poi dato in gestione all’AI.”
Ma in Italia questa transizione sarà lenta. “Abbiamo una struttura produttiva rigida e una cultura che fatica ad abbracciare il cambiamento. Eppure l’IA può essere la risposta proprio a un problema strutturale: la carenza di forza lavoro. Siamo meno produttivi, e c’è uno scarto generazionale in termini numerici non indifferente. L’AI se implementata correttamente potrebbe migliorare molto il tasso di produttività per singolo lavoratore.”
La vera sfida, secondo Brera, è smettere di pensare all’intelligenza artificiale come a un sostituto dell’umano. “Se strutturata bene, ti affianca, ti amplifica. Ma per farla funzionare servono competenze vere: non bastano dieci minuti su un tool no-code. Ci vuole studio, pazienza e capacità di ragionare come ragiona la macchina. È lì che nasce l’intelligenza aumentata, non solo artificiale.”


