Walter Riviera: “tra il dire e il fare c’è da regolamentare”

da | 21 Feb 2024 | IA, Intervista

Mi è capitato di incontrare Walter Riviera in modo del tutto incidentale. Interessato da un suo intervento in tema di intelligenze artificiali, sono andato a scambiare quattro chiacchiere con lui a presentazione finita. E ho scoperto una persona che sarebbe stato un peccato non intervistare qui su TechTalking. Come potrete leggere, le IA offrono numerosi spunti di natura legale, etica, sociale e professionale. Di questo e altro abbiamo parlato nel corso dell’AI Festival, tenutosi a Milano la scorsa settimana.

Quando ci siamo incontrati hai detto che non vuoi essere definito un guru, quindi… come si diventa il non-guru dell’intelligenza artificiale di Intel? Qual è stato il tuo percorso? E come t’immagini in futuro? Forse riuscirai a diventare un guru? 

Si diventa non-guru restando “eterni studenti”. Con l’IA è facile, perché evolve a ritmi talmente elevati che bisogna sempre studiare qualcosa! Ho studiato un percorso triennale e magistrale all’Università di Verona, in quella che ai tempi era Computer Vision e Pattern Recognition, poi divenuto in Machine Learning e quindi Intelligenza Artificiale. Poi ho vinto un assegno di ricerca, sempre all’Università di Verona, su Data Analytics e costruzione di modelli di classificazione. Ho poi vinto un’altro assegno di ricerca che mi ha portato a Glasgow, dove ho raffinato la tecnica sulle funzioni di predizione dei dati. Dopodiché ho fatto un’esperienza in un’azienda medio-piccola di Edimburgo che si occupava di text to speech, poi sono entrato in Intel. Che per me ha rappresentato una rampa di lancio, visto che dal primo giorno ero Technical Solution Specialist, quindi mi occupavo di fare consulenza ai clienti per hardware e software. Successivamente ho ampliato le mie responsabilità ed oggi eccomi qui.

Non ricordo un qualcosa di così innovativo, eppure di così controverso come le IA. Internet, i social, gli esport, i metaversi: ogni cambiamento, che fosse tale o che fosse una semplice buzzword, ci è stato proposto come qualcosa che avrebbe migliorato le nostre vite. Le intelligenze artificiali, no: fin da subito abbiamo visto grandi potenzialità ma anche dei grandi rischi, un po’ come con l’energia nucleare. Da che parte pende la tua personalissima bilancia?

La mia personalissima bilancia cerco di non farla pendere da nessuna parte. Cerco di avere una visione molto equilibrata, quindi sì alla curiosità ma in modo responsabile. Perché? Perché fondamentalmente questa innovazione la stiamo solo percependo, non l’abbiamo ancora identificata ed è in costante evoluzione. È difficile vederne i confini, i contorni, e se non vedi i contorni come fai a buttarti alla cieca, a dire che sarà tutto stupendo? Al contempo, come fai a metterlo in discussione?

Ci siamo conosciuti parlando dei rischi che possono portare le IA nell’ambito della cybersecurity. Quali sono le minacce che vedi più concrete sotto questo aspetto? E che contributo possono dare le IA alla buona causa, se dall’altra parte si trovano a “combattere” altre IA trainate per scopi malevoli?

L’intelligenza artificiale sta cambiando il campo della cybersecurity, rendendola più complessa e variegata. L’IA è utilizzata sia per difendere che per attaccare, creando un nuovo fronte di battaglia digitale. Un fattore critico è l’accessibilità delle risorse per sviluppare e perfezionare i modelli di IA, che non è uniforme e crea un divario tra chi può iniziare a sfruttarli per primo e chi invece arriva dopo. Le leggi attuali tendono a proteggere chi utilizza l’IA per fini difensivi, esponendo a maggiori rischi chi la usa per scopi malevoli, il che sottolinea l’importanza del fattore legale nella lotta contro le minacce informatiche.

In parallelo, assistiamo a un’evoluzione tecnologica costante, coi dati che diventano sempre più preziosi e necessitano di maggiore protezione. Un esempio di questa evoluzione è l’introduzione del confidential computing nei server, che è diventato un elemento cruciale. La sfida principale ora è quella di rendere disponibili strumenti efficaci sia per prevenire che per contrastare i rischi, educando gli utenti su come utilizzarli correttamente.

Walter Riviera è che anche TED speaker, Keynote Speaker e Lecturer.

Ti ho sentito positivo nei confronti delle azioni del Garante per la Privacy italiano nei confronti di ChatGPT. In cosa ti è piaciuto? Ma soprattutto, ha ancora senso tutelare la privacy in un mondo che “esfiltra” qualunque informazione sulle persone, legalmente o illegalmente? Fermo restando che spesso sono le persone stesse a non tutelare la loro privacy sui social?

Il Garante Italiano per la privacy ha agito proattivamente nel gestire una potenziale minaccia per la privacy legata a ChatGPT. Il suo intervento ha portato allo sviluppo di una versione aggiornata di ChatGPT, successivamente adottata in molti stati europei. L’importanza di questa azione risiede nella sensibilizzazione verso la privacy e nella speranza che ogni cittadino sviluppi una maggiore consapevolezza nella gestione dei propri dati personali. L’educazione alla privacy è cruciale, e la presenza di figure istituzionali che si impegnano in questo senso è un aspetto positivo da valorizzare.

Secondo l’FMI, l’IA minaccerà il 40% dei posti di lavoro e aumenterà le disparità. La statistica sale al 60% nei paesi più sviluppati. E la scusa “me l’ha fatto fare l’IA” è tra le preferite tra le big tech che stanno licenziando migliaia di persone. L’impatto negativo delle IA sulla società rischia di essere ben superiore a quello positivo. Come se ne esce? Provando a mettere un (tardivo) coperchio sul vaso di Pandora. O è già tardi?

L’articolo sulle dichiarazioni dell’FMI riguardo all’IA non parla di “minaccia” ma di “impatto”. Sebbene sia importante riconoscere che il settore è in continua evoluzione e che le stime attuali potrebbero essere incerte, mi piace pensare all’IA come a un’estensione delle capacità umane, che porterà alla creazione di nuove professioni. Un esempio che faccio spesso è l’assistenza remota agli anziani con tecnologie intelligenti, che potrebbe generare nuove opportunità lavorative nel campo medico e dell’assistenza. Quindi, anziché considerare l’IA una minaccia per l’occupazione, la vedo più come un catalizzatore per nuove professioni e opportunità lavorative.

Siamo però sicuri che i posti di lavoro persi a causa dell’IA possano essere facilmente riconvertiti in nuove professioni?

La problematica relativa al costo e al tempo necessari per la riconversione professionale a seguito dell’evoluzione dell’IA è fondamentale. Molte persone, in particolare quelle di età avanzata o comunque meno avvezze alla tecnologia, potrebbero trovarsi in difficoltà a reinventarsi professionalmente in nuovi ruoli tecnologici. Tuttavia, la perdita di molti posti di lavoro presupporrebbe una tecnologia estremamente avanzata e matura, mentre attualmente è frenata da diversi fattori, inclusa la regolamentazione. Prendo ad esempio le auto a guida autonoma: nonostante la tecnologia esista, non sono ancora diffuse sulle strade a causa delle normative vigenti. Avere tecnologie avanzate è solo una parte del processo; un cambiamento significativo su scala globale richiede tempo e deve confrontarsi con le sfide della regolamentazione e la necessità di una transizione graduale.

Qualche mese fa hanno fatto scalpore le finte telefonate di Biden agli elettori del New Hampshire. Gli USA hanno appena dichiarato le robocall illegali, mentre i produttori di IA stanno introducendo watermark nascosti per distinguere il vero dal falso. Basteranno queste misure a evitare di sovvertire l’esercizio della democrazia?

Ci sono due considerazioni da fare. La prima è che in un mondo dove le informazioni sono un mix di elementi sintetici e reali, ci si aspetta che le persone sviluppino un maggiore scetticismo e prendano decisioni più indipendenti e informate, affidandosi a fonti considerate affidabili. Il che  sottolinea l’importanza del libero arbitrio nell’era dell’informazione.

La seconda è che l’IA ha il potenziale di misurare e valutare l’affidabilità delle informazioni, un aspetto che può rivelarsi cruciale per guadagnare fiducia. Le IA possono essere impiegate per verificare le affermazioni e contrapporre i fatti alle dichiarazioni. Tuttavia, la responsabilità finale della valutazione delle fonti ricade sugli individui, che dovranno decidere a chi affidarsi. Nonostante l’introduzione di nuove tecnologie e misure come i watermark nascosti, la capacità critica degli individui resta l’elemento fondamentale per il corretto esercizio della democrazia, in un’epoca caratterizzata da un complesso mix di informazioni.

I convincimenti politici e morali ormai si formano sui social ed è lì che i deepfake dovrebbero essere riconoscibili direttamente dal pubblico. Credi sia possibile?

La riconoscibilità dei deepfake sui social media, e la formazione di convincimenti politici e morali autentici, rappresentano una sfida cruciale. In tale contesto, il consorzio C2PA (Coalizione per la Prevenzione e l’Autenticità dei Contenuti), al quale partecipa anche Intel, gioca un ruolo chiave. Il C2PA si concentra sulla certificazione dell’autenticità dei contenuti, proponendo soluzioni come l’implementazione di watermark nei contenuti generati. Questo metodo potrebbe essere adottato da molte aziende e brand per assicurare un uso responsabile delle loro tecnologie.

La presidente dell’americana FCC , Jessica Rosenworcel, ha preso una posizione molto forte verso le contraffazioni dell’IA volte a falsare l’esercizio della democrazia.

C’è una corsa a produrre chip per l’IA che sta vedendo Nvidia davanti a tutti. Ma Meta vuole iniziare a produrre i suoi, mentre Sam Altman vuole creare un consorzio che ne produca altri. Aumenta anche la domanda di chip custom, e anche qui Nvidia si trova in prima linea. Come si colloca Intel in questo scenario?

L’economia dei semiconduttori, quella che chiamiamo Siliconomy, si stima che raggiungerà il valore di mille miliardi di dollari entro il 2030; l’economia tech in generale rappresenterà più del 15% del prodotto interno lordo globale. La tecnologia non è mai stata tanto importante quanto oggi. Tutto il mondo è più digitale, e tutto ciò che è digitale si basa su chip. L’IA promette di accelerare ancora di più questo progresso e presto potrà essere ovunque, accrescendo ancora di più questa domanda di semiconduttori.

Non sono molte le fonderie di chip in grado di fabbricare chip così sofisticati. Stiamo parlando di prodotti tra i più piccoli ma anche più complessi al mondo. Probabilmente i dispositivi più complessi mai realizzati dall’uomo. La precisione richiesta dalla strumentazione di produzione è nella misura del nanometro. Stiamo parlando, in proporzione, della precisione che ci vorrebbe per colpire con un laser posizionato sulla Luna la punta del dito di una persona sulla Terra. Intel è fra queste poche aziende capaci di offrire ai propri clienti capacità produttiva per i chip più avanzati sul mercato e ambisce e ritornare leader assoluto nella produzione di semiconduttori, e seconda fonderia al mondo per volumi, con la potenzialità di fabbricare i chip di AI disegnati da altre aziende, come potrebbero essere quelle da te citate.

Inoltre, Intel ha in programma di diventare la prima e unica fonderia di sistemi dell’era dell’IA, il che vuol dire che forniremo ai nostri clienti non solo wafer di silicio ma anche circuiti integrati, packaging di chip, software e chiplet. Questo riflette il cambiamento dai prodotti da SoC (System-on-a-Chip) a SoP (System-in-a-package), per aumentare l’efficienza ed essere pronti ad esigenze nuove come quelle dell’AI.

Lato prodotto, invece, abbiamo già lanciato i processori che inaugurano una nuova categoria di personal computer, l’AI PC, grazie a una NPU integrata, e nuovi datacenter con capacità di IA integrata con la famiglia Emerald Rapids. Sottolineando l’importanza dell’efficienza, abbiamo introdotto per i datacenter gli efficient core. Questo aspetto è fondamentale perché la nostra attenzione non va solo verso la potenza di calcolo ma anche verso la sostenibilità.

La rottura di Google con Appen ha portato allo scoperto il tema dei ‘lavoratori fantasma’ che si occupano di trainare le IA a prezzi da caporalato. Al tempo stesso sono in corso class action contro Midjourney & Co. sulla proprietà intellettuale degli output delle IA. Quello dell’addestramento delle intelligenze artificiali è un problema non di poco conto e, se risolto, potrebbe migliorare la loro percezione presso il pubblico. È possibile farlo in modo etico? O ha ragione Elon Musk quando dice che non è possibile?

È assolutamente possibile utilizzare e allenare le IA in modo responsabile, e questo dovrebbe essere un obiettivo per chiunque operi nel settore. In termini di proprietà intellettuale, come mostrato dalle class action attualmente in corso, la situazione è in continua evoluzione. Ma vorrei sottolineare che con l’introduzione di normative come l’AI Act, gli individui hanno ora maggiore controllo sulla disponibilità delle proprie informazioni.

Inoltre, le recenti vicende, come la class action degli artisti contro Midjourney, mostrano che l’implementazione e la scalabilità delle tecnologie di IA portano con sé una serie di sfide impreviste che devono essere affrontate. Siamo solo all’inizio di questo processo e le questioni che emergono ora devono essere regolamentate e risolte.

Per difendersi dallo scraping illegittimo dei dati, c’è chi ha creato delle contromisure come Nightshade e Glaze. L’obiettivo? Falsare le letture delle IA, facendo leggere loro cose diverse da ciò che sono nella realtà.

Restando nell’argomento, Nightshade e Glaze sono dei sistemi coi quali gli artisti possono proteggersi dal data scraping “avvelenando” le IA. Iniziative come questa da un lato tutelano gli artisti, dall’altro pongono un limite allo sviluppo delle IA. Tu come le vedi?

L’uso di questi sistemi è sì una forma di ‘avvelenamento’, ma nel senso positivo del termine. Crittando i dati per proteggerli, agiscono come una maschera che rende le informazioni originali incomprensibili agli occhi di un’IA, preservando così la proprietà intellettuale dell’artista sulle proprie opere. Questo tipo di avvelenamento non è dannoso; anzi, è uno strumento aggiuntivo per chi desideri proteggere i propri dati.

Se guardiamo alla questione da un punto di vista aziendale, le imprese e i brand che vogliano operare legalmente e in modo etico, eviteranno di interagire con siti che hanno adottato queste misure anti-scraping. Anche perché se un’IA viene addestrata con dati fuorvianti, ottenuti provando a superare queste misure di protezione, il modello risultante sarà inaffidabile. Ciò si tradurrà in un servizio inefficace, che penalizzerà chi lo userà. Queste strategie di protezione possono rivelarsi un deterrente efficace contro l’uso improprio dei dati, incentivando un approccio più responsabile e legale nell’addestramento delle IA.

Sam Altman: “l’intelligenza artificiale consuma troppa energia” e spinge per la fusione nucleare. Non fosse lui, sembrerebbe il solito allarmismo verso le IA, ma siccome a dirlo è proprio lui, viene da prenderlo sul serio. Dobbiamo preoccuparci anche di questo?

La preoccupazione di Sam Altman sul consumo energetico dell’intelligenza artificiale è rilevante, ma deve essere considerata nel contesto di un settore in evoluzione. L’IA richiede molta energia ma ci sono sforzi attivi per ridurre questo consumo. Intel, per esempio, sta introducendo processori con Efficient Core per migliorare le prestazioni, riducendo l’energia necessaria.

Scegliere l’hardware ideale per ottimizzare l’esecuzione del software è un’altra fase in cui vale la pena investire tempo e risorse. Lo Xeon di oggi si è evoluto con delle istruzioni dedicate per accelerare l’esecuzione di workload basati su IA. Questo significa che con lo stesso prodotto general purpose, gli sviluppatori possono massimizzare il loro investimento sfruttando la stessa macchina per più applicazioni. Qualora né l’AI PC né lo Xeon fossero sufficienti, si possono esplorare tutti gli altri dispositivi HW del portafoglio Intel, incluse le GPU Flex (per inferenza, processing grafico e di segnali multimediali), le GPU MAX per HPC ed addestramento di modelli AI, infine gli acceleratori Gaudi per l’IA Generativa.

Insomma, bisogna scegliere l’HW che ottimizzi l’esecuzione del proprio SW, in base ai requisiti: di sostenibilità ambientale ed economica. Ciò fa parte di un trend più ampio in cui le aziende stanno integrando la sostenibilità nei loro piani. Più in generale, la ricerca sta portando a progressi nell’efficienza energetica, e così come abbiamo assistito alla miniaturizzazione dei computer, le IA diventeranno sempre più efficienti dal punto di vista energetico.

OpenAI che modifica la sua policy per includere il settore militare non è un messaggio rassicurante: qual è la tua posizione riguardo l’utilizzo delle IA in ambito militare? Quali rischi vedi da questa apertura?

L’apertura di OpenAI verso il settore militare solleva questioni importanti riguardo alle intenzioni e alle decisioni dietro questa mossa. Ma sono domande che andrebbero poste direttamente a OpenAI e a Sam Altman. Da parte sua, Intel si concentra sull’uso responsabile delle proprie tecnologie, con politiche e obiettivi ben definiti e pubblici. 

In questo montaggio del Financial Times vediamo, da sinistra a destra, Adam D’Angelo, Helen Toner, Ilya Sutskever e Tasha McCauley. Sono le persone che a novembre hanno provato a disarcionare Sam Altman e che dovrebbero, insieme al resto del CdA di OpenAI, decidere del futuro delle AGI, le prossime singolarità nella storia dell’umanità.

Ho pubblicato un editoriale di nome “Un potere enorme nelle mani di pochi: le AGI saranno anche un problema etico“. In esso domando se sia giusto che a decidere di qualcosa di così (pericolosamente) rivoluzionario siano degli sconosciuti che siedono nei CdA. Verrebbe da pensare che sarebbe meglio coinvolgere anche le istituzioni, però, a ben guardare… Qual è il tuo punto di vista.

Cominciamo col dire che il professor Yann LeCun che ha rivoluzionato il mondo dell’IA con AlexNet nel 2012, e che ora è a capo dell’IA in Meta, ha espresso scetticismo sulla realizzabilità dell’AGI. Questo mette in prospettiva le affermazioni, spesso esagerate, sullo sviluppo di questa tecnologia.

Per quanto riguarda la tua domanda sull’appartenenza e il controllo dell’IA, Yann LeCun enfatizza costantemente l’importanza dell’open source nel futuro dell’IA. Questo non è solo un concetto teorico: molti strumenti e risorse di AI, come gli LLM, sono già disponibili in modo open source. Oggi, chiunque abbia interesse e l’accesso a un computer domestico, può educarsi e diventare esperto nell’IA, il che la rende una tecnologia accessibile a un pubblico molto più ampio. L’idea che le decisioni sull’IA siano nelle mani di pochi è quindi, a mio parere, una supposizione forte.

L’innovazione peraltro porta sempre con sé la possibilità di cambiare gli equilibri esistenti. Prima del 2023, pochi non esperti avrebbero conosciuto OpenAI, eppure guarda com’è cambiato il mondo in poco tempo.

Non so tu, ma mi sono stancato di vedere il bicchiere mezzo vuoto, per cui parliamo degli aspetti positivi delle IA. DeepMind di Google lancia AMIE, l’IA che migliorerà la diagnostica medica. Syngenta produce pomodori OGM migliori grazie alle IA, usate anche per trovare milioni di principi attivi per le medicine, o materiali innovativi coi quale ad esempio produrre batterie migliori per gli EV. Ci stiamo dimenticando altro?

Ci sono numerosi aspetti positivi legati all’uso dell’intelligenza artificiale che meritano di essere messi in luce. Ad esempio, l’assistenza remota agli anziani, un ambito in cui l’IA può davvero aprire le porte a un nuovo mondo di possibilità. L’introduzione degli LLM nei dispositivi di uso comune è un altro esempio promettente. Non solo miglioreranno l’interazione vocale coi dispositivi, ma permetteranno anche di catturare e comprendere meglio il significato dietro alle nostre parole.

Un’altra area impattata positivamente sarà l’automazione di compiti quotidiani. Per esempio, sarebbe bello scrivere una mail e avere un tool che controlli automaticamente il contenuto per segnalare se stiamo inviando o meno informazioni sensibili. Questi ‘piccoli, grandi aiuti’ possono semplificare significativamente la vita quotidiana, migliorando l’interazione con la tecnologia e apportando cambiamenti positivi nel mondo.

La combinazione tra robotica e intelligenze artificiali apre le porte a futuri fantascientifici degni di Asimov. Ma per Walter Riviera ricerca e sperimentazione possono procedere in direzioni diverse dalla realtà dei fatti.

1X Technologies raccoglie $100 milioni per l’innovativo robot androide NEO. Il che porta alla nostra attenzione che IA e robotica andranno presto a braccetto. Con quali prospettive, secondo te?

Quando l’IA incontra la robotica, la prima fornisce capacità sensoriali, come la visione e l’ascolto, mentre la seconda offre un corpo fisico che può interagire con l’ambiente circostante. Tuttavia, l’uso pratico di questi strumenti dipenderà in gran parte dall’uso che ne verrà fatto. Ci sono due fattori chiave da considerare quando si parla di commercializzazione di queste tecnologie.

Il primo è il mercato stesso e la domanda esistente. Se non c’è una richiesta per un prodotto, non c’è motivo di produrlo. Il secondo è la regolamentazione, e riprendo l’esempio delle auto a guida autonoma, che non sono ancora diffuse su tutte le strade nonostante la tecnologia esista e sia disponibile. La robotica affronterà sfide simili e la regolamentazione avrà un ruolo determinante nel definire il successo e la diffusione di queste tecnologie.

Pertanto, anche se la ricerca e la sperimentazione possono procedere in una certa direzione, non è detto che questa si traduca automaticamente in realtà commerciale. E se anche diventasse realtà, ci saranno passaggi intermedi cruciali, come l’assunzione di responsabilità e la certificazione, che possono aggiungere anni di lavoro e non sono affatto sfide banali.

In conclusione, le IA intrigano e spaventano. Qual è la tua ricetta per tenere solo il buono, togliendo il cattivo?

Come dicevo prima, l’equilibrio. Non si tratta di accettare acriticamente solo gli aspetti positivi o di focalizzarsi esclusivamente su quelli negativi. L’equilibrio si raggiunge attraverso l’educazione e l’informazione, permettendo alle persone di comprendere meglio questa tecnologia e di ridimensionare le paure che possono nascere dall’ignoto.

Un’attenzione particolare dovrebbe essere rivolta alla gestione dei dati personali e alle implicazioni etiche dell’uso dell’IA. È fondamentale bilanciare la curiosità con la cautela, riconoscendo che, sebbene l’IA non sia né completamente buona né completamente cattiva, può essere utilizzata in modo responsabile. Gli utenti avranno un ruolo cruciale nel determinare come queste tecnologie verranno adottate e impiegate nella società. Pertanto, è essenziale che tutti siano informati e consapevoli dell’uso che fanno dell’IA, per poter trarre il meglio da queste tecnologie, minimizzando i potenziali rischi.

POTREBBE INTERESSARTI

ByteDance e Broadcom avviano una collaborazione strategica per l'IA
,

ByteDance e Broadcom: al via una collaborazione per l’IA

L’azienda americana produrrà un chip da 5nm per la casa madre di TikTok, che lo scorso anno avrebbe già investito 2 miliardi di dollari in chip Nvidia.

Apple rinvierà il lancio di Apple Intelligence nell'UE
,

Apple rinvierà il lancio di Apple Intelligence nell’UE

Il gigante tecnologico indica il Digital Markets Act come la causa di questa decisione.

TikTok prova a rivoluzionare l'ADV ma inciampa clamorosamente

TikTok prova a rivoluzionare l’ADV ma inciampa clamorosamente

I Symphony Digital Avatars, il nuovo strumento di TikTok per la creazione di contenuti generati dall’IA, finiscono nel mirino dopo che una falla ha consentito la...
Ecco come di comporta Claude 3.5 Sonnet rispetto agli altri modelli.

Più veloce e intelligente: ecco Claude 3.5 Sonnet

Claude 3.5 Sonnet è il modello più avanzato di Anthropic, e promette prestazioni superiori a GPT-4 e Gemini

Il produttore di chip TSMC vola in borsa

La valutazione di TSMC vola alle stelle trascinata di Nvidia

TSMC si sta avvicinando alla valutazione di mille miliardi di dollari a Wall Street trascinata da Nvdia e dall’esplosione dell’IA.

L'IA non è in grado di prendere ordini da McDonald's

McDonald’s: l’IA non è ancora in grado di prendere gli ordini al drive-in

McDonald’s, la famosa catena di fast food, negli Stati Uniti ha deciso di disabilitare un sistema basato sull’intelligenza artificiale utilizzato nei...
Jen-Hsun Huang durante una presentazione di Nvidia

Nvidia batte Microsoft ed è la società che vale di più al mondo

Spinta dal crescente interesse nel comparto dell’intelligenza artificiale, Nvidia ha infranto un nuovo record in borsa, superando anche Microsoft.

Il segretario della NATO Jens Stoltenberg

La NATO investe mille miliardi di euro in IA, robot e spazio

La NATO investe mille miliardi di euro in 4 aziende specializzate in tecnologia per lo sviluppo di IA, robotica e ingegneria spaziale.

I robots di Ex-Robots

In Cina stanno costruendo robot con espressioni facciali umane

L’ultima frontiera della tecnologia fonde la robotica con l’intelligenza artificiale. L’obiettivo è quello di usare l’IA per dare ai robot...
Sam Altman potrebbe trasformare OpenAI in una società benefit foto: Joel Saget/AFP/Getty Images

OpenAI potrebbe diventare una società benefit (e perseguire il profitto)

OpenAI, per competete al meglio contro Anthropic e xAI, potrebbe cessare di essere una no-profit. E c’è già chi come passo successivo s’immagina...
Share This