Musica con l’intelligenza artificiale: perché sì e perché no

da | 30 Lug 2025 | IA

Parliamo spessissimo di intelligenza artificiale su queste pagine, affrontandone le numerose declinazioni. Tra queste, una sulla quale ci siamo soffermati meno frequentemente è quella dell’intelligenza artificiale applicata alla musica.

L’articolo di oggi è pensato non tanto per rimediare a questo squilibrio, quanto per aprire una finestra su un ambito che avrà indubbiamente grandi ripercussioni sulla sfera artistica del futuro. Nel concepirlo, abbiamo pensato a una intervista incrociata tra due persone, entrambe musiciste ma appartenenti a differenti schieramenti.

Da una parte abbiamo Emanuele Borri, digital content creator con una lunga esperienza nel settore media e intrattenimento, dove ha integrato tecnologie avanzate, tra cui l’intelligenza artificiale, in progetti innovativi.

Dopo aver lavorato in ambito televisivo, in particolare presso QVC Italia e Francia, ha fondato nel 2024 il progetto musicale sperimentale AIDA, dedicato alla creazione di brani con l’IA. AIDA ha debuttato il 15 marzo con il singolo COLD e vanta una presenza attiva su tutte le principali piattaforme streaming e social.

Dall’altra parte troviamo Paolo Brera, Executive Director di disruptiveS, che i più attenti di voi ricorderanno per un nostro articolo sulle RAG. Quello che probabilmente non sapete invece è che attualmente è attivo con un progetto a cavallo tra il cantautorato ed il punk. E che in passato ha calcato palchi importanti tra cui quello del Festival di Sanremo oltre a vantare collaborazioni in featuring con Articolo 31 a fine anni ‘90.

Partiamo dal vostro rapporto con la musica. L’avete studiata o siete autodidatta? Avete suonato in una band, vi siete mai esibiti dal vivo? E soprattutto: che ruolo ha avuto, fin dall’inizio, la tecnologia nel vostro processo creativo?

Emanuele Borri: La musica ha sempre fatto parte del mio mondo, anche se non l’ho studiata in modo accademico e non ho mai suonato in una band, né mi sono esibito dal vivo nel senso tradizionale. Il mio percorso è legato alla scrittura: raccontare storie, esprimere emozioni attraverso i testi e immaginare come potessero suonare.

AIDA è il progetto musicale sperimentale di Emanuele Borri, dedicato alla creazione di brani con l’IA.

La svolta è arrivata con l’intelligenza artificiale, che mi ha permesso di creare AIDA, una cantante digitale che interpreta i brani scritti da me. Non vedo l’IA come una sostituta della creatività umana, ma come una sua estensione. Con AIDA ho seguito ogni fase del processo creativo: dalla scrittura agli arrangiamenti, dalla scelta del sound all’identità visiva.

È il progetto principale su cui ho lavorato finora: una forma di espressione in cui cuore umano e intelligenza artificiale collaborano. Insieme abbiamo pubblicato oltre 90 brani in sei album, e ogni canzone è il risultato di questa sinergia.

Paolo Brera: La musica fa parte della mia vita da più di 20 anni. Come cantautore ed interprete da super giovane ho avuto esperienze su palchi importanti come Sanremo, Festivalbar e similari firmando con major ed etichette molto importanti. Attualmente, da circa 5 anni, ho un progetto punk cantautoriale con circa 20 brani all’attivo (DeDog), ed ho iniziato da poco a girare con una band che mi supporta nei live.

La tecnologia è stata un grande acceleratore in diverse fasi della mia storia artistica, ma ora come ora sto cercando di liberarmene il più possibile, vorrei riportare il suono alle origini, alla presa diretta ed all’analogico. Non è essere nostalgici ma significa voler catturare e fotografare un momento unico dove anche l’errore diventa protagonista e rende unica la performance; la tecnologia aiuta molto ma standardizza in modo tremendo.

L’intelligenza artificiale sta entrando in tutti i campi della creatività. Quando avete iniziato a interessarvi al suo impatto sulla musica?

Emanuele Borri: Mi sono avvicinato all’intelligenza artificiale quando sono emersi i primi sistemi generativi, intuendo subito la possibilità di costruire qualcosa di più articolato di una semplice sperimentazione. È così che è nata l’idea di AIDA.

L’obiettivo era sfruttare tutte le potenzialità creative dell’IA: composizione musicale, generazione vocale, immagine visiva e comunicazione digitale. Non volevo solo far cantare una voce sintetica, ma creare una cantante digitale completa, con un’identità definita a livello sonoro, visivo e narrativo.

L’IA, in questo percorso, non è stata il punto d’arrivo ma lo strumento per realizzare un progetto ambizioso, dove ogni componente (voce, musica, video e presenza online), contribuisce a un racconto coerente e contemporaneo.

Paolo Brera ha calcato il palco del Festival di Sanremo. Vanta collaborazioni in featuring con Articolo 31 a fine anni ‘90. Ora si occupa di un progetto punk cantautoriale.

Paolo Brera: Sono socio in una start-up (disruptiveS Srl) che si occupa anche di consulenza e sviluppo di sistemi AI per aziende e PMI. Sto studiando a fondo la materia (Python, data science, sistemi multi-agents, rag…) da ormai circa 3 anni con grande passione ed interesse, ed ho avuto modo di testare anche il suo potenziale in relazione alla creatività a 360°.

Cosa pensate dell’utilizzo dell’intelligenza artificiale nella composizione? È un’estensione naturale del processo creativo o rappresenta una rottura radicale con il passato?

Emanuele Borri: L’intelligenza artificiale non è un optional, ma l’elemento fondante del progetto AIDA. Senza di essa, non sarebbe mai nato. È lo strumento che consente di trasformare testi scritti in brani coerenti, perfettamente in linea con l’identità dell’artista digitale.

L’IA però non crea da sola: viene guidata con attenzione. Ogni canzone parte da un testo con un’intenzione precisa, e su quella base si costruisce un prompting accurato. È un processo iterativo: si ascolta, si rielabora, si modifica, finché il risultato non coincide con l’idea originale.

Per me, l’IA non rappresenta una frattura col passato, ma un’estensione naturale del processo creativo. Non sostituisce l’ispirazione, la amplifica. Se usata con visione, può generare qualcosa di autenticamente nuovo.

Paolo Brera: Non ne ho bisogno. Per me la musica è un’esigenza, scrivere in questo momento è un’attività catartica non finalizzata alla commercializzazione ed alla vendita.

Scrivo per stare bene e meglio. Le mie reti neurali sono connesse alle mie emozioni, e le mie emozioni alle mie personali esperienze. In sostanza, il mio prossimo token è imprevedibile, sono molto più affascinante io della Softmax.

Ti è mai capitato che l’IA ti sorprendesse? Hai mai ricevuto in output qualcosa che non avresti mai immaginato da solo?

Emanuele Borri: Sì, l’AI mi ha sorpreso, soprattutto all’inizio, quando non conoscevo ancora a fondo le tecniche di prompting. Ogni risultato era inaspettato, ma già coerente con ciò che avevo immaginato: vedere un’idea prendere forma davanti ai miei occhi era affascinante.

Con il tempo ho imparato a dare istruzioni sempre più precise, e da allora l’output è diventato sempre più allineato alle mie intenzioni. Ancora oggi, però, ciò che mi colpisce è quanto spesso il risultato rifletta esattamente ciò che avevo in mente, come se l’IA ne cogliesse lo spirito.

Questo mi ha fatto riflettere: forse il modo in cui l’AI “impara” non è poi così diverso da quello di un autore umano. Anche noi, attraverso l’ascolto, accumuliamo esperienze e riferimenti che diventano la base della nostra creatività. L’IA fa lo stesso, solo in modo diverso.

Paolo Brera: Beh, Logan di Logic Pro è una grande batterista, chi non lo ha mai usato! 😀 Ma quando sento il mio di batterista le vibrazioni, la cinetica, le emozioni sono tutto un altro film.

Credo che questa wave darà molto più boost ai live, all’esigenza di vedere un artista dal vivo per capire appunto quanto sia originale e “real”. A quel punto se Spotify creerà playlist editoriali di soli artisti IA poco importerà.

Parliamo di clonazione stilistica. Cosa pensi della possibilità di replicare lo stile di artisti famosi con l’IA, come nel caso della celebre canzone “deepfake” di Drake? È un omaggio creativo o un plagio tecnologico?

Emanuele Borri: Per me la clonazione stilistica è prima di tutto un omaggio creativo. Il fatto che l’IA possa replicare lo stile di artisti famosi dimostra la forza e l’influenza di quei linguaggi musicali. Ma è fondamentale distinguere: se il risultato è troppo simile a un brano esistente, si entra nel plagio, indipendentemente dallo strumento usato.

Diverso è il caso in cui si lavora per ispirazione, restando dentro un genere o uno stile senza copiarlo direttamente. Questo fa parte della tradizione artistica: si apprende, si rielabora e si crea qualcosa di nuovo. Anche con AIDA parto sempre da un riferimento chiaro, ma con l’obiettivo di ottenere un brano originale. È un equilibrio sottile tra tributo e innovazione, ma per me è essenziale.

Paolo Brera: Siamo nella fase del vale tudo quindi non credo sia né plagio tecnologico né omaggio creativo ma puro caos tecnologico. Gli unici che possono frenare questo delirio sono gli owner delle piattaforme che possono filtrare tutto ciò che viene dato in pasto agli algoritmi per diventare knowledge effettiva.

È impensabile un tool esterno che faccia detection di pattern creativi sugli output per decretare il plagio. E penso che una regolamentazione con filtri alla fonte ci sarà e sarà forte. È facile che le piattaforme dovranno scendere a patti con artisti ed establishment patteggiando su potenziali accordi e fee.

Secondo alcuni, l’IA promette di democratizzare la produzione musicale. Ma è davvero così? Può essere un acceleratore creativo per chi non ha una formazione tecnica, o rischia di appiattire tutto su uno standard algoritmico?

Emanuele Borri: Per me l’IA è un potente acceleratore creativo: uno strumento che amplia e potenzia l’ispirazione umana, permettendo di realizzare idee che forse, senza il suo supporto, non avrebbero mai preso forma. La sua forza sta proprio in questo: non sostituire la creatività, ma amplificarla.

Il rischio, però, è quello di produrre contenuti privi di una visione artistica solida, magari frutto di un’ispirazione momentanea e destinati a restare episodi isolati. È proprio per contrastare questa superficialità che è nato il progetto AIDA.

AIDA non si limita alla creazione di singoli brani, ma si fonda su una visione coerente e in evoluzione, con un’identità artistica che si sviluppa album dopo album. L’IA può aprire a una nuova stagione creativa, ma solo se c’è una guida umana consapevole e progettuale a orientarne l’uso.

Paolo Brera: L’appiattimento è la naturale conseguenza così come lo è stata l’ingresso del digitale nella musica, che negli ultimi anni ha standardizzato e moltiplicato in modo esponenziale la produzione musicale così da arrivare agli attuali livelli di saturazione e livellamento. Se la qualità di un artista principale deve essere l’originalità, oggi più che mai verrà premiata.

Entriamo nel merito dei diritti. In un brano generato con l’aiuto dell’IA, chi è l’autore secondo te? L’umano che l’ha guidata? L’algoritmo? I musicisti su cui è stata addestrata l’IA?

Emanuele Borri: Il tema dei diritti nella musica generata con l’IA è complesso e richiede un confronto serio tra creatori, sviluppatori e istituzioni, con l’elaborazione di nuove regole e strumenti giuridici adeguati. Nel mio caso, ho scelto di tutelare le produzioni di AIDA partendo da un punto fermo: i testi sono scritti da me e firmati come autore. È da lì che parte il contributo umano e creativo.

Per la parte musicale, quindi composizione, arrangiamento, mix ed esecuzione, riconosco il ruolo dell’algoritmo e delle aziende che sviluppano gli strumenti, motivo per cui utilizzo software in versione Premium, con licenze commerciali chiare.

È un equilibrio delicato, ma necessario: serve trasparenza e rispetto delle regole attuali, in attesa di un quadro normativo più solido. E sono convinto che questo tema diventerà sempre più centrale per chi lavora con l’IA in ambito musicale.

Paolo Brera: Potrebbe esserci in futuro una sorta di knowledge IA proprietaria e tutelata alla quale potranno attingere anche altri AI creators. E se gli artisti attuali patteggeranno con le piattaforme di AI gen per concedere i loro brani per training avremo anche un sistema di retribuzione connesso a questo tipo di utilizzo.

Negli Stati Uniti si parla di “fair use” per giustificare l’uso di brani protetti durante l’addestramento delle IA. Tu come la vedi? È un uso legittimo o una forma di sfruttamento mascherato?

Emanuele Borri: Il fair use, così come viene inteso negli Stati Uniti per l’addestramento delle IA, è un tema complesso, ma non lo vedo come una forma di sfruttamento mascherato. Se regolamentato correttamente, può essere paragonato ai meccanismi con cui anche gli autori umani assorbono e rielaborano influenze musicali. Chi lavora nella musica è costantemente esposto a stimoli sonori e riferimenti culturali comuni, sia in modo inconscio sia in modo strategico.

L’intelligenza artificiale agisce in modo simile: assimila linguaggi musicali, riconosce pattern e stili e li rielabora per produrre qualcosa di nuovo. La differenza non è nel “se”, ma nel “come” e con quali regole. Per questo, più che respingere il principio del fair use, credo sia fondamentale costruire un sistema normativo chiaro, che protegga gli autori originali ma permetta anche all’innovazione di andare avanti.

Paolo Brera: L’approvvigionamento della piattaforme AI su tutto lo scibile umano lo conosciamo ormai tutti, la musica è solo una delle tante aree che sono state aggredite dagli algoritmi di machine learning e credo che, come già detto, verranno messi dei paletti importanti.

In Europa si discute sull’obbligo di chiedere il permesso agli autori originali e di compensarli se i loro brani vengono usati per addestrare i modelli. Sei favorevole a una remunerazione obbligatoria?

Emanuele Borri: Credo sia fondamentale rafforzare il diritto d’autore anche nell’epoca dell’intelligenza artificiale. Ogni volta che un brano viene utilizzato, che sia riprodotto, campionato o anche solo analizzato per l’addestramento, è giusto riconoscere un compenso agli autori originali. È una questione di rispetto e di equità.

Detto questo, distinguere tecnicamente l’uso di un brano da parte di un’IA rispetto all’influenza che può avere su un autore umano è quasi impossibile. La vera differenza non sta nella natura della mente che assimila, ma nel valore intrinseco dell’opera. E se quell’opera viene utilizzata in un processo creativo, anche algoritmico, va riconosciuta e remunerata.

Per me, il compenso dovrebbe essere a carico delle aziende che sviluppano e vendono i modelli di IA, così come avviene già per radio, artisti e piattaforme che pagano licenze per l’uso delle opere protette. Se si trae valore da quelle opere, quel valore va anche redistribuito.

Paolo Bera: Se un artista vuole farsi pagare per fare in modo che l’AI lo imiti, non vedo il problema. L’imitazione tra artisti umani è pratica in uso da sempre, molti artisti sconosciuti sono stati derubati della loro arte da colleghi più famosi senza potersi difendere.

L’IA è, come ripeto, l’atto finale a più livelli. L’artista sarà messo duramente alla prova perché la sua originalità verrà sempre più messa in discussione.

Molte legislazioni stabiliscono che solo un essere umano può firmare un’opera originale. Ma allora, in una traccia generata da IA, che cosa rende davvero significativo l’intervento umano? Come lo definiresti?

Emanuele Borri: Penso che il contributo umano nei contenuti generati con l’IA debba essere chiaro e centrale nel determinare il risultato finale. Firmare un’opera significa assumersi la responsabilità di un processo creativo guidato da un’intenzione umana, non lasciato al caso o interamente delegato a una macchina.

Se c’è evidenza di un intervento diretto da parte di una persona, quella componente va riconosciuta come fondante. Non basta premere un tasto: serve averci messo del proprio. Nel caso di una canzone, ad esempio, se il testo è scritto da una persona, si tratta a tutti gli effetti di un contenuto originale.

È proprio su questa idea che si basa AIDA: ogni brano nasce da testi scritti da me. L’IA è uno strumento, ma la spinta creativa viene da un’origine umana. E per me, è lì che risiede il vero valore autoriale.

Paolo Bera: Le tracce generate dall’IA saranno di chi le genera. L’IA è uno strumento così come lo è un plugin che fa tutto il lavoro per te (pensiamo soprattutto alla musica elettronica priva di linee cantate o testi) ma ti porta comunque a generare un output finale che puoi ritenere “tuo” e depositarlo in SIAE.

Detto questo, non credo avremo un esplosione di artisti generati dall’IA, piuttosto avremo una grossa diffidenza da parte del pubblico verso chi crea, perché questo spauracchio del “si sarà fatto aiutare dall’AI” ci sarà sempre. In sostanza da “gli invidiosi diranno photoshop” si passerà a “gli invidiosi diranno generato dall’IA”.

Hai già pubblicato musica creata con strumenti di intelligenza artificiale. Che tipo di reazioni hai ricevuto dal pubblico? C’è stato entusiasmo, scetticismo, curiosità? Altro?

Emanuele Borri: Sì, ho già pubblicato diversi brani e album con l’aiuto dell’intelligenza artificiale attraverso il progetto AIDA, la cantante digitale che interpreta i miei testi. Finora ho realizzato 8 album, con circa 50 tracce in tre lingue: inglese, italiano e spagnolo. Ogni brano nasce da un testo originale e si sviluppa con un’identità sonora e visiva coerente.

Alcune canzoni sono accompagnate da videoclip realizzati in parte con strumenti di AI generativa, contribuendo a rafforzare l’identità visiva del progetto e a generare interesse. “Need U Tonight”, ad esempio, ha superato le 66.000 visualizzazioni su YouTube.

Le reazioni sono state varie, ma in prevalenza positive: circa il 70% dei feedback esprime apprezzamento, mentre il restante 30% manifesta perplessità legate all’uso dell’IA in campo artistico. Chi è più aperto si dice colpito dalla qualità, dall’interpretazione vocale e dalla coerenza del progetto, ed è proprio su questo mix di emozione e innovazione che intendo continuare a lavorare.

Ritieni che la musica generata dall’IA manchi di qualcosa di essenziale? Se sì, cosa?

Paolo Bera: Sicuramente l’uso di tool IA come SUNO è efficace per generare jingle, sottofondi musicali per adv web, canzoni usa e getta o tutto ciò che serve per supportare iniziative puramente commerciali.

Del resto arte e consumo sono ossimori, e quando produci su commissione (che i committenti siano un’etichetta/manager che ti mette pressione per fare l’ennesima hit, o un brand che vuole la song con il product placement) sei in un flusso creativo intriso di paletti e direzioni che non seguono la pura esigenza espressiva ma devono collimare con quello che il committente si aspetta di ricevere.

Ho vissuto spesso queste dinamiche in passato e sono la morte della creatività. l’IA in questo è una compagna perfetta. Se addestrata bene, e negli anni gli algoritmi assimileranno miliardi di informazioni, l’IA può arrivare a simulare alla perfezione il processo creativo dell’essere umano e può essere direzionata rispetto alle esigenze e ai target.

Vedremo anche come le interfacce di questi strumenti evolveranno perché ora come ora il controllo sull’output è molto limitato.

Quanta parte della tua creatività riesci a imprimere in un brano generato con l’IA? E come fai a lasciare la tua impronta?

Emanuele Borri: La parte più profonda della mia creatività si esprime nella scrittura del testo, che rappresenta il cuore di ogni brano. Quando scrivo, ho già in mente un’atmosfera musicale e un’emozione da trasmettere: il testo nasce con un’intenzione precisa.

Ma il mio intervento non si ferma lì. Anche nella fase di produzione con l’IA, la mia impronta resta centrale: costruisco e affino i prompt finché la musica generata non rispecchia ciò che ho immaginato.

È un processo iterativo, fatto di ascolti e correzioni, come in qualsiasi produzione tradizionale.La mia creatività attraversa l’intero brano: parte dal testo, guida la musica e si riflette nelle scelte finali. È questo dialogo costante tra visione umana e tecnologia che dà forma a ogni canzone di AIDA.

Se incontrassi un giovane musicista che vuole sperimentare con questi strumenti, cosa gli diresti? Gli consiglieresti di buttarsi o di andarci piano?

Emanuele Borri: Senza dubbio consiglierei a un giovane musicista, e a chiunque abbia una visione creativa forte, di sperimentare con l’intelligenza artificiale. Non sostituisce il talento, ma lo amplifica, lo velocizza e lo supporta in modi che fino a poco fa erano impensabili.

Che tu sia autore, produttore o semplicemente abbia un’idea musicale da sviluppare, l’IA ti consente di trasformarla in realtà in tempi rapidi e con una qualità sorprendente. Serve consapevolezza e sensibilità artistica, ma se ci sono, allora vale la pena buttarsi: è un terreno stimolante e pieno di possibilità. AIDA, in fondo, ne è la dimostrazione concreta.

Paolo Bera: Ad un giovane musicista, se si vuol far definire tale, consiglio di prendere uno strumento e iniziare a suonare.

Pensi che l’uso dell’IA nella musica possa compromettere il valore del mestiere del musicista? Dove vedi il rischio maggiore: nella creazione, nella performance o nell’identità artistica?

Paolo Bera: Nel momento in cui c’è un committente la creazione può diventare una gara contro il tempo o contro un altro artista/agenzia o chi per esso. Ed in questa gara la velocità vince in un ecosistema votato al consumo. In questo caso sono per l’uso dell’IA perché non stai facendo arte ma stai producendo materiale con finalità commerciali.

Se invece la usi per definirti artista allora beh, devi cercare in qualche modo di sopperire alle tue carenze e mancanze; e quindi starai un pò mentendo a te stesso (dinamica simile a quella in cui ci si “ispira” liberamente ad un altro artista). Una cosa è certa, l’AI non può andare live.

Proviamo a proiettarci nel futuro: immagina di essere nel 2035, come pensi sarà cambiata la musica sotto l’influenza dell’IA? E cosa speri che, nonostante tutto, resti uguale?

Emanuele Borri: Se mi proietto al 2035, immagino una musica profondamente trasformata dall’intelligenza artificiale. Ci sarà, e in parte c’è già, un periodo iniziale di caos creativo, con un’enorme produzione di contenuti spesso privi di valore o visione. Ma col tempo il mercato si consoliderà, premiando i progetti capaci di costruire un’identità forte, un messaggio chiaro e coerente.

Le etichette discografiche tradizionali non resteranno fuori da questo cambiamento: lo assorbiranno, lo guideranno e lo modelleranno secondo le logiche dell’industria musicale. Mi aspetto quindi che nel 2035 esistano cantanti digitali riconosciuti a livello globale, sostenuti da label importanti e con fanbase reali.

In questo scenario, AIDA avrà trovato il suo spazio: un progetto nato dal basso, indipendente e con una visione solida, che sarà riuscito a distinguersi e ad affermarsi. E spero che, nonostante tutte le trasformazioni, resti intatta la cosa più importante: l’urgenza espressiva, la verità di ciò che si vuole comunicare. Perché è questo, non il tipo di voce, a fare davvero la differenza.

Paolo Bera: Ci sarà una ricerca spasmodica del ritorno alle origini mentre l’IA si occuperà di continuare a riempire il bicchiere bucato dell’arte a consumo.

POTREBBE INTERESSARTI

ChatGPT OpenAI IA

USA: i procuratori generali contro i “deliri” delle IA

Dopo nuovi casi legati alla salute mentale, gli Stati pretendono. inevitabile lo scontro con Washington, che invece vuole limitare le restrizioni per l’IA.

Bob Iger Disney

Disney: 1 miliardo in OpenAI e via libera ai personaggi su Sora

Un’intesa triennale permette l’uso di oltre 200 personaggi Disney, Marvel, Pixar e Star Wars su Sora, segnando una svolta nel rapporto tra Hollywood e l’IA...
Michael Intrator CoreWeave

CoreWeave, il CEO difende gli accordi circolari dell’IA

Michael Intrator risponde alle accuse di instabilità e rivendica il modello di collaborazione tra CoreWeave e i big dell’IA.

adolescenti

Gli adolescenti americani e la nuova dipendenza dai chatbot IA

Dati, divari sociali e rischi emotivi nella fotografia del Pew Research Center sull’utilizzo dell’IA tra gli adolescenti USA.

Donald Trump Nvidia

Trump apre all’H200 verso la Cina (ma chiede a Nvidia un ‘pizzo’ del 25%

Il presidente degli Stati Uniti autorizza l’export del chip di fascia alta di Nvidia in cambio di una quota senza precedenti: un compromesso tra geopolitica, mercato e...
Cina qwen deepseek

La Cina accelera sull’open source: ora vale il 30% dell’utilizzo dell’IA

Un report di OpenRouter mostra l’ascesa dei modelli cinesi nonostante le restrizioni USA su Nvidia e AMD.

Arvind Krishna IBM

Il CEO di IBM avverte: “la corsa ai data center non potrà ripagarsi”

Secondo Arvind Krishna i costi attuali dell’infrastruttura rendono impossibile rientrare dai trilioni investiti nella potenza di calcolo.

silicon valley agenti ia

La Silicon Valley clona Amazon e Gmail per addestrare gli agenti IA

Start-up finanziate dai big del venture capital ricostruiscono i siti più usati al mondo per insegnare agli agenti digitali a navigare, prenotare, compilare e...
Zuckerberg Meta glasses

Meta valuta tagli fino al 30% al budget del Metaverso per il 2026

Meta starebbe considerando di ridurre del 30% il budget assegnato ai suoi sforzi per il metaverso nel 2026, così da allocare più risorse all’IA.

Cristiano Ronaldo e il CEO di Perplexity

Cristiano Ronaldo investe in Perplexity AI

Cristiano Ronaldo ha deciso di investire in Perplexity AI e di entrare a gamba tesa nel business dell’intelligenza artificiale.

Share This