OpenAI lancia la visione per ChatGPT: ora “vede” in tempo reale

da | 13 Dic 2024 | IA

Tempo di lettura: 2 minuti

Dopo mesi di attesa, OpenAI ha finalmente introdotto la capacità di analizzare video in tempo reale all’interno di ChatGPT.

L’annuncio è stato fatto ieri, durante una diretta streaming in cui l’azienda ha mostrato come la funzione permetta agli utenti di puntare il proprio smartphone verso oggetti fisici e ricevere risposte quasi istantanee.

Inutile dirlo, si tratta di un’evoluzione importante rispetto alla modalità vocale già presente.

Come funziona la nuova modalità

La nuova funzionalità, disponibile per gli abbonati ai piani Plus, Team e Pro, combina una capacità conversazionale avanzata con la visione artificiale.

Tramite l’app di ChatGPT, gli utenti possono attivare il riconoscimento visivo premendo sull’icona del video accanto alla barra di chat.

Oltre a interpretare oggetti fisici, la funzione consente di comprendere e spiegare il contenuto dello schermo del dispositivo, grazie alla condivisione dello schermo.

Questo permette, ad esempio, di ricevere suggerimenti su problemi matematici o spiegazioni relative a menu di impostazioni tecniche.

La distribuzione e i limiti

OpenAI ha dichiarato che il rollout globale della modalità vocale avanzata con visione sarà completato entro una settimana, ma non tutti gli utenti potranno accedervi immediatamente.

I clienti dei piani Enterprise ed Edu dovranno attendere fino a gennaio, mentre gli utenti in Unione Europea, Svizzera, Islanda, Norvegia e Liechtenstein rimangono esclusi senza una data definita per il rilascio.

La nuova modalità è stata testata pubblicamente durante un episodio del programma “60 Minutes” della CNN, dove il presidente di OpenAI, Greg Brockman, ha sfidato il giornalista Anderson Cooper con un quiz di anatomia.

ChatGPT ha dimostrato la capacità di riconoscere e commentare disegni realizzati in tempo reale, ma ha anche commesso errori in un problema di geometria, confermando una tendenza a generare risposte imprecise, note come “allucinazioni.”

La corsa dei rivali

OpenAI aveva annunciato la funzione ad aprile, promettendo una distribuzione “in poche settimane,” ma solo ora la versione completa è disponibile per alcuni utenti. I ritardi nel lancio sono stati attribuiti alla complessità tecnica.

Nel frattempo, i rivali del settore non sono rimaste a guardare. Google ha recentemente testato una funzione simile, Project Astra, su dispositivi Android, riservandola a un ristretto gruppo di tester. Meta, dal canto suo, sta sviluppando soluzioni conversazionali con capacità di analisi video.

Ah, dimenticavamo: accanto a questa innovazione tecnologica, OpenAI ha lanciato anche una modalità festiva denominata “Santa Mode,” che consente agli utenti di interagire con ChatGPT usando la voce di Babbo Natale.

Un’aggiunta leggera, ma perfettamente in tema con il periodo natalizio.

POTREBBE INTERESSARTI

Sam Altman OpenAI Merge Labs
• ⏱ 3 min

Sam Altman risponde all’articolo “incendiario” del New Yorker

Il leader di OpenAI, dopo l’assalto alla sua abitazioni, risponde alle pesanti accuse mosse dalla celebre testata americana.

anthropic mythos
• ⏱ 3 min

Anthropic ha convocato dei teologi per insegnare l’etica a Claude

Anthropic ha organizzato un vertice riservato con leader cattolici e protestanti per affrontare le domande che gli ingegneri non riescono a risolvere da soli.

Matt Garman Amazon Web Services AWS
, • ⏱ 3 min

AWS spiega perché puntare sui concorrenti è il suo mestiere

Matt Garman investe in OpenAI e Anthropic ma rassicura tutti: competere coi propri partner è una tradizione di AWS. Ma l’obiettivo è introdurre i modelli...
Peter Steinberger OpenClaw
• ⏱ 3 min

Anthropic sospende l’account del fondatore di OpenClaw

Steinberger ora lavora per OpenAI. Dietro la sospensione lampo, una disputa che riguarda prezzi, agenti e la competizione tra piattaforme.

amodei vs altman openai anthropic
, • ⏱ 3 min

OpenAI all’attacco: nuovi piani e miliardi per la guerra del ‘compute’

Anthropic guadagna terreno, OpenAI risponde su tre fronti: prodotto, infrastruttura e narrazione. Una fila indietro, Meta spende 21 miliardi per non restare...
Aravind Srinivas Perplexity
, • ⏱ 3 min

I ricavi mensili di Perplexity crescono del 50%

Jensen Huang la promuove dal palco, gli editori la citano in giudizio. Ma Perplexity naviga tra endorsement e contenziosi.

Alexandr Wang Meta Muse Spark
• ⏱ 3 min

Meta lancia Muse Spark e riparte da zero nella corsa all’IA

Muse Spark è disponibile gratis, funziona con più agenti in parallelo e punta anche alla salute. Ma la privacy resta un capitolo aperto.

Project Glasswing: Anthropic
• ⏱ 4 min

Project Glasswing: Anthropic e i big tech uniti per la cybersicurezza

Claude Mythos Preview ha scoperto migliaia di falle zero-day, alcune vecchie di decenni. E ora Anthropic lo distribuisce solo a partner selezionati per correre ai...
intel elon musk terafab
, • ⏱ 3 min

Intel entra in Terafab per robotica e data center

Terafab promette un terawatt di potenza di calcolo all’anno. Intel ci scommette la sua ristrutturazione.

data center Big Tech
• ⏱ 3 min

Acqua ed energia: le Big Tech sotto pressione degli investitori

Mille miliardi di litri d’acqua consumati nel 2025: l’espansione dell’IA ha un costo ambientale che i mercati cominciano a valutare.

Share This