I nuovi modelli di intelligenza artificiale presentati da OpenAI, o3 e o4-mini, stanno facendo parlare di sé non solo per le loro capacità avanzate, ma anche per le implicazioni in materia di privacy. Integrati in ChatGPT per gli utenti abbonati, questi sistemi sembrano in grado di localizzare il luogo in cui è stata scattata una fotografia, anche quando i dettagli visivi sono minimi o i metadati sono stati rimossi.
La funzione, apparentemente neutra e tecnologicamente affascinante, si è trasformata in un potenziale rischio per la riservatezza delle persone. In particolare, il modello o3 ha mostrato una sorprendente precisione nell’identificare città, monumenti, esercizi commerciali e contesti geografici, partendo da indizi minimi presenti nelle immagini. Gli utenti dei social, in particolare su X (ex Twitter), hanno condiviso numerosi esempi nei quali ChatGPT è riuscito a dedurre con esattezza la posizione di foto apparentemente anonime o depurate da ogni informazione identificativa.
Un utente ha riportato: “Ho cancellato i dati exif e disattivato la memoria di ChatGPT. Non c’erano indizi evidenti, ma ha comunque indovinato con precisione dove fosse stata scattata la foto”.

OpenAI rassicura, ma osserva con attenzione
Di fronte all’ondata di sperimentazioni online, OpenAI ha risposto chiarendo che i propri modelli sono stati addestrati per rifiutare richieste che violino la privacy e che sono state implementate misure di sicurezza per evitare identificazioni personali non autorizzate. Tuttavia, ammette che il monitoraggio è continuo e che verranno prese azioni contro eventuali abusi delle funzionalità offerte.
“Monitoriamo attivamente ciò che accade e adottiamo misure contro gli abusi delle nostre politiche di utilizzo sulla privacy”, ha dichiarato la società a TechCrunch.
Pensare con le immagini: una nuova era dell’IA?
La vera innovazione di o3 e o4-mini risiede nella capacità di “pensare per immagini”, ovvero di elaborare e interpretare visivamente fotografie per ricavare informazioni complesse, anche in assenza di testo o dati accessori. Non si tratta semplicemente di riconoscere un oggetto o un volto, ma di mettere insieme piccoli dettagli – come un’insegna parzialmente visibile, l’architettura di un edificio o il tipo di vegetazione – per costruire un contesto geografico coerente.
Questa funzionalità, se da un lato apre scenari interessanti in ambito investigativo, giornalistico o di viaggio, dall’altro solleva interrogativi etici su come, quando e da chi possa essere utilizzata.
Tecnologia potente, responsabilità necessarie
Come accade spesso con le nuove tecnologie, la rapidità dello sviluppo supera la velocità con cui possono essere redatte norme e linee guida. La possibilità che un’intelligenza artificiale riesca a geolocalizzare una foto senza alcun indizio evidente è affascinante, ma anche inquietante, soprattutto in un’epoca in cui la protezione della privacy è già fortemente messa alla prova.
La sfida, per OpenAI e per l’intera comunità tecnologica, sarà trovare il giusto equilibrio tra innovazione e tutela dei diritti individuali, promuovendo un utilizzo consapevole e trasparente dell’intelligenza artificiale.
Fonte: Ansa