L’ascesa dell’intelligenza artificiale ha portato incredibili progressi, ma anche preoccupazioni. Una di queste è la diffusione di deepfakescontenuti sintetici che possono essere manipolati per ingannare. Per combattere questo fenomeno, OpenAI ha sviluppato uno strumento per rilevare le immagini create con la propria AI. IA generativa, DALL-E 3.
L’azienda ha annunciato che sta lavorando a nuovi metodi per migliorare l’integrità dei contenuti digitali. Tra questi c’è uno strumento che prevede se un’immagine è stata generata da DALL-E 3, il suo modello di intelligenza artificiale. OpenAI afferma che i primi test sono promettenti: il suo strumento identifica correttamente le immagini create con la sua AI con un’accuratezza del 98%..
OpenAI aggiunge che questo classificatore non è infallibile. Sebbene sia in grado di supportare modifiche minori, come la compressione, il ritaglio o le variazioni di saturazione, le modifiche più importanti possono ridurre le prestazioni. Un altro dettaglio importante è che la sua efficacia sui contenuti generati da altre IA generative è minore, poiché ottiene solo punteggi compresi tra il 5% e il 10% sul suo set di dati interni.
La società guidata da Sam Altman ha aperto il suo strumento di rilevamento delle immagini a un gruppo chiuso di scienziatiricercatori e organizzazioni giornalistiche senza scopo di lucro. Il test servirà a migliorare e perfezionare la classificazione dei contenuti generati dall’IA nelle versioni future.
“Il nostro obiettivo è quello di consentire una ricerca indipendente che valuti l’efficacia del classificatore, analizzi la sua applicazione nel mondo reale, faccia emergere considerazioni rilevanti per tale utilizzo ed esplori le caratteristiche dell’IA”, ha dichiarato OpenAI. “Capire quando e dove un classificatore può avere prestazioni inferiori è fondamentale per i decisori che si basano sui suoi risultati”.
OpenAI vuole individuare e classificare i contenuti generati dall’IA.
Questo non è la prima volta che OpenAI annuncia uno strumento per individuare i contenuti generati dall’intelligenza artificiale. Nel febbraio 2023, l’azienda ha annunciato un classificatore in grado di identificare se un testo è stato generato utilizzando ChatGPT e modelli simili. Lo strumento supportava 34 modelli linguistici e bastava inserire il testo per scoprirne l’origine.
Sebbene l’idea fosse buona, le prestazioni lasciavano molto a desiderare. Nei primi test, il classificatore ha identificato solo il 26% del testo scritto dall’IA. Inoltre, il 9% delle volte ha classificato il contenuto umano come proveniente da un modello linguistico. Mesi dopo, OpenAI ha gettato la spugna e l’ha rimosso dal suo sito web. sostenendo una bassa efficienza.
“A partire dal 20 luglio 2023, il classificatore AI non è più disponibile a causa del suo basso tasso di accuratezza. Stiamo lavorando per incorporare i commenti e stiamo studiando tecniche di provenienza più efficaci per il testo, e ci impegniamo a sviluppare e implementare meccanismi che consentano agli utenti di capire se i contenuti audio o visivi sono generati dall’intelligenza artificiale.”
Oltre al classificatore, l’azienda ha unito le forze con altri giganti della tecnologia per istituire un sistema di “credenziali digitali per i contenuti”. OpenAI è entrato a far parte del comitato direttivo della Coalition for Content Provenance and Authenticity e ha rivelato che aggiungerà i metadati dello standard C2PA a tutte le immagini create e modificate da DALL-E 3..
“Con il tempo, crediamo che questo tipo di metadati diventerà qualcosa che la gente si aspetta. Questo colmerà una lacuna cruciale nelle pratiche di autenticità dei contenuti digitali”, ha dichiarato OpenAI.