Qualche anno fa Google ha avuto un problema piuttosto grave con il riconoscimento delle persone in Google Foto, identificando persone di colore come gorilla. Ora nella sua intelligenza artificiale Gemini sta accadendo il contrario in modo così scandaloso che l’azienda ha dovuto disabilitare questa funzione. L’intelligenza artificiale di Google ha enormi difficoltà a generare immagini storiche che mostrano persone caucasiche.
Gemini ha creato varie immagini dei padri fondatori dell’America e dei soldati nazisti, mostrando sempre volti di minoranze, in quello che sembrava essere un tentativo di evitare stereotipi razziali e di genere, ma ha generato il risultato opposto.
Questo pregiudizio dell’IA è ciò che Gemini sembra aver cercato di recuperare. Già l’anno scorso, Bloombergha esaminato più di 5.000 immagini create con Stable Diffusion e ha scoperto che questo sistema ha creato immagini basate su pregiudizi razzisti e sessisti.
L’azienda ha accettato le critiche e ha dichiarato che sta già “lavorando per risolvere i recenti problemi con la funzione di generazione di immagini di Gemini”.Nel frattempo, l’azienda ha confermato di aver disabilitato la generazione di immagini delle persone fino a quando non sarà disponibile una versione migliorata.
Google riconosce l’errore e migliorerà presto Gemini
E questo problema di Google non è stato un caso isolato. Da quando è diventato disponibile per tutti, Gemini ha generato, su richiesta degli utenti, immagini di persone non bianche, anche quando è stata richiesta l’accuratezza storica. Ciò ha generato, come di consueto in questi casi, una raffica di teorie cospirative, tra cui quella che Google stia intenzionalmente evitando di raffigurare persone bianche nella sua IA.
Tuttavia, il problema principale, di cui si sono lamentati in particolare gli utenti, è che la generazione di immagini errate da parte di Gemini sembra andare oltre le imprecisioni storiche. Questo è stato il motivo principale di queste teorie cospirative, che hanno fruttato a Google anche forti critiche:
Ora la questione che apre il problema di Gemini, e per estensione delle IA, è il livello in cui può essere limitato dai suoi creatori quando si tratta di mostrare le richieste degli utenti, generare pregiudizi o, direttamente, contenuti manipolati. E soprattutto, che tale manipolazione può essere soggetta ai disegni della persona che programma l’Intelligenza Artificiale in modo opaco e poco chiaro. Infatti, se questi primi passi con l’IA generativa ci hanno mostrato qualcosa, è che una volta addestrati con modelli distorti, questi si riflettono nei contenuti generati su una scala senza precedenti.
Questo ovviamente non è un argomento nuovo ma rappresenta una delle linee che, con l’adozione di massa delle IA, molti chiedono di sottoporle a un controllo normativo e standardizzato.
Forse un primo passo è quello di riconoscere i pregiudizi e minimizzare i sospetti di manipolazione con una mossa semplice come quella di dare maggiore trasparenza a questa tecnologia da parte dei suoi creatori. Infatti, a prescindere dalla volontà dei creatori, tutti i sistemi di IA aperti al pubblico devono essere progettati in modo da poter essere controllati e revisionati.