L’intelligenza artificiale di Gemini sta creando immagini con “inesattezze storiche”.

Nei giorni scorsi, diversi utenti hanno condiviso immagini generate con Geminil’intelligenza artificiale di Google. Alcune di queste immagini hanno suscitato scalpore, in quanto mettono a nudo alcune delle inesattezze “storiche” e contestuali.. Ad esempio, una persona ha chiesto allo strumento di illustrare un re medievale d’Inghilterra. In risposta, l’IA ha mostrato un monarca nero.

Jack Krawczyk, responsabile della supervisione dello sviluppo di Gemini, ha dichiarato che si tratta di “imprecisioni nelle rappresentazioni di immagini storiche”, ma che si sta lavorando per correggerle immediatamente.

Google ha lanciato Gemini, il suo sistema di intelligenza artificiale più potente, lo scorso dicembre. Da allora, ha incorporato versioni del modello in diversi suoi strumenti. Tra questi c’è il suo chatbot, che prima si chiamava Bard, ma da questo mese si chiama anche Gemini.

In uno degli ultimi aggiornamenti, Google ha abilitato la funzione di creazione di immagini da istruzioni di testo. Lo strumento non riconosce ancora le richieste in inglese, ma è possibile effettuare la richiesta in inglese e quindi generare contenuti AI in pochi secondi. L’unico inconveniente riguarda le immagini storiche.

Re Nero creato con l'IA di Gemini

“I contesti storici sono più sfumati e li perfezioneremo ancora di più per adattarli”.Ha spiegato Krawczyk sul suo profilo X (ex Twitter). E ha aggiunto: “Questo fa parte del processo di allineamento: iterazione basata sul feedback.

Perché l’intelligenza artificiale di Google genera queste immagini?

Google ha spiegato che parte dei principi dell’intelligenza artificiale alla base di Gemini è quella di riflettere la sua base di utenti globale. In altre parole, i contenuti come le immagini riflettono la diversità etnica, di genere e di età, tra gli altri aspetti. “Prendiamo sul serio la rappresentazione e i pregiudizi”, ha sottolineato Krawczyk.

LEGGI  Getty Images lancia il proprio generatore di immagini alimentato dall'intelligenza artificiale

Il pregiudizio è, appunto, uno dei punti più importanti contro gli strumenti di intelligenza artificiale generativa. Possono sbagliare molto. Bloombergper esempio, ha esaminato più di 5.000 immagini create con Stable Diffusion, un altro dei modelli più famosi e avanzati di oggi. L’analisi, pubblicata nel giugno 2023ha rilevato che questo sistema creava immagini stereotipate basate su pregiudizi razzisti e sessisti.

La diffusione stabile ha mostrato soprattutto maschi bianchi quando il Bloomberg le ha chiesto di disegnare politici, avvocati, giudici e amministratori delegati. Il pregiudizio era tale che l’intelligenza artificiale non rifletteva nemmeno le disuguaglianze esistenti nella realtà, ma le portava all’estremo. La sottorappresentazione in termini di genere ed etnia si è invertita quando si è chiesto allo strumento di generare gruppi criminali o professioni meno apprezzate socialmente.

Uno dei principi di Google per lo sviluppo dell’intelligenza artificiale è quello di “evitare di creare o rafforzare pregiudizi ingiusti”. In la sua dichiarazione dei valori per questa tecnologia, la tecnologia riconosce che “distinguere i pregiudizi giusti da quelli ingiusti non è sempre semplice e varia a seconda delle culture e delle società”. Ma si impegna a lavorare con particolare attenzione a tutte le “caratteristiche sensibili”, come l’etnia, il genere, la nazionalità e l’orientamento sessuale, tra le altre.

Questo principio anti-stereotipizzazione è ciò che spinge Gemini a creare immagini che riflettono la diversità di etnie e generi, sia che si tratti di rappresentazioni attuali che storiche. “Continueremo a farlo per le richieste aperte (le immagini di una persona che porta a spasso un cane sono universali!)”, , ha detto Krawczyk. Ma, ha aggiunto, presto non sarà più possibile chiedere al chatbot di Google di creare un re medievale nero.

LEGGI  Nuovo Microsoft 365 Basic: Office e 100 GB su OneDrive a soli 2 euro

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *