OpenAI vieta ai politici di utilizzare l’intelligenza artificiale nelle campagne elettorali

Quest’anno ci sono le elezioni presidenziali negli Stati Uniti e le elezioni nazionali in più di 50 Paesi. Si tratta di processi che coinvolgono quasi la metà della popolazione della popolazione del pianeta. Un intenso calendario elettorale che, per di più, si svolgerà nel bel mezzo del boom dell’intelligenza artificiale generativa. Per questo motivo OpenAI, creatore di ChatGPT, ha annunciato la sua strategia per il futuro, “prevenire gli abusi” e fornire trasparenza.

I governi hanno espresso chiaramente le loro preoccupazioni sulla capacità di manipolazione e di creazione di contenuti fuorvianti attraverso i nuovi strumenti. In effetti, le campagne di disinformazione sono state riconosciute come uno dei “rischi catastrofici” dell’intelligenza artificiale nella Dichiarazione di Bletchley, firmata da 28 Paesi – tra cui Stati Uniti e Cina – in occasione del vertice dello scorso novembre.

Il clamore suscitato dalle false immagini dell’arresto di Donald Trump – l’eventuale candidato di quest’anno – pubblicate nel marzo 2023 serve da esempio. Ecco perché, OpenAI ha dichiarato che i politici e le loro campagne non potranno utilizzare gli strumenti di intelligenza artificiale dell’azienda.. Almeno non ufficialmente.

“Il nostro obiettivo è quello di continuare a lavorare sulla sicurezza della piattaforma, elevando l’accuratezza delle informazioni elettorali, applicando politiche misurate e migliorando la trasparenza”, ha annunciato OpenAI nel suo blog. L’azienda, che è partner di Microsoft, ha spiegato che non permetterà la creazione di chatbot che impersonino candidati o istituzioni governative. “Non permetteremo alle persone di creare app per campagne politiche e lobby“, ha osservato.

Immagine falsa di Donald Trump generata dall'intelligenza artificiale
Immagini false dellarresto di Donald Trump create con lintelligenza artificiale

Altre misure di OpenAI per le elezioni future

L’anno scorso il Partito Repubblicano degli Stati Uniti ha pubblicato un video generato dall’AI quando il presidente Joe Biden ha annunciato che si sarebbe candidato alla rielezione. “Cosa succederebbe se il presidente più debole che abbiamo mai avuto fosse rieletto?”., dice il filmato ufficiale pubblicato su YouTube. Non è chiaro quali strumenti siano stati utilizzati, ma ci sono immagini false di Biden, guerre e persino della Cina che invade Taiwan.

LEGGI  Il futuro di Alexa è in pericolo: per Amazon è sempre stato un fallimento

“Lavoriamo per anticipare e prevenire gli abusi più rilevanti, come ad esempio deepfakes deepfakes ingannevoli, operazioni di influenza su scala o chatbot che si spacciano per candidati”, ha affermato OpenAI nella sua dichiarazione. Ha ricordato che DALL-E, il suo strumento di generazione di immagini, dispone di salvaguardie per rifiutare le richieste di creare contenuti su persone reali, come i politici.

Video di YouTubeVideo di YouTube

L’azienda aggiungerà ora le credenziali digitali stabilite da una coalizione di aziende di intelligenza artificiale. In questo modo, verranno codificati i dettagli sull’origine delle immagini create con DALL-E.

OpenAI sta anche testando un nuovo strumento chiamato “classificatore di provenienza”. In questo modo, ha spiegato, ricercatori e giornalisti saranno in grado di rilevare alle prossime elezioni se un’immagine è stata generata dall’intelligenza artificiale. Spera di renderlo presto disponibile a un primo gruppo di valutatori.

Per quanto riguarda ChatGPT, ha detto che continueranno a integrare la loro piattaforma con notizie in tempo reale in tutto il mondo, , compresi i link e i chiarimenti sulla fonte. “La trasparenza sull’origine delle informazioni e sull’equilibrio delle fonti di notizie può aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa fidarsi”, si legge nella dichiarazione.

Sam Altman, CEO di OpenAI, sull'uso dell'IA nelle elezioni.Sam Altman, CEO di OpenAI, sull'uso dell'IA nelle elezioni.

Contro gli astensionisti

Così come cercherà di arginare i contenuti fuorvianti, OpenAI ha dichiarato che non permetterà lo sviluppo di applicazioni che “scoraggiano la partecipazione ai processi democratici”.. Ad esempio, affermando apertamente che il voto è “privo di significato”.

Negli Stati Uniti, la società ha creato un’alleanza con l’associazione Associazione nazionale dei segretari di Statola più antica organizzazione apartitica di funzionari pubblici del Paese. A questo proposito, ChatGPT indirizzerà gli utenti statunitensi a un sito web autorevole di informazioni sulle elezioni negli Stati Uniti quando si pongono domande su come votare o domande simili. Se l’iniziativa andrà a buon fine, si potrebbe replicare l’approccio in altri Paesi.

L’anno scorso Sam Altman, CEO di OpenAI, aveva riconosciuto che l’uso dell’intelligenza nelle elezioni era una “grande area di preoccupazione”. “Sono nervoso per questo”.Ha dichiarato Altman nel maggio dello scorso anno durante un’audizione davanti ai senatori statunitensi. Nel corso del suo intervento, si è espresso a favore di una regolamentazione governativa in materia.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *