OpenAI, Google e altri leader dell’IA generativa uniscono le forze per combattere le immagini di abusi sessuali su minori

OpenAI, Google, Obiettivo, Microsoft e altre aziende coinvolte nello sviluppo dell’intelligenza artificiale si sono impegnate a combattere le immagini di abusi sessuali sui minori. L’iniziativa, guidata da Thorn e All Tech is Humandefinisce una nuova serie di principi da applicare all’addestramento e al funzionamento dei modelli di IA generativa.

Le aziende si sono impegnate a impedire la creazione e la diffusione di immagini di abusi sessuali su minori. A tal fine, dovranno assicurarsi che i dati utilizzati per addestrare le loro IA non includano tali fotografie e cancellarle se vengono trovate. Dovranno inoltre evitare l’uso di insiemi di dati identificati come ad alto rischio di contenere materiale pedopornografico.

Oltre a impedire l’uso di immagini di abusi sessuali su minori per addestrare le loro IA generative, le aziende dovranno sottoporre i modelli a test rigorosi per dimostrare che che non possono crearli. Thorn indica che, solo negli Stati Uniti, nel 2023 sono stati segnalati più di 104 milioni di file sospettati di contenere materiale pedopornografico.

“L’IA generativa rende la creazione di grandi volumi di contenuti più facile che mai. La tecnologia sblocca la capacità di un singolo predatore di minori di creare rapidamente materiale pedopornografico (CSAM) su scala. Questi attori malintenzionati possono adattare immagini e video originali in nuovo materiale di abuso, rivittimizzando i bambini in quel contenuto, o manipolare materiale benigno per bambini in contenuto sessualizzato, o creare CSAM interamente generato dall’AI”.

Thorn.

L’impegno è stato sottoscritto anche da Amazon, Antropico (Claude), Mistral AI, Stabilità AI (Diffusione stabile), Civitai, Metafisica y Teleperformance. Alcune di queste aziende hanno fornito maggiori dettagli su l’iniziativa di adottare i principi della security by design guidati da Thorn e All Tech is Human. Inoltre, si sono impegnati a fornire aggiornamenti annuali sulla trasparenza.

LEGGI  Lavori al sicuro dall'IA

Immagini di abusi sessuali su minori, un grande problema nell’era dell’IA generativa

Immagini di abusi sessuali su minori, un grande problema nell'era dell'IA generativa
Clarote AI4Media Immagini migliori di IA LavoroRisorse CC BY 40

Nel mondo dell’intelligenza artificiale generativa non tutto è roseo. L’individuazione di immagini di abusi sessuali su minori nelle banche dati utilizzate per addestrare i modelli di IA ha suscitato la costernazione di ricercatori e attivisti. Nel dicembre 2023, gli esperti dell’Università di Stanford hanno trovato più di 3.000 foto di questo tipo in un database chiamato LAION-5B. È stato utilizzato per addestrare l’intelligenza artificiale di Stable Diffusion, tra gli altri.

Non è cosa da poco che i principali attori nel campo dell’IA generativa si impegnino a essere trasparenti su una questione così delicata. Resta da vedere se l’impegno sarà rispettato alla lettera.. Dopotutto, molte aziende si rifiutano ancora di fornire dettagli su dove ottengono le informazioni che utilizzano per addestrare i loro modelli. OpenAI, ad esempio, ha dichiarato di utilizzare solo “dati disponibili al pubblico”. Tuttavia, la startup è oggetto di numerose azioni legali per violazione del copyright.

Impedire che immagini di abusi sessuali su minori finiscano nei dati dei modelli di intelligenza artificiale non è un compito facile. Sebbene molte aziende dichiarino di utilizzare dei filtri per tenere fuori dai loro modelli finali questo tipo di materiale e altro materiale altrettanto inappropriato, è chiaro che non sono ancora sufficienti.

La sfida della trasparenza

Gli esperti del settore sostengono che gran parte delle informazioni non vengono nemmeno riviste prima di essere fornite alle IA.. Un’altra ricerca pubblicata nel 2023 ha rilevato che tra le migliaia di siti web utilizzati per addestrare i modelli di Meta e Google vi erano contenuti pornografici, transfobici, nazisti e suprematisti bianchi.

LEGGI  Xiaomi 14 Ultra trapela in versione integrale ed è una bestia assoluta

“Esortiamo tutte le aziende che sviluppano, distribuiscono, mantengono e utilizzano tecnologie e prodotti di IA generativa a impegnarsi a rispettare questi principi di sicurezza per la progettazione e a dimostrare la loro dedizione alla prevenzione della creazione e della diffusione di materiale pedopornografico, di immagini di abusi sessuali su minori create con l’IA generativa e di altri atti di abuso e sfruttamento sessuale su minori”, ha concluso Thorn.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *