OpenAI studia i “rischi catastrofici” dell’intelligenza artificiale per proteggere la razza umana

OpenAI formato un team per studiare i rischi posti dai modelli di intelligenza artificiale del futuro. Pochi giorni prima dell’inizio del primo summit globale sulla sicurezza dell’intelligenza artificiale, i creatori di ChatGPT hanno rivelato una divisione che si occupa di valutare e proteggere l’umanità contro eventi catastrofici, come minacce chimiche e nucleari, attacchi informatici o repliche autonome.

Il team Preparazione (sarà guidato da Aleksander Madry, direttore del Center for Implementable Machine Learning del Massachusetts Institute of Technology. Madry, specialista in apprendimento automatico e teoria algoritmica dei grafi, sarà responsabile di tracciare, valutare, prevedere e proteggere dai “rischi catastrofici”. dei futuri sistemi di intelligenza artificiale.

La tecnologia si concentrerà su modelli in grado di persuadere e ingannare gli esseri umaniquelli che contribuiscono allo sviluppo di armi chimiche, biologiche e nucleari, o che sono protagonisti di attacchi informatici. Una categoria speciale riguarda l’intelligenza artificiale generale (AGI), definita da OpenAI come “la tecnologia di maggior impatto che l’umanità abbia mai inventato”.

Queste sistemi superintelligenti ci aiuterebbero a risolvere i problemi più importanti del mondo, ma potrebbero anche portare alla distruzione della razza umana. Secondo OpenAI, attualmente non esiste una soluzione per dirigere o controllare i sistemi di intelligenza artificiale più intelligenti di noi. Il team Preparedness analizzerà i rischi della replicazione e dell’adattamento autonomi..

OpenAI non si limita a considerare gli scenari del prossimo futuro, ma prende in considerazione quelli che abbiamo visto solo nei romanzi di fantascienza. Aleksander Madry potrebbe diventare una figura chiave nella creazione del blade runner? Speranza, Preparazione impedirà a Skynet di entrare in funzione e di diventare autocosciente.

Quali sono i “rischi catastrofici” dell’intelligenza artificiale, dice OpenAI

Secondo OpenAI, per gestire i rischi dell’intelligenza artificiale del futuro è necessario determinare la pericolosità di questi sistemi quando vengono utilizzati in modo improprio. Una categoria rilevante su cui si concentrerà il team di Madry è la sicurezza informatica. La probabilità che un attore malintenzionato utilizzi un’intelligenza artificiale per generare codice maligno o effettuare attacchi informatici. è un rischio latente.

LEGGI  Il caos di OpenAI non è stato causato dal pericolo di nuove AI, dice Microsoft

OpenAI considera anche il terrorismo chimico, biologico, radiologico e nucleare (CBRN). Il l’uso della modellazione dell’intelligenza artificiale per progettare e produrre armi di distruzione di massa è un timore latente degli Stati Uniti. L’amministrazione di Joe Biden ritiene che la Cina possa utilizzare l’intelligenza artificiale a questo scopo e per questo ha bloccato la vendita di chip alla Cina.

“Riteniamo che i modelli di IA all’avanguardia, che supereranno le capacità attualmente presenti nei modelli più avanzati, abbiano il potenziale per portare benefici a tutta l’umanità. Ma comportano anche rischi sempre più gravi”, ha dichiarato OpenAI.

Un altro esperto che ritiene che la questione debba essere affrontata è Demis Hassabis, CEO di Google DeepMind. In un’intervista con The GuardianHassabis ha detto che i pericoli posti dall’intelligenza artificiale sono gravi quanto il riscaldamento globale. “I sistemi di intelligenza artificiale di oggi non comportano rischi, ma le prossime generazioni potrebbero farlo quando avranno capacità aggiuntive come la pianificazione e la memoria”, ha affermato.

Hassabis ha proposto la creazione di un organismo ispirato all’IPCC composto da ricercatori, scienziati ed esperti di intelligenza artificiale. Lo scopo sarebbe quello di analizzare, riferire e raccomandare soluzioni ai possibili scenari che mettono in pericolo la razza umana.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *