Perché questo ricercatore ritiene che la probabilità che l’IA distrugga l’umanità sia del 99,9%.

Il dibattito sui rischi e i benefici dell’IA intelligenza artificiale esiste da tempo. Tuttavia, si è approfondito dopo l’avvento dell’IA generativa nelle mani del grande pubblico e la divulgazione di concetti come intelligenza artificiale generale, o AGI. Sebbene alcune posizioni siano più fataliste di altre, una delle più allarmanti è stata quella del ricercatore Roman Yampolskiyche ritiene che la probabilità che l’IA distrugga l’umanità sia del 99,9%..

Yampolskiy è il direttore del Cybersecurity Lab presso la J. B. Speed School of Engineering, che fa parte dell’Università di Louisville, USA. Nelle ultime settimane, l’esperto è balzato agli onori della cronaca per aver affermato che le proiezioni di molti esperti sui danni che l’intelligenza artificiale può causare all’umanità sono troppo prudenti. Secondo il suo punto di vista, il rischio è estremamente elevato e arriva fino a 99,999999 %.

Questa percentuale di rischio è legata a quello che nel mondo dell’IA è noto come il p(doom)che è la probabilità che l’intelligenza artificiale generale distrugga l’umanità. Questo concetto genera notevoli controversie tra gli specialisti e alcuni lo considerano addirittura inutilmente allarmistico. Tuttavia, è diventato un argomento di conversazione e consultazione frequente tra i ricercatori. Roman Yampolskiy ha spiegato perché ritiene che la probabilità che l’AGI assuma il controllo dell’umanità sia prossima al 100%.

L’intelligenza artificiale può distruggerci? Questo esperto ritiene, con certezza, che possa farlo.

I Robot, Will Smith con i robot GPT-4 dotati di intelligenza artificiale che hanno superato il test di Turing | Intelligenza artificiale | Roman YampolskiyI Robot, Will Smith con i robot alimentati dall'IA del GPT-4 che hanno superato il test di Turing | Intelligenza artificiale | Roman Yampolskiy

Nella sua recente partecipazione a Lex FridmanYampolskiy ha fornito un riferimento più ampio alla sua posizione. In primo luogo, ha chiarito che la sua visione del rischio non è legata a un arco temporale immediato, ma ai prossimi 100 anni. Ha anche affermato che la sua posizione non vuole essere fatalista, ma implica che le protezioni di sicurezza non stanno funzionando correttamente al momento. E che nulla fa pensare che la situazione cambierà man mano che i modelli di intelligenza artificiale diventeranno più potenti e capaci.

LEGGI  L'AI Grok di Elon Musk e X ora riconosce le immagini

“Il problema del controllo dell’AGI, o della superintelligenza, è, a mio avviso, un problema di creazione di una macchina di sicurezza perpetua. […] È impossibile. Sì, potremmo avere successo con GPT-5, 6 o 7, ma [los modelos de IA] continuerà a migliorare e ad apprendere, finendo per automodificarsi, interagendo con l’ambiente e con gli attori malintenzionati”, ha spiegato Roman Yampolskiy.

“La differenza tra la cybersicurezza e la sicurezza di un’intelligenza artificiale generica è che non abbiamo una seconda possibilità. Se qualcuno viola il vostro conto bancario, cambiate la password, chiedete una nuova carta di credito e andate avanti. Qui, se parliamo di rischi esistenziali, si ha una sola possibilità. Quindi, quello che mi state chiedendo è con quale probabilità riusciremo a creare il software più complesso mai realizzato senza bug al primo tentativo. E che continuerà a essere privo di bug per 100 anni o più”, ha aggiunto.

Diversi tipi di rischio

Video di YouTubeVideo di YouTube

L’aspetto più interessante dell’approccio dell’esperto non è la sua visione di una probabilità del 99,9% che l’IA ci distrugga. Yampolskiy sostiene diversi tipi di rischio che non sono solo legati all’estinzione dell’umanità:

“I sistemi che abbiamo oggi sono in grado di causare una quantità X di danni. Quindi, quando falliamo, è tutto ciò che abbiamo. Se sviluppiamo sistemi in grado di avere un impatto su tutta l’umanità, il danno è proporzionale. […] C’è il “rischio X”, che è il rischio esistenziale, in cui tutti muoiono. C’è il “rischio S”, il rischio di sofferenza, in cui tutti vorrebbero essere morti. E poi c’è l’idea del “rischio I”, il rischio Ikigai, in cui perdiamo il nostro significato; i sistemi sono più creativi, possono fare il nostro lavoro. [Aquí] non è più evidente quale sia il nostro contributo al mondo”.

Roman Yampolskiy

Sebbene le parole di Roman Yampolskiy possano sembrare assurde per alcuni, il ricercatore sostiene che non è ancora stato dimostrato che si sbaglia. Secondo l’esperto, nessuno dei modelli di intelligenza artificiale creati finora si è dimostrato sicuro. “Al livello di capacità che i modelli attuali dimostrano, hanno già commesso degli errori. Abbiamo avuto degli incidenti, sono stati jailbreak. Non credo che oggi esista un LLM che non abbia ottenuto qualcosa che non era nelle intenzioni dei suoi sviluppatori”, ha concluso.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *