OpenAI e Google nascondono i pericoli dell’IA che potrebbero portare all’estinzione dell’uomo, sostengono ex dipendenti

I pericoli, i rischi e le sfide dello sviluppo di modelli di intelligenza artificiale sempre più potenti e capaci sono argomenti di dibattito ricorrenti in questi giorni. Un gruppo di ex e attuali dipendenti di OpenAI y Google DeepMind ha aperto una nuova discussione assicurando che le aziende stanno nascondendo i pericoli dell’IA che potrebbero portare all’estinzione umana.

Questo è quanto affermano in una lettera pubblica dal titolo. Un diritto all’avvertimento sull’intelligenza artificiale avanzata (Un diritto all’avvertimento sull’intelligenza artificiale avanzata). Il testo è stato pubblicato nelle ultime ore e sta già generando molto rumore.

Nella lettera, 13 firmatari, alcuni dei quali sono rimasti anonimi, sostengono che l’intelligenza artificiale ha il potenziale per portare benefici senza precedenti all’umanità, ma che presenta anche rischi estremamente elevati. Sebbene questi siano stati riconosciuti dalle aziende che sviluppano la tecnologia, così come dagli esperti del settore e dai governi di tutto il mondo, essi affermano che l’intelligenza artificiale ha il potenziale per portare benefici senza precedenti all’umanità, ma presenta anche rischi estremamente elevati, c’è molta opacità sull’argomento.

La mancanza di trasparenza nell’industria dell’IA

Disegno dell'intelligenza artificiale.Disegno di intelligenza artificiale.

Ex e attuali dipendenti di OpenAI e Google citano esempi convincenti dei pericoli dell’IA che le stesse aziende hanno riconosciuto. Lo scenario più estremo pone la possibile estinzione umana di fronte alla perdita di controllo sui sistemi autonomi di intelligenza artificiale. Ma espongono anche casi più immediatamente percepibili, come la disinformazione e la manipolazione dell’opinione pubblica, o l’approfondimento delle disuguaglianze esistenti.

Ma il punto più succoso della lettera sta nelle informazioni che le aziende non rivelano al pubblico. Gli esperti che hanno lavorato presso OpenAI e DeepMind sostengono che le aziende dispongono di una grande quantità di dati sul funzionamento dei loro sistemi di intelligenza artificiale, sulle misure di sicurezza applicate e sui danni a cui la società è esposta quando li utilizza. Ma poiché non hanno l’obbligo di informare la società civile, scelgono di nasconderli.. Non solo, ma ciò che riferiscono alle autorità è minimo.

“Le aziende di IA hanno [una cantidad] sostanziale [de] informazioni non pubbliche sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno solo un debole obbligo di condividere alcune di queste informazioni con i governi e nessuna con la società civile. Non crediamo che ci si possa fidare che le condividano volontariamente.

Lettera aperta di ex e attuali dipendenti di OpenAI e Google DeepMind.

Ex dipendenti di OpenAI e Google chiedono una maggiore protezione degli informatori

brevetti intelligenza artificialebrevetti intelligenza artificiale

È in questo contesto che gli esperti chiedono che aziende come OpenAI, Google DeepMind, Anthropic, Meta e altri operatori del settore dell’intelligenza artificiale si impegnino a fornire ai dipendenti metodi sicuri per condividere le loro critiche e i loro timori con le proprie aziende, con le autorità di regolamentazione o con organismi indipendenti. senza timore di ritorsioni.

LEGGI  Elon Musk sta già reclutando volontari per impiantare i chip cerebrali Neuralink.

Gli autori della lettera sostengono che gli accordi di riservatezza che sono costretti a firmare dalle aziende sono troppo restrittivi a questo proposito. E che le protezioni esistenti per gli informatori non sono sufficienti.. Questo perché si concentrano sulle attività illegali, mentre gran parte di ciò che accade intorno all’IA non è nemmeno regolamentato.

“Riconosciamo che qualsiasi sforzo per segnalare preoccupazioni relative ai rischi deve evitare la divulgazione non necessaria di informazioni riservate. Pertanto, una volta che esista un processo appropriato per sollevare preoccupazioni in forma anonima con il consiglio di amministrazione dell’azienda, le autorità di regolamentazione e un’organizzazione indipendente con competenze pertinenti, accettiamo che le preoccupazioni vengano inizialmente sollevate attraverso tale processo. Tuttavia, fino a quando tale processo non sarà stato messo in atto, i dipendenti attuali e gli ex dipendenti dovranno rimanere liberi di segnalare le loro preoccupazioni al pubblico.

Lettera aperta di ex e attuali dipendenti di OpenAI e Google DeepMind.

Dei 13 firmatari, sette sono ex dipendenti di OpenAI, mentre altri quattro sono attuali dipendenti della startup di Sam Altman. Gli altri due sono un attuale dipendente di Google DeepMind e un ex dipendente di Google DeepMind.

La lettera include anche l’approvazione di altri esperti, tra cui Geoffrey Hinton. Una delle voci più rispettate del settore, è considerato il “padrino dell’intelligenza artificiale”. Ha lavorato a Google per un decennio, fino a quando si è dimesso a metà del 2023. In quell’occasione decise di allontanarsi dall’azienda per esprimere apertamente le sue preoccupazioni sullo sviluppo della tecnologia. “Non dovrebbero andare oltre finché non sapranno se possono controllarla”, ha riconosciuto.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *