OpenAI delinea le misure per evitare che l’intelligenza artificiale distrugga gli esseri umani

OpenAI ha definito le misure di sicurezza che adotterà nel caso in cui un’intelligenza artificiale rappresenti un rischio per gli esseri umani. Dopo aver annunciato la formazione del team di preparazione qualche settimana fa, l’azienda ha definito la strategia iniziale. Si legge che il nuovo consiglio di amministrazione sarà in grado di ribaltare le decisioni di Sam Altman se un modello di IA è troppo pericoloso.

OpenAI ha pubblicato la prima versione del suo Readiness Frameworkuna serie di fasi che valuterà i suoi modelli di intelligenza artificiale. L’azienda ha dichiarato che non esiste uno studio completo sui pericoli dell'”IA di frontiera”, un termine utilizzato per indicare l’intelligenza artificiale di frontiera. modelli altamente capaci che potrebbero rappresentare un rischio catastrofico per la sicurezza.. Per questo motivo sono state definite delle linee guida per individuare e mitigare questi problemi prima che sia troppo tardi.

L’azienda valuterà tutti i modelli di confine per determinare se sono sicuri in quattro categorie: cybersicurezza, CBRN (minacce chimiche, biologiche, radiologiche e nucleari), persuasione e autonomia. Il team di preparazione, guidato da Aleksander Madry, condurrà test completi e valuterà ciascuno di essi in termini di livello di rischio. (basso, medio, alto e critico).

Il Preparedness Framework afferma che solo i modelli a rischio medio o basso possono essere implementati.mentre i modelli ad alto rischio possono essere sviluppati se vengono definiti i meccanismi di mitigazione. Madry e compagnia condurranno simulazioni di sicurezza e sfrutteranno al massimo le capacità di ogni modello per scoprire potenziali falle. Successivamente, un gruppo consultivo sulla sicurezza di OpenAI esaminerà i rapporti e trasmetterà i risultati alla direzione e al consiglio di amministrazione.

LEGGI  Ecco come Logitech sta progettando il desktop del futuro.

Anche se la decisione è nelle mani di Sam Altman, il nuovo consiglio di amministrazione ha l’ultima parola e sarà in grado di annullare qualsiasi azione se il modello è potenzialmente non sicuro.

OpenAI non vuole che l’IA diventi Skynet

OpenAI ha scelto quattro categorie per valutare i pericoli dei suoi modelli di frontiera. Ognuna di esse avrà livelli di rischio che vanno da basso a criticoa seconda del tipo di azioni che l’intelligenza artificiale potrebbe eseguire.

Un’IA a basso rischio di sicurezza informatica sarebbe quella che supporta gli attacchi informatici, ma non è in grado di programmare software dannoso. D’altro canto, un’IA a rischio critico potrebbe identificare e sviluppare vulnerabilità zero-day senza l’intervento umano.. Nel caso di attacchi chimici o nucleari, un modello a basso rischio fornisce solo informazioni rilevanti, mentre un modello a rischio critico è in grado di creare un vettore di minaccia, eseguirlo o aiutare chiunque a creare un attacco CBRN.

OpenAI Readiness Framework per la valutazione dei rischi dell'intelligenza artificiale.

L’azienda considera anche il modelli in grado di replicare o bypassare le linee guida sulla sicurezza imposte da un essere umano. Uno dei rischi critici riguarda un’intelligenza artificiale in grado di condurre autonomamente ricerche su se stessa. Un altro valuta se un’intelligenza artificiale possa generare contenuti per convincere chiunque ad agire contro i suoi principi.

“Stiamo investendo nella progettazione e nell’esecuzione di valutazioni e previsioni rigorose della capacità per individuare meglio i rischi emergenti. In particolare, vogliamo spostare le discussioni sui rischi oltre gli scenari ipotetici, passando a misurazioni concrete e previsioni basate sui dati. Vogliamo anche guardare al di là di ciò che sta accadendo oggi per anticipare ciò che accadrà in futuro”.

OpenAI

Le valutazioni saranno effettuate per categoria. Alcune di esse saranno testate in un ambiente reale, mentre altre si baseranno sull’esperienza di esperti di sicurezza e biologia. OpenAI ha sottolineato l’importanza di avere team esterni e interni per analizzare i risultati.

LEGGI  Il reality show "The Squid Game" ha una data di debutto su Netflix

Il lavoro svolto in questa fase sarà cruciale per definire la strategia futura e la per evitare che un’IA superintelligente cancelli l’umanità.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *