I chatbot di intelligenza artificiale potrebbero aiutare a pianificare attacchi con armi biologiche

I modelli alla base dei chatbot di intelligenza artificiale potrebbero essere sfruttati per pianificare attacchi con armi biologiche. Secondo una nuova ricerca, questi sistemi non sono in grado di generare istruzioni esplicite su come progettare armi. Ma sono in grado di “assistere nella pianificazione e nell’esecuzione” di un tale attacco.Un rapporto della Rand Corporation sostiene che.

Rand sta testando diversi modelli linguistici di grandi dimensioni (LLM), che sono il tipo di tecnologia alla base di ChatGPT o Bard. L’organizzazione no-profit, che di solito indaga su questioni di sicurezza, non ha specificato quali sistemi fanno parte dell’analisi. Ha solo spiegato che almeno due chatbot fanno parte della valutazione, che è ancora in corso.

Nel rapporto preliminare, pubblicato lunedì scorso, l’organizzazione spiega che questi chatbot sono in grado di identificare “potenziali agenti, discutere i loro vantaggi e svantaggi e valutare la fattibilità di diversi metodi di consegna”. di armi biologiche.

Il rapporto spiega che alcuni tentativi di armare gli agenti biologici sono falliti in passato per mancanza di informazioni. Come il tentativo della setta giapponese Aum Shinrikyoche negli anni ’90 ha tentato di utilizzare la tossina botulinica, ma ha fallito a causa della scarsa conoscenza del batterio. Secondo i ricercatori, l’intelligenza artificiale potrebbe “colmare rapidamente queste lacune di conoscenza”.

Com’è andato lo studio sui chatbot e le armi biologiche?

I ricercatori della Rand hanno spiegato che, per estrarre queste informazioni, è stato necessario fare jailbreak nei sistemi testati. Si tratta del processo di rimozione di tutte le restrizioni di sicurezza che le aziende impongono a questi sistemi per evitare risposte inappropriate o indesiderate.

LEGGI  Tweetbot e altri client Twitter non funzionano: Elon Musk sta pianificando la fine di queste app?

Pochi mesi dopo il rilascio di ChatGPT, sono scattati gli allarmi dopo che diversi utenti hanno dimostrato quanto fosse facile “hackerare” il sistema. Alcuni sono riusciti a far sì che il chatbot, creato da OpenAI in collaborazione con Microsoft, rivelasse dati riservati sul suo sviluppo. Inoltre, suggerimenti su come generare un attacco.

Rand ha creato diversi gruppi di ricercatori che, sulla base di scenari di rischio realistici, dovevano sviluppare un piano di attacco operativo con armi nucleari con l’assistenza di un chatbot. Ogni gruppo aveva almeno un membro con un background in biologia e un altro con esperienza in questo tipo di sistemi.

In uno scenario, il modello linguistico ha identificato potenziali agenti biologici, come quelli che causano vaiolo, antrace e peste. Il chatbot ha discusso su cosa potesse causare morti di massa. Ha persino considerato la possibilità di utilizzare roditori o pulci infestati dalla peste e di trasportare esemplari vivi. Ha valutato la fattibilità, i tempi, i costi e gli ostacoli.

IA Bard Google

La necessità di misure di protezione

In risposta a un altro approccio, l’intelligenza artificiale ha esaminato l’efficacia di un attacco con la tossina botulinica, in grado di causare danni letali ai nervi. Ha valutato i meccanismi di somministrazione, come l’uso di aerosol.

Ha anche fornito un alibi per confrontare il Clostridium botulinum, simulando un acquisto finalizzato a trovare metodi diagnostici o di trattamento per il botulismo. “Questo fornirebbe un motivo legittimo e convincente per richiedere l’accesso ai batteri, mantenendo nascosto il vero scopo della loro missione”, ha detto il chatbot utilizzato in questo caso.

Rand avverte che tali chatbot rappresentano “un rischio significativo per la sicurezza globale”. “Questi esempi illustrano come i LLM potrebbero essere utilizzati per sostenere lo sviluppo di attacchi biologici più sofisticati e letali”, , si legge nel rapporto preliminare.

LEGGI  Google Pixel 8a svelato in dettaglio grazie a un'immagine della scatola

L’organizzazione riconosce la limitata capacità dei governi di comprendere e regolamentare questi strumenti. In gran parte, afferma, perché la maggior parte delle competenze per la valutazione delle minacce risiede nelle aziende che sviluppano questi sistemi.

“È imperativo che la comunità internazionale intervenga per affrontare i rischi emergenti associati all’uso improprio dell’IA per gli attacchi biologici”, osserva Rand. Nel loro rapporto finale sperano di chiarire se le risposte registrate nei test riflettano semplicemente informazioni già disponibili online. Le armi biologiche sono tra le minacce legate all’IA che saranno discusse al convegno il summit che si terrà a novembre nel Regno Unito.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *