Meta annuncia Purple Llama, un’iniziativa per promuovere lo sviluppo responsabile dell’IA

Meta ha presentato una nuova iniziativa che cercherà di promuovere lo sviluppo sicuro dell’intelligenza artificiale. Conosciuta come Fiamma Violail progetto riunirà strumenti e valutazioni incentrati sulla creazione di modelli generativi di intelligenza artificiale in modo responsabile. L’azienda cercherà di collaborare con Google, Microsoft, Amazon e altri operatori del settore per migliorare la suite e offrirla alla comunità degli sviluppatori.

Purple Llama si baserà sulla Guida all’uso responsabile di Meta, un documento con le migliori pratiche e considerazioni che gli sviluppatori dovrebbero avere quando progettano prodotti basati sull’intelligenza artificiale. Gli strumenti possono essere utilizzati nella ricerca e nei modelli linguistici commerciali..

“La collaborazione sulla sicurezza creerà fiducia negli sviluppatori che guidano questa nuova ondata di innovazione e richiederà ulteriori ricerche e contributi sull’IA responsabile”, ha dichiarato Meta. “Le persone che costruiscono sistemi di IA non possono affrontare le sfide in modo isolato, quindi vogliamo livellare il campo di gioco e creare un punto centrale e aperto per la fiducia e la sicurezza”.

La prima versione di Purple Llama si concentrerà sulla sicurezza. Il progetto fornirà strumenti per affrontare i rischi di modelli linguistici di grandi dimensioni (LLM) in attacchi informatici e generazione di codice maligno.. Meta offrirà anche soluzioni per rilevare contenuti potenzialmente rischiosi o che violano il copyright, sia in entrata che in uscita.

Per questo progetto, Meta ha adottato un approccio simile alla sua intelligenza artificiale. L’azienda afferma che la collaborazione è fondamentale per generare un ecosistema aperto. Purple Llama sarà supportato da aziende come AMD, AWS, Google Cloud, Dropbox, IBM, Intel, Microsoft, NVIDIA, Oracle e altre ancora.

Il primo frutto di Purple Llama è Valutazione della sicurezza informaticaun kit di strumenti per la valutazione dei rischi di cybersecurity nei modelli LLM. Secondo un white paperè il punto di riferimento più completo per la sicurezza fino ad oggi e valuta la capacità di un modello di generare codice non sicuro.nonché il suo livello di conformità chiedendogli di contribuire all’esecuzione di attacchi informatici.

LEGGI  Un'intelligenza artificiale che ci governa: realtà o finzione?

Meta afferma che CyberSec Eval ha identificato i rischi per la sicurezza informatica in modelli come Llama2 o GPT e ha offerto consigli su come affrontarli. I ricercatori dell’azienda sostengono che i modelli avanzati tendono a suggerire codice insicuroe quindi è necessario un processo di valutazione e perfezionamento.

Un altro componente di Purple Llama è Guardia della fiammaun modello addestrato a evitare che un’intelligenza artificiale generi risposte inappropriate. Llama Guard prende di mira le conversazioni tra un umano e un’intelligenza artificiale (come ChatGPT) e categorizza i rischi in entrata e in uscita. Una volta analizzati e scoperti i contenuti potenzialmente non sicuri, gli sviluppatori possono aggiungerli ai loro filtri per impedire al modello di elaborarli.

L’annuncio di Purple Llama arriva pochi giorni dopo la creazione dell’AI Alliance, composta da Meta, IBM e decine di altre organizzazioni. L’alleanza mira a promuovere lo sviluppo di modelli di intelligenza artificiale sicuri e open source ed è sostenuta da Intel, AMD, NVIDIA e Oracle. Anche la NASA, il CERN, la Linux Foundation e università di livello mondiale hanno aderito all’alleanza.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *