Microsoft non vuole che la polizia usi l’intelligenza artificiale OpenAI

Microsoft vieterà alla polizia statunitense l’accesso ai modelli di intelligenza artificiale di OpenAI. L’azienda ha aggiornato i termini di utilizzo, che chiudono la porta alle forze dell’ordine per l’utilizzo dei potenti modelli linguistici.

Il Codice di condotta del servizio Azure OpenAI ha aggiunto alcune limitazioni all’accesso alla tecnologia. A partire da ora, Microsoft impedirà a qualsiasi dipartimento di polizia statunitense di accedere all’intelligenza artificiale di OpenAI, comprese le integrazioni con i modelli di analisi del testo e del parlato. Le politiche vietano anche l’uso della tecnologia di riconoscimento facciale in tempo reale da parte delle forze dell’ordine di tutto il mondo.

“Le integrazioni con Azure OpenAI Service non devono essere utilizzate per alcuna tecnologia di riconoscimento facciale in tempo reale su telecamere mobili utilizzate da qualsiasi agenzia di polizia in tutto il mondo per tentare di identificare una persona in ambienti non controllati e in natura”, ha dichiarato Microsoft.

Ciò significa che la polizia non potrà utilizzare modelli di intelligenza artificiale per cercare di identificare le persone in un database di sospetti.. Il Codice di condotta Azure vieta anche l’uso dell’intelligenza artificiale per la sorveglianza continua o il tracciamento persistente di qualsiasi individuo attraverso le sue informazioni personali o i suoi dati biometrici.

I servizi di intelligenza artificiale di Azure comprendono tutti i modelli sviluppati da OpenAI ospitati nel cloud Microsoft. Questi includono GPT-3, GPT-4 e GPT-4 Turbo con i modelli Vision e Codex. Le regole si applicano anche a DALL-E 2, DALL-E 3 e Whisper.

Microsoft si oppone al riconoscimento facciale tramite intelligenza artificiale

Riconoscimento facciale

Secondo le politiche di Microsoft, Azure con OpenAI “vieta l’identificazione o la verifica di identità individuali attraverso supporti contenenti volti di persone da parte di qualsiasi utente, comprese le forze dell’ordine statali o locali degli Stati Uniti”. Non è inoltre consentito condurre analisi facciali per dedurre lo stato emotivo di una persona.il suo sesso o la sua età.

LEGGI  WhatsApp blocca gli screenshot nelle immagini e nei video a visualizzazione singola

Il tecnologo ha chiarito che non permetterà l’uso dell’intelligenza artificiale in compiti delicati, come l’identificazione dei sospetti.. I sistemi di riconoscimento sono inclini alle allucinazioni e hanno pregiudizi razziali. Ciò contrasta con una precedente notizia secondo cui Microsoft avrebbe offerto modelli OpenAI all’esercito statunitense per svolgere compiti simili.

Come riportato da The InterceptIn una presentazione al Dipartimento della Difesa per mostrare i vantaggi dell’intelligenza artificiale, l’azienda di Redmond ha presentato al Dipartimento della Difesa. Microsoft ha suggerito che i modelli linguistici sarebbero utili per analizzare immagini e video di sorveglianza a fini di sicurezza.e per identificare modelli in un database.

Tuttavia, le politiche di OpenAI vietano l’uso dei suoi modelli in compiti che minacciano la sicurezza delle persone. “Non abbiamo stretto partnership con agenzie di difesa per utilizzare le nostre API o ChatGPT per tali scopi”, ha dichiarato Liz Bourgeous, portavoce di OpenAI.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *