Nel 1955, Isaac Asimov pubblicò il suo racconto breve Suffragio universale. Il libro descrive come la prima democrazia elettronica utilizzi il computer più avanzato del mondo, Multivac. Un’intelligenza artificiale potrebbe decidere il voto di un’intera nazione, con l’intervento di un solo elettore umano.
Anche se non abbiamo ancora raggiunto questo inquietante futuro, il ruolo dell’intelligenza artificiale e della scienza dei dati è sempre più importante nel corso delle elezioni democratiche. Le campagne elettorali di Barack Obama e Donald Trump, il Partito Sintetico della Danimarca e il massiccio furto di dati nella campagna di Macron sono buoni esempi.
Una delle prime storie di successo nell’utilizzo di grandi dati e l’analisi delle reti sociali per mettere a punto una campagna elettorale è stata quella di Barack Obama per le elezioni presidenziali del 2012. Nella sua campagna (e in molte altre successive), i sondaggi tradizionali sulle intenzioni di voto, basati su telefonate o interviste personali, sono stati integrati dall’analisi dei social network.
Queste analisi offrono un metodo economico e quasi in tempo reale per misurare l’opinione degli elettori. Vengono applicate tecniche di Natural Language Processing (NLP), in particolare quelle dedicate alla sentiment analysis. Queste tecniche analizzano i messaggi contenuti nei tweet, nei blog, ecc. e cercano di misurare se le opinioni espresse in essi sono positive o negative rispetto a un certo politico o a un certo messaggio elettorale.
Il problema principale è la distorsione del campionamento, poiché gli utenti più attivi dei social network tendono a essere giovani e tecnofili e non rappresentano l’intera popolazione. Per questo motivo, queste tecniche hanno dei limiti quando si tratta di prevedere i risultati elettorali, anche se sono molto utili per studiare le tendenze di voto e lo stato di opinione delle persone.

Intervento nelle campagne elettorali: il caso di Donald Trump
Più inquietante dello studio delle emozioni nei social network è il loro utilizzo per influenzare gli stati di opinione e modulare il voto. Un caso ben noto è quello della campagna di Donald Trump alle elezioni presidenziali statunitensi del 2016. Il grandi dati e la profilazione psicografica hanno avuto molto a che fare con una vittoria che i sondaggi non avevano previsto.
Non si è trattato di una manipolazione di massa, ma i diversi elettori hanno ricevuto messaggi diversi in base alle previsioni sulla loro suscettibilità a diversi argomenti, ricevendo informazioni parziali, frammentate e talvolta contraddittorie rispetto ai messaggi degli altri candidati. Il compito è stato affidato alla società Cambride Analytica, coinvolta in una controversia per la raccolta non autorizzata di informazioni su milioni di utenti di Facebook.
Il metodo di Cambride Analytica si è basato sugli studi psicometrici di Kosinski, il quale ha scoperto che con un numero limitato di piace è possibile ottenere un profilo dell’utente preciso come se fosse stato profilato dalla sua famiglia o dai suoi amici.
Il problema di questo approccio non sta nell’uso della tecnologia, ma nella natura “occulta” della campagna, nella manipolazione psicologica di elettori suscettibili attraverso appelli diretti alle loro emozioni o nella diffusione deliberata di notizie false attraverso bot. Questo è stato il caso di Emmanuel Macron nelle elezioni presidenziali francesi del 2017. La sua campagna ha subito un massiccio furto di e-mail solo due giorni prima delle elezioni. Una moltitudine di bot erano responsabili della diffusione di prove di reati presumibilmente contenute nelle informazioni, che poi si sono rivelate false.
Azione politica e governo: il Partito Sintetico e l’intelligenza artificiale.
Non meno inquietante del punto precedente è la possibilità che l’intelligenza artificiale (AI) ci governi. La Danimarca ha aperto il dibattito in occasione delle ultime elezioni legislative, contestate dal Partito Sintetico, un partito guidato da AI. chatbot chiamato Leader Lars, con l’aspirazione di entrare in Parlamento. Dietro il chatbot ci sono gli esseri umani, naturalmente, in particolare la fondazione MindFuture per l’arte e la tecnologia.
Il leader Lars è stato formato con i programmi elettorali dei partiti danesi marginali dal 1970 per dare forma a una proposta che rappresentasse il 20% della popolazione danese che non si reca alle urne.
Sebbene il Partito Sintetico sembri una stravaganza – con proposte così audaci come un reddito di base universale di oltre 13.400 euro al mese, il doppio del salario medio in Danimarca – è servito a stimolare il dibattito sulla capacità di un’intelligenza artificiale di governarci. Un’intelligenza artificiale contemporanea, ben addestrata e dotata di risorse adeguate può davvero governarci?
Se guardiamo al recente passato dell’intelligenza artificiale, vediamo una svolta dopo l’altra a rotta di collo, in particolare nel campo dell’elaborazione del linguaggio naturale dopo l’emergere di architetture basate su trasformatori. Si tratta di enormi reti neurali artificiali addestrate per imparare a generare testo, ma facilmente adattabili a molti altri compiti. In qualche modo, queste reti imparano la struttura generale del linguaggio umano e finiscono per avere una conoscenza del mondo attraverso ciò che hanno “letto”.
Uno degli esempi più avanzati e spettacolari è stato sviluppato da OpenAI e si chiama ChatGPT. Si tratta di un chatbot in grado di rispondere in modo coerente a quasi tutte le domande poste in linguaggio naturale, di generare testo o di eseguire compiti complicati come la scrittura di programmi per computer a partire da poche indicazioni.
Privo di corruzione, ma non trasparente
I vantaggi dell’utilizzo dell’IA per l’azione di governo sarebbero molteplici. Da un lato, la sua capacità di elaborare dati e conoscenze per prendere decisioni è di gran lunga superiore a quella di qualsiasi essere umano. Inoltre, sarebbe libero (in linea di principio) dal fenomeno della corruzione e non sarebbe influenzato da interessi personali.
Ma, oggi, il chatbot reagiscono, si nutrono delle informazioni che qualcuno dà loro e danno risposte. Non sono veramente liberi di pensare “spontaneamente”, di prendere l’iniziativa. È più appropriato vedere questi sistemi come oracoli, in grado di rispondere a domande come “cosa pensi che accadrebbe se…”, “cosa proporresti in caso di…”, piuttosto che come agenti attivi o di controllo.
I potenziali problemi e pericoli di tali intelligenze, basate su grandi reti neurali, sono stati analizzati in numerosi studi scientifici. Un problema fondamentale è la mancanza di trasparenza (“spiegabilità”) delle decisioni prese. In generale, agiscono come “scatole nere” senza che si possa sapere quale ragionamento abbiano svolto per arrivare a una conclusione.
E non dimentichiamo che dietro la macchina ci sono gli esseri umani, che sono stati in grado di introdurre alcuni pregiudizi (consapevolmente o inconsapevolmente) nell’IA attraverso i testi che hanno usato per addestrarla. D’altra parte, l’IA non è esente dal fornire dati o consigli sbagliati, come hanno sperimentato molti utenti di ChatGPT.
I progressi tecnologici ci permettono di intravedere una futura IA in grado di “governarci”, per il momento non senza l’indispensabile controllo umano. Il dibattito dovrebbe presto spostarsi dal livello tecnico a quello etico e sociale.
Questo articolo è stato pubblicato originariamente in La conversazione. Leggi l’originale.