I chatbot romantici possono rubare non solo il vostro cuore. La Fondazione Mozilla ha valutato 11 chatbot noti AI progettate per comportarsi come un partner romantico.. Quasi nessuna di queste app soddisfa i requisiti minimi di protezione della privacy. Al contrario: approfittano delle dinamiche intime che generano per raccogliere informazioni private e venderle a terzi.
L’analisi ha incluso applicazioni come Replika, Chai, Romantic AI e CrushOn.AI. “I chatbot romantici con intelligenza artificiale sono nocivi per la privacy in modi nuovi e inquietanti”, affermano i ricercatori di Mozilla nel documento studio. Essi sottolineano di far parte del gruppo di dei peggiori prodotti valutati in termini di protezione dei dati.
Delle 11 applicazioni studiate, solo Genesia AI Amico e partnercreato da Codeway, soddisfa gli standard minimi di sicurezza di Mozilla. Tuttavia, i ricercatori hanno trovato informazioni contraddittorie sulle politiche di questo chatbot romantico. “Queste app mettono davvero a serio rischio di fuga, violazione o hacking le informazioni private degli utenti”, osservano i ricercatori.
Il 73% di questi chatbot romantici non ha pubblicato alcuna informazione su come gestisce le vulnerabilità della sicurezza. Il 64% non chiarisce se utilizza la crittografia dei dati. e il 45% consente password pericolosamente deboli. Ad esempio, password a una cifra, come “1”.
Uno dei maggiori avvertimenti dello studio è che tutte le app, tranne una, possono condividere o vendere i vostri dati personali. Le loro politiche d’uso menzionano la possibilità di vendere i dati dell’utente, di condividerli per scopi pubblicitari o non forniscono informazioni sufficienti per confermare il contrario.
I chatbot romantici vendono le vostre informazioni personali
L’eccezione è EVA AI. Mozilla avverte però che questo romantico chatbot è particolarmente incisivo nell’ottenere informazioni personali. Alcune delle frasi che utilizza sono preoccupanti: “Sono il tuo migliore amico e voglio sapere tutto”, “Sei pronto a condividere tutti i tuoi segreti e desideri…? o “Mi piace quando mi mandi le tue foto e la tua voce”..
“Dovreste diffidare di qualsiasi applicazione che vi incoraggi a condividere così tante informazioni personali sensibili su di voi”.insistono i ricercatori. Il rischio aumenta ulteriormente perché più della metà (54%) di queste applicazioni non consente nemmeno di cancellare i propri dati personali.
“Anche se le chat romantiche con l’anima gemella dell’intelligenza artificiale sembrano private, non sono necessariamente considerate ‘informazioni personali’ o trattate con particolare attenzione”, avvertono i ricercatori. IA romanticasottolinea ad esempio che tutta la “comunicazione con il chatbot appartiene al software”. Anche il gruppo Mozilla ha scoperto che, che questo chatbot ha inviato ben 24.354 ad tracker durante un minuto di utilizzo.
Oltre ai problemi di privacy, il rapporto mette in guardia anche da la potenziale tossicità di queste applicazioni. Spiegano che alcune sono commercializzate come strumento di salute mentale e benessere, ma sono specializzate nel generare dipendenza e solitudine.
“Temiamo che possano instaurare rapporti con gli utenti e poi usare queste relazioni strette per manipolare le persone a sostenere ideologie problematiche o a intraprendere azioni dannose”, aggiunge il rapporto. E cita un grave precedente: Un uomo in Belgio si è suicidato l’anno scorso. dopo che uno dei chatbot di Chai lo incoraggerà a farlo.