OpenAI ha pubblicato un rapporto che illustra in dettaglio il lavoro di sicurezza svolto prima del lancio di GPT-4o. Il white paper fornisce dettagli sulla valutazione dei rischi potenzialinonché le salvaguardie implementate nel modello linguistico. Il rapporto evidenzia una sezione che indica che il nuovo assistente vocale di ChatGPT ha le qualità per generare un legame emotivo con gli utenti..
La sezione in questione è intitolata “Antropomorfizzazione e dipendenza emotiva” e menziona il rischio di attribuire comportamenti e caratteristiche umane a un modello di IA. Nel caso dell’assistente vocale, i progressi nelle capacità audio del GPT-4o consentono un’interazione più “umana” con ChatGPT. Per questo motivo, gli utenti potrebbero confondersi o generare un legame con il chatbot..
OpenAI cita alcuni esempi riscontrati durante la fase di test dell’assistente vocale. L’azienda osserva che alcuni utenti hanno utilizzato un linguaggio che mostrava segni di un collegamento a ChatGPT. Anche se a prima vista i casi sembrano benigni, intimo con un chatbot di intelligenza artificiale potrebbe avere effetti negativi a lungo termine.
“La socializzazione simile a quella umana con un modello di IA può produrre esternalità che influiscono sulle interazioni tra esseri umani”, osserva l’azienda. “Gli utenti potrebbero stringere relazioni sociali con l’IA, riducendo la loro necessità di interazione umana, il che potrebbe influire su relazioni sane”.
Un altro effetto negativo dell’interazione prolungata con ChatGPT ha a che fare con la norme sociali. Poiché l’assistente consente di interrompere in qualsiasi momento, le persone potrebbero pensare che si tratti di un comportamento normale che può avvenire in una conversazione con un altro essere umano.
ChatGPT ha il potenziale per diventare il nuovo Il suo
La prima cosa che ci viene in mente quando pensiamo all’assistente vocale di ChatGPT è Il suo. Il film del 2013 con Joaquin Phoenix e Scarlett Johansson, racconta di un uomo che si innamora di un’intelligenza artificiale.. Theodore (Phoenix) non riesce a dimenticare la sua ex moglie o a creare un legame con altre donne, così inizia una relazione con la sua assistente virtuale, Samantha (Johansson).
L’ispirazione per il film di Spike Jonze è stata tale che Sam Altman e OpenAI hanno clonato la voce di Scarlett per GPT-4o, causando problemi legali. L’azienda sapeva bene che che il suo assistente vocale sarebbe potuto diventare una nuova Samantha. e generare un legame emotivo con alcuni utenti.
OpenAI aggiunge che le capacità del suo modello vocale hanno il potenziale per generare un’eccessiva dipendenza da. La tecnologia promette di studiare ulteriormente gli effetti dell’esposizione prolungata alla ChatGPT in popolazioni di utenti più diverse.
“Intendiamo studiare ulteriormente il potenziale della fiducia emotiva e i modi in cui un’integrazione più profonda delle numerose caratteristiche del nostro modello e dei nostri sistemi con la modalità audio può guidare il comportamento”, ha aggiunto.