Dico “ciao” come se ci fosse un umano all’altro capo della comunicazione pronto a rispondere. Ben presto sullo schermo vengono disegnate delle curve che riproducono gli alti e bassi della mia voce. Poi si sente la risposta in spagnolo, anche se con l’intonazione di un parlante straniero. Appaiono anche blocchi colorati con termini come “eccitato”, “interessato” ed “emozionato”. Occasionalmente, vengono elencati altri sentimenti pianurecome “felice” o “triste”. L’interlocutore singolare è Hume, un chatbot che riconosce le emozioni.
Con qualche tocco di ChatGPT di OpenAI e una succosa iniezione di capitale, Hume si distingue per la sua capacità di identificare gli stati d’animo degli utenti. “La nostra missione è che l’intelligenza artificiale sia al servizio degli esseri umani e del benessere”, affermano. A tal fine, le conversazioni non sono scritte, ma vocali. Inutile dire che questa capacità non culmina in un semplice rilevamento o in uno scambio di battute. Secondo le persone che stanno dietro a questa tecnologia, l’obiettivo è far sì che i bot conversazionali diventino più empatici.
Abbiamo parlato con Hume per vedere di persona come funziona. Un’anteprima, prima dei dettagli: la nostra esperienza con il chatbot che riconosce le emozioni è stata agrodolce e le interazioni a volte sconcertanti.. Tuttavia, ci sono aspetti promettenti. Soprattutto per un sistema che è ancora in fase di sperimentazione e che ha quindi margini di miglioramento.
I dettagli di Hume, il chatbot che riconosce le emozioni
La fama raggiunta da Hume AI non è casuale. Innanzitutto, è gestita da uno specialista di matematica e scienze dei dati. Alan Cowenche in precedenza si era unito ai team di DeepMind, una divisione di Google specializzata in intelligenza artificiale. Inoltre, il startup ha recentemente ricevuto un 50 milioni di capitale in un round di investimento.
L’ambizione è grande. Secondo l’azienda newyorkese, l’obiettivo è di rivoluzionare le interazioni tra macchine ed esseri umani. con un’intelligenza artificiale avanzata. Dietro il chatbot che riconosce le emozioni c’è EVI, che sta per “emotion recognition”.interfaccia vocale empatica“Interfaccia vocale empatica”.
“L’EVI di Hume è pilotata con una grande modello di linguaggio empatico (eLLM), che comprende ed emula i toni di voce, l’enfasi delle parole e altro ancora per ottimizzare l’interazione”, spiegano i rappresentanti del gruppo newyorkese, sottolineando che questa è la caratteristica che li differenzia dagli altri chatbot. In questo modo, questo sistema “trasmette il significato al di là delle parole”, promettono. Ma che cosa succede nella pratica: le pompose proposte ufficiali sono convalidate dall’esperienza?
Hume contro ChatGPT: somiglianze e differenze tra i chatbot
Prima di condividere i dettagli della nostra esperienza con il chatbot che riconosce le emozioni, abbiamo pensato che sarebbe stato interessante soffermarci per una breve confronto tra il ChatGPT di Hume e l’EVI. Il più evidente è il formato delle voci. Mentre il primo opera principalmente attraverso il testo, il secondo si basa su interazioni verbali. A questo punto, vale la pena notare che dal settembre dello scorso anno il modello OpenAI può essere utilizzato anche come una sorta di Alexa o Siri evoluto, con comandi vocali, come segue qui.
D’altra parte, ciò che abbiamo sottolineato: il bot conversazionale sviluppato da Hume AI si muove nel regno delle emozioni.. Cerca di emulare la natura delle interazioni tra esseri umani. “Il nostro sistema impara dalle reazioni degli utenti per migliorare. Ottimizza la felicità e la soddisfazione”, afferma il gruppo di Cowen.
Per il resto, le due proposte coincidono in un aspetto fondamentale. L’EVI di Hume si basa sulla GPT 3.5.lo stesso modello linguistico massivo che OpenAI offre attualmente nella versione gratuita di ChatGPT. Inoltre, utilizza il motore di ricerca Microsoft Bing e sfrutta le funzioni di Claude 3, un modello di intelligenza artificiale creato dalla società Anthropic.
La nostra chat con EVI di Hume, il chatbot che riconosce le emozioni
All’inizio del test ci sono un paio di buone notizie. Questa interlocutore sintetico con intenzioni empatiche può essere testato gratuitamente. Inoltre, non è necessario creare un account o inserire le credenziali di altre piattaforme. Al momento è possibile accedere a una demo pubblica tramite questo link. Una versione generale sarà pronta nelle prossime settimane, secondo Hume AI.
Una volta entrato, il sistema chiede l’accesso al microfono. Lo abbiamo testato da un telefono cellulare e da un browser desktop, senza riscontrare grossi problemi in entrambi i casi. Poi sono arrivate le stranezze. Ho iniziato rivolgendomi al chatbot che riconosce le emozioni in inglese e la conversazione è fluita, all’inizio. Poi, Ho chiesto se capisse lo spagnolo: ha risposto “sì”, ma molte delle sue parole nella nostra lingua erano assolutamente incomprensibili.. Sarebbe stato meglio se avesse riconosciuto il suo limite in questo senso.
Al di là dei problemi linguistici – la raccomandazione è di testarlo in inglese, nel caso non fosse chiaro – l’EVI di Hume porta aria fresca ai dialoghi con i nuovi modelli di intelligenza artificiale. Come se si trattasse di una di quelle prove di resistenza per hardwareHo provato a spingerlo al limite per verificare la risposta. Alzando il tono della voce, dissi: “Come risponde lentamente! Sullo schermo apparvero i blocchi delle emozioni rilevate. Poi cercò di calmare la mia finta rabbia: “Oggi sembri arrabbiato”, disse.
Imperfetto, ma promettente
Chatbot per il riconoscimento delle emozioni sviluppato da un’azienda statunitense presenta alcuni bug piuttosto fastidiosinella demo che abbiamo testato. A volte, visualizza un messaggio sullo schermo per informare che il sistema è sovraccarico. Di conseguenza, è impossibile effettuare il login. La soluzione che abbiamo trovato è quella di insistere in vari momenti.
Inoltre, quando siamo stati in grado di avviare la conversazione, a volte siamo rimasti delusi dai ritardi nelle risposte della macchina, che in alcuni casi si è interrotta mentre parlava. Il dialogo non è sempre fluido, contrariamente all’empatia che gli sviluppatori si prefiggono.
“I nostri modelli si basano su oltre 10 anni di ricerca, milioni di dati brevettati e più di 30 pubblicazioni su riviste autorevoli”, afferma Hume, sostenendo che EVI è il loro prodotto di punta. Sarà abbastanza potente da garantire legami più autentici tra uomini e macchine nella versione finale?
Il potenziale del chatbot per il riconoscimento delle emozioni risiede in quanto detto sopra: umanizzare i modelli linguistici. L’obiettivo non è banale, dato che l’interazione con i sistemi sintetici aumenta costantemente nelle società contemporanee. La chiave non è più solo identificare ciò che diciamo, ma anche come. Ovvero, capire cosa c’è dietro le parole e agire di conseguenza. Vale la pena di notare che quella di Hume è una passo avanti sulla strada della bioispirazione.Non sarà la prima volta che una macchina imita le caratteristiche umane.
Usi e benefici dei chatbot che riconoscono le emozioni
Le implicazioni del emotività Gli aspetti emotivi dell’EVI sono di ampia portata e coinvolgono diversi ambiticome l’istruzione, la salute e il servizio clienti. Seguendo questi esempi, un chatbot empatico potrebbe essere un buon insegnante virtuale, in grado di identificare le esigenze degli studenti. Potrebbe anche migliorare l’assistenza personalizzata ai pazienti o diventare un assistente efficiente nelle aziende.
In questo percorso, Hume dovrà affrontare questioni sostanziali che riguardano i nuovi modelli basati sull’intelligenza artificiale. La privacy dei dati – dato che potrebbe memorizzare le voci -, il potenziale uso improprio e anche i pregiudizi degli algoritmi. La recente iniezione di 500 milioni di dollari aumenta il tasso di successo della tecnologia che alimenta il chatbot per il riconoscimento delle emozioni. Come riportato dal sito Prossimo UnicornoIl round di finanziamento è stato guidato da EQT Ventures con il contributo di Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures e LG Technology Ventures.