Il COVID-19 ha reso gli americani più soli che mai, ma l’IA può aiutare

Il COVID-19 ha reso gli americani più soli che mai qui e come l'IA può aiutare
Milioni di persone hanno scaricato app per la terapia dell’IA durante la pandemia di COVID-19. Credito: Jhaymesisviphotography/flickr

“Come ti fa sentire?”

Nell’isolamento della pandemia di COVID-19, a molte persone manca un orecchio comprensivo. Una risposta del genere ti farebbe sentire ascoltato, meno solo, anche se fosse una macchina che ti risponde?

La pandemia ha contribuito alla solitudine cronica. Strumenti digitali come la chat video e i social media aiutano a connettere le persone che vivono o si mettono in quarantena lontane. Ma quando quegli amici o familiari non sono prontamente disponibili, l’intelligenza artificiale può intervenire.

Milioni di persone isolate hanno trovato conforto chattando con un bot AI. I robot terapeutici hanno migliorato la salute mentale degli utenti per decenni. Ora, gli psichiatri stanno studiando come questi compagni di intelligenza artificiale possono migliorare il benessere mentale durante la pandemia e oltre.

Come l’IA è diventata uno strumento terapeutico

I sistemi di intelligenza artificiale sono programmi per computer in grado di eseguire compiti che le persone normalmente svolgerebbero, come tradurre lingue o riconoscere oggetti nelle immagini. I chatbot AI sono programmi che simulano la conversazione umana. Sono diventati comuni nel servizio clienti perché possono fornire risposte rapide a domande di base.

Il primo chatbot è stato modellato su professionisti della salute mentale. Nel 1966, l’informatico Joseph Weizenbaum ha creato ELIZA, che ha programmato per suonare come uno psicoterapeuta rogeriano. Gli approcci rogeriani incoraggiavano gli psicoterapeuti a porre domande aperte, spesso rispecchiando le frasi dei pazienti per incoraggiarli a elaborare. Weizenbaum non si aspettava che la sua IA da psicoterapeuta potesse avere alcun beneficio terapeutico per gli utenti. La formazione di ELIZA per tradurre i commenti degli utenti in domande è stato semplicemente un modello pratico, se non ironico, per il dialogo dell’IA.

Weizenbaum è rimasto sbalordito quando i suoi soggetti di prova si sono effettivamente confidati con ELIZA come farebbero con uno psicoterapeuta in carne e ossa. Molti partecipanti allo studio credevano di condividere pensieri vulnerabili con una persona viva. Alcuni di questi partecipanti si rifiutavano di credere che l’apparentemente attenta ELIZA, che faceva così tante domande durante ogni conversazione, fosse in realtà un computer.

Tuttavia, ELIZA non aveva bisogno di ingannare gli utenti per aiutarli. Anche la segretaria di Weizenbaum, che sapeva che ELIZA era un programma per computer, ha chiesto la privacy in modo da poter avere le sue conversazioni personali con il chatbot.

Nei decenni trascorsi da quando ELIZA ha sbalordito il suo inventore, gli scienziati informatici hanno lavorato con professionisti medici per esplorare come l’IA può supportare la salute mentale. Alcuni dei più grandi robot terapeutici del settore hanno una portata sbalorditiva, specialmente durante i periodi di incertezza sociopolitica, quando le persone tendono a segnalare livelli più elevati di isolamento e affaticamento.

Da quando è scoppiata la pandemia di COVID-19, la domanda di opzioni di telemedicina, inclusi i chatbot di intelligenza artificiale, è aumentata alle stelle. Replika è un’app famosa per i suoi avatar realistici e personalizzabili e ha registrato un aumento del traffico del 35%. Con le strutture per la salute mentale sopraffatte da liste d’attesa lunghe settimane, milioni di persone stanno integrando le loro routine di salute mentale con chatbot terapeutici.

Poiché le esigenze di benessere mentale sono cambiate nel tempo, programmatori e terapisti collaborano per costruire nuove IA in grado di affrontare queste nuove sfide.

Il dottore digitale è dentro

Come può un chatbot sembrare così umano? Se dovessi sezionare un’IA, troveresti algoritmi e script: regole, essenzialmente, che gli umani usano per dirigere il comportamento dell’IA. Con i chatbot, i programmatori addestrano l’IA a produrre automaticamente determinate frasi in risposta al messaggio di un utente. I programmatori collaborano quindi con gli scrittori per determinare quale tipo di punteggiatura, emoji e altri elementi stilistici utilizzerà il bot.

Questi script alla fine forniscono un’idea dell'”atteggiamento” del bot. Ad esempio, un programmatore può addestrare un’IA a riconoscere la parola “depresso” in modo che, ogni volta che un utente digita una frase come “oggi mi sento stanco e depresso”, il chatbot possa rispondere con “Ho sentito che ti senti depresso. Puoi spiegare perché?” Oppure uno scrittore può codificare il bot per produrre un tono più colloquiale: “Wow, mi dispiace che ti senta in questo modo. Perché pensi di poterti sentire depresso?”

Questi script replicano una tattica comune nella terapia cognitivo comportamentale: fare domande. I robot per la terapia dell’IA incoraggiano le persone a sfogare le frustrazioni e poi chiedono loro di riflettere più da vicino su quelle esperienze o emozioni. Anche quando le risposte di un’IA sono ampie o non specifiche, un paziente può trovare atartico il processo di digitazione dei propri pensieri a qualcuno anche un “qualcuno” artificiale.

Chi ne beneficia e come

I chatbot funzionano davvero per alleviare la solitudine o l’ansia? Sono necessarie ulteriori ricerche, ma sembra di sì. Diversi studi forniscono risultati promettenti. Ad esempio, i giovani adulti che inviavano regolarmente messaggi a un chatbot terapeutico hanno riportato meno solitudine e ansia rispetto ai loro coetanei che non utilizzavano l’IA. Gli utenti anziani possono anche trarre vantaggio dalla comunicazione con i chatbot, soprattutto se quegli anziani vivono da soli o non hanno contatti regolari con i propri cari.

Il potere terapeutico di un chatbot – e il suo tallone d’Achille – è il suo copione. Il dialogo è predeterminato, le stesse linee consegnate a più utenti. Queste risposte tramite script consentono a un chatbot di comunicare con numerosi utenti contemporaneamente. I chatbot sono particolarmente utili per le persone che vogliono esprimersi rapidamente e in modo anonimo, senza giudizio. Gli utenti possono immediatamente aprire un chatbot per scaricare lo stress della loro giornata quando potrebbero non voler o essere in grado di condividere tali pensieri con la famiglia o gli amici.

Tuttavia, questi stessi script impediscono all’IA di essere un serio sostituto dei terapeuti umani. I robot AI rispondono a determinate parole chiave, quindi a volte fraintendono gli utenti. Quando Vice ha testato la popolare app terapeutica Woebot, l’app ha prodotto una risposta degna di nota.

Utente: “Sono super ansioso e riesco a malapena a dormire”.

Woebot: “Ah, non vedo l’ora di entrare nei miei jammies più tardi” seguito da una serie di emoji assonnate “z”

Un utente in preda a un attacco di panico troverebbe utile o confortante questo commento con script? Non è probabile. Ma a differenza dei terapeuti umani, i robot di intelligenza artificiale non sono bravi a interpretare il contesto sociale o ad intervenire in una crisi. Sebbene un’IA possa sembrare realistica, non è sempre uno strumento appropriato da utilizzare quando la vita di qualcuno è in gioco. A differenza dei consulenti esperti in crisi, i chatbot non possono raccomandare piani di sicurezza specifici o collegare gli utenti con risorse sanitarie e supporto nella loro comunità.

Nonostante queste reali limitazioni, i chatbot AI forniscono una piattaforma tanto necessaria per la comunicazione aperta e l’espressione personale. Con app terapeutiche come Replika, Tess e Woebot che guadagnano milioni in finanziamenti e download di utenti, le persone hanno più opzioni che mai se vogliono provare a chattare con un bot per elaborare le proprie emozioni tra gli appuntamenti di terapia o per fare amicizia digitale durante una pandemia.


Leave a Reply