Per favore, smettila di chiedere consigli su amore ai chatbot.

Smetti di chiedere consigli su amore ai chatbot.

Mentre si sedeva di fronte a me, il mio paziente aveva un’espressione triste sul volto.

“Avevo un appuntamento”, annunciò. “Non è andato bene”.

Non era insolito per questo paziente. Per anni, aveva condiviso storie di speranze romantiche infrante. Ma prima che potessi chiedergli cosa fosse andato storto, continuò: “Quindi ho chiesto a un chatbot cosa avrei dovuto fare”.

Um. Cosa? Le simulazioni di conversazioni umane alimentate dall’intelligenza artificiale, i chatbot, sono state molto in voga, ma non era mai successo che un paziente mi dicesse di averne effettivamente usato uno per consigli prima.

“Cosa ti ha detto?” chiesi, curioso.

“Di dirle che mi interesso dei suoi valori”.

“Oh. Ha funzionato?”

“Fai due indovinelli”, sospirò e alzò le mani. Anche se questo paziente era stato il primo, è diventato ormai un’occorrenza regolare nella mia pratica terapeutica sentire da nuovi pazienti che hanno consultato chatbot prima di consultarmi. Più spesso, si tratta di consigli sull’amore e sulle relazioni, ma potrebbe anche essere per stabilire connessioni o impostare limiti con i loro figli o per risolvere una situazione di amicizia che è andata male. I risultati sono stati decisamente misti.

Un nuovo paziente ha chiesto al chatbot come gestire l’anniversario della morte di una persona cara. Riservati del tempo nella tua giornata per ricordare cosa era speciale di quella persona, ha consigliato il bot. Non avrei potuto dirlo meglio io stesso.

“Quello che ha scritto mi ha fatto piangere”, ha detto il paziente. “Mi sono reso conto di aver evitato il mio dolore. Così ho fatto questo appuntamento”.

Un’altra paziente ha iniziato a fare affidamento sull’intelligenza artificiale quando i suoi amici hanno cominciato a diventare pochi. “Non posso esaurire il mio chatbot”, mi ha detto.

Grace Browne

Kelly Sullivan Walden

Sarah Gundle, PsyD

Come terapeuta, sono sia allarmato che intrigato dal potenziale dell’IA nel settore della terapia. Non c’è dubbio che l’IA sia il futuro. Già si è dimostrata utile in tutto, dalla stesura di lettere di presentazione e discorsi alla pianificazione di viaggi e matrimoni. Quindi perché non farla aiutare anche nelle nostre relazioni? Un nuovo progetto chiamato Replika, il “compagno di intelligenza artificiale che si preoccupa”, ha spinto il concetto ancora più avanti e ha persino creato avatar romantici con cui le persone possono innamorarsi. Altri siti, come Character.ai, ti consentono di chattare e passare del tempo con i tuoi personaggi di finzione preferiti o di creare un bot con cui parlare da solo.

Tuttavia, viviamo in un’epoca di disinformazione. Abbiamo già visto esempi inquietanti di come gli algoritmi diffondano bugie e teorie del complotto tra esseri umani ignari o male intenzionati. Cosa succederà quando li faremo entrare nella nostra vita emotiva?

“Anche se l’IA può esprimersi come un essere umano, devi chiederti quale sia il suo obiettivo”, afferma Naama Hoffman, professore associato presso il Dipartimento di Psichiatria della Icahn School of Medicine, Mount Sinai Hospital, a New York City. “L’obiettivo nelle relazioni o nella terapia è migliorare la qualità della vita, mentre l’obiettivo dell’IA è trovare ciò che è più citato. Non è supposto aiutare, necessariamente”.

Come terapeuta, so che il mio lavoro può beneficiare del supporto esterno. Ho gestito gruppi di trauma per due decenni e ho visto come l’impalcatura di un quadro psicoeducativo, specialmente uno basato sull’evidenza come il Seeking Safety, faciliti un lavoro emotivo più profondo. Dopotutto, il chatbot originale, Eliza, è stato progettato per essere un “terapeuta virtuale” perché faceva domande aperte senza fine e puoi ancora usarlo. I chatbot possono aiutare le persone a trovare ispirazione o persino abbattere le difese e permettere alle persone di entrare in terapia. Ma dove si trova il punto in cui le persone diventano eccessivamente dipendenti dalle macchine?

“Le suggerimenti dell’IA potrebbero aiutarti a tollerare la tua sofferenza, come un cerotto, ma poi quando lo togli, nulla è cambiato”, afferma Hoffman, che consiglia cautela nell’usare l’IA al posto del trattamento, “perché ci sono molte qualità che influenzano gli esiti del trattamento che mancano nell’IA. La tecnica; le caratteristiche personali, come il tono di voce e il sarcasmo; e le variabili relazionali, come la storia che condividi, il linguaggio del corpo e le espressioni facciali, sono tutti aspetti importanti della ricerca sugli esiti. Quindi anche se potrebbe dire la stessa cosa, l’esito sarà diverso”.

Anche se è molto probabile che l’IA giocherà un ruolo significativo nella terapia del futuro, ci sono altre opzioni migliori per coloro che cercano supporto o terapia. Considera app come BetterHelp, Headspace e Calm, che possono aiutarti a iniziare, o risorse come lo strumento Find a Therapist di Psychology Today o Zencare che ti aiuteranno a trovare uno psicoterapeuta vicino a te. Ecco anche alcune opzioni aggiuntive.

  1. Parla con i tuoi amici. Hai chiamato il tuo amico più caro questa settimana? L’IA non può provare empatia, non veramente, e sai che i suoi tentativi di farti sentire meglio non sono sinceri. Inoltre, non avrà una presenza fisica rassicurante. Né la terapia né l’amicizia vera possono essere sostituite da una macchina senza anima.
  2. Corri dei rischi. Per avere relazioni di successo, devi correre dei rischi e non avere paura di fallire. I chatbot non capiscono il potenziale generativo dei problemi di comunicazione e dei sentimenti feriti. Come altrimenti impariamo a riparare le relazioni? Inoltre, nella IA la qualità della risposta che ottieni si basa sulla qualità della domanda che fai. Risposte vaghe ottengono risposte vaghe. Lo stesso accade nelle relazioni: se vuoi la vulnerabilità in un’altra persona, c’è solo un modo per ottenerla: mostrare tu stesso la vulnerabilità. Questa nozione controintuitiva probabilmente avrà poco senso per un chatbot che analizza il suo database e poi restituisce stringhe di parole che prevede siano una risposta probabile alla tua domanda.
  3. Prendi in considerazione consigli specificamente adattati a te. È sempre utile raccogliere dati da diverse fonti quando si prende una decisione, specialmente una decisione emotiva di grande importanza. Ma è importante dare priorità a consigli specificamente adattati a te, cosa che l’IA non è in grado di fare. Non sa quando hai bisogno di una dose di realismo o di umorismo nero; non può indovinare se vuoi fare brainstorming per trovare una soluzione o semplicemente sfogarti. Sa solo sintetizzare dati, non può sbirciare nella tua anima. Chiediti: quando è stata l’ultima volta che qualcuno ha detto qualcosa che mi ha fatto sentire veramente capito? Se la risposta ti lascia perplesso, chiediti quando è stata l’ultima volta che qualcuno si è sentito in quel modo per qualcosa che hai detto tu.
  4. Ammetti quando non sai qualcosa o hai commesso un errore. I chatbot sono programmati per avere sempre una risposta, ma ammettere di non sapere qualcosa è uno strumento estremamente sottovalutato nelle relazioni. Siamo più consapevoli che mai dei nostri fallimenti; questo ha creato un’ansia di proporzioni epiche e ha rafforzato l’idea che dovremmo sempre sapere dove stiamo andando, quali sono i nostri piani e cosa dovremmo fare o sentire. Il perfezionismo nelle relazioni può essere molto dannoso. Anche se vorresti aver fatto qualcosa in modo diverso, gli errori sono quasi sempre opportunità per connettersi più profondamente.
  5. Infine, cerca ispirazione. Leggi grandi poesie. Ascolta Puccini, Mozart, Taylor Swift. Visita un museo. Ascolta l’album Blue di Joni Mitchell per intero con le luci spente. Hoffman dice che “per alcune persone, l’ispirazione può venire da una camminata o da una ricetta, da qualcosa di creativo e non correlato alla propria vita”. Lasciati commuovere; spesso è il caso che sentirsi ispirati sia rassicurante. L’arte ci ricorda anche che siamo parte di qualcosa di più grande di noi stessi.

Quasi ogni avanzamento tecnologico porta con sé promesse e pericoli. Internet mobile ha reso l’accesso alle informazioni facilmente disponibile, ma ci ha anche resi eccessivamente dipendenti dai nostri telefoni e meno propensi a trattenere le informazioni. L’industrializzazione di massa ha reso beni e servizi più accessibili, ma ha anche accelerato il cambiamento climatico. Non c’è dubbio che l’IA sarà una caratteristica significativa del nostro futuro. La domanda rimane come possiamo sfruttare il suo potere per il bene senza perdere il fondamento più essenziale della società: la connessione umana.