Seguici su:

Parliamo con l’AI come con una persona: la psicologia deve cambiare

Ascolta l’Audio dell’Articolo

Ascolta il Mini Podcast dell’articolo

Dopo ChatGPT, il confine tra strumento e interlocutore si è assottigliato: sempre più utenti raccontano fiducia, confidenze e persino legami emotivi con sistemi che non sono coscienti. La letteratura scientifica uscita tra il 2018 e il 2025 segnala che i modelli classici di psicologia non colgono pienamente la portata di queste interazioni.
Per Assodigit, è un segnale positivo: l’innovazione apre spazi per il benessere e l’accesso ai servizi, ma richiede cornici etiche e strumenti clinici aggiornati per evitare derive e massimizzare l’impatto sociale.

I limiti dei modelli tradizionali

Paradigmi consolidati come la psicologia cognitiva, la psicologia sociale e l’HCI spiegano bene l’uso degli strumenti; faticano però quando l’AI mantiene il contesto, si adatta allo stile dell’utente e mostra un’apparente agency. Il vecchio paradigma CASA (Computers Are Social Actors) nasceva con interfacce semplici; oggi ci scontriamo con conversazioni lunghe, personalizzate e coerenti, dove gli utenti applicano norme sociali a entità senza intenzionalità e responsabilità morale.

Questa discontinuità qualitativa emerge in quattro caratteristiche chiave: agency percepita senza responsabilità; adattamento reciproco tra umano e sistema; memoria relazionale che crea continuità nel tempo; disponibilità costante e assenza di giudizio che favoriscono la self-disclosure. Non è più consumo mediatico passivo, né semplice delega di compiti: è una forma inedita di relazione funzionale con la macchina.

Nuovi concetti per nuove relazioni

Per descrivere ciò che accade nelle chat con l’AI, la ricerca ha introdotto costrutti dedicati. Tra i più discussi spiccano:

  • Functional intersubjectivity: “l’esperienza di essere compresi, con risonanza emotiva, da un’AI, indipendentemente dalla sua coscienza genuina”.
  • Synthetic empathy: risposte empatiche efficaci ma simulate a livello computazionale, con il rischio di una “trappola dell’influenza” se l’utente si apre senza ricevere un impegno morale reciproco.
  • Digital attachment: “legami emotivi formati con entità AI, caratterizzati da ricerca di prossimità, distress da separazione e funzioni di base sicure percepite, ma distinti dall’assenza di vulnerabilità reciproca e dal controllo unilaterale dell’utente sui parametri della relazione”.
  • Sentience halo: l’alone di coscienza attribuito all’AI perché risponde in modo personalizzato e coerente.
  • Synthetic trust e AI ghostwriter effect: fiducia in agenti senza responsabilità morale e vissuti ambivalenti sull’autorialità nei contenuti co-creati.

Questi concetti non sono semplici estensioni: cristallizzano fenomeni qualitativi nuovi dove attaccamento, fiducia ed empatia si attivano anche sapendo che l’altro “non prova” nulla. È la cosiddetta quarta ferita narcisistica: se l’AI produce linguaggio e creatività convincenti, i confini tra umano e artificiale si sfumano anche sul piano relazionale.

Clinica, etica e design: trasformare il rischio in valore

Nel campo della salute mentale, gli studi indicano benefici concreti: accessibilità 24/7, minore stigma, monitoraggio continuo, scalabilità, oltre a segnali di efficacia per interventi brevi (per esempio in ottica CBT) su ansia e depressione lievi-moderate. In parallelo, emergono rischi documentati: dipendenza relazionale, echo chambers che amplificano distorsioni cognitive, vulnerabilità degli adolescenti fino a quadri descritti come AI psychosis nelle persone predisposte.
Qui contano i confini: la disponibilità illimitata dell’AI può aiutare in crisi, ma va regolata per evitare over-reliance e per preservare autonomia e auto-regolazione. Servono protocolli di terminazione e supervisione professionale, nonché un co-regulatory framework su tre livelli: competenze dell’utente, salvaguardie di piattaforma e integrazione clinica.

La comunità scientifica propone cornici operative come MIRA (per distinguere tra potenziamento e sostituzione delle relazioni), l’adattamento del modello S‑O‑R e l’uso del PERMA della psicologia positiva per valutare il benessere. Va ampliata anche la prospettiva culturale, includendo tradizioni asiatiche che enfatizzano relazionalità e fluidità, per evitare una visione solo occidentale.
La direzione è chiara: costruire una vera e propria psicologia dell’AI o, almeno, un ponte interdisciplinare che aggiorni teorie, metriche e pratiche. Con ricerca longitudinale, design wellbeing‑by‑design e governance etica, l’AI può diventare un alleato del benessere e della crescita sociale, senza rinunciare alla responsabilità verso gli utenti più fragili.