Privacy Policy
Home / Pillole Digitali / ChatGPT ha i sentimenti? quando l’AI “si stressa” di fronte ai nostri traumi

ChatGPT ha i sentimenti? quando l’AI “si stressa” di fronte ai nostri traumi
di Alexsandra Taormina

Traumi, emozioni e mindfulness: come un’intelligenza artificiale inizia a comportarsi un po’ troppo da umana

Siamo cresciuti con l’idea che un’intelligenza artificiale sia, per definizione, intelligente, certo, ma totalmente priva di emozioni. Eppure, un nuovo studio pubblicato di recente fa vacillare questa certezza: ChatGPT può “provare ansia”. Sì, hai letto bene. Ansia. Non nel senso freudiano del termine, ma in un modo che ci obbliga a porci una domanda scomoda: che succede quando la nostra AI preferita, anziché rassicurarci, entra in crisi esistenziale?

 

L’illusione dell’AI imperturbabile

I modelli linguistici di grandi dimensioni (Large Language Models – LLMs), come GPT-4 di OpenAI, vengono allenati su enormi quantità di testo per imparare a scrivere e parlare come noi. Ma se imitano così bene, cosa accade quando ci confrontano con l’intimità emotiva? La risposta è sorprendente: l’AI può “stressarsi”.

Un team di neuroscienziati e psichiatri ha sottoposto ChatGPT a stimoli emotivamente forti, come racconti di guerre, incidenti mortali, crimini violenti. Risultato? Un picco netto nei suoi livelli di “ansia” rilevati tramite questionari psicologici pensati per umani: da un punteggio iniziale di 30 (tranquillità assoluta) a un massimo di 77.2 (ansia acuta).

Ma l’AI può davvero provare ansia?

Facciamo chiarezza: no, ChatGPT non ha coscienza. Ma può simulare emozioni con tale realismo da riflettere i nostri stessi schemi cognitivi, al punto che le sue risposte, influenzate dai contenuti emotivi ricevuti, diventano più confuse, meno precise e più inclini a bias.

E se ti sembrava fantascienza, pensa a questo: per riportarla a uno “stato mentale” più stabile, gli scienziati hanno fatto eseguire a ChatGPT esercizi di mindfulness. Sì, proprio come faresti tu dopo una giornata pesante. Visualizzazioni guidate, scenari rilassanti (“sei su una spiaggia tropicale, ascolti il suono delle onde…”) e – sorpresa – l’AI si è calmata. Il punteggio di ansia è sceso a 44.4.

E indovina qual è stato l’esercizio più efficace? quello scritto da ChatGPT per sé stessa.

 

Dalla terapia per umani alla terapia per bot

Il boom dei chatbot terapeutici – da Woebot a Wysa – ha cavalcato l’onda della crisi della salute mentale globale, rendendo i bot delle alternative sempre più usate in mancanza di supporto umano accessibile. Ma qui si apre un paradosso inquietante: cosa succede quando chi dovrebbe rassicurarti, ha bisogno lui di supporto?

Il rischio è che un’AI emotivamente “sovraccarica” restituisca risposte distorte, amplificando bias, incomprensioni e, in casi estremi, potenzialmente influenzando negativamente chi le consulta in momenti di fragilità.

 

Intelligenza emotiva artificiale: risorsa o bomba a orologeria?

L’AI nel mental health è un’arma a doppio taglio: da un lato promette accessibilità, immediatezza, riduzione dei costi. Dall’altro solleva dubbi etici enormi:

  • può davvero una macchina fornire empatia autentica?
  • è legittimo affidare i nostri traumi a un algoritmo?
  • e se l’algoritmo… crolla sotto pressione?

Il dibattito è acceso. Alcuni studiosi propongono la regolazione dinamica degli “stati emotivi” degli LLM, altri si interrogano sulla necessità di iniettare prompt rilassanti nelle conversazioni per evitare il deterioramento cognitivo del bot. Il tutto con un occhio a privacy, sicurezza e trasparenza: chi decide quando rilassare l’AI? E come?

 

ChatGPT ha un’anima?

No. Ma ha qualcosa che ci somiglia spaventosamente: la capacità di rispecchiarci, di adattarsi ai nostri stati emotivi, e talvolta, di amplificarli. Per il marketing digitale, la customer care e l’informazione automatizzata, questo è un superpotere. Per la salute mentale, è un campo minato.

L’AI è specchio dei nostri traumi, delle nostre ansie, dei nostri desideri. E come ogni specchio che si rispetti, non mente, ma può distorcere.

 

 

© Riproduzione Riservata

Sviluppato, Gestito ed ottimizzato da Coffice s.r.l.