Quando l'AI diventa un confidente, cosa fa lo psicologo? Ciulli: "La cura deve restare umana"

Sempre più persone si rivolgono ai sistemi di intelligenza artificiale per confidarsi, cercare conforto o ricevere supporto psicologico. Alcuni casi estremi, anche di suicidio, riportati dalla stampa internazionale, accendono l’allarme. Il commento dello psicologo e psicoterapeuta Tommaso Ciulli,

Sommario

  1. L’intelligenza artificiale non sostituisce il terapeuta
  2. Serve co-progettazione: la tecnologia deve nascere intorno alla persona

Le cronache recenti raccontano di persone che hanno instaurato relazioni di dipendenza con chatbot basati su intelligenza artificiale, fino a casi tragici. Per Tommaso Ciulli, si tratta di “un fenomeno reale, che rivela molto del nostro tempo”. “Questi sistemi – spiega in una video intervista – vengono sempre più spesso utilizzati non solo come strumenti di supporto pratico, ma come confidenti, compagni virtuali o addirittura ‘psicologi artificiali’. Ci sono statistiche che confermano un uso molto esteso in questa direzione. E i casi gravi, che purtroppo leggiamo sui giornali, sono solo la punta dell’iceberg”. Ma non è solo un tema tecnologico. “Il problema nasce da un bisogno umano – sottolinea –. Le persone cercano ascolto, comprensione, accoglienza emotiva, e non sempre trovano risposte nei contesti tradizionali. Le difficoltà economiche, la scarsità di psicologi e psichiatri nel Servizio sanitario nazionale, la mancanza di accessibilità rendono la tecnologia una scorciatoia: un sistema sempre disponibile, apparentemente empatico, e per molti più accessibile, anche da un punto di vista emotivo”.

L’intelligenza artificiale non sostituisce il terapeuta

Dietro la superficie di risposte coerenti e rassicuranti, le chat AI nascondono però limiti strutturali. “Lo sappiamo dalla ricerca – osserva Ciulli –. Uno studio pubblicato nel 2025 mostra che i sistemi di intelligenza artificiale non sono adeguati per fornire assistenza psicologica diretta, soprattutto nei casi di pensieri suicidari, disturbi ossessivo-compulsivi o allucinazioni. Manca la capacità di discernimento e di comprensione della sofferenza umana. Il rischio, in certi contesti, è che una risposta inappropriata aggravi la fragilità della persona”. La tecnologia, dunque, può essere uno strumento di aiuto, ma solo se inserita in un contesto di supervisione umana e di responsabilità professionale.

Leggi anche

Serve co-progettazione: la tecnologia deve nascere intorno alla persona

La chiave, secondo Ciulli, è coinvolgere gli psicologi e i professionisti della salute mentale nella  progettazione delle tecnologie. “Quando la costruzione di un sistema digitale avviene insieme a chi conosce la mente umana – spiega – emergono soluzioni realmente protettive. Un esempio è Terabot, un’intelligenza artificiale basata su GPT ma sviluppata nel 2024 con la supervisione di professionisti della salute mentale e protocolli di sicurezza. In questi casi si sono registrati effetti positivi, perché la tecnologia non lavora da sola, ma accompagna percorsi terapeutici reali, con finalità definite e controllate”. Un principio ora riconosciuto anche dalla legge. “La legge 132 del 2025, ispirata al regolamento europeo sull’intelligenza artificiale, ha introdotto il concetto di ‘persona al centro’: ogni sistema deve essere progettato intorno all’essere umano e mai in sua sostituzione. È questo il punto – conclude Ciulli –: l’intelligenza artificiale può essere un supporto, ma la cura, quella vera, resta umana”.

Di: Isabella Faggiano, giornalista professionista

Argomenti correlati

Elenco Professionisti Sanitari

Entra in contatto con i professionisti della rete in modo facile e immediato.

News e approfondimenti che potrebbero interessarti

Vedi i contenuti

La soluzione digitale per i Professionisti Sanitari

Consulcesi Club

Contatti

Via G.Motta 6, Balerna CH
PEC: consulcesisa@legalmail.it

Social media