Le cronache recenti raccontano di persone che hanno instaurato relazioni di dipendenza con chatbot basati su intelligenza artificiale, fino a casi tragici. Per Tommaso Ciulli, si tratta di “un fenomeno reale, che rivela molto del nostro tempo”. “Questi sistemi – spiega in una video intervista – vengono sempre più spesso utilizzati non solo come strumenti di supporto pratico, ma come confidenti, compagni virtuali o addirittura ‘psicologi artificiali’. Ci sono statistiche che confermano un uso molto esteso in questa direzione. E i casi gravi, che purtroppo leggiamo sui giornali, sono solo la punta dell’iceberg”. Ma non è solo un tema tecnologico. “Il problema nasce da un bisogno umano – sottolinea –. Le persone cercano ascolto, comprensione, accoglienza emotiva, e non sempre trovano risposte nei contesti tradizionali. Le difficoltà economiche, la scarsità di psicologi e psichiatri nel Servizio sanitario nazionale, la mancanza di accessibilità rendono la tecnologia una scorciatoia: un sistema sempre disponibile, apparentemente empatico, e per molti più accessibile, anche da un punto di vista emotivo”.
L’intelligenza artificiale non sostituisce il terapeuta
Dietro la superficie di risposte coerenti e rassicuranti, le chat AI nascondono però limiti strutturali. “Lo sappiamo dalla ricerca – osserva Ciulli –. Uno studio pubblicato nel 2025 mostra che i sistemi di intelligenza artificiale non sono adeguati per fornire assistenza psicologica diretta, soprattutto nei casi di pensieri suicidari, disturbi ossessivo-compulsivi o allucinazioni. Manca la capacità di discernimento e di comprensione della sofferenza umana. Il rischio, in certi contesti, è che una risposta inappropriata aggravi la fragilità della persona”. La tecnologia, dunque, può essere uno strumento di aiuto, ma solo se inserita in un contesto di supervisione umana e di responsabilità professionale.
Leggi anche
Serve co-progettazione: la tecnologia deve nascere intorno alla persona
La chiave, secondo Ciulli, è coinvolgere gli psicologi e i professionisti della salute mentale nella progettazione delle tecnologie. “Quando la costruzione di un sistema digitale avviene insieme a chi conosce la mente umana – spiega – emergono soluzioni realmente protettive. Un esempio è Terabot, un’intelligenza artificiale basata su GPT ma sviluppata nel 2024 con la supervisione di professionisti della salute mentale e protocolli di sicurezza. In questi casi si sono registrati effetti positivi, perché la tecnologia non lavora da sola, ma accompagna percorsi terapeutici reali, con finalità definite e controllate”. Un principio ora riconosciuto anche dalla legge. “La legge 132 del 2025, ispirata al regolamento europeo sull’intelligenza artificiale, ha introdotto il concetto di ‘persona al centro’: ogni sistema deve essere progettato intorno all’essere umano e mai in sua sostituzione. È questo il punto – conclude Ciulli –: l’intelligenza artificiale può essere un supporto, ma la cura, quella vera, resta umana”.