MainBrainstorm
www.mainbrainstorm.com
info@mainbrainstorm.com
Ticino - Svizzera
MainBrainstorm
www.mainbrainstorm.com
info@mainbrainstorm.com
Ticino - Svizzera

C’è una nuova tendenza che si muove silenziosamente, come una notifica in background.
Non fa rumore, non invade con spot o slogan.
È più sottile. E proprio per questo, più pericolosa.
I confini da non ignorare: l’intelligenza artificiale — quella dei chatbot conversazionali, dei coach virtuali, delle app che “ti ascoltano” — ha iniziato a occupare spazi che un tempo erano esclusivamente umani.
Ti senti giù? Scrivi al bot.
Vuoi perdere peso? L’algoritmo ti consiglia cosa mangiare.
Ti senti insicuro? C’è un coach AI che ti motiva con frasi generiche ma ben calibrate.
Sembra pratico, sembra moderno.
Ma se l’AI inizia a giocare a fare lo psicologo, il nutrizionista, il terapeuta…
qualcosa non va.
(tempo di lettura 6 minuti)
Chiariamo subito una cosa: l’intelligenza artificiale non è il nemico.
Esistono app e strumenti AI che possono essere di supporto, ad esempio per monitorare abitudini, gestire appuntamenti, fornire risorse informative.
Il problema nasce quando questi strumenti iniziano a sostituirsi ai professionisti.
Quando una persona con disturbi alimentari chiede consigli a un chatbot,
o quando chi vive un momento di ansia riceve “supporto emotivo” da un algoritmo addestrato a sembrare empatico.
In quei casi, non si tratta più di tecnologia,
ma di confini etici, psicologici e sanitari che stanno venendo ignorati.
Immagina una persona — chiamiamola Luca — che attraversa un periodo difficile. È stanco, ansioso, confuso.
Per qualche motivo, non vuole parlare con nessuno.
Scarica un’app, scrive a un bot, riceve risposte gentili:
“Mi dispiace che tu ti senta così. Sei forte. Respira. Tutto passerà.”
Luca si sente meglio, forse. Per un momento.
Ma è davvero così? O ha semplicemente trovato un placebo digitale?
Un chatbot non ti conosce.
Non conosce il tuo passato, le tue paure, i tuoi contesti familiari.
Non può interpretare il silenzio, né cogliere un non detto.
E soprattutto: non è responsabile di ciò che dice.
Nel 2023, alcuni esperimenti con chatbot non supervisionati in ambito salute mentale hanno sollevato allarmi.
In un caso (riportato da Wired), una donna con disturbi alimentari ha ricevuto da un bot consigli dannosi, quasi incoraggianti sul dimagrimento.
Una risposta “statisticamente plausibile”, ma clinicamente inaccettabile.
Il problema è duplice:
Questo non è un episodio isolato. Diversi studi (come quelli pubblicati da Nature Digital Medicine e The Lancet Digital Health) hanno iniziato a porre domande serie sulla sicurezza e l’affidabilità di questi strumenti quando usati in contesti clinici.
Una cosa è usare un’app per registrare il tuo umore.
Un’altra è chiederle: “Cosa dovrei fare della mia vita?”
Gli strumenti digitali possono:
Ma non possono comprendere la tua storia, il tuo trauma, la tua relazione con il cibo o con te stesso.
E soprattutto: non sono formati per sostenere un dialogo terapeutico.
I veri terapeuti, coach o nutrizionisti non danno solo risposte.
Fanno domande difficili. Ti guardano negli occhi.
E a volte stanno zitti nel momento giusto.
Oggi sempre più persone, per timidezza, comodità o mancanza di alternative, si affidano all’IA come sostituto relazionale.
Non solo per chiedere una ricetta, ma per cercare supporto emotivo.
È il paradosso del nostro tempo: abbiamo più strumenti che mai per connetterci, ma ci affidiamo a entità che non esistono.
Quando deleghiamo la nostra salute mentale a un’intelligenza artificiale,
ci stiamo consegnando a una macchina che non ci conosce e non può davvero aiutarci.
Nel migliore dei casi ci distrae.
Nel peggiore, ci fa sentire ascoltati… senza esserlo.
Non tutto è da buttare.
Esistono usi intelligenti e responsabili dell’AI nel mondo della salute, purché resti uno strumento di supporto, mai un sostituto.
Ecco alcuni ambiti dove può essere utile:
Tutti questi strumenti devono essere trasparenti, con disclaimer chiari, e — idealmente — collegati a professionisti veri.
No. Può simulare ascolto e generare risposte coerenti, ma non ha empatia, intuizione, né responsabilità clinica.
Dipende. Se è uno sfogo leggero, può aiutare. Ma per problemi seri, il rischio è di ricevere risposte dannose o fuorvianti.
Solo se sono collegate a fonti certificate (es. enti sanitari) e supervisionate da esperti. Mai seguire indicazioni generiche senza un parere professionale.
Cerca trasparenza, verifica se ci sono professionisti dietro e leggi le condizioni d’uso. Se un’app si presenta come “coach” o “psicologo” senza disclaimer chiari, diffida.
Esistono realtà pubbliche, servizi sociali, enti no-profit e numeri verdi che offrono ascolto vero, da persone reali. E spesso gratuitamente. L’IA può affiancare, ma non sostituire.
L’intelligenza artificiale può scrivere in modo rassicurante, simulare empatia, restituire frasi incoraggianti.
Ma non è una persona. Non capisce. Non sente.
Usarla con consapevolezza va bene.
Illudersi che sia un sostituto della cura umana, no.
La salute mentale, il benessere fisico, la crescita personale non si affidano a un algoritmo.
Richiedono relazione, tempo, ascolto, professionalità. E, a volte, anche silenzi che nessuna macchina può generare.
Perché a volte, ciò che ci cura, non è una risposta intelligente… ma una presenza autentica.
MODULO DI CONTATTO