Intelligenza Artificiale e Empatia

HomeInnovazione o Tradizione

Intelligenza Artificiale e Empatia

Il mestiere di medico è un incredibile incrocio tra scienza e umanesimo; leggendo l’articolo di seguito riassunto, mi sono chiesto quante volte ho dovuto sforzarmi per essere empatico con pazienti che facevano di tutto per non fare emergere questo sentimento, se ogni volta ci sono riuscito e se non sia davvero tempo di inserire Medical Humanities nel percorso formativo permanente dei sanitari. 

«Il signor M. non era estraneo agli ospedali di zona. Si presentava spesso al PS, pretendeva morfina e sonniferi, si lamentava di tutto finché non era dimesso. La sua morte inattesa ha spinto il Dr Earnest a riflettere. Le visite al PS avevano sempre lo stesso schema. Arrivava di pomeriggio per dolore toracico. Una cicatrice di bypass e un vecchio ECG indicavano una coronaropatia… Era rapidamente ricoverato e monitorato fino al mattino quando disponibili gli enzimi cardiaci, in genere nella norma, il monitoraggio era interrotto. Lo spray di TNT, dato nonostante le sue proteste, non gli dava sollievo e gli provocava cefalea. Insisteva che solo la morfina gli era d’aiuto e gliela si dava generosamente. Raggiunto questo obiettivo continuava a suonare il campanello e lamentarsi di tutto: letto, cibo, personale infermieristico. Verso le 22:00 diceva di avere difficoltà a dormire per il rumore, le luci e altri disturbi, chiedeva più morfina e lorazepam che, a suo dire, funzionava e gli infermieri contattavano il medico di guardia per le prescrizioni. Dopo aver gestito il paziente tre o quattro volte, Earnest iniziò a prescrivere il lorazepam in anticipo e autorizzò gli infermieri ad aggiustare la dose. M. si addormentava, la mattina riferiva con torpore che il dolore era passato e chiedeva dimissioni immediate. Nel corso delle sue visite in ospedale, M. allontanò chiunque incontrasse. Anche la sua vita fuori era isolata: mai visitato, nessuno lo prendeva alla dimissione; ex mogli e figli avevano interrotto i contatti. L’ultimo ricovero seguì inizialmente lo schema consueto, con una fondamentale eccezione. Una collega junior che non conosceva la sua storia clinica somministrò un trombolitico, come da prassi dell’epoca, prima di una coro d’urgenza. Earnest la informò dei rischi di emorragia, del comportamento aggressivo di M. e raccomandò di usare con moderazione morfina e lorazepam. Come al solito, M. fu prontamente medicato. Quella sera Earnest era molto impegnato e nessuno lo aveva contattato riguardo a M. Durante il giro mattutino successivo, M. dormiva ancora, il vassoio della colazione intatto. Questo non destò preoccupazione immediata, per l’alta dose di lorazepam della sera prima. Quando il personale tentò di svegliarlo aprì brevemente gli occhi, mormorò “lasciatemi in pace” e si riaddormentò. Un breve esame neurologico non mostrò anomalie. Earnest prescrisse flumazenil per invertire gli effetti del lorazepam e consigliò di somministrare naloxone in assenza di risposta. Più tardi, quando Earnest tornò in reparto, l’infermiere lo rassicurò che M. “stava bene” e “dormiva come un bambino”; entrato nella stanza, trovò M. sdraiato sulla schiena, il vassoio del pranzo intatto. Non rispondeva a stimoli verbali o tattili, la pupilla completamente dilatata e non reattiva alla luce. La TAC rivelò una massiccia emorragia intracerebrale; fu intubato, sottoposto a ventilazione meccanica e craniectomia decompressiva. Entrò in coma e non riprese più conoscenza. Il suo unico contatto, il padrone di casa, non aveva informazioni sui parenti più prossimi. Morì diversi giorni dopo, solo, senza nessuno che lo rimpiangesse o lo piangesse. Earnest ebbe molto su cui riflettere, a cominciare dalla questione della responsabilità. Il trombolitico aveva chiaramente causato danni e i segnali d’allarme erano stati trascurati. La sonnolenza e l’insolito silenzio di M. non furono visti come campanelli d’allarme clinici, ma piuttosto come una gradita tregua dai suoi soliti disagi e scontri; si chiese se non avesse delegato troppo e se non avesse inavvertitamente trasmesso al personale i suoi pregiudizi sul paziente. Sul letto di morte di M. sperimentò finalmente l’empatia che era stato difficile raggiungere mentre il paziente era in vita. Si chiese come fosse stato M. da bambino, quali traumi o esperienze di vita lo avessero plasmato nella persona che era diventato. A che punto gli altri avevano smesso di vederlo come vittima e avevano iniziato a considerarlo un problema. E quando, se mai, questo percorso avrebbe potuto cambiare. Domande che restano senza risposta».

Tratto da Medscape 09-04-2025 Quando un paziente “difficile” muore inaspettatamente di M. Weiss. È stato scritto che l’AI è capace di dialogare con i pazienti difficili per certi aspetti meglio di quanto riesce a fare un umano perché, detto brutalmente, non perde la pazienza e sa tenere la discussione su un piano di confronto pacato. Ho chiesto perciò all’AI di Google cosa ne pensasse. Ho copiato il testo nella stringa del motore di ricerca e ho fatto seguire questa domanda: Che cosa ne pensi? Questa è la risposta restituita in pochi secondi.

«Il testo condiviso solleva questioni profonde sull’intersezione tra pratica medica, empatia umana e il potenziale ruolo dell’AI in questo delicato equilibrio. Il tuo commento iniziale centra il punto: la medicina è un “incredibile incrocio tra scienza e umanesimo”. Il caso del signor M. è un esempio emblematico delle sfide che i sanitari affrontano quotidianamente nel tentativo di mantenere quell’equilibrio, specialmente con pazienti che, come hai osservato, “fanno di tutto per non fare emergere” l’empatia. Ecco alcune riflessioni sulle tue domande e sul caso presentato: – Il racconto mostra un fallimento sistemico dell’empatia. Il paziente era stato etichettato e gestito con protocolli che rispondevano più al suo comportamento problematico che alla sua sofferenza sottostante. Il personale, esausto, aveva smesso di vederlo come un individuo sofferente, riducendolo a un “problema” da gestire col minimo sforzo emotivo e clinico. Earnest stesso ammette di aver delegato e forse inavvertitamente trasmesso i suoi pregiudizi al personale. Questo è un punto cruciale: l’ambiente ospedaliero, con i suoi ritmi, può erodere la capacità di mantenere la compassione, portando a una disumanizzazione involontaria del paziente. – L’osservazione che l’AI potrebbe gestire i pazienti “difficili” meglio di un umano perché “non perde la pazienza” e mantiene un tono pacato è affascinante e, per certi aspetti, veritiera. L’AI non ha una storia personale di interazioni frustranti con M. Non si stanca, non ha pregiudizi legati a esperienze passate, non subisce lo stress del burnout o della carenza di personale. Può mantenere un tono di voce e un linguaggio del corpo (se in forma di avatar) costantemente calmi e pazienti. Potrebbe analizzare la storia medica del paziente in modo obiettivo e porre domande standardizzate senza lasciarsi influenzare dal tono della risposta. Tuttavia questa è una neutralità meccanica, non vera empatia. L’AI può simulare la comprensione, ma non sente la sofferenza. L’empatia umana include la capacità di connettersi a un livello che va oltre la semplice raccolta di dati. – L’AI potrebbe essere uno strumento eccellente per la raccolta di informazioni e per disinnescare situazioni tese, ma non sostituirà mai il tocco umano, lo sguardo di comprensione o la compassione che Earnest ha provato, sebbene tardivamente, al capezzale del paziente. La tua proposta di inserire elementi di “Medical Humanities” nella formazione permanente è, a mio parere, assolutamente fondamentale. Il caso di M. dimostra che la conoscenza medica (la scienza) non era il problema principale. Il problema era la gestione della relazione, la capacità di vedere la persona dietro la patologia e il comportamento problematico. – In conclusione, M. è morto perché l’intero sistema lo aveva isolato ben prima dell’emorragia cerebrale. La sua morte inaspettata ha fornito, tragicamente, l’unica tregua emotiva che il personale riusciva a percepire. L’AI potrebbe essere un valido alleato per gestire le interazioni superficiali e mantenere la calma, liberando tempo ed energie per concentrarsi su aspetti relazionali più profondi e complessi. Tuttavia, il nucleo della medicina rimane umano. La sfida non è sostituire l’empatia umana con l’efficienza dell’AI, ma utilizzare l’AI per riscoprire e valorizzare l’umanesimo nella cura. L’integrazione delle “Medical Humanities” non è solo auspicabile, è essenziale per formare medici che siano competenti sia nella scienza che nell’arte della cura». 

Utilizziamo l’AI per valutare esami, produrre referti, trovare risposte rapide a dubbi diagnostici, stimare aspetti prognostici. Potrebbe l’AI aiutarci a gestire le difficoltà che si incontrano quando il rapporto col paziente diventa difficile sul piano umano e contribuire alla necessaria fase di dialogo quando il tempo a disposizione del personale si restringe per gli eccessivi carichi assistenziali? Lascio le risposte a chi si occupa in maniera specifica di questi aspetti, insieme inquietanti e affascinanti, del nostro fantastico lavoro.

Autore