Introduzione di Gian Luigi Nicolosi
Come mai sono passati oltre due decenni da quando si è cominciato a parlare di
Intelligenza Artificiale, ma la sua diffusione è ancora così limitata?
Quale futuro per l’Intelligenza Artificiale?
Apriamo un dibattito…
Apriamo un dibattito sul futuro dell’Intelligenza Artificiale, che coinvolga non solo gli addetti ai lavori ma tutta la Cardiologia Clinica, con l’obiettivo di far emergere le difficoltà e gli ostacoli alla sua implementazione e le strategie da attuare per un loro definitivo superamento.
Per inviare il vostro contributo al forum, inviate un’email a cardiologianegliospedali@anmco.it
I buoi e la stalla
I principiI principi etici della professione medica per guidare le applicazioni di progetti di Intelligenza Artificiale
Gli algoritmi di AI dovranno dimostrare la loro utilità sulla base di ricerche prospettiche di confronto tra medici che usano l’AI e medici che non lo usano, rispetto a end point clinici forti (riduzione di eventi maggiori e mortalità)
I progetti di applicazione dell’Intelligenza Artificiale (Artificial Intelligence: AI) in ambito medico stanno aprendo orizzonti sorprendenti che potrebbero migliorare sensibilmente la diagnosi e la cura dei pazienti di tutto il mondo. Gli esperti più sensibili ai rischi che comporta la diffusione incontrollata di nuove tecnologie, sostengono però che nel progettare un nuovo sistema si dovrebbe prioritariamente valutare quale sarà l’impatto sui fruitori e sulla società. Attualmente invece i programmatori si occupano del funzionamento e della ricaduta economica, a prescindere da quali effetti produrrà a breve e lungo termine. Tutto ciò è pericoloso. Questo ragionamento si applica anche all’AI in campo medico; non si tratta di metterne in discussione la validità, ma di valutare ogni progetto come verrà applicato e quali conseguenze potrà provocare. L’AI offre potenzialità straordinarie che potranno essere di supporto ai medici e ai pazienti, potranno risolvere problemi clinici, ma deve esser guidata da principi etici oltre che economici.
Pro
I fautori sostengono che i pazienti di tutto il mondo, indipendentemente dal posto dove vivono, potranno essere trattati in modo equo, perché potranno accedere alle migliori e aggiornate informazioni disponibili (se l’elettricità e i collegamenti internet raggiungeranno ogni angolo del pianeta, ovviamente), che le diagnosi verranno formulate in modo più rapido, che le terapie saranno più accurate, che ogni processo diagnostico sarà meno costoso dal momento che gli algoritmi prescriveranno il test giusto, alla persona giusta, nel momento giusto della sua malattia, e che tutto questo si tradurrà in una maggiore efficienza clinica[i]. Si tratta di potenzialità; non sappiamo quali saranno i sistemi di AI applicati alla medicina, quanto saranno accurati e se, oltre che efficienti, saranno anche efficaci e non creeranno artificiose sovraprescrizioni.
Contro
Le questioni che devono essere risolte per ogni progetto di AI[ii], pima che venga implementato, riguardano:
- La fiducia. Medici e pazienti devono fidarsi alla cieca della bontà degli algoritmi che sono una sorta di black box che opera in modo imperscrutabile; i fruitori potranno solo vedere cosa entra e cosa esce, senza aver la possibilità di capire e di interferire con il processo decisionale.
- La validità. La validità dell’algoritmo può essere compromessa da errori metodologici e procedurali, da pregiudizi degli sviluppatori e da data base che non riflettono gli ambienti clinici reali e che non rappresentano le condizioni dove verranno applicati. L’errore commesso da un medico si ripercuote su un singolo individuo, quello di un algoritmo su milioni di pazienti.
- La generalizzabilità. Gran parte delle informazioni provengono da data base raccolti negli Stati Uniti e in alcuni paesi Europei e da linee guida scritte da esperti di paesi occidentali. Si dovrà valutare se i risultati potranno essere applicati a pazienti che vivono in differenti contesti culturali, sociali ed economici.
- La responsabilità. Nel caso di un errore diagnostico di chi sarà la responsabilità? Di chi ha sviluppato l’algoritmo, della società che lo ha commercializzato, dell’ospedale che lo ha adottato o del medico che ha assunto la decisione finale?[iii]
- La privacy. C’è un accordo unanime sul fatto che l’implementazione dei progetti di AI devono essere accompagnati da una garanzia assoluta sulla protezione dei diritti dei cittadini e dei pazienti in termini di privacy e sicurezza. Recentemente una iniziativa di Google DeepMind e del Servizio Sanitario Nazionale Britannico è stata bloccata perché i pazienti non erano stati sufficientemente informati su come i propri dati sarebbero stati utilizzati.
- L’efficacia. Ogni algoritmo dovrebbe essere considerato un device medico e studiato e valutato in modo rigoroso con trial clinici randomizzati per saggiarne l’efficacia clinica. Le ricerche finora pubblicate riguardano il confronto tra l’accuratezza diagnostica di un algoritmo con quella di medici esperti. È invece indispensabile dimostrare che un algoritmo sia utile sulla base di ricerche prospettiche di confronto tra medici che usano l’AI e medici che non lo usano, rispetto a end point clinici forti (riduzione di eventi maggiori e mortalità). Non è sufficiente limitarsi a verificare che l’AI sia più accurata di un medico esperto, come non ci accontentiamo di sapere che un farmaco riduce l’incidenza di un end point surrogato, senza che sia accertata la riduzione della mortalità.
- La deresponsabilizzazione. Si deve evitare il rischio di una eccessiva dipendenza dai sistemi di AI che potrebbero avere gravi conseguenze sulla deresponsabilizzazione e sulla dequalificazione dei medici in ambito clinico. In caso di un parere controverso tra una raccomandazione fornita da AI e da un medico, a chi si crederà?[iv]
- Il rapporto medico paziente. Il rapporto medico paziente potrebbe essere messo a rischio. Come sostenuto in un documento del Parlamento Europeo “il contatto umano è uno degli aspetti fondamentali della cura e rimpiazzare le persone con dei robot potrebbe disumanizzare in modo irreversibile la pratica medica” [v].
- Valori personali. Bisognerà verificare che i sistemi tengano conto dei valori, delle aspettative e dei bisogni dei pazienti che sono differenti in base a differenti contesti culturali e sociali. Non si possono applicare parametri etici uguali per tutti in tutte le parti del mondo.
Governare l’innovazione
Come professionisti della sanità che hanno a cuore il bene delle persone ammalate, non possiamo permetterci di sacrificare sull’altare dell’efficienza diagnostica alcuni principi che hanno regolato la nostra professione per millenni. Le potenzialità della AI applicata alla medicina sono straordinarie, i primi dati pubblicati dimostrano un’elevata efficienza diagnostica, ma non si può transigere sul fatto che strumenti così potenti possano essere implementati senza adeguate sperimentazioni. Per ogni algoritmo si deve pretendere che venga valutata non solo l’efficienza, ma anche l’efficacia clinica nel ridurre complicazioni, ricoveri, decessi senza produrre squilibri sociali, comportamentali e relazionali. È necessario uno sforzo a livello internazionale per governare un processo che attualmente sembra in balia di una assoluta deregulation, in modo da prevedere le possibili conseguenze, invece di dovere rimediare danni non previsti. Visti i contraccolpi provocati da programmi lanciati in internet, senza valutarne l’impatto sulle persone più fragili, i medici e le loro associazioni devono chiedere a gran voce che si tenga chiusa la stalla fino a quando non ci siano garanzie che l’uscita dei buoi sia davvero utile e non provochi danni.
Bibliografia
[i] Desai AN Artificial Intelligence: Promise, pitfalls, and perspective JAMA 2020. doi:10.1001/jama.2020.8737
[ii] Gerke, S Minssen T, Cohen G. Ethical and legal challenges of artificial intelligence-driven healthcare. Editor(s): Adam Bohr, Kaveh Memarzadeh. Artificial Intelligence in healthcare. Academic Press 2020, Pages 295-336, ISBN 9780128184387. https://doi.org/10.1016/B978-0-12-818438-7.00012-5
[iii] Price WN, Gerke S, Cohen IG. Potential liability for physicians using Artificial Intelligence. JAMA 2019; 322: 1765–1766. doi:10.1001/jama.2019.15064
[iv] Dalton-Brown S. The Ethics of medical AI and the physician-patient relationship. Cambridge Quarterly of Healthcare Ethics 2020; 29: 115–121. doi:10.1017/S0963180119000847
[v] Wehbe, R., Curcio,E., Gajjar, M., & Yadlapati, A. Technology and Its Influence on the Doctor- Patient Relationship. International Cardiovascular Forum Journal. 2015; 3: 38-39. http://dx.doi.org/10.17987/icfj.v3i0.99