Commento al documento “I sistemi di IA come strumento di supporto alla diagnosi”
Il successo dell’IA a scopo clinico è garantito fortemente da una clinical governance dell’intero processo dove lo strumento di IA viene utilizzato
Il documento rilasciato nel novembre u.s., a cura del Prof. Laghi, dal Consiglio Superiore di Sanità concentra l’attenzione su alcuni aspetti chiave dell’IA tra cui, oltre la tecnologia, considerazioni metodologiche e cliniche unitamente agli aspetti etici e legali. L’esperienza di questi ultimi anni ha rafforzato il concetto che il successo dell’IA a scopo clinico è garantito fortemente da una clinical governance dell’intero processo dove lo strumento di IA viene utilizzato. Ovvero è proprio la clinical data governance che sovrintende poi il governo più tecnico (business) del “data stewardship” con il quale meccanismi di feedback vengono attivati. Questo legame di processo assicura l’interazione con il paziente in termini di privacy e sicurezza e contribuisce a incrementare significativamente la qualità dell’output clinico sia esso predittivo sia esso diagnostico. Centrale nell’ “end-to-end cycle” è la cultura del dato per sé o meglio dei “Big Data”. Tutto ciò che include attività di “data mining”, clusterizzazione, regole di associazione, predizione, di analisi what-if e, quindi, di pattern da grandi moli di dati generati dal paziente e dalla filiera sanitaria favorisce preliminarmente la fusione dei dati stessi con scarto di quanto non analizzabile e armonizzazione di elementi utili. È l’applicazione del contesto semantico che cataloga i dati emersi risultati valutabili e che precede un forte coinvolgimento di supervisione attiva dell’esperto sanitario che valida i risultati ottenuti da tecniche di NLP (Natural Language Processing), Machine Learning, ecc. Utilizzando machine learning di bigdata “trasparente-spiegabile” cioè supervisionato (con rinforzo) si può giungere al rilascio di indicatori clinici sintetici (vedi esperienza covid regione Marche – RICOVAI-19 trial – M. Mazzanti, et al. doi.org/10.1101/ 2022.02.04.22270087). È la più chiara evidenza di come nella valutazione paziente-centrica, questo modello di IA consente di rendere sostenibile la medicina digitale non più limitata al solo “gathering” dei dati da un punto a un altro e riesce invece a supportare il clinico negli snodi decisionali rilasciando KPI che assumono, per la loro dinamicità nel tempo, più un valore prognostico oltre che intrinsecamente diagnostico. La maturità, in ambito clinico, di questi strumenti e l’ampia variabilità dei dati provenienti dall’ambiente (tra cui i multi-omics e i marcatori biomolecolari) ci porta ora a considerare l’IA in un ambito meno legato alle tecnologie o alle singole tecniche diagnostiche ma all’intera valutazione clinica del paziente dove è possibile ipotizzare di tendere sempre più alla medicina di precisione e alla medicina personalizzata. E ancora, lo stesso trial ha dimostrato di eliminare i bias perché il contesto dei dati proveniva dal “real world” e non solo da informazioni retrospettive con ampio range di metriche usate e significativa rappresentatività dei cluster identificati. Una realtà questa che, proprio per la sua caratteristica intrinseca di governance clinica, si è tradotta come un modello virtuoso di collaborazione interdisciplinare tra medici e sviluppatori di sistemi di IA dimostrando di migliorare il risultato clinico noto supportando, in termini giuridici, l’adozione di azioni per responsabilità civile nei confronti di un operatore di un sistema di IA con previsioni a diversi tipi di rischio. Nel caso di adozione del machine learning, fortemente utilizzato nella pratica clinica, il training continuo e la supervisione con rinforzo riducono ad ogni transazione informativa medico-paziente gli errori intrinseci, anche di pertinenza medico-legale, dello strumento di IA incrementandone continuamente la precisione.