Il punto di vista del Prof. Gianfranco Gensini

HomeForum sulla intelligenza artificiale

Il punto di vista del Prof. Gianfranco Gensini

Premessa
Quando ho ricevuto la cortesissima lettera con cui Manlio Cipriani e Mario Chiatto, preceduti da una affettuosa telefonata di Gigi Nicolosi, mi invitavano a contribuire al dibattito sull’Intelligenza Artificiale attivato su “Cardiologia negli Ospedali” ho scartato immediatamente l’idea di unirmi al coro dei molti che si trovano in attesa estatica ed entusiastica. Mi sono venute spontanee alcune domande: Di cosa parliamo quando parliamo (o scriviamo) di Intelligenza Artificiale? E l’intelligenza. Intelligenza sì, ma quale? E l’intelligenza emotiva non ci interessa in campo sanitario? Il titolo che mi veniva spontaneamente era: Facciamo un passo indietro: Intelligenza Artificiale: Istruzioni per l’uso. Ho diretto a lungo una rivista e so quanto il Direttore si deve impegnare per mantenerla in equilibrio. Io per una volta mi sento di non contribuire all’equilibrio e di giocare un ruolo “diverso” cercando non di “cantare nel coro” ma di provare a “mettere a terra” la questione articolandola nei vari punti a mio avviso cruciali.

Il contesto generale
L’intelligenza artificiale (IA) è sempre di più al centro dell’attenzione, anche grazie all’enfasi che le viene data e che è trasmessa dai mezzi di comunicazione. I benefici attesi sono molteplici in ogni ambito lavorativo. Nel mondo medico si auspicano miglioramenti organizzativi ma anche consistenti miglioramenti pratici nella cura dei pazienti. Ma quali origini hanno queste aspettative? Sono fondate su prove o sono frutto dell’onda emotiva di attesa per l’innovazione informatica? Non sarebbe la prima volta che l’IA dopo grandi aspettative ripiomba alla realtà concreta dei fatti. La sua storia, sebbene molto recente, è caratterizzata da una alternanza di periodi di grande positività e grandi aspettative e periodi di stasi e di sfiducia. D’altra parte, è vero che ogni volta che l’IA raggiunge un nuovo traguardo questo non è più considerato un successo, ma diviene un prodotto dell’informatica tradizionale e viene, quasi insensibilmente, incorporato nei supporti operativi che facilitano la vita di ognuno di noi. Un esempio evidente è costituito dai sintetizzatori vocali con cui si interagisce telefonicamente quando si chiama un call center. In passato quello dei sintetizzatori vocali e, più in generale, della elaborazione del segnale vocale, era un problema di interazione uomo-macchina opportunamente collocato nella ricerca in IA, oggi il riconoscimento vocale è considerato uno strumento operativo standard.

Come nasce l’attenzione alla IA?
Secondo il Vocabolario Treccani l’intelligenza è “quel complesso di facoltà psichiche e mentali che consentono all’uomo di:

  • pensare,
  • comprendere o spiegare i fatti o le azioni,
  • elaborare modelli astratti della realtà,
  • intendere e farsi intendere dagli altri,
  • giudicare, e lo rendono insieme capace:
  • di adattarsi a situazioni nuove e
  • di modificare le situazioni stesse quando queste presentano ostacoli all’adattamento;

l’intelligenza è propria dell’uomo, in cui

  • si sviluppa gradualmente a partire dall’infanzia e in cui
  • è accompagnata dalla consapevolezza e dall’autoconsapevolezza.

L’intelligenza è riconosciuta anche, entro certi limiti (memoria associativa, capacità di reagire a stimoli interni ed esterni, di comunicare in modo anche complesso, ecc.), agli animali, specialmente ai mammiferi (per es., scimmie antropomorfe, cetacei, canidi). Grazie a una serie di ricerche empiriche e di letteratura su soggetti affetti da lesioni di interesse neuropsicologico, lo psicologo Howard Gardner della Harvard University negli anni ’80 del secolo scorso ha identificato nove tipologie differenziate di “intelligenza”1:

A. Intelligenza logico-matematica,
B. Intelligenza linguistica,
C. Intelligenza spaziale,
D. Intelligenza musicale,
E. Intelligenza cinestetica o
procedurale,
F. Intelligenza interpersonale,
G. Intelligenza intrapersonale,
H. intelligenza naturalistica,
I. intelligenza filosofico-esistenziale.

L’intelligenza emotiva poi è un aspetto dell’intelligenza definita per la prima volta nel 1990 da Peter Salovey e John D. Mayer della Yale University che nel loro articolo “Emotional Intelligence”2 definiscono l’intelligenza emotiva come “La capacità di controllare i sentimenti ed emozioni proprie ed altrui, distinguerle tra di esse e di utilizzare queste informazioni per guidare i propri pensieri e le proprie azioni”. L’intelligenza emotiva è composta da tre rami principali:

  • Valutazione ed espressione delle emozioni.
  • Regolazione delle emozioni.
  • Utilizzo delle emozioni.

La Storia
La storia delle macchine in grado di effettuare calcoli (i “calcolatori” appunto, nasce fra il 1600 e il 1640, essenzialmente con macchine addizionatrici, mentre dopo il 1800 iniziano a comparire apparecchiature per il controllo automatico della tessitura e per garantire il “punto nave” per il controllo della rotta in mare. Le prime tracce dell’IA risalgono agli anni ‘50. Alan Turing, matematico, logico e filosofo britannico, uno dei padri dell’informatica moderna, aveva scritto nel 1950 un articolo intitolato “Computing machinery and intelligence”,3 in cui proponeva quello che sarebbe divenuto noto come “test di Turing”. Secondo il test, una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, fosse risultato indistinguibile da quello di una persona. Le basi erano state gettate, ma non si parlava ancora di intelligenza artificiale. Già nel 1937 Alan Turing aveva formalizzato i concetti di algoritmo e calcolo mediante la sua macchina “calcolatrice” testualmente, che costituì un significativo passo avanti nell’evoluzione verso il moderno computer. Per questo contributo è solitamente considerato il padre della scienza informatica e dell’intelligenza artificiale, da lui teorizzate già negli anni ‘30 del ‘900, ed anche uno dei più brillanti crittoanalisti che operarono nel Regno Unito durante la seconda guerra mondiale, per decifrare i messaggi scambiati da diplomatici e militari tedeschi. La “macchina di Turing, denominata “bomba” riuscì a violare la crittografia dei messaggi bellici eseguita dai tedeschi su larga scala con la macchina crittografica “Enigma”.

Intelligenza Artificiale
È nel 1955 che John McCarthy, informatico statunitense, coniò ufficialmente il termine «intelligenza artificiale» che racchiudeva diversi termini tra cui cibernetica,* teoria degli automi** ed elaborazione delle informazioni. Lo usò per progettare un lavoro di gruppo per la conferenza di informatici di Dartmouth, che si sarebbe tenuta l’anno dopo (1956). La Conferenza in cui venne tenuta a battesimo l’IA si tenne al Dormouth College a Hanover, New Hampshire, USA, riunì i principali esperti di informatica provenienti dalle Università più importanti per un confronto di idee. Il progetto “intelligenza artificiale”, malgrado l’obiettivo assai ambizioso, prevedeva un impiego di risorse di soli 20 mesi uomo, cioè dieci esperti al lavoro per due mesi. In un tempo quindi estremamente contenuto si contava di giungere a risultati significativi. Vi era allora un’atmosfera di euforia tecnologica indotta dall’avvento del computer, una macchina in grado di manipolare simboli, e l’intelligenza artificiale sembrava a portata di mano. Tra il 1964 e il 1966 venne sviluppata la prima chatbot, conosciuta come ELIZA in grado di dialogare (per iscritto) con l’uomo – “IA conversazionale, colloquiale”, un primo esempio di elaborazione del linguaggio naturale, l’antenata delle chatbot*** di oggi, come Alexa e Siri, assistenti virtuali che possono ora comunicare con la parola oltre che con il testo. Nel corso del rapido sviluppo dell’intelligenza artificiale sorsero problemi molteplici. I macchinari dell’epoca non disponevano di una capacità computazionale adeguata, le aspettative non vennero mantenute e i finanziamenti si ridussero progressivamente negli anni ’70.4,5 Parallelamente però, alla fine degli anni ‘60 si iniziò a cambiare approccio: la ricerca venne orientata verso lo sviluppo di sistemi in grado di automatizzare decisioni e compiti specifici del mondo reale, non si parlava più quindi di intelligenza artificiale in generale ma di “sistemi esperti”. Negli anni ‘90 il progressivo aumento della potenza di calcolo ha dato il via a un nuovo sviluppo dell’intelligenza artificiale che è alla base dell’attuale interesse. Nel 1997, Deep Blue, un sistema messo a punto dalla IBM, riuscì a sconfiggere l’allora campione del mondo di scacchi, G. Kasparov, in un torneo regolare di sei incontri. Il resto è storia. L’interesse e le aspettative sulle applicazioni dell’Intelligenza artificiale iniziarono a crescere. Nell’arco di poco tempo l’intelligenza artificiale è stata gradualmente integrata nelle attività mediche cliniche in particolare nell’ambito dell’imaging, della formazione medica e dell’ottimizzazione dei processi. In Italia da anni è stato costituito un laboratorio di IA del Consorzio Interuniversitario Nazionale per l’Informatica. Dal sito: consorzio-cini.it:

  • L’Intelligenza artificiale, nella sua accezione moderna, multidisciplinare, viene ormai considerata la tecnologia più strategica e dirompente del nostro XXI secolo.
  • Parafrasando le recenti dichiarazioni europee “AI for Europe”, possiamo definire oggi l’AI (Artificial Intelligence) come “la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l’intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione tra le lingue”. L’IA, paragonata per forza strategica all’elettricità del XIX secolo, si riferisce ai sistemi che mostrano un “comportamento intelligente”, analizzando l’ambiente e prendendo decisioni con un certo grado di autonomia.

AI for Europe, documento di riferimento attuale per lo sviluppo della IA in Europa, vuole rispondere alle questioni riguardo la sicurezza, l’affidabilità, la robustezza, l’equità e l’integrità morale sollevate dalla rapida diffusione dell’intelligenza artificiale. Questo documento nato in seguito a un seminario tenutosi a Barcellona nel 2017 e poi successivamente discusso in vari seminari e workshop è una dichiarazione di intesa, un codice di condotta per i ricercatori di IA e gli sviluppatori di applicazioni. Principali punti della dichiarazione di Barcellona:6

  • Ambito: consideriamo sia l’intelligenza artificiale basata sulla conoscenza sia quella basata sui dati (simbolica e subsimbolica).
  • Prudenza: è necessaria una comunicazione onesta sui punti di forza e sui limiti dell’IA.
  • Affidabilità: è necessario creare un’organizzazione affidabile per la verifica e la convalida dell’IA.
  • Responsabilità: le applicazioni di intelligenza artificiale devono essere intelligibili, in grado di spiegare le ragioni delle loro decisioni.
  • Identità: dovrebbe essere sempre chiaro se abbiamo a che fare con un sistema umano o di intelligenza artificiale.
  • Autonomia: è necessario trovare le regole per limitare comportamenti autonomi.
  • Mantenimento della conoscenza umana: l’intelligenza umana deve essere promossa come fonte di conoscenza futura.

La AI del XXI secolo è quindi una combinazione di tecnologie informatiche, che, grazie alla progressiva disponibilità di grandi quantità di dati scaturiti dalla trasformazione digitale, costituiscono i componenti elementari per la creazione di sistemi intelligenti, capaci di percepire il mondo esterno, apprendere, ragionare e agire come un sistema biologico, o possibilmente meglio. I recenti progressi nel Machine Learning e Deep Learning e la disponibilità di un’enorme potenza di calcolo, anche a basso costo, hanno portato il diffondersi dell’AI ovunque: dalla radicale trasformazione dei processi industriali alle complesse analisi economiche e sociali. È quindi fondamentale approfondire e coordinare il lavoro di tutte le aree AI, per sviluppare i componenti elementari delle nuove generazioni di sistemi e servizi intelligenti e comprendere in un unico paradigma molte tecnologie: dai sistemi percettivi (il linguaggio, la visione, i sensori, le interfacce aptiche), ai sistemi di apprendimento e ragionamento automatico (come il machine learning statistico e neurale, modelli di rappresentazione della conoscenza, ottimizzazione e pianificazione), dai sistemi intelligenti in grado di agire sull’ambiente (robotica, veicoli autonomi, agenti in realtà virtuale ed aumentata) ai nuovi sistemi e servizi informatici quali i sistemi di retrieval, di Q&A, di recommandation e di profilazione di utenti, fino ai sistemi orientati alla cybersecurity, e all’analisi dei social. Una gran parte dell’IA, come è noto, riguarda la automatizzazione, completa o parziale, del compito di fare previsioni (ad esempio predire che tempo farà, il comportamento dei clienti, il diffondersi di epidemie, stimare la probabilità di un attacco di cuore). L’uso di metodi computazionali per fare previsioni richiede che si operi su un modello logico-matematico del fenomeno di interesse, ad esempio un modello a equazioni differenziali che modella la fisica dell’atmosfera o un modello ad elementi finiti che simula la pompa cardiaca. Questo modello può essere rappresentato esplicitamente, ad esempio tramite formule o regole; o implicitamente, cioè «apprese» dalla macchina dai dati disponibili (dall’esperienza) senza alcuna rappresentazione simbolica di fatti, regole o proprietà. Nel primo caso si parla di IA simbolica (o basata su regole), nel secondo di IA subsimbolica (o basata sui dati). La AI subsimbolica riguarda modelli in cui la rappresentazione del problema da risolvere è implicita in una struttura dati molto complessa e solitamente connessa, come ad esempio è una rete neurale artificiale; ma comprende anche altri metodi di machine learning, quali le reti bayesiane, gli alberi decisionali, le regressioni lineari. Quindi, mentre nella AI simbolica quello che fa la macchina è determinato da elaborazioni procedurali (regole del tipo se – allora) che operano su rappresentazioni esplicite di aspetti del mondo (ad esempio, un dipendente ha certe caratteristiche, tra cui l’età, e se ha più di 70 anni, allora deve andare in pensione), la AI subsimbolica prescinde dal significato di queste rappresentazioni e “impara” relazioni matematiche tra i dati, ottimizzando una qualche funzione (ad esempio l’accuratezza previsionale). La AI simbolica cerca di basarsi su modelli causali della realtà di interesse; la AI subsimbolica invece, per ottimizzare l’efficacia previsionale non entra nel merito dei meccanismi logici e causali del fenomeno. In un certo senso la AI subsimbolica può essere definita la “AI agnostica” (espressione però non comune e che verrebbe facilmente fraintesa da un informatico!). Un modello subsimbolico, cioè basato sui dati e su tecniche di machine learning si può sviluppare con approcci supervisionati e non-supervisionati: nel primo caso le tecniche di machine learning operano su dati di cui è disponibile una etichetta, una verità di riferimento (un ground truth), cioè una diagnosi o un esito certo (evento avverso, infezione, complicanza, secondo ricovero, morte, etc). Nel secondo caso, invece, le tecniche di machine learning operano su dati che sono privi di etichette, cioè per i quali non è nota (o data) una verità di riferimento (non sono associati ad una diagnosi, oppure ad un esito certo). L’aspettativa attuale è che con l’applicazione del machine learning e con l’ampia mole di dati disponibile si potranno avere nuovi spunti di riflessione che potranno portare a evoluzioni innovative anche in campo clinico.3 Dovremmo quindi assistere sempre più a una grande connessione tra intelligenza artificiale e big data, ma questa fase non è priva di difficoltà. Avere a disposizione un gran numero di informazioni non corrisponde sempre alla possibilità di applicarle nell’ambito dell’IA. I dati per essere utilizzabili devono essere selezionati, strutturati e interpretati ma allo stato attuale ci sono ancora diversi problemi di interpretazione. Per comprendere questa criticità, basti pensare alla mole di dati proveniente da canali istituzionali che ancora difficilmente può essere integrata con le informazioni che scaturiscono da altri canali, per esempio dai social network. Occorrerà tendere a un equilibrio che da una parte tuteli i diritti dei cittadini, ma dall’altro non ne precluda l’accesso e l’utilizzo. Per quanto riguarda invece gli aspetti etici non va dimenticato che l’IA se non applicata in modo equilibrato può aumentare le differenze sociali, le disuguaglianze e i pregiudizi. A tal
fine si dovrà quindi fare ricerca e definire nuove normative.7 Va detto tuttavia che un passo avanti in questo senso è stato fatto nel 2019 quando è stato definito il primo codice etico dell’IA che si pone come obiettivo la tutela del ruolo e della dignità dell’essere umano.8 Se poi cambiamo punto di vista e ci caliamo nella pratica operativa quotidiana scopriamo che anche in quest’ambito le certezze riguardo all’efficacia dell’intelligenza artificiale nella pratica clinica
sono ancora poche. In particolare, se è vero che l’applicazione di una tecnica di machine learning detta di “apprendimento profondo” (deep learning) ha portato alcuni sistemi informatici a esibire un’accuratezza diagnostica comparabile a quella di medici esperti in diversi ambiti: dalla diagnosi di retinopatia diabetica e quella di tumori dermatologici, mancano in letteratura studi sull’efficacia del loro impiego in rapporto a obiettivi clinici importanti, come la riduzione della mortalità o il miglioramento della qualità di vita dei pazienti.9 Inoltre sembra che tra le maggiori criticità correlate con l’integrazione dei sistemi di apprendimento automatico (machine learning) nella pratica medica vi sia il rischio che nel tempo i medici possano sviluppare un ingiustificato ed eccessivo affidamento nelle capacità dell’automazione, trascurando invece l’approfondimento e l’aggiornamento continuo. Questa fiducia sarebbe alimentata dal convincimento che ogni nuova tecnologia sia intrinsecamente migliore di qualsiasi altra già in uso e che, una volta che una operazione sia stata automatizzata, il supporto tecnologico debba essere considerato al pari o migliore di ogni essere umano coinvolto nello stesso incarico. Purtroppo, come conseguenza dell’eccessivo affidamento, vi è il rischio di sviluppare una vera e propria dipendenza (overdependence) da questi sistemi che, nel lungo periodo, potrebbe condurre alla dequalificazione (deskilling), ovvero alla riduzione del livello di competenza richiesto per svolgere una funzione, quando tutte o alcune delle componenti dei compiti corrispondenti siano state automatizzate. Il fenomeno del deskilling diverrebbe più evidente nel momento in cui la tecnologia fallisse o cessasse di funzionare, anche solo temporaneamente, e sarebbe non meno insidioso quando utilizzatori resi meno competenti e quindi meno abili nell’ottimizzare i modelli predittivi dei sistemi di supporto decisionale dovessero rendere l’evoluzione dei loro strumenti e quindi il loro miglioramento continuo più lento o più difficile.9 La letteratura offre già alcuni esempi di questo fenomeno: in un’analisi condotta da parte di un gruppo di ricercatori della City University of London sulla lettura di 180 mammogrammi da parte di 50 professionisti, è stata documentata una riduzione della sensibilità diagnostica del 14,5% per il rilievo di cancro della mammella nei medici più esperti, quando a questi venivano presentate immagini di difficile lettura corredate con l’interpretazione da parte del computer, mentre solo un aumento dell’1,6% della sensibilità diagnostica è stato rilevato grazie al supporto del computer nel sottogruppo di medici meno esperti quando venivano mostrati casi di più semplice interpretazione. Questi risultati sottolineano come l’eccessivo affidamento nei sistemi di machine learning da parte degli operatori possa influenzarne la performance, ma anche che occorrono studi per comprendere le dinamiche di questo fenomeno, soprattutto in rapporto alla diversa esperienza dei medici coinvolti e alla diversa difficoltà dei casi loro presentati.10 Quindi è necessario che l’approccio all’intelligenza artificiale avvenga, come raccomandato dal documento europeo “AI for Europe”, tenendo conto di una serie di elementi essenziali per garantire l’equilibrio delle azioni, la razionalità del loro svolgimento e l’attenzione alla puntuale valutazione dei risultati in termini di Health Technology Assessment.

Legenda
*cibernètica deriva dall’inglese cybernetics, che riprende il greco κυβερνητική (τέχνη) «arte del pilota»]. – disciplina, prevalentemente promossa dagli studi del matematico statunitense. N. Wiener (intorno al 1947), basati sulla riconosciuta analogia funzionale dei meccanismi di comunicazione e di autoregolazione (mediante il feedback) negli esseri viventi e nella macchina. La cibernetica integra nozioni e modelli neurofisiologici e biologicomolecolari con la teoria matematica dell’informazione, la teoria dei sistemi e la ricerca operativa, per progettare sistemi di controllo che comprendono processi di generazione, conservazione, trasmissione e utilizzo dell’informazione; tali sistemi sono incorporati sia nei servomeccanismi sia negli elaboratori elettronici.
**Con il termine automa s’intende un qualunque dispositivo che esegue da se stesso un particolare compito, sulla base degli stimoli od ordini ricevuti. Sono così esempi
di automi una lavatrice, un distributore automatico di bibite, un interruttore, una calcolatrice tascabile.
***Chat bot, chatbot o chatterbot, è un software progettato per simulare una conversazione con un essere umano. Lo scopo principale di questi software è quello di simulare un comportamento umano. Alcuni utilizzano sofisticati sistemi di elaborazione del linguaggio naturale, ma molti si limitano a eseguire la scansione delle parole chiave nella finestra di input e fornire una risposta con le parole chiave più corrispondenti.

Bibliografia
1. Gardner H. Frames of mind: the theory of multiple intelligences. (1983), p. ooo
2. Salovey P, Sluyter D. Emotional development and Emotional Intelligence: “educational implications” 1997 New York: Basic Books
3. Turig AM, Computing machinery and intelligence. Mind 1950;236:433-60
4. Kerr A, Barry M, et al. Expectations of artificial intelligence and the performativity of ethics: implications for communication governance. Big Data and Society 2020; DOI:10.1177/2053951720915939
5. Council of Europe. History of Artificial Intelligence. CE https://www.coe.int/en/web/artificial-intelligence/historyof-ai 6. Steel L, Lopez de Mantaras R. The Barcelona declaration for the proper development and usage of artificial intelligence in Europe. AI Communication 2018;6:485-94.
7. Jiang L, Wu Z, et al. Opportunities and challenges of artificial intelligence in the medical field: current application, emerging problems, and problem-solving strategies. Journal of International Medical Research 2021;49:1-11.
8. European Commission. Ethics guidelines for trustworthy AI. EC 2019.
9. Cabitza F, Alderighi C, et al. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017;108:397-401.
10. Povyakalo AA, Alberdi E, et al. How to discriminate between computer-aided and computer-hindered decisions: a case study in mammography. Med Decis Making 2013;33:98-107.

Autori

,