Intelligenza artificiale e sanità

Indice

Il 12 ottobre 2023, il Garante per la Protezione dei Dati ha pubblicato un documento intitolato “Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale”. Si tratta di un documento interessante, che merita una riflessione e degli approfondimenti.

Il documento del Garante (numero 9938038), può essere scaricato cliccando qui e contiene una serie di aspetti legati all’implementazione degli algoritmi di intelligenza artificiale nell’ambito sanitario. Le dieci regole che il Garante mette nero su bianco sono:

  1. Le basi giuridiche del trattamento.
  2. I principi di accountability e di privacy by design e by default.
  3. I ruoli.
  4. I principi di conoscibilità, non esclusività e non discriminazione algoritmica.
  5. Valutazione d’impatto sulla protezione dei dati (VIP).
  6. Qualità dei dati.
  7. Integrità e riservatezza.
  8. Correttezza e trasparenza.
  9. Supervisione umana.
  10. Ulteriori profili rispetto alla disciplina sulla protezione dei dati personali connessi alla dignità e all’identità personale.

Ciascuno di questi punti è stato descritto, dettagliato ed esaminato dall’Autorità. In questo articolo ne saranno commentati alcuni che si ritengono più complessi di altri benché tutti hanno una particolare rilevanza.

Sulla discriminazione algoritmica

Il Garante affronta tale aspetto imperniandolo sui tre principi cardine enunciati dal Consiglio di Stato:

  1. il principio di conoscibilità, in base al quale l’interessato ha il diritto di conoscere l’esistenza di processi decisionali basati su trattamenti automatizzati e, in tal caso, di ricevere informazioni significative sulla logica utilizzata, sì da poterla comprendere;
  2. il principio di non esclusività della decisione algoritmica, secondo cui deve comunque esistere nel processo decisionale un intervento umano capace di controllare, validare ovvero smentire la decisione automatica (c.d. human in the loop);
  3. il principio di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano le opacità, gli errori dovuti a cause tecnologiche e/o umane, verificandone periodicamente l’efficacia anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate. Ciò, anche al fine di garantire, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, visti i potenziali effetti discriminatori che un trattamento inesatto di dati sullo stato di salute può determinare nei confronti di persone fisiche (cfr. considerando n. 71 del Regolamento)

La discriminazione algoritmica è un rischio assolutamente reale, causato per lo più dal ragioni potenzialmente colpose nel processo di addestramento dell’intelligenza artificiale. Il rischio può essere mitigato adottando protocolli di addestramento noti e condivisi a livello europeo, che perseguano obiettivi altrettanto conosciuti e condivisi. Se non si adottasse una politica comune nella gestione dei processi di addestramento, si rischierebbe di incorrere in risultati inattesi, incontrollati e difficilmente gestibili.

Sul controllo umano

Il controllo umano non è discutibile: la necessità di mantenere il processo in una dimensione antropocentrica è essenziale. Il medico, in qualsiasi punto del processo algoritmico, deve avere la facoltà di distaccarsi da esso e di supervisionarlo nel rispetto del principio di conoscibilità ma soprattutto di intellegibilità. Se il processo che il medico deve verificare, fosse incomprensibile la facoltà di supervisionarlo sarebbe vana. Questo soprattutto quando il medico risulta essere in disaccordo con l’algoritmo e, a vantaggio del paziente, decide di mettersi in dubbio cercando di capire come l’intelligenza artificiale sia addivenuta al risultato differente. Il controllo umano non deve, quindi, essere alienato in nessun momento d’uso della tecnologia.

Bisogna infatti uscire dal concetto di fiducia. La fiducia richiede l’affidamento a qualcosa o qualcuno perché non si conosce completamente il contesto. Bisogna entrare in un ambito di conoscenza, di conoscenza certa, che non richiede quindi l’affidamento a nulla.

Una società giovane

L’Italia è un paese che si sta trovando ad affrontare “l’esodo di cervelli” più importante di Europa: ci sono professionisti altamente qualificati che fuggono per cercare fortuna in altri paesi. Le cause sono note e sono molteplici: gli stipendi troppo bassi, l’aspettativa di carriera troppo lenta, un comparto normativo soffocante.

Naturalmente, a fare da tutrice immobile della continuità assoluta, c’è la burocrazia, che non è solo tanta e noiosa (la burocrazia è tanta e noiosa in tutto il mondo, ma è importante, serve), ma è soprattutto irrazionale, incomprensibile, inefficiente, grottesca, sempre pronta a sorprenderci con rinnovato vigore

Fonte: Il Post “La Stasi e la Fine dell’Immaginazione”, 15 maggio 2023, Link

In questi giorni l’Italia ha nominato una nuova commissione: la commissione algoritmi che, ovviamente, dovrà occuparsi di intelligenza artificiale. È un passo importante anche se gli addetti ai lavori ricorderanno l’elevato numero di task force, gruppi di lavoro, tavoli tecnici, che si sono accavallati negli anni e che fanno sorgere la domanda in merito alla necessità di un’ulteriore commissione. Tuttavia questa iniziativa governativa è al centro di una polemica differente: il presidente della commissione sarà Giuliano amato, 85 anni, classe 1938.

Con tutto il rispetto dovuto al Onorevole Amato e alla sua professionalità, sorge il dubbio se non ci fosse un candidato più giovane e professionalmente più aderente al ruolo di guida per una commissione che dovrà innovare in modo radicale il Paese. Non è solo un fatto di rappresentanza interna ma anche esterna, ferma restando la pregevole esperienza dell’Onorevole.

Giuliano Amato, classe 1938, ha ricoperto le cariche di segretario del Consiglio dei ministri (nei governi Craxi I e Craxi II, 1983-1987), vicepresidente del Consiglio (1987-1988) e ministro del tesoro (1987-1989), Presidente del Consiglio (governo Amato I, 1992-1993), presidente dell’AGCM (1994-1997), ministro per le riforme istituzionali (1998-1999), nuovamente ministro del tesoro (1999-2000) e Presidente del Consiglio (governo Amato II, 2000-2001), infine ministro dell’interno (nel governo Prodi II, 2006-2008).

Nel Piano Triennale 2019, AgID assunse un ruolo centrale in ambito intelligenza artificiale; gli addetti ai lavori ricorderanno che fu nominata una task force apposita. Anche alla luce di questi tavoli tecnici, di queste cabine di regia, che negli ultimi anni hanno contraddistinto l’agire dei governi, viene da chiedersi se la candidatura dell’On. Amato fosse l’unica alternativa utile. Il tempo valuterà, si spera positivamente, l’operato in termini di efficacia e di risultati rilevanti raggiunti.

Il ruolo dell’Europa e dell’Italia

L’Europa è il futuro. L’Europa può coordinare le conoscenze dei Paesi, può stabilire protocolli operativi comuni, effettuare controlli su aziende e soluzioni tecnologiche nel rispetto dei principi di conoscibilità e mantenendo al contempo il segreto industriale. Ma per arrivare a questo è necessario un cambio di mentalità: bisogna dare priorità alla parte di coesione delle risorse, al livello strategico prima ancora di quello tecnologico. In un panorama nel quale si scontrano interessi aziendali importanti, in cui c’è una gara alla “piattaforma tecnologica” più performante, diventa difficile ma estremamente necessario comprendere che la coesione e l’integrazione sono due requisiti strategicamente essenziali per il successo dell’innovazione tecnologica.

John Strudwick, A Golden Thread (Un filo prezioso), 1885 (olio su tela)

In un paese che spesso preferisce fare, disfare e rifare ciò che era stato fatto in precedenza, questo cambio di paradigma appare come mastodontico, se non addirittura alieno. Invece è proprio questo di cui c’è necessità: una strategia comune, prima di tutto Europea e poi nazionale. Può l’Italia raccogliere la sfida in modo strategicamente rilevante? Riuscirà ad anteporre il livello strategico ai singoli interessi di mercato? La sfida attuale, condizionerà il futuro, come il filo trattenuto dalle Moire nel dipinto di Strudwick. Se perderemo questa sfida, l’Italia perderà la possibilità di riportare al centro i valori di produzione qualitativa che da sempre la rendono un polo di eccellenza nel mondo.