Il decalogo del Garante Privacy sull’intelligenza artificiale in sanità

Il Garante Privacy detta i dieci comandamenti sull’utilizzo dei sistemi di intelligenza artificiale in ambito sanitario, e introduce i principi di conoscibilità, non esclusività della decisione algoritmica e non discriminazione algoritmica, sottolineando l’importanza dell’intervento dell’intelligenza umana.

L'Autorità Garante per la Privacy ha pubblicato, il 10 ottobre 2023, il Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale.  Si tratta di un documento finito di scrivere nel settembre 2023 e dedicato a tutti gli aspetti relativi alla tutela dei dati personali connessi all'utilizzo di sistemi di intelligenza artificiale in campo sanitario.

Il medico o la struttura sanitaria, quali titolari del trattamento dei dati personali, devono rispettare tutti i principi e gli adempimenti prescritti dal GDPR e devono essere in grado di comprovarlo, alla luce del principio di responsabilizzazione sancito dal Regolamento. I dati, perciò, dovranno essere:

a) trattati in modo lecito, corretto e trasparente nei confronti dell'interessato, nel rispetto del principio di liceità, correttezza e trasparenza;

b) raccolti per finalità determinate, esplicite e legittime, e successivamente trattati in modo che non sia incompatibile con tali finalità, in virtù del principio della limitazione della finalità;

c) adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati, in virtù del principio di minimizzazione dei dati;

d) esatti e, se necessario, aggiornati, con adozione di tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati, alla luce del principio di esattezza;

e) conservati in una forma che consenta l'identificazione degli interessati per un arco di tempo non superiore al conseguimento delle finalità per le quali sono trattati, in virtù del principio della limitazione della conservazione;

f) trattati in maniera da garantire un'adeguata sicurezza dei dati personali, compresa la protezione, mediante misure tecniche e organizzative adeguate, da trattamenti non autorizzati o illeciti e dalla perdita, dalla distruzione o dal danno accidentali, secondo il principio di integrità e riservatezza.

Questi principi devono costituire la base per la progettazione e il funzionamento delle tecnologie di intelligenza artificiale generativa, in modo da garantirne un uso virtuoso da parte degli Stati e dei governi.

Conosci le conseguenze legali nell'uso dell'AI? Approfondisci. 

Le basi giuridiche del trattamento dei dati sanitari tramite sistemi di intelligenza artificiale 

Quando i dati sulla salute vengono elaborati attraverso sistemi di intelligenza artificiale, i rischi, sotto il profilo della tutela dei dati personali, sono legati alla possibile profilazione del paziente, oltre che all'automatizzazione delle decisioni prese dall'intelligenza artificiale. Per queste ragioni, il Garante Privacy raccomandata che l'utilizzo di strumenti di AI avvenga solo in presenza di una normativa dedicata adottata dal singolo Stato membro dell'UE, previa consultazione del Garante, che dovrà supportare gli Stati nella predisposizione del quadro normativo di riferimento.

Il Parlamento e il Consiglio Europeo hanno classificato come ad alto rischio i sistemi di intelligenza artificiale che incidono sulla salute, sul diritto alle cure, sulla fruizione di servizi sanitari, di assistenza medica, sui sistemi di selezione dei pazienti per l'assistenza sanitaria emergenziale, auspicando che tutti gli Stati membri stabiliscano delle normative comuni per questa particolare tipologia di sistema di AI.

Consulta e scarica l'infografica, porta il decalogo sempre con te

Ruoli, principi e valutazione per l'AI in ambito sanitario

Il trattamento dei dati personali, nel caso di utilizzo dei sistemi di intelligenza artificiale in ambito sanitario, deve essere attribuito al titolare del trattamento, che potrà essere il medico titolare dello studio o il legale rappresentante pro tempore della struttura sanitaria; nell'individuazione del titolare, il Garante raccomanda che si tenga conto del fatto che l'accesso ai sistemi di AI, sulla base di differenti finalità, può essere garantito a una pluralità di soggetti operanti in ambito sanitario.

Il Responsabile del trattamento, invece, può essere individuato anche in un soggetto esterno all'ambito sanitario, essendo prevista dalla normativa la possibilità di delegare tale attività a soggetti particolarmente qualificati in ambito di protezione dati personali.

I principi di conoscibilità, non esclusività e non discriminazione algoritmica 

Il Garante, sulla base della recente giurisprudenza del Consiglio di Stato, ha elaborato tre principi cardine che dovranno governare l'utilizzo di algoritmi e di strumenti di AI nell'esecuzione di compiti di rilevante interesse pubblico, come quelli connessi alla sanità:

  1. principio di conoscibilità,
  2. principio di non esclusività,
  3. principio di non discriminazione algoritmica.

In virtù del principio di conoscibilità, il paziente ha il diritto di conoscere l'esistenza di processi decisionali che siano basati su trattamenti automatizzati, come quelli relativi all'utilizzo di sistemi di AI, ed ha altresì il diritto a ricevere le informazioni più importanti sulla logica utilizzata da questi sistemi, in modo da poterla comprendere.

In base al principio di non esclusività della decisione algoritmica, i sistemi di AI in ambito sanitario devono comunque essere accompagnati, nel processo decisionale, da un intervento dell'uomo che possa controllare, validare o smentire la decisione automatica.

Alla luce del principio di non discriminazione algoritmica, i sistemi di AI utilizzati in ambito sanitario devono essere in grado di ridurre le opacità e gli errori dovuti a cause tecnologiche o umane, verificandone l'efficacia in maniera periodica, anche alla luce della estrema rapidità evolutiva delle tecnologie impiegate.

La Valutazione di Impatto sulla Protezione dei dati (VIP)

Il medico e/o la struttura sanitaria, quali titolare del trattamento dei dati personali, prima di utilizzare sistemi di AI dovranno effettuare una valutazione di impatto (VIP) sul trattamento di dati sanitari tramite l'uso di nuove tecnologie, alla luce della loro natura, dell'oggetto, del contesto e delle finalità del trattamento, consultando l'Autorità Garante per la Privacy qualora le misure adottate per tutelare i diritti e le libertà dei pazienti siano ritenute insufficienti ovvero quando, anche dopo la VIP, residui un rischio comunque elevato per i pazienti. 

L'obbligo di VIP è previsto anche nell'ipotesi in cui si voglia realizzare un sistema centralizzato nazionale per realizzare e/o erogare servizi sanitari con strumenti di AI; in questo caso, l'obbligo di VIP graverà direttamente sul Ministero della Salute. La VIP, in tale particolare ipotesi, dovrà tenere conto dei rischi derivanti dalla creazione di una banca dati contenente le informazioni sanitarie di tutta la popolazione assistita sul territorio nazionale, come quelli inerenti alla perdita della qualità dei dati (per mancato o errato aggiornamento), la revoca del consenso, la re-identificazione dell'interessato, l'utilizzo dei dati per finalità non compatibili con quelle autorizzate.

La qualità dei dati sanitari elaborati dai sistemi di intelligenza artificiale

I sistemi di intelligenza artificiale si nutrono di informazioni e dati, ed è fondamentale che questi siano esatti; in tal senso, già nel 2021 il Consiglio Superiore di Sanità ha evidenziato i rischi derivanti dallo sviluppo incontrollato e non governato dell'intelligenza artificiale, qualora questa venga “istruita” mediante dati privi di una validazione scientifica e dati non aggiornati, con il rischio di un utilizzo improprio e fuorviante sia per i medici che per le aspettative dei pazienti.

Il dato sanitario, dopo la sua prima raccolta, può infatti essere soggetto a modifiche, rettifiche o integrazioni da parte del personale sanitario negli anni, in base all'evoluzione della salute del paziente: per questo motivo l'esattezza, correttezza e aggiornamento di tali dati è estremamente importante, in quanto un dato non aggiornato o inesatto potrebbe influenzare l'efficacia e la correttezza dei servizi da erogare tramite sistemi di AI, che andrebbero così a rielaborare dati e informazioni errate.

Integrità e riservatezza dei dati sanitari utilizzati nei sistemi di intelligenza artificiale 

Al fine di evitare che, in fase di programmazione del sistema di intelligenza artificiale sanitario, si sviluppino errori che diano luogo a pregiudizi nelle risposte date dall'AI, è necessario che le logiche algoritmiche utilizzate per generare i dati e i servizi siano specificamente indicati nella descrizione del trattamento dei dati personali, in modo da essere conosciute e comprensibili dai pazienti. Dovranno altresì essere rese note ai pazienti le metriche utilizzate per addestrare l'intelligenza artificiale, la valutazione della qualità del modello di analisi adottato, le verifiche svolte per rilevare la presenza di eventuali bias e le misure correttive eventualmente adottate, le misure idonee a verificare, anche in un tempo successivo, le operazioni eseguite da ciascun soggetto autorizzato e i rischi insiti nelle analisi matematiche.

Correttezza e trasparenza, per una intelligenza artificiale trustworthy

In virtù dei principi di correttezza e trasparenza, l'enorme platea degli assistiti dal Sistema Sanitario Internazionale deve essere consapevole del fatto che i medici e le strutture sanitarie utilizzino sistemi di intelligenza artificiale nell'organizzazione ed erogazione delle prestazioni. Il Garante ha perciò previsto una serie di adempimenti pratici da attuare nel predisporre i sistemi di AI in ambito sanitaria, tra cui:

  1. la previsione e sviluppo di specifiche campagne di informazione mirate a rendere nota, in maniera chiara e prevedibile, la base giuridica del trattamento dei dati sanitari ai pazienti;
  2. consultare i vari stakeholder e in generale i soggetti coinvolti nell'ambito sanitario per lo svolgimento della VIP;
  3. pubblicare la VIP, anche solo per estratto;
  4. predisporre le informazioni da rendere ai pazienti con termini chiari, concisi e comprensibili, nel rispetto del contenuto obbligatorio previsto dal GDPR;
  5. evidenziare, nelle informative, se i dati sanitari siano utilizzati per istruire l'algoritmo in fase di sperimentazione e/o di validazione del sistema di AI o nella successiva fase di applicazione ai servizi sanitari, specificando le logiche e le caratteristiche di elaborazione dei dati;
  6. evidenziare, nelle informative, se sussistano eventuali obblighi e responsabilità dei professionisti sanitari nell'utilizzo dei servizi sanitari basati sull'AI;
  7. specificare i vantaggi, in termini diagnostici e terapeutici, che possono derivare dall'utilizzo delle tecnologie di intelligenza artificiale;
  8. assicurare modalità efficaci per l'esercizio dei diritti dei pazienti, come ad esempio quello alla revoca del consenso al trattamento dei dati;
  9. garantire, nel caso di finalità di cura, che i servizi di elaborazione dati basati sui sistemi di intelligenza artificiale siano realizzati solo a seguito di espressa richiesta di attivazione da parte del professionista sanitario e non in modo automatico;
  10. regolamentare i profili di responsabilità professionale connessi alla scelta, da parte del medico e del professionista sanitario in generale, di affidarsi o meno a servizi di elaborazione dei dati sanitari dei pazienti effettuati sulla base di sistemi di intelligenza artificiale.

Supervisione umana sull'utilizzo dei sistemi di intelligenza artificiale in ambito sanitario

In ambito sanitario, l'intelligenza artificiale deve essere utilizzata sotto la supervisione altamente qualificata dell'essere umano e sulla liceità del trattamento, in modo da assicurare il rispetto del diritto del paziente a non essere assoggettato a una decisione basata solo ed esclusivamente su un sistema automatizzato.

La presenza dell'uomo è particolarmente importante nella fase di addestramento dell'algoritmo, in quanto l'intelligenza artificiale effettua delle previsioni probabilistiche proprio sulla base dell'addestramento iniziale, sulla sua qualità e sulla correttezza dei dati utilizzati per istruirla: queste cautele consentiranno di evitare eventuali errori e pregiudizi dei risultati forniti dall'AI.

Negli USA, ad esempio, un sistema di intelligenza artificiale utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani assegnava un rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, negando loro l'accesso a cure adeguate. Questo tipo di bias è derivato dal fatto che il sistema è stato istruito sulla base della spesa sanitaria media individuale, che per alcuni gruppi etnici è bassa in quanto, a causa del loro reddito, non hanno accesso a molti servizi sanitari. L'errore durante l'istruzione dell'intelligenza artificiale, dovuto probabilmente all'assenza di sorveglianza umana, ha generato dei dati inesatti e discriminatori per alcune categorie di pazienti.

Per evitare il rischio di discriminazione algoritmica, che vada ad incidere sull'equità e sull'inclusività delle cure, aumentando il divario e le disuguaglianze sociosanitarie, è perciò fondamentale che i sistemi di intelligenza artificiale siano supervisionati, in ogni fase, dall'intelligenza umana.

Di: Manuela Calautti, avvocato

News e Approfondimenti che potrebbero interessarti

Vedi i contenuti