Menu

Responsabilità medica e utilizzo dell’intelligenza artificiale: lo stato dell’arte

11/04/2023

Un approfondimento sullo stato dell’arte rispetto a responsabilità medica e intelligenza artificiale, una materia innovativa e in costante divenire che richiede un continuo aggiornamento da parte di tutti i professionisti sanitari.

Responsabilità medica e utilizzo dell’intelligenza artificiale: lo stato dell’arte

Quando si parla di intelligenza artificiale (A.I.) i non addetti ai lavori tendono a pensare a un robot super-intelligente in grado di sostituire l’uomo in qualunque tipo di attività e/o lavoro. Niente di più assurdo. L’intelligenza artificiale è in realtà una disciplina dell’informatica che ha lo scopo di riprodurre e imitare, tramite una macchina, il comportamento e le capacità dell’uomo, come quella di ragionare, apprendere, pianificare, creare. I sistemi di intelligenza artificiale sono costruiti in modo da adattare (e migliorare) il proprio comportamento sulla base di quanto hanno imparato in precedenza, compresi gli errori, lavorando in autonomia. Molti oggetti di uso quotidiano utilizzano l’intelligenza artificiale: pensiamo per esempio ai robot aspirapolvere che sono in grado di mappare le nostre case e imparare dove sono posizionati gli ostacoli. Ma può l’intelligenza artificiale avere un impatto nei casi di responsabilità medica?

 

L’arrivo di ChatGPT e la decisione del Garante Privacy

 

Recentemente anche i profani dell’informatica hanno preso dimestichezza con l’intelligenza artificiale, grazie a ChatGPT, il bot sviluppato da OpenAI con cui è letteralmente possibile avviare delle conversazioni via chat e porre delle domande al bot, che risponde con linguaggio umano. È di fine marzo il provvedimento del Garante Privacy italiano che rileva la mancanza di un’informativa privacy agli utenti sui dati raccolti da OpenAI, la mancanza di una base giuridica per raccogliere questi dati per addestrare ChatGPT nonché l’assenza di filtri per verificare concretamente l’accesso ai minori di 13 anni, bloccando di fatto l’uso di questa A.I. in Italia.

 

Attenzione: non si tratta di un blocco di tutti i sistemi di intelligenza artificiale esistenti, ma solo di alcune inadeguatezze alla normativa europea da parte di OpenAI, che ha sede extra UE; il progresso tecnologico non si è bloccato, nonostante alcuni, a seguito di questo provvedimento, “urlino” il contrario.

 

Sicuramente, i rischi etici e morali derivanti dall’utilizzo di questa tecnologia sono molteplici, per questo è necessaria preparazione e prudenza nell’approccio all’A.I. Molti paragonano l’avvento dell’intelligenza artificiale come rivoluzionario per l’umanità, al pari di scoperte come la ruota, la lampadina, l’elettricità.

 

L’A.I. in campo medico può trovare applicazione – e in alcuni casi è già realtà – per attività come la diagnostica per immagini, la chirurgia robotica con controllo da remoto, il semplice supporto alle decisioni cliniche, la medicina di precisione, lo sviluppo di nuovi farmaci, i trials clinici, la predizione e previsione degli esiti di una determinata terapia, le app per monitorare lo stato di salute che utilizziamo sul cellulare.

 

Il Regolamento UE 2017/745 sui medical device: A.I. come software?

 

Il Regolamento UE 2017/745 definisce dispositivo medicoqualunque strumento, apparecchio, apparecchiatura, software, impianto, reagente, materiale o altro articolo destinato dal fabbricante a essere impiegato sull’uomo, da solo o in combinazione” per finalità mediche, ad esempio di diagnosi, prevenzione, monitoraggio, prognosi, trattamento di malattie o ai fini di studio. I sistemi basati sull’intelligenza artificiale possono perciò essere considerati, a livello normativo, dei dispositivi medici?

 

Potrebbero, in effetti, rientrare nella categoria dei “software”, almeno così sembra nelle intenzioni della Commissione Europea, che nel presentare il regolamento precisò che molte disposizioni servono per aumentare la sicurezza e la certezza normativa, tenendo conto degli ultimi sviluppi del settore, tra i quali medical software, app e cybersecurity.

 

Vuoi sapere quali contenuti online circolano su di te? Fai un'analisi gratuita

Consulcesi può aiutarti a tutelare la tua immagine online e ad esercitare il Diritto all’Oblio, grazie a un servizio innovativo che combina tecnologia d’avanguardia e competenze in ambito tecnico-legale.

 

Il Libro bianco sull’intelligenza artificiale

 

L’attuale incertezza normativa in materia di intelligenza artificiale è stata evidenziata nei lavori del Libro bianco sull’A.I., presentato il 19 febbraio 2020 dalla Commissione Europea. La Commissione, per favorire il progresso scientifico preservando al contempo la leadership tecnologica dei paesi dell’Unione e garantire che le nuove tecnologie siano al servizio di tutti gli europei migliorandone la vita, ritiene necessario un approccio europeo sulle implicazioni umane ed etiche dell’intelligenza artificiale, con una normativa comune.

 

Secondo la Commissione, l’Europa è l’incubatore ideale per lo sviluppo di tecnologie di A.I., in quanto già terreno fertile per centri di ricerca di eccellenza e start-up innovative, e ricopre un’indubbia posizione di leadership mondiale in settori come la robotica, l’industria manifatturiera e i servizi, in particolare nel settore dell’elettronica a basso consumo, fondamentale per la prossima generazione di processori specializzati per l’A.I.

 

Nel Libro bianco ampio spazio è dedicato alla necessità di un quadro normativo comune per l’A.I., che dia certezza ai cittadini sul fatto che l’intelligenza artificiale non possa essere utilizzata per scopi dolosi o avere effetti indesiderati.

 

In particolare, vengono individuati i sette requisiti fondamentali per un’A.I. affidabile:

 

  • Intervento e sorveglianza degli umani,
  • Robustezza tecnica e sicurezza,
  • Riservatezza e governance dei dati,
  • Trasparenza,
  • Diversità, non discriminazione, equità,
  • Benessere sociale e ambientale,
  • Accountability.

 

Il Libro bianco evidenzia la necessità di futuri interventi normativi comuni che vadano a disciplinare l’utilizzo dell’A.I. e i profili di responsabilità per i danni che la stessa potrebbe causare. Pensiamo, in campo medico, all’utilizzo dell’intelligenza artificiale nella diagnostica per immagini: se il sistema dovesse sbagliare perché erroneamente progettato o istruito, su chi dovrebbe ricadere la colpa?

 

Sicuramente, secondo la Commissione Europea, l’intelligenza artificiale può rientrare nel concetto di prodotto, cui trova applicazione la normativa europea in materia di responsabilità da prodotto difettoso. Per il resto, il quadro normativo sulla responsabilità è inadeguato e necessita di urgenti interventi, poiché non esiste una normativa unica e specifica che disciplini la responsabilità dei vari soggetti che intervengono lungo la catena di approvvigionamento dell’A.I. né sugli utilizzatori finali. Un ulteriore profilo su cui porre l’attenzione, per la Commissione, è quello relativo alla pericolosità intrinseca nell’A.I. e alla conseguente necessità di avere una normativa in materia di sicurezza dei prodotti nonché di mantenimento – tramite appositi aggiornamenti – degli standard di sicurezza minimi.

 

L’intelligenza artificiale e la salute: la risoluzione del Parlamento europeo del 2022

 

La recente risoluzione del Parlamento europeo del 3 maggio 2022 sull’intelligenza artificiale in un’era digitale dedica ben 15 punti al tema “L’intelligenza artificiale e la salute”, evidenziando che:

 

  1. L’analisi metodologica di grandi quantità di dati, anche con l’A.I., può contribuire a trovare nuove soluzioni o migliorare le tecniche esistenti nel settore sanitario, con un positivo impatto acceleratorio sulla ricerca scientifica;
  2. L’uso dell’A.I. nel settore sanitario dovrebbe essere ancorato a rigorosi requisiti etici come l’accesso all’assistenza sanitaria, la privacy, l’affidabilità, la trasparenza, la spiegabilità, l’inclusività, la rappresentatività dei set di dati, la costante sorveglianza umana, al fine di evitare il più possibile eventuali pregiudizi (bias) che ne rendano pericoloso l’utilizzo;
  3. Il fattore umano è imprescindibile nell’impiego dell’A.I., specie nel settore pubblico, per preservare il rapporto tra medico e paziente;
  4. Esistono già soluzioni basate sull’A.I. utilizzate o testate in ambienti clinici per diagnosi, prognosi, trattamento del paziente, che migliorano il trattamento e riducono gli interventi non necessari, rendendo la medicina e l’assistenza al paziente personalizzata;
  5. Esistono, in particolare, applicazioni molto promettenti di estrazione tramite A.I. di informazioni da immagini e altri dispositivi medici per orientare l’analisi, e si prevede che gli algoritmi di apprendimento riusciranno ad eseguire una maggiore varietà di compiti clinici rispetto a quelli attuali, in aiuto al servizio sanitario;
  6. Le tecnologie di A.I. possono essere applicate alla ricerca, sviluppo e produzione di massa di prodotti farmaceutici, accelerando lo sviluppo di nuovi farmaci, cure e vaccini a costi inferiori rispetto a quelli attuali;
  7. L’A.I. può aiutare e prevedere l’esito delle risposte ai trattamenti, aiutando i medici ad adeguare e personalizzare le strategie terapeutiche in base alle caratteristiche individuali del singolo paziente, con livelli di accuratezza più alti rispetto a quelli attuali, aumentando l’efficacia della prevenzione, purché siano preservati il rispetto della vita privata, la protezione dei dati e vi sia un adeguato consenso informato da parte del paziente;
  8. L’accesso da parte dell’A.I. a dati sanitari anonimizzati, aggiornati e di alta qualità, può essere utile per gli operatori sanitari, al fine di fornire assistenza ai pazienti con terapie personalizzate ed efficaci;
  9. L’esperienza della lotta contro COVID-19 ha evidenziato l’utilità dell’analisi dei dati in ambito sanitario, facendo emergere, tuttavia, alcuni limiti dell’uso dell’A.I. in diagnostica medica;
  10. I sistemi di intelligenza artificiale potrebbero, potenzialmente, alleviare il carico di lavoro degli operatori sanitari e contribuire a soluzioni che forniscano assistenza a una popolazione sempre più vecchia, proteggendo i più fragili da malattie pericolose;
  11. L’uso di applicazioni di I. per compiti amministrativi può far risparmiare molto tempo agli operatori sanitari, da dedicare interamente ai pazienti;
  12. L’uso di applicazioni per la salute basate sull’A.I. da parte dei cittadini può aiutare a monitorarne lo stato di salute, permettendo agli utenti di fornire (sulla base del loro consenso informato, naturalmente) dati anonimi, ovvero prevenendo il rischio di patologie improvvise e letali come l’infarto;
  13. Per poter utilizzare l’A.I. a pieno regime in ambito sanitario è utile collegarla con le cartelle cliniche elettroniche e con i sistemi di prescrizione elettronica, sempre previo consenso del singolo paziente;
  14. Bisogna accogliere con favore la creazione di un sistema europeo dei dati sanitari, per migliorare la ricerca e il trattamento di patologie, specialmente quelle rare o pediatriche;
  15. È necessario creare fiducia negli utenti e negli operatori sanitari sull’utilizzo di queste tecnologie, garantendo ai cittadini un accesso sicuro a un registro elettronico completo dei propri dati sanitari, consentendogli di mantenere il pieno controllo sui propri dati sanitari e fornendogli la possibilità di condividerli in sicurezza con terzi da loro autorizzati;
  16. Bisogna comunque tenere conto del rischio di decisioni distorte da parte dell’A.I., che potrebbero sfociare in discriminazioni o violazione dei diritti umani, sottolineando la necessità di controlli imparziali sugli algoritmi e sui set di dati utilizzati per istruire l’A.I.;
  17. Per poter utilizzare i sistemi di A.I. in ambito sanitario è necessaria un’applicazione efficiente e uniforme su tutto il territorio europeo del Regolamento privacy (GDPR);
  18. L’A.I. può contribuire a un rapido progresso di tecnologie come l’immaginografia cerebrale, che hanno già importanti applicazioni in medicina, anche se è preoccupante l’assenza di una normativa specifica sui dati neurologici, ed è importante adoperarsi in tal senso per consentire all’Unione Europea di divenire leader mondiale nello sviluppo di tecnologie neurologiche sicure.

 

Il Parlamento europeo, in sostanza, enuncia pregi e difetti dell’intelligenza artificiale, rilevando che il cambiamento tecnologico da quarta rivoluzione industriale è già in atto, e va governato dall’interno, nell’interesse dei cittadini/pazienti.

 

Consulcesi Club: più sicurezza per la professione e la vita privata

Un team di esperti a tua disposizione per indirizzarti verso le migliori soluzioni assicurative per la professione e la vita privata. Ricevi un supporto concreto in ambito assicurativo con Consulcesi Club.

 

La proposta di direttiva UE sulla responsabilità da intelligenza artificiale: la normativa che verrà

 

Nel solco delle carenze normative in materia di responsabilità rilevate dal Parlamento europeo, si inserisce la proposta di Direttiva (del Parlamento Europeo e del Consiglio) sulla responsabilità medica da intelligenza artificiale del settembre 2022. La proposta di Direttiva, per quanto riguarda i danni causati dai sistemi di A.I., mira a fornire agli utenti un quadro di norme chiaro e uniforme per le varie ipotesi di danno, derivante da un difetto nella programmazione o istruzione dell’A.I. o a una violazione dei doveri di diligenza da parte degli utilizzatori finali.

 

Le implicazioni che questa direttiva potrebbe avere in campo sanitario sono enormi, e i futuri sviluppi vanno seguiti con attenzione. Viene introdotta una presunzione di colpevolezza in capo al fornitore del sistema di A.I., qualora sussistano contemporaneamente tre specifiche condizioni:

 

  1. Sussista una violazione da parte del fornitore del sistema di A.I. di un obbligo di diligenza previsto dal futuro Regolamento A.I.;
  2. È ragionevolmente probabile che il comportamento colposo del fornitore del sistema di A.I. abbia influenzato la produzione/la mancata produzione dell’output richiesto al sistema di intelligenza artificiale;
  3. Il paziente ha dimostrato che il danno è stato causato dall’output prodotto dall’intelligenza artificiale ovvero dalla sua mancata produzione.

 

Per quanto concerne, in particolare, la violazione degli obblighi di diligenza, la proposta di Direttiva ne fornisce una lista specifica:

 

  1. Mancato rispetto, da parte del fornitore/sviluppatore del sistema, della qualità dei dati di addestramento, convalida e test prescritti dal futuro Regolamento A.I.;
  2. Progettazione del sistema di A.I. in violazione degli obblighi di trasparenza prescritti dal futuro Regolamento A.I.;
  3. Progettazione del sistema di A.I. in modo da non consentirne una supervisione efficace da parte dell’uomo;
  4. Mancato rispetto di adeguati livelli di accuratezza, robustezza e cybersicurezza;
  5. Mancata adozione delle necessarie azioni correttive per rendere il sistema di A.I. conforme a tutti gli obblighi di cui sopra, compreso il temporaneo ritiro dal mercato.

 

Dal punto di vista della tutela del paziente/danneggiato dal sistema di A.I., data la sua posizione “debole” rispetto al fornitore del sistema di intelligenza artificiale, che lo vede in forte difficoltà nella raccolta delle prove idonee per dimostrare di aver subito un danno, la proposta di Direttiva prevede che il paziente possa chiedere al giudice che le prove vengano esibite in giudizio direttamente da parte del fornitore dell’A.I. (c.d. disclosure). L’iter che porterà all’approvazione della proposta di Direttiva sulla responsabilità da A.I. è ancora all’inizio: una volta approvata, infatti, la Direttiva dovrà essere recepita da ogni singolo stato membro, compresa l’Italia.

 

Il quadro attuale della responsabilità medica derivante dall’uso di intelligenza artificiale

 

In attesa della conclusione dell’iter relativo alla proposta di Direttiva sulla responsabilità da A.I., il quadro normativo italiano prevede due tipi di responsabilità medica nel caso di danno derivante dall’utilizzo di sistemi di intelligenza artificiale:

 

  1. Per il produttore/fornitore del sistema di intelligenza artificiale, la responsabilità da prodotto difettoso;
  2. Per la struttura sanitaria e il relativo personale, la legge Gelli/Bianco.

 

I potenziali scenari di danno derivante dall’utilizzo di sistemi di A.I. sono molteplici, come ad esempio:

 

  1. Danno derivante da un sistema A.I. difettoso ab origine;
  2. Danno derivante da un’intelligenza artificiale che sia stata addestrata male da parte della struttura medica (ospedale, clinica, studio privato), o che non sia stata adeguatamente sottoposta agli aggiornamenti richiesti;
  3. Danno derivante dall’uso di sistemi di A.I. nel monitoraggio dei pazienti a seguito di un difetto di manutenzione del software ovvero di un intempestivo intervento sul paziente;
  4. Danno derivante dal ricorso a risultati predittivi nel prescrivere una terapia o una diagnosi;
  5. Danno chirurgico, derivante dall’impiego di sistemi di robotica che utilizzano l’A.I.

 

Nell’ipotesi di danni derivanti da un difetto di fabbrica o di progettazione, la responsabilità ricadrà sempre e comunque sul fornitore del sistema di A.I., tenendo indenne sia la struttura sanitaria che il medico da ogni obbligo risarcitorio.

 

Negli altri casi (errore diagnostico, danno chirurgico, ecc.), in virtù della Legge Gelli-Bianco, la struttura sanitaria sarà responsabile delle condotte del medico per c.d. responsabilità contrattuale, con onere della prova dell’inesistenza del danno in capo alla struttura stessa.

 

Il sanitario, invece, potrebbe essere chiamato a risarcire eventuali danni derivanti da c.d. responsabilità extracontrattuale, con onere della prova della sussistenza del nesso di causalità tra la condotta del medico e il danno subito a carico del paziente.

 

Il profilo penalistico

 

Sotto il profilo penalistico, il medico sarà responsabile della morte o lesioni del paziente derivanti dall’utilizzo di sistemi di A.I. qualora tale evento si sia verificato per colpa (imperizia) e andrà indenne da responsabilità nel caso in cui abbia rispettato le raccomandazioni previste dalle linee guida o, in mancanza, dalle buone pratiche clinico-assistenziali. Il problema, nel caso di intelligenza artificiale, è che le best practice sono in divenire, per cui è altamente probabile che i medici pionieri, i quali decidano, per amore dei pazienti e della ricerca medica, di utilizzare sistemi di A.I., andranno inevitabilmente incontro al rischio di un processo penale, il cui esito sarà più che mai incerto.

 

Per quanto concerne i danni derivanti da chirurgia robotica, alcuni operatori del diritto (ma anche del mondo medico) auspicano che in futuro venga proibito all’operatore sanitario di effettuare più operazioni parallele su diversi pazienti, come accade per gli anestesisti, che non possono gestire più pazienti in contemporanea. Fondamentale, sia in campo di responsabilità civile che penale, sarà di sicuro l’adeguata formazione del personale sanitario all’utilizzo dei sistemi di A.I. Il consiglio, per i medici è quello di agire con prudenza, diligenza e perizia, nel rispetto dello stato dell’arte, che in tema di intelligenza artificiale richiede un costante e continuo studio e aggiornamento, quasi quotidiano.

 

 

Manuela Calautti, avvocato