La responsabilità sanitaria per i danni provocati dall’uso dell’intelligenza artificiale

In attesa dell’emanazione di una regolamentazione europea specifica sulla responsabilità civile per i danni provocati dall’utilizzo di sistemi di AI, la pratica sanitaria è già alle prese con l’utilizzo massiccio di questi strumenti tecnologici, per cui si rende necessario distinguere i rispettivi perimetri di responsabilità.

L’ormai inarrestabile evoluzione dei sistemi di intelligenza artificiale (AI) applicati al mondo sanitario apre scenari, fino ad oggi ancora inesplorati, sull’individuazione dei profili di responsabilità dell’esercente la professione medica che, nel prestare la propria opera, faccia ricorso a tecnologie che, di fatto, agiscono autonomamente secondo procedure di apprendimento automatizzato.

L’ambito medico e sanitario è, difatti, uno dei settori maggiormente convolto dall’applicazione dei sistemi di AI tanto che, in brevissimo tempo, sembrano addirittura superati i traguardi di ChatGPT a favore di nuovi sistemi di calcolo neuromorfici, ovvero dell’introduzione dei cosiddetti biocomputer che vorrebbero riprodotte le connessioni neurali proprie dell’intelligenza umana.

Il medico e l’AI

Se da un lato, non può certo ridursi l’ampia gamma di benefici correlati all’introduzione dei sistemi di AI nel panorama della Sanità, non ultimi considerando i vantaggi per i pazienti, dall’altro occorre però bilanciare i rischi connessi all’utilizzo di questi ritrovati tecnologici sempre più sofisticati che, a ben vedere, potrebbero condurre ad un ampliamento del perimetro della responsabilità dell’operatore oltremodo eccessivo, con il rischio di dover far fronte ad eventi estranei al suo personale controllo.

La figura del medico sta subendo, infatti, una vera e propria metamorfosi per cui, da esecutore diretto dell’intervento sanitario nella totalità dei casi, viene ora proiettato in una dimensione di soggetto che, in un secondo momento, verifica la correttezza del risultato raggiunto dall’applicativo digitale.

L’ulteriore corollario riguarda il fatto che questi sistemi di intelligenza artificiale sono caratterizzati da procedimenti di autoapprendimento che, elaborando una quantità smisurata di dati disponibili possono condurre, attraverso un percorso decisionale neppure riconoscibile dall’esterno, all’adozione di soluzioni innovative e diverse rispetto a quelle originariamente prevedibili.

La sfida è, pertanto, quella di mantenere un livello elevato di tutela dei pazienti che accedono alle cure somministrate mediante sistemi di AI, predisponendo comunque un adeguato regime di responsabilità per i danni causati da prestazioni sanitarie che siano state elaborate e, quindi, compiute facendo ricorso a processi derivati da sistemi di AI.

Le responsabilità dell’operatore sanitario, della struttura e del produttore

In estrema sintesi, la questione potrebbe essere racchiusa nella separazione fra due distinte aree di responsabilità per i danni cagionati dall’utilizzo di un sistema di intelligenza artificiale: da un canto, quella dell’operatore sanitario e della relativa struttura che si avvale, nell’esecuzione della prestazione, del dispositivo tecnologico, mentre dall’altro vengono in rilievo tutti quei soggetti che, a vario titolo, risultano coinvolti nella ideazione, progettazione, realizzazione e messa in commercio dello strumento successivamente adoperato per la cura del paziente.

La linea di confine fra queste due distinte categorie di soggetti, ma soprattutto di fonti di responsabilità civile per i danni eventualmente provocati a terzi, pare individuarsi nell’individuazione del margine, più o meno ampio, di verifica e controllo che l’operatore può concretamente vantare riguardo ai processi decisionali seguiti dalla macchina e di autonomia rispetto alle indicazioni conseguentemente fornite dalla stessa per la gestione di un determinato caso.

Maggiore sarà la possibilità per l’operatore di conoscere, preventivamente, i processi seguiti dallo strumento e di intervenire per discostarsi dalle soluzioni prospettate dall’AI, più ampio dovrà considerarsi lo spazio entro il quale l’evento dannoso potrà essere ricondotto alla sua sfera di responsabilità, ben potendosi individuare quella condotta, attiva od omissiva, a cui ricondurre causalmente il fatto verificatosi.

Non può certo dubitarsi che, qualora il processo decisionale attuato dalla macchina, sia perfettamente conoscibile dal sanitario che l’adopera, così come le modalità di funzionamento della stessa, l’eventuale pregiudizio derivato a carico del paziente potrà essere concretamente imputato all’operatore, tranne che (ovviamente) non sia intervenuto un improvviso malfunzionamento della stessa non altrimenti prevedibile.

In quest’ultimo caso, è ipotizzabile l’esonero da responsabilità dell’operatore che, non potendosi accorgere preventivamente dell’errore della macchina, nulla avrebbe potuto fare per impedire il verificarsi dell’accadimento, mentre diversa potrebbe essere la posizione della struttura che, in ogni caso, risponderà in prima battuta del danno cagionato, salvo poi rivalersi nei confronti del produttore dello strumento intelligente.

La posizione della struttura

È difatti la struttura a caricarsi dell’onere, derivazione dei poteri organizzativi a sé spettanti, di sottoporre periodicamente a verifica tutto il materiale utilizzato dai propri dipendenti, fornendo loro una formazione congrua ed aggiornata rispetto all’utilizzo di questi dispositivi.

Ricadrà quindi sulla struttura la verifica della corretta manutenzione ed operatività del sistema di AI utilizzato, riconducendosi l’eventuale danno cagionato a terzi al deficit organizzativo, ovvero alle carenze strutturali, come tali a suo carico, salvo il limite dell’impossibilità sopravvenuta non imputabile.

La posizione dell’operatore

Per quanto concerne la posizione del singolo operatore, il ricorso a sistemi di intelligenza artificiale dovrebbe quindi assumere un ruolo sostanzialmente neutrale rispetto al contenuto della prestazione sanitaria, che di fatto continuerà, allo stato attuale della normativa vigente, ad essere regolamentata dai precetti di carattere generale dettati dall’art. 1176, comma 2, del codice civile e dall’osservanza delle linee guida e dalle buone pratiche clinico-assistenziali previste dall’art. 5 della Legge n. 24/2017.

In tutti gli altri casi, ossia quando non sia rintracciabile una responsabilità diretta del singolo operatore o della struttura sanitaria per il danno provocato a terzi dall’utilizzo del sistema di AI, rimane ferma la responsabilità del produttore, che potrà essere chiamato a rispondere del malfunzionamento del sistema facendo ricorso alla normativa comunitaria, raccolta nel nostro ordinamento civilistico, sulla responsabilità da prodotto difettoso, in attesa che venga definitivamente costruito un nuovo apparato normativo idoneo a regolamentare questo ambito, reso complesso dal repentino evolversi dei sistemi di intelligenza artificiale e dal loro utilizzo nella pratica medica.

Di: Francesco Del Rio, avvocato

News e Approfondimenti che potrebbero interessarti

Vedi i contenuti