Intelligenza artificiale in sanità, quali scenari gestionali e assicurativi?

L’AI sta rivoluzionando il mondo e il settore medico-sanitario non farà eccezione. Opportunità e rischi spiegati in un corso formativo da 39,6 crediti ECM

L'intelligenza artificiale può rappresentare una vera rivoluzione nel settore sanitario, in quanto potrà offrire numerosi benefici che migliorano la qualità delle cure e ottimizzano i processi medici. Uno dei principali contributi dell'IA è la capacità di analizzare grandi quantità di dati in tempi rapidi, consentendo diagnosi più accurate e tempestive.

I sistemi basati sull'IA possono inoltre supportare i professionisti sanitari nell'interpretazione di immagini diagnostiche, come scansioni radiologiche o risonanze magnetiche, identificando segni precoci di malattie. Inoltre, algoritmi avanzati possono aiutare nella personalizzazione dei piani di trattamento, adattandoli alle specifiche esigenze di ciascun paziente.

Nel contesto della gestione sanitaria, l'AI facilita la previsione della domanda di servizi sanitari, ottimizzando la distribuzione delle risorse e riducendo i tempi di attesa. Inoltre, può contribuire all'identificazione di modelli di malattie e alla ricerca di nuovi farmaci, accelerando la scoperta scientifica.

La telemedicina è un altro ambito in cui l'IA gioca un ruolo chiave, visto che può consentire la diagnosi a distanza e la gestione delle malattie croniche attraverso monitoraggi continui. Ciò non solo migliora l'accessibilità alle cure, ma riduce anche la necessità di visite in ospedale, alleggerendo il carico sui servizi sanitari.

Un altro settore in cui l’intelligenza artificiale può essere usata con profitto è quello relativo al rischio e al danno, e dunque alla sicurezza delle cure.

Tuttavia, è importante gestire attentamente questioni etiche e normative, garantendo la sicurezza e la privacy dei dati. Perché le tante opportunità che l’intelligenza artificiale può offrire sono controbilanciate dai possibili rischi.

Intelligenza artificiale: opportunità e rischi

Il 2 maggio 2023, Geoffrey Hinton, noto come il "padrino" dell'intelligenza artificiale, ha lasciato Google dopo oltre 10 anni per esprimere liberamente le sue preoccupazioni sui rischi legati all'AI. Le sue dimissioni sono motivate dal timore che la frenesia di profitto legata all'Ai possa far dimenticare le preoccupazioni fondamentali.

Il problema delle "deepfake e fake news" è solo una parte di un problema più ampio. Hinton, seguendo le orme di Stephen Hawking, ipotizza che in un futuro non troppo lontano, le intelligenze artificiali potrebbero rappresentare una minaccia esistenziale per l'umanità. Questa preoccupazione deriva dalle proprietà emergenti delle IA, abilità impreviste che la macchina sviluppa al di là della sua programmazione iniziale.

Il Center for AI Safety (CAIS), un'organizzazione statunitense senza scopo di lucro, ha recentemente pubblicato una lettera aperta, sottoscritta da oltre 350 leader del settore, inclusi dirigenti di aziende come OpenAI e Google. La lettera avverte che i sistemi di intelligenza artificiale potrebbero costituire una minaccia "esistenziale" e dovrebbero essere considerati alla stregua dei rischi associati a pandemie e guerre nucleari. Gli scienziati, specialmente dopo il lancio della nuova versione di ChatGPT, hanno chiesto una moratoria di sei mesi sullo sviluppo di nuovi sistemi AI, riconoscendo i "profondi rischi per la società e l'umanità" derivanti da queste tecnologie.

IA e UE

Le dimissioni di Hinton da Google hanno riaperto il dibattito sull'intelligenza artificiale, suscitando commenti da parte di Paolo Gentiloni, commissario UE per l'Economia, che sottolinea le enormi potenzialità e i rischi associati all'IA, soprattutto nel contesto della salute.

La definizione di regole per le IA è un compito complesso, poiché manca un consenso universale sulla definizione stessa di "intelligenza artificiale", e divergenze tra chi chiede norme rigide a tutela dei diritti e chi, tra i responsabili aziendali, sottolinea la necessità di regole chiare per favorire la crescita del settore.

L'attenzione dell'Europa su questo tema ha portato alla redazione di una nuova legge, basata su tecnologie esistenti e problemi legati alla privacy e ai diritti. La legge, discussa a seguito dell'urgenza pandemica, riflette l'interesse crescente della popolazione per le IA presenti nella vita quotidiana.

Gli ambiti a rischio individuati includono l'occupazione, i servizi pubblici e i diritti dei cittadini. La legge vieta IA considerate "inaccettabili", come sistemi di classificazione basati su comportamenti sociali ed economici. Vietato anche l'uso invasivo e discriminatorio dell'IA, come il riconoscimento facciale in luoghi pubblici, tranne in attività investigative.

Sono richieste indicazioni dettagliate agli sviluppatori sulle basi di dati utilizzate e l'applicazione di correzioni per ridurre i pregiudizi nei loro sistemi. Per le AI generative, come ChatGPT e DALL•E, è richiesta la dichiarazione sull'uso di materiali protetti da copyright e la presenza di segni distintivi nelle immagini prodotte.

Le nuove regole preoccupano le grandi aziende tecnologiche, come Microsoft, Alphabet e OpenAI, poiché temono possano rallentare o ostacolare i loro piani di espansione dell'IA nei servizi. Nonostante sia considerata un buon compromesso dagli esperti, le società nel settore temono il potenziale impatto sulla loro crescita, specialmente nell'ambito delle nuove tecnologie come ChatGPT.

L’intelligenza artificiale in ambito sanitario

L'Intelligenza artificiale nel settore sanitario, soprattutto nella diagnostica, sta vivendo un rapido sviluppo e diffusione. Attualmente, le tecnologie basate sull'IA gestiscono le principali apparecchiature diagnostiche per immagini, standardizzando i protocolli e riducendo i tempi di acquisizione per migliorare l'esperienza dei pazienti.

Algoritmi AI supportano i radiologi nell'identificazione di patologie e nella caratterizzazione di lesioni, riducendo errori di percezione e migliorando le diagnosi. Ulteriori ricerche indicano l'utilizzo di sistemi esperti intelligenti per valutare il rischio del paziente, determinare prognosi e assistere le decisioni terapeutiche.

Tuttavia, questo rapido sviluppo presenta potenziali rischi, come l'uso di sistemi AI non validati scientificamente, mancanza di controllo sui dati processati, possibili violazioni della privacy e discriminazioni causate dagli algoritmi. Queste problematiche etiche e legali coinvolgono la responsabilità professionale e il rapporto medico-paziente.

La Commissione Europea e il Consiglio Superiore di Sanità hanno entrambi affrontato la regolamentazione dell'IA nel contesto sanitario. Mentre la Commissione Europea ha presentato una strategia per l'IA nel 2018, mirando a garantire sicurezza ed etica, il Consiglio Superiore di Sanità italiano propone interventi specifici. Questi includono l'implementazione di infrastrutture organizzative, la creazione di una governance per l'IA, la predisposizione di linee guida nazionali, l'istituzione di un osservatorio per monitorare le performance e l'integrazione di formazione sull'IA per il personale sanitario.

L'obiettivo è introdurre in modo sicuro l'IA nella pratica clinica, affrontando le sfide legate a privacy, sicurezza, formazione e comunicazione ai pazienti.

Linee guida etiche per una IA affidabile

L'8 aprile 2019, il gruppo di esperti sull'Intelligenza Artificiale ha presentato le linee guida etiche per garantire un'IA affidabile, seguendo la consultazione pubblica sulla bozza del dicembre 2018, che ha raccolto oltre 500 commenti. Secondo queste linee guida, un'IA affidabile deve essere legale, etica e robusta, considerando sia gli aspetti tecnici che quelli sociali.

Le linee guida definiscono sette requisiti chiave che i sistemi di IA dovrebbero soddisfare per essere considerati affidabili. Un elenco di valutazione specifico è stato progettato per verificare l'applicazione di ciascun requisito:

  • Responsabilità umana e supervisione: gli esseri umani devono prendere decisioni informate, con meccanismi di supervisione garantiti.
  • Robustezza tecnica e sicurezza: i sistemi devono essere resilienti, sicuri, accurati, affidabili e prevedere piani di riserva.
  • Privacy e governance dei dati: rispetto totale della privacy, governance dei dati e accesso legittimato.
  • Trasparenza: business model, sistemi e decisioni devono essere trasparenti, con spiegazioni chiare agli interessati.
  • Diversità, non discriminazione ed equità: evitare pregiudizi ingiusti, promuovendo l'accessibilità per tutti.
  • Benessere sociale e ambientale: beneficiare tutti gli esseri umani, essere sostenibili e rispettosi dell'ambiente.
  • Responsabilità: meccanismi di responsabilità e auditabilità devono essere implementati, garantendo accessibilità continua.

Il Comitato nazionale di bioetica e quello di biosicurezza, biotecnologie e sicurezze della vita hanno formulato raccomandazioni che includono:

  • Addestramento e sicurezza: controlli accurati, dati di qualità, sperimentazioni e strumenti di validazione per l'IA medica.
  • Informazione paziente: corretta informazione sui rischi e benefici dell'IA, con attenzione alla resistenza del paziente.
  • Formazione professionale: revisione flessibile dei programmi di studio per adattarsi ai cambiamenti tecnologici.
  • Etica nell'informatica: inclusione di principi etici nei corsi per sviluppatori e ingegneri.
  • Conoscenza pubblica: creare consapevolezza pubblica su opportunità e rischi dell'IA, promuovendo la partecipazione critica al dibattito.
  • Inoltre, si sottolinea la necessità di aggiornare normative sulla responsabilità delle nuove tecnologie e promuovere la ricerca sull'IA nel settore pubblico.

L’Organizzazione mondiale della sanità ha stilato un elenco di 6 principi per chi si occupa della progettazione, dello sviluppo e dell’implementazione dei sistemi di intelligenza artificiale in sanità:

  • Proteggere l’autonomia umana. Gli esseri umani devono continuare a mantenere il controllo dei sistemi sanitari e delle decisioni mediche; devono essere garantite e protette la privacy e la riservatezza dei pazienti che devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.
  • Garantire trasparenza e intelligibilità. Trasparenza vuol dire prevedere la pubblicazione di documenti e informazioni prima della progettazione o dell’implementazione di una tecnologia di IA. Queste informazioni devono essere facilmente accessibili e consultabili al fine di permettere un utilizzo corretto ed etico della tecnologia.
  • Promuovere un’IA reattiva e sostenibile. L’utilizzo dell’IA deve essere continuamente monitorato in modo trasparente per determinare che la risposta sia effettivamente all’altezza delle aspettative e rispetti i requisiti elencati finora. Inoltre, i sistemi di IA dovrebbero essere progettati per ridurre al minimo le conseguenze ambientali e aumentare l’efficienza energetica.
  • Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. I progettisti di IA devono soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d’uso e fornire indicazioni ben definite al riguardo. Devono rendere disponibili misure di controllo della qualità e di miglioramento della stessa nell’utilizzo delle tecnologie di IA.
  • Promuovere responsabilità. Anche se le tecnologie di intelligenza artificiale svolgono compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate.
  • Garantire inclusività ed equità. Le tecnologie di intelligenza artificiale devono essere progettate prevedendo un utilizzo equo delle stesse e un accesso paritario da parte di ogni cittadino del mondo, indipendentemente da età, sesso, genere, reddito, etnia, orientamento sessuale e religioso, nel rispetto dei diritti umani.

Il corso di formazione

Dell’intelligenza artificiale applicata all’ambito sanitario si occupa un corso di formazione ECM, presente sulla piattaforma di Consulcesi Club, dal titolo: “L'intelligenza artificiale negli scenari gestionali e assicurativi”. Responsabile scientifica del corso (del valore di 39,6 crediti ECM) è Paola Frati, professore ordinario di Medicina legale presso l’Università degli Studi di Roma “Sapienza

Il corso ha l’obiettivo di fornire competenze dettagliate su tre principali aree di interesse nel campo della medicina legale e sanitaria in generale: danni, gestione del rischio e sicurezza delle cure, e l'applicazione dell'intelligenza artificiale. L'analisi si concentra sugli sviluppi più recenti della giurisprudenza della Cassazione in materia di danni, esaminando criticità segnalate dalla dottrina e dalla pratica.

Il programma copre gli scenari attuali e futuri della sanità italiana, esaminando gli aspetti assicurativi legati al danno, le questioni gestionali relative al rischio e alla sicurezza delle cure, e l'applicazione dell'intelligenza artificiale in questi contesti. Vengono affrontate le criticità associate a ciascun argomento, fornendo proposte concrete per superarle.

Il corso mira al miglioramento delle competenze, analizzando le criticità e fornendo strumenti pratici per migliorare l'attività professionale nei diversi contesti della medicina legale, inclusa la libera professione, le strutture del servizio sanitario nazionale, gli istituti assicurativi pubblici e le assicurazioni private. Si estende anche ai riflessi sulla ricerca accademica.

Di: Arnaldo Iodice, giornalista

News e Approfondimenti che potrebbero interessarti

Vedi i contenuti