A partire dal 29 ottobre, OpenAI ha ufficialmente aggiornato la policy di utilizzo di ChatGPT, vietando al chatbot di fornire consulenze professionali in ambito medico, legale e finanziario. La decisione segna un cambio di rotta significativo per la piattaforma, che finora era stata ampiamente utilizzata dagli utenti per ottenere indicazioni su diagnosi, terapie o questioni giuridiche.
Secondo quanto riportato da NEXTA, ChatGPT sarà d’ora in poi descritto come uno “strumento educativo” e non più come un “consulente”. Il suo ruolo sarà quello di spiegare principi generali e fornire informazioni di carattere divulgativo, invitando sempre l’utente a rivolgersi a un medico, un avvocato o un consulente finanziario qualificato. La misura risponde all’esigenza di garantire maggiore sicurezza e responsabilità nell’uso dell’intelligenza artificiale, evitando che le risposte del modello vengano interpretate come pareri professionali o decisioni cliniche.
Sicurezza dei pazienti e limiti dell’IA sanitaria
Il divieto di offrire consulenza medica mira a prevenire il rischio, non trascurabile, che utenti in cerca di aiuto affidino la propria salute a risposte automatizzate. In passato, alcuni si erano persino rivolti a ChatGPT per ottenere “terapia” o interpretazioni di sintomi, sollevando gravi preoccupazioni etiche e cliniche.
Le nuove norme impediscono al chatbot di interpretare immagini mediche, fornire diagnosi, redigere referti o suggerire trattamenti personalizzati. OpenAI ha chiarito che il modello potrà solo spiegare i principi della fisiologia o descrivere meccanismi generali di malattie, ma mai sostituire la valutazione di un professionista.
Questo adeguamento risponde anche alle regolamentazioni globali: l’Artificial Intelligence Act dell’UE impone una supervisione rigorosa per gli strumenti “ad alto rischio”, mentre negli Stati Uniti la FDA richiede validazione clinica per le IA diagnostiche. In questo modo, OpenAI evita di essere classificata come “software medico” e riduce l’esposizione a potenziali contenziosi.
Leggi anche
Aspetti legali: nuove norme e responsabilità digitali
Sul piano giuridico, la mossa di OpenAI rappresenta un passo di conformità preventiva verso le normative internazionali. Le Norme di Utilizzo aggiornate vietano espressamente qualsiasi forma di consulenza personalizzata che richieda una licenza professionale, come quella legale o medica, senza il coinvolgimento diretto di un esperto autorizzato. Inoltre, la piattaforma proibisce l’uso del modello per attività dannose o illegali, tra cui minacce, molestie, promozione di autolesionismo, terrorismo, violenza basata sull’odio e violazioni della proprietà intellettuale.
In caso di comportamenti pericolosi, i contenuti vengono analizzati da un team specializzato che può arrivare, nei casi più gravi, a segnalare l’utente alle forze dell’ordine. L’obiettivo è prevenire danni fisici o psicologici, bilanciando tutela legale e responsabilità etica. La stretta normativa tutela OpenAI da sanzioni potenzialmente severe, come quelle previste dall’UE fino al 6% del fatturato globale, e definisce un precedente per tutto il settore.
Le altre novità e le prospettive del settore
I dati interni indicano che circa il 40% delle richieste a ChatGPT riguardava consulenze, e il cambiamento potrebbe inizialmente ridurre il traffico. Tuttavia, l’impatto sul mercato dell’intelligenza artificiale è profondo: anche Google, Anthropic e altri sviluppatori potrebbero introdurre restrizioni simili, mentre cresce l’interesse per modelli verticali specializzati e certificati in ambito sanitario o giuridico. OpenAI afferma di voler “bilanciare innovazione e sicurezza”, preparando ulteriori implementazioni della policy entro febbraio 2025.