CHATGPT E SALUTE: 5 COSE DA SAPERE PER NON SOSTITUIRSI AGLI ESPERTI

QUANDO SI HA QUALCHE ACCIACCO o problema di salute è normale avere la necessità di saperne di più. Un tempo si chiedeva al vicino, poi si è passati alla ricerca su Internet e oggi ci si affida spesso all’intelligenza artificiale. Tanto è vero che OpenAI ha annunciato negli Stati Uniti la disponibilità di ChatGPT Salute, una sezione dell’IA interamente dedicata all’argomento, che non è ancora arrivata in Italia. Secondo i dati riportati da OpenAI ogni settimana nel mondo circa 230 milioni di persone chiedono all’intelligenza artificiale consigli su salute e benessere. Da qui l’idea di lanciare una sezione dedicata integrata in ChatGPT che permette di mettere in relazione informazioni sulla salute, app di benessere e cartelle elettroniche per personalizzare i consigli. Il tutto per chiarire le idee senza sostituirsi agli addetti ai lavori. «I chatbot, così come i motori di ricerca, possono aiutare a capire meglio il nostro stato di salute e a porre le domande giuste ma devono essere usati nel modo corretto, senza pretendere che risolvano la situazione e che indichino la strada da seguire senza consultare il medico» sottolinea il professor Fabrizio Pregliasco, Direttore della Scuola di Specializzazione in Igiene e Medicina Preventiva dell’Università degli Studi di Milano e Direttore Sanitario d’Azienda – I.R.C.C.S. Ospedale Galeazzi Sant’Ambrogio di Milano. Proprio per questo abbiamo pensato di indicare i 5 punti fondamentali per utilizzare al meglio la tecnologia in campo medico, chiarendosi le idee senza ansia e rischi per la salute. ChatGPT e salute: i 5 punti fondamentali da conoscere 1. Usarla solo come supporto L’intelligenza artificiale può risultare molto utile se viene utilizzata per capire meglio il problema medico con cui si ha a che fare. Può ad esempio aiutare a comprendere il significato di una diagnosi che ci è stata consegnata, a interpretare termini medici difficili o a conoscere a grandi linee una malattia. Non può però sostituirsi alla diagnosi del medico e non può interpretare i risultati degli esami svolti, che devono essere sempre visionati dagli esperti per essere valutati nel modo corretto. Uno dei problemi più diffusi quando si ha a che fare con risultati di esami e diagnosi è proprio quello dei termini medici utilizzati, non sempre facilmente comprensibili a un profano. Per questo l’intelligenza artificiale può essere utilizzata per semplificarci la vita e capire cosa ci ha realmente prescritto il medico al di là dei “paroloni”. Si può quindi ad esempio chiedere nei prompt di spiegare quanto riportato come se non si fosse medici. L’IA (così come i motori di ricerca) non deve essere mai utilizzata per decidere di iniziare, sostituire o sospendere una terapia: i farmaci devono infatti essere prescritti da esperti che ne conoscono le caratteristiche, l’efficacia ed eventuali effetti collaterali in rapporto alle condizioni cliniche del malato. «Nel caso consultando l’intelligenza artificiale sorgesse un dubbio concreto sulle cure che si stanno seguendo, prima di effettuare qualsiasi variazione è necessario chiedere il parere del medico che le ha prescritte, altrimenti si può andare incontro a conseguenze anche importanti» dice il professor Pregliasco. Un ultimo avvertimento riguarda la sicurezza in termini di privacy: per evitare di diffondere dati sensibili bisogna sempre porre le domande in generale, indicando nei prompt termini generici, tipo “il paziente”, “il malato”, senza dare riferimenti personali, come nome, codice fiscale, cartelle cliniche etc. Con la nuova sezione di ChatGPT salute e la possibilità di collegare direttamente le cartelle cliniche elettroniche le cose potrebbero cambiare: OpenAI garantisce sistemi di privacy e sicurezza avanzati ma un minimo di attenzione non guasta mai. Commenta il professor Pregliasco: «L’IA nelle cartelle cliniche elettroniche non è incompatibile con la privacy, ma richiede regole chiare, scelte tecnologiche responsabili e una forte supervisione pubblica. La vera sfida non è tecnica, ma di governance, trasparenza e fiducia». 2. Porre domande precise Per ottenere risposte che aiutino a chiarire la situazione anziché renderla più complicata è necessario porre domande precise, descrivendo ad esempio i sintomi con cui si ha a che fare, in modo che l’intelligenza artificiale non rimanga “disorientata” da dubbi generici, fornendo un mare di informazioni che possono creare ansia e che possono portare a risposte errate o non adatte alla situazione specifica. «Chiedere ad esempio che tipo di malattia si ha non ha molto senso perché porta inevitabilmente ad ottenere una serie di informazioni generiche e incomplete. Meglio quindi porre domande del tipo “Quali possono essere le cause generali di questo sintomo?”, oppure “Quali esami si fanno di solito in questi casi?» suggerisce Pregliasco. È anche possibile provare a porre delle domande di approfondimento dopo che si sono avute le prime risposte per vedere se l’IA conferma quanto detto prima (ad esempio “È vero che questa malattia spesso causa questo sintomo?”): può infatti succedere che l’intelligenza artificiale, proprio per l’ampia quantità di informazioni che ha a disposizione faccia confusione, dando delle risposte non sempre attendibili. Proprio per questo motivo anche se si pongono delle domande specifiche non è detto che le risposte siano la verità assoluta e quindi se il medico che si consulta dovesse proporre altri esami o propendere per una diagnosi diversa è decisamente il caso di seguire i consigli dell’esperto. Un altro errore da evitare è suggerire una possibile diagnosi ai chatbot (ad esempio “Potrei avere questa malattia?”) perché in questo modo si orienta l’intelligenza artificiale verso una risposta precisa già indicata in partenza togliendo veridicità alle risposte ottenute. 3. Chiedere di citare linee guida e fonti Selezionare il tipo di informazioni a disposizione è fondamentale per capire se le risposte ottenute sono attendibili. Un conto, infatti, è ricevere delle informazioni da fonti affidabili, come ad esempio università, medici divulgatori, riviste specializzate etc., un altro è dare credito a tutto quello che viene proposto dall’intelligenza artificiale senza una selezione appropriata. «Per questo è consigliabile chiedere sempre nei prompt di citare le fonti da cui vengono prese le informazioni. In caso di terapie, esami o interventi chirurgici, può essere buona norma chiedere di citare quali sono le principali linee guida internazionali (ad esempio WHO, NICE, ESC, ISS), ossia gli standard indicati da organismi specifici, come l’Organizzazione Mondiale della Sanità o l’Istituto Superiore di Sanità in Italia, che i medici utilizzano per diagnosticare e curare una specifica malattia» consiglia il professor Pregliasco. Le fonti indicate devono poi essere verificate per essere certi della correttezza della risposta, magari con delle domande di approfondimento, chiedendo ad esempio cosa dicono le linee guida indicate nel caso della specifica malattia e vedendo se la risposta ottenuta è la medesima. 4. Utilizzarla per preparare domande al medico Quando si va del medico per ottenere una diagnosi o discutere una terapia le domande che saltano alla mente sono tantissime. Per cercare di mettere un po’ d’ordine l’intelligenza artificiale può essere d’aiuto. «Si può ad esempio chiedere all’IA di aiutarci a preparare domande da fare al medico su una determinata diagnosi: in questo modo possono venire fuori dubbi che non ci sono venuti in mente al momento e le domande possono essere poste anche in modo più specifico e corretto. Si possono poi stampare o salvare in modo da averle a disposizione durante la visita senza dimenticarle» dice Pregliasco. Usare l’intelligenza artificiale per individuare le domande da porre all’esperto è molto utile perché può migliorare il dialogo tra medico e paziente, riduce l’ansia di incomprensioni da parte del malato e aumenta l’aderenza (cioè la partecipazione) alle cure. 5. Diffidare delle risposte che sembrano assolute Utilizzando l’intelligenza artificiale in campo medico può succedere di ricevere risposte che sembrano un po’ troppo sicure o definitive. In questo caso non bisogna mai fidarsi del tutto. «In medicina, infatti, non esistono risposte uguali per tutte le persone. Ogni paziente è diverso (basta pensare al fatto che chi soffre di una malattia può avere contemporaneamente altri problemi di salute diversi, può assumere dei farmaci, ci sono variabili che riguardano l’età, il sesso etc.). Quando ci si trova di fronte a risposte “rigide” (tipo “Bisogna sempre eseguire un intervento chirurgico”) vale quindi sempre la pena consultare il medico per chiarire tutti i dubbi, evitando inutili ansie e paure» conclude il professor Pregliasco.

2026-01-11T09:02:09Z