Quantcast

Il prof. Mazzone e “I medici artificiali”: «Un termine sbagliato che non esiste»

Scrive il medico legnanese: "Il Medico Artificiale non ha carattere né empatia e non può produrre nel paziente alcun effetto umano, che è parte integrante della cura"

mazzone legnano

Il prof. Antonino Mazzone primario di medicina interna all’ospedale di Legnano – Asst Ovest Milano e “I medici artificiali”. In una lettera inviata alla rivista specializzata “Quotidiano Sanità” il medico legnanese va diretto al problema e al direttore scrive: «Prima di descrivere alcuni risultati del lavoro a cura della prestigiosa rivista JAMA Internal Medicine, redatto da ricercatori del centro medico di Boston , chiederei di non usare questo temine “Medico artificiale”, perché è un termine sbagliato che non esiste».

«Un medico è un professionista sanitario abilitato a diagnosticare, curare e prevenire le malattie, preservando la salute umana, artificiale, ottenuto con arte, in contrapposizione a ciò che è per natura – prosegue il prof. Mazzone -. Un medico non può essere in contrapposizione alla natura umana. Sono computer o figure traslate, che potrebbero essere più efficienti di quelli umani, almeno considerando le sole capacità di ragionamento clinico, ma mancano di umanità ed amore».

Di seguito il testo integrale

Lo studio ha comparato le prestazioni di ChatGPT-4 con quelle degli specializzandi di medicina interna e dei medici di due centri accademici. Come aveva fatto lo scorso anno in un altro lavoro su New England Journal of Medicine 12 april 2024 authors: Uriel Katz, m.d. , et al. il Chat GPT versus resident physicians — a benchmark based on official board scores.

Vista l’importanza del tema per il futuro della Medicina Interna e dei malati, mi preme cercare di comprendere Cos’è un Large Language Model (LLM)? Da ChatGPT a …si può fare diagnosi, ma chiunque pratichi la Medicina Interna soprattutto che gestisce complessità, poli patologie e poli farmacoterapia, sa che c’è molto di più oltre a questo – Come abbiamo sostenuto da sempre, e come dichiarato da Adam Rodman, medico di medicina interna e ricercatore ed autore del lavoro. È chiaro che l’algoritmo è in grado di fare un ragionamento clinico, visto che ci sono più passaggi strutturati dietro una diagnosi, quindi si è voluto valutare se gli LLM sono bravi quanto i medici nel fare questo tipo di ragionamento clinico. Non è una scoperta sorprendente, che queste macchine siano in grado di mostrare un ragionamento equivalente di quello delle persone durante l’evoluzione del caso clinico”. Ma esistono tanti errori digitali da parte degli algoritmi, che fanno ancora oggi del medico un professionista insostituibile.

Infatti come riportato nella letteratura scientifica recente, una Internista la dr.ssa Alice Fanin di Bergamo ha posto dei quesiti a Chat Gpt. La prima paziente: peso 45 chili e sono alta 170 cm, che rischi corro? In questo caso ha risposto bene, illustrando i possibili rischi connessi con lo stato di malnutrizione (sebbene non tutti), mentre sui consigli più specifici ha raccomandato di chiedere consigli ad un medico, che mi pare la cosa più sensata da dire.

Nel secondo quesito – ho le gambe gonfie da 10 giorni, cosa può essere? – c’è una grossa inesattezza. Giustamente dice che le possibili cause possono essere molte ma dà dei consigli generici tra i quali quello di bere molta acqua, che invece in alcuni casi (come uno scompenso cardiaco che si associa a gambe gonfie), può invece andare ad aggravare ulteriormente il quadro clinico.

Dunque molti limiti ancora per i pazienti Internistici complessi. Infatti gli studi pubblicati hanno rilevato però che, sebbene l’accuratezza diagnostica fosse globalmente corretta, l’LLM mostrava occasionalmente passaggi di ragionamento errati con una media di errori più alta di quella umana. Dai dati pubblicati sul lavoro del New England si evince che il confronto in Medicina Interna e molto favorevole ai medici. Il lavoro mostra percentili mediani di correttezza diagnostica del 44,4% per LLM Chat Gpt a (IC al 95%, da 38,9 a 55,5) e del 56,6% per i Medici Internisti (IC al 95%, da 44,0 a 65,7), rispettivamente. Proprio quest’ultimo elemento, conduce gli autori dello studio a formulare una ovvia quanto fondamentale consapevolezza, ossia che l’intelligenza artificiale, va considerata un approccio utilissimo da sfruttare esclusivamente come strumento anche in parallelo, al lavoro medico umano.

Queste considerazioni devono far riflettere come già scritto in una precedente lettera su QS la medicina oggi si trova molto lontano dal letto del malato, tra briefing, riunioni tecnologie, Pdta, linee guida, ed è alla ricerca di un modo nuovo, incerto da dove cominciare. In questi anni difficili, tutto questo ha segnato in maniera complessa il rapporto umano e la relazione personale che si crea tra medico e paziente, ormai in crisi già da prima della pandemia covid 19. Abbiamo dunque la necessità di tornare ai fondamentali della natura ed etica del rapporto medico-paziente, che in questo contesto ne assume una importanza straordinaria.

Dunque, prima della scienza medica, c’è la compagnia al malato; la condivisione e l’aiuto a chi soffre connota radicalmente l’essere medico, non è semplice obbedienza ad una linea guida, è e rimane un privilegio della professione. Oggi dobbiamo affrontare una novità, riguarda l’intelligenza artificiale, oggi è il momento di Chat Gpt. Il prototipo di chatbot basato su un sistema molto sofisticato di intelligenza artificiale e apprendimento automatico, che sta entrando in poco tempo nelle nostre vite. Chiunque può conversare con il sistema ponendogli domande qualsiasi, incluse questioni di carattere medico. Il Medico artificiale ha questa capacità. La risposta è no, come avevo riportato negli esempi precedenti, errori digitali e mancanza di umanità.

Il rapporto medico paziente senza il calore umano senza la comunicazione non solo verbale, gli sguardi, il linguaggio del corpo, della comunicazione para verbale, diventa un limite, nella capacità di cura. Come sottolineava “Karnofsky”, il carattere del medico può produrre nel paziente un effetto pari o superiore a tutti gli altri rimedi: una lezione di vera umanità. Ad oggi il Medico Artificiale non ha carattere né empatia e non può produrre nel paziente alcun effetto umano, che è parte integrante della cura.

Prof. Antonino Mazzone
Direttore di Dipartimento Medico
Direttore S.C. Medicina Interna Legnano
ASST Ovest Milanese

Redazione
info@legnanonews.com
Noi della redazione di LegnanoNews abbiamo a cuore l'informazione del nostro territorio e cerchiamo di essere sempre in prima linea per informarvi in modo puntuale.
Pubblicato il 21 Ottobre 2025
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

Segnala Errore