I large language model (LLM) stanno ridefinendo il modo in cui i professionisti sanitari interagiscono con l’intelligenza artificiale. Grazie alla loro capacità di comprendere e generare linguaggio naturale, gli LLM offrono nuove prospettive di supporto nel processo diagnostico, nell’interpretazione dei dati clinici e nella formazione medica. In neurologia, questi strumenti hanno mostrato risultati promettenti nel riconoscere pattern linguistici associati a patologie come la malattia di Alzheimer, suggerendo possibili impieghi nella diagnosi precoce e nel ragionamento clinico.
Promesse e limiti etici
Nonostante le potenzialità, l’uso degli LLM in medicina solleva questioni etiche e operative. I dataset generalisti impiegati per l’addestramento possono introdurre bias e ridurre l’accuratezza in domini specialistici, mentre la mancanza di trasparenza sui dati limita la tracciabilità dei risultati.
L’eccessivo affidamento dell’IA può, inoltre, ridurre la supervisione clinica e il pensiero critico, con il rischio che pazienti e operatori sovrastimino le capacità diagnostiche di questi sistemi. È quindi essenziale promuovere un uso responsabile e bilanciato tra automazione e giudizio medico.
LLM e neurologia: evidenze sperimentali
Uno studio condotto da ricercatori dell’Asst Santi Paolo e Carlo e dell’Università degli Studi di Milano ha confrontato le prestazioni di ChatGPT e Gemini con quelle di neurologi esperti, utilizzando casi clinici reali in contesti non strutturati. I risultati mostrano una buona concordanza diagnostica in aree standardizzate come le malattie vascolari, ma una minore accuratezza nei disturbi del movimento, psichiatrici e complessi, dove l’esperienza clinica resta insostituibile. Entrambi i modelli tendono a sovraprescrivere test diagnostici, evidenziando la necessità di una supervisione umana costante.
Verso l’integrazione human-in-the-loop
Gli LLM rappresentano una risorsa emergente per la neurologia di precisione, ma la loro efficacia dipende da un’integrazione strutturata con l’esperienza clinica. Studi futuri dovranno validare le loro prestazioni su dati reali e sviluppare algoritmi capaci di comprendere la complessità del ragionamento medico. Formare i professionisti sanitari all’uso critico di questi strumenti sarà fondamentale per garantire sicurezza, affidabilità e valore clinico.
Lo studio: N.V. Maiorana, S. Marcegaglia, M. Treddenti, M. Tosi, M. Guidetti, M.F. Creta, T. Bocci, S. Oliveri, F. Martinelli Boneschi, A. Priori, Large Language Models in Neurological Practice: Real-World Study, https://pubmed.ncbi.nlm.nih.gov/40982758/


