Come inserire l’intelligenza artificiale in contesti clinici?

Radiomica e intelligenza artificiale

Negli ultimi anni è cresciuto notevolmente nel mondo il numero degli articoli scientifici pubblicati che presentano modelli di intelligenza artificiale da applicare a vari ambiti della medicina. La maggior parte di questi, però, non è mai uscita realmente dai laboratori, fallendo nella fase di traslazione alla clinica. Quali le ragioni di questa situazione? Ha provato a rispondere a questa domanda uno studio internazionale, al quale hanno collaborato Australia, Nuova Zelanda, Germania e Stati Uniti (Ohio).

L’ipotesi è che questo fallimento sia determinato da una serie di concause, per ognuna delle quali occorre individuare soluzioni efficaci: è possibile che gli sviluppatori di questi sistemi innovativi si concentrino soprattutto sull’aspetto tecnico, perdendo di vista invece la sua integrazione nei flussi di lavoro già presenti in una struttura sanitaria o, comunque, la sua applicabilità nel mondo reale. Un altro problema può essere l’assenza di database di qualità sui quali utilizzare i sistemi di intelligenza artificiale: è chiaro che le risposte fornite dagli algoritmi di machine learning, e non solo, dipendono fortemente dal tipo di informazioni che vanno a elaborare, oltre che dal loro numero.

Ci sono infine, come evidenziato dagli autori, una serie di ragioni etiche che di solito non vengono prese in considerazione dagli sviluppatori: ogni ospedale prima di integrare una nuova tecnologia deve renderne conto al Comitato Etico… che può trovare una serie di ragioni per non accettarla. D’altronde, al momento non esiste un sistema rigoroso di valutazione di un algoritmo di intelligenza artificiale che ne valuti la generalizzazione, per esempio, e altri aspetti utili per facilitarne la transizione nel mondo reale.

Secondo gli autori, quindi, è necessario individuare una piattaforma di valutazione che segua la nascita di un sistema di intelligenza artificiale sin dalle prime fasi del suo sviluppo, per poi valutarlo nella fase di distribuzione, nell’integrazione all’interno di sistemi di lavoro sanitari già esistenti e nella sua adozione da parte dei clinici. Al momento invece la sola valutazione cui vengono sottoposti questi sistemi sono quella di efficacia, che guarda ai risultati prodotti, e quella regolatoria: due aspetti essenziali che però non sono sufficienti per garantire che la nuova tecnologia venga poi di fatto introdotta in ospedale per supportare gli operatori.

Data questa carenza di sistema, gli autori propongono un framework da loro elaborato, chiamato TEHAI: alla base di questo risultato c’è un vasto lavoro di revisione della letteratura alla ricerca di possibili componenti e sub-componenti da utilizzare. La prima bozza di TEHAI è stata revisionata da un panel internazionale di esperti di medicina, data science, politica sanitaria, ricerca biomedica e in commissioni sanitarie.

Il risultato è un framework composto di tre componenti principali (capacità, utilità e adozione) e 15 sotto componenti utili per valutare vari sistemi di intelligenza artificiale in un’ottica traslazionale. Rispetto ad altri strumenti di valutazione, TEHAI tiene in considerazione anche aspetti etici del modello di sviluppo e distribuzione utilizzato, il che lo rende innovativo. Inoltre, gli autori lo presentano come uno strumento flessibile, adatto a essere utilizzato da sviluppatori e venditori prima di immetterlo sul mercato, per assicurarsi in qualche modo che poi possa davvero essere utile in clinica e che quindi abbia successo.

(Lo studio: Reddy S, Rogers W, Makinen V, et alEvaluation framework to guide implementation of AI systems into healthcare settingsBMJ Health & Care Informatics 2021;28:e100444. doi: 10.1136/bmjhci-2021-100444)

Stefania Somaré

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here