Robotica e intelligenza artificiale. Passi nel futuro e implicazioni nel presente

Radiomica e intelligenza artificiale

Intelligenza artificiale e robotica sono due facce della stessa medaglia, stadi di avanzamento della tecnologia differenti che possono integrarsi senza necessariamente svolgere le medesime funzioni.

L’intelligenza artificiale – quell’insieme di software basati su algoritmi complessi aventi lo scopo di effettuare operazioni di correlazione, analisi e sviluppo di fenomeni esterni al software e con i quali lo stesso viene a contatto – è forse il risultato massimo di avanguardia umana.
Riuscire a riprodurre tramite una tecnologia artificiale parte del ragionamento umano basato su raccolta dati, esperienza, rielaborazione e soluzione è un risultato formidabile e ancor più rimarchevole è la capacità di utilizzarlo per la cura di patologie umane.

Il meccanismo di funzionamento dell’intelligenza artificiale si basa su tre punti: la raccolta di big data, il tipo di algoritmo e il c.d. machine learning. I big data sono informazioni in continuo aggiornamento da cui attingere per svolgere una determinata funzione: in ambito medico si pensi ad esempio a tutti quei dati archiviati in sistemi di memoria come le cartelle cliniche, i risultati di esami di laboratorio o la mappatura su larga scala effettuata nella genomica. La raccolta e l’utilizzo di questi dati, il fatto di potervi attingere, permette all’algoritmo (insieme di operazioni utilizzate per risolvere problemi) di analizzare le informazioni a disposizione al fine di offrire le soluzioni richieste e ottenere risultati così come vi giungerebbe la mente umana.

L’utilizzo di questi metodi è funzionale alla creazione di un sistema che possa in autonomia dotarsi di esperienza di caso in caso, fissando i risultati ottenuti e rielaborandoli pro futuro per ottenere risposte migliori nell’operazione successiva e assicurando un servizio sanitario sempre più preciso e aggiornato: è questa capacità di apprendimento automatica (machine learning) che rende possibile all’intelligenza artificiale di affiancare il medico nella sua attività, non come mero strumento, ma come collaboratore in un processo decisionale adatto al caso concreto.

L’intelligenza artificiale in medicina (come in altre scienze) offre vantaggi in termini di risparmio di tempo, di denaro e di efficacia nella fase preclinica (ad esempio nella produzione di un vaccino può essere utile per prevedere più velocemente la struttura delle proteine) o in fase clinica per la velocità delle diagnosi. Anche in diagnostica mostra le sue utilità, attraverso l’utilizzo di sistemi che possono coadiuvare l’esperto grazie alla rielaborazione dei dati; infine, affidarsi a un collaboratore “matematico” risulta sempre più necessario in vista di un possibile contenzioso medico-legale.

Durante la pandemia da Covid-19 fondamentale è stato l’utilizzo di apparecchiature dotate di intelligenza artificiale per la rilevazione della temperatura corporea, per il monitoraggio della diffusione territoriale e per fasce di età del virus e del contact tracing (si pensi a Immuni). Esempi particolari di uso di intelligenza artificiale durante la pandemia è stata la piattaforma “Covid-19 Exam Ct/XR images AI” che grazie all’inserimento in tale supporto di migliaia di radiografie di persone sane e di malati Covid ha permesso all’intelligenza artificiale di riconoscere l’impronta del virus sui polmoni nei casi più gravi.

Altro esempio virtuoso è DeepMind, software di intelligenza artificiale basato su algoritmi di deep learning (sottoinsieme del citato machine learning): tale sistema è stato in grado di offrire con una precisione superiore al 90% la dimensione tridimensionale di una proteina batterica in 30 minuti, contro le normali tempistiche (anni) richieste da metodi di analisi di laboratorio come la microscopia crioelettronica. Ancora, la piattaforma IBM-Watson Health è stata in grado di raccogliere centinaia di migliaia di dati relativi a cartelle cliniche e di anticipare di due anni le diagnosi di insufficienza cardiaca.
Nel 2017 IBM W. H. ha firmato con FDA un accordo per lo scambio di dati sanitari con lo scopo di tracciare tutte le informazioni relative al processo di scambio dei dati, anche a tutela della privacy dei pazienti. Ugualmente in Italia è stato coinvolto il Garante della privacy a tutela della riservatezza dei pazienti, valore che non potrà mai soccombere rispetto all’evoluzione tecnologica.

Per quanto riguarda la robotica – arrivata prima dell’intelligenza artificiale e assai utile in termini di precisione e velocità – si tratta di una branca dell’ingegneria che si occupa di permettere ad uno strumento (robot) di eseguire operazioni che potrebbero essere svolte da esseri umani, permettendo anch’essa un risparmio di tempo, economico e di fatica non indifferente.
Il primo robot applicato in chirurgia risale agli anni ‘80 in Canada, ove per alcune operazioni agli arti veniva usato l’Arthrobot (UCB Hospital of Vancouver), che permetteva il movimento dell’arto in base a come doveva intervenire la mano del chirurgo. Nel 1985 è stato ideato il Programmable Universal Manipulation Arm (PUMA), utilizzato per operazioni di alta precisione come le biopsie e ideato in California presso il Memorial Medical Center.

Nel corso della storia non può omettersi il robot da Vinci (la sua approvazione da parte della FDA risale al 2000): si tratta di uno strumento migliorato negli anni che viene applicato per la c.d. chirurgia mininvasiva (per esempio, in chirurgia generale, urologia, cardiologia, ginecologia ecc.) che offre incontestabili vantaggi in termini di precisione delle manovre e delle tecniche complesse di azione sul paziente, di contenimento di conseguenze post-operatorie e di minori tempi di recupero.

È notevole pensare come l’implementazione dell’utilizzo della robotica, se addirittura accompagnata da sistemi di intelligenza artificiale possa aprire in medicina orizzonti per un nuovo stadio della chirurgia. Un esempio virtuoso poi lo si può vedere nell’ambito della tecnologia “includente”, dove robot come Nao permettono di scoprire un nuovo mondo dell’educazione in soggetti non vedenti o autistici.

Nell’ambito di alcuni incontri tenutisi e organizzati dalla Mida Academy (un’associazione no profit per la tutela di diritti umani in Italia e nel mondo) si è parlato molto del tema e del fatto che nel solo 2020 l’utilizzo dei robot sia aumentato del 40%: il faticoso distanziamento che ogni cittadino ha dovuto rispettare per evitare la diffusione del coronavirus ha reso necessario l’aumento di questo utilizzo, visto anche il fatto che il personale sanitario era (ed è) direttamente a contatto con il paziente.

Intelligenza artificiale e robotica possono essere due canali al servizio dell’articolo 23 Cost., che tutela la salute umana. Tuttavia, se un robot non è più “manovrato” a distanza dal medico o da un operatore esperto ma è dotato di un sistema complesso di intelligenza artificiale che permette di prendere autonome decisioni mentre sta svolgendo un’operazione chirurgica, il problema va affrontato su un ulteriore piano.

A ragione si può sostenere che in termini di efficacia e di distribuzioni delle risorse umane un robot capace di eseguire autonomamente operazioni complesse può essere un ottimo aiuto per il medico, ma altrettanto si deve concordare sul fatto che l’umano deve poter intervenire in qualsiasi momento per correggere l’attività robotica e meglio indirizzarla. Tuttavia, se il paziente subisce un danno nella diagnosi o durante l’operazione, allo stato attuale non esiste una normativa univoca che delinei chi risponda del danno da utilizzo dell’intelligenza artificiale in medicina.

Responsabilità

Il problema è foriero di soluzioni interpretative differenti e forse contrastanti.
Se si fa riferimento alla robotica priva di sistemi di intelligenza artificiale, l’attuale quadro normativo assimila questa tecnologia ai prodotti, con annessa responsabilità derivante dalla disciplina sui prodotti difettosi che normalmente ritiene responsabile il produttore (salvo, comunque, la responsabilità del medico e della struttura in caso di malpractice).

L’art. 114 del Codice del consumo (D.lgs. n. 206/2005) infatti ritiene il “produttore responsabile del danno cagionato da difetti del suo prodotto” e l’art. 116, invece, ove non sia individuabile il produttore, fa ricadere la responsabilità in capo al fornitore. Questi soggetti, normalmente, si possono liberare nel caso in cui dimostrino che il difetto non fosse prevedibile al momento della produzione del dispositivo, tuttavia, pare chiaro che tale possibilità non possa essere invocata se il produttore ha il controllo del robot e può effettuare da remoto un’opera di manutenzione.

Inoltre, ai fini di una completa disciplina sul tema e, in specie, per un’efficace vigilanza sui dispositivi medici (in quanto un robot utilizzato in ambito medico è sì qualificabile come prodotto, ma è certamente un dispositivo medico) a seguito del Regolamento UE n. 2017/745 (relativo ai dispositivi medici) il Parlamento italiano ha approvato la legge 22 aprile 2021 n. 53, che delega al Governo l’attuazione delle direttive sui dispositivi medici, ponendo particolare attenzione alla fase di vigilanza (funzionamento, prevenzione degli incidenti ecc.) sugli stessi: per tale motivo la Direzione Generale dei Dispositivi Medici e del Servizio Farmaceutico ha fornito con la Circolare 8 luglio 2021 indicazioni operative su modalità e tempistiche delle segnalazioni di incidenti con i dispositivi medici.

Posto che quanto affermato può essere applicato anche in tema di robot dotati di intelligenza artificiale, la questione si complica poiché il robot dotato di intelligenza artificiale è in grado di compiere ragionamenti indipendenti e da un certo punto di vista imprevedibili e, a oggi, non esiste una normativa completa che determini chi e in che modo sia responsabile per il danno provocato dal robot intelligente. Risponderà, dunque, il medico utilizzatore, la struttura sanitaria, il produttore/fornitore del prodotto o la società che ha ideato l’algoritmo?

L’assenza di una risposta univoca ha spinto il Parlamento europeo ad adottare due Risoluzioni (16 febbraio 2017 e 20 ottobre 2020) recanti raccomandazioni al fine di istituire una disciplina normativa comune e chiara sul tema dell’intelligenza artificiale applicata alla robotica, anche in ambito sanitario: interessante è l’idea di istituire un terzo tipo di personalità giuridica come la “personalità elettronica”.

A oggi, comunque, le regole vengono individuate e applicate caso per caso.
Da un lato un primo orientamento ritiene applicabile non tanto la normativa sui prodotti difettosi, quanto la responsabilità per esercizio di attività pericolose o per danno cagionato da cose in custodia (art. 2050 c.c.: “chiunque cagiona danno ad altri nello svolgimento di un’attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento del danno, se non prova di avere adottato tutte le misure idonee a evitare il danno”; art. 2051 c.c.: “ciascuno è responsabile delle cose che ha in custodia, salvo che provi il caso fortuito”), che rappresenterebbe una sorta di responsabilità presunta in quanto il danneggiato non deve provare alcunché, né il produttore, il medico o la struttura possono liberarsi sapendo di aver seguito le linee guida o i dovuti canoni di diligenza: serve qualcosa in più, ossia la dimostrazione di avere adottato qualsiasi misura possibile al fine di eliminare o evitare il danno.

Dall’altro lato, una seconda impostazione si concentra sul cattivo funzionamento del programma di intelligenza artificiale: in questo caso troverebbe applicazione la normativa sul consumo e sui prodotti difettosi, con responsabilità del produttore del dispositivo se è questi a fornire il sistema di intelligenza artificiale o del programmatore stesso. Tuttavia, se l’errore cade sui dati scientifici messi a disposizione del programma, la responsabilità può ricadere sulla struttura sanitaria deputata all’aggiornamento dei dati relativi al paziente.

Come detto, il problema va risolto caso per caso, indagando quale soggetto potesse prevedere il determinato comportamento anomalo ed evitarne le conseguenze. Inoltre, un ulteriore problema si rinviene nel fenomeno della c.d. medicina difensiva in quanto un ordinamento giuridico che non delinei correttamente le soluzioni applicabili al caso concreto e che lasci alla giurisprudenza la valutazione caso per caso rischia di compromettere il corretto esplicarsi dell’attività medica, rifiutando le strutture o il medico di utilizzare uno strumento dotato di intelligenza artificiale per il pericolo che si possa incorrere in una qualche responsabilità giuridica.

In attesa di una soluzione normativa completa e adatta, è stata proposta dal Gruppo di Esperti sulla Responsabilità e Nuove Tecnologie della Commissione Europea l’istituzione di un fondo assicurativo che permetta al paziente di essere risarcito in caso di danno provocato dal robot dotato di intelligenza artificiale, fondo garantito da tutti i soggetti coinvolti nell’utilizzo della robotica “intelligente”, quali ospedali, produttori, programmatori dell’algoritmo e, financo, lo Stato.

In attesa di una risposta normativa seria e consona alla delicatezza del problema, il mondo scientifico procede e crea sempre più spazio agli studi dell’intelligenza artificiale e della robotica. Di recente (settembre 2021) la stessa Università degli Studi di Milano ha attivato due master di II livello sul punto.
Non resta che attendere la costruzione di regole precise a tutela sia del paziente che dello sviluppo scientifico.

Fonti principali

Alessandro Brigatti