L’uso dell’intelligenza artificiale (IA) in campo medico ha numerose potenzialità, ma al contempo non è esente da rischi. Per provare a riflettere di questo tema proviamo a partire da un caso clinico, per poi addentarci in alcune valutazioni più di dettaglio.

Una donna di 47 anni, senza sintomi evidenti, si sottopone a una mammografia a scopo di screening. L’immagine mammografica viene analizzata dall’IA, che rileva microcalcificazioni sospette sfuggite al radiologo e suggerisce una biopsia mirata, con cui si dimostra la presenza di un carcinoma duttale in fase iniziale. Sono inseriti nel sistema i referti di test genetici (verifica predisposizione familiare) e genomici (informazioni sull’aggressività del tumore e probabilità di recidiva). Si procede ad un intervento conservativo seguito da terapia ormonale. Si esclude la chemioterapia dato che l’IA indica un basso rischio di recidiva.

La logica procedurale del sistema di IA:

  1. ha elaborato i dati clinici, istologici, genetici e molecolari della paziente;
  2. ha confrontato il profilo tumorale con migliaia di casi simili e con linee guida cliniche;
  3. ha proposto un piano terapeutico personalizzato.

Nel caso qui esposto la diagnosi precoce ha sortito una migliore qualità di vita. Infatti, il percorso decisionale rapido ha consentito una terapia su misura con meno effetti collaterali e una prognosi eccellente.

Il funzionamento, in breve, di un sistema di intelligenza artificiale in ambito medico

Ma come è possibile raggiungere questi obiettivi? Per capirlo meglio prendiamo a riferimento il sistema “IBM Watson for Oncology” sviluppato da IBM per supportare gli oncologi nella scelta delle terapie più appropriate destinate a pazienti affetti da tumore. Questo strumento:

  • è stato addestrato dagli oncologi del Memorial Sloan Kettering Cancer Center di New York, uno dei centri oncologici più prestigiosi al mondo;
  • è in grado di analizzare milioni di pagine di letteratura scientifica, linee guida, studi e cartelle cliniche, per conseguire precisione diagnostica e proporre trattamenti personalizzati;
  • decifra la scrittura manuale, quindi può interpretare anche note mediche non strutturate in questionario.

Offre così agli oncologici diverse possibilità per migliorare la propria azioni, poiché presenta opzioni terapeutiche classificate per appropriatezza, con spiegazioni dettagliate e fonti consultabili. Sono elementi ovviamente importanti per supportare la cura di diversi tipi di tumore (es. seno, polmone, colon-retto, stomaco, ovaie e prostata) e per ridurre i tempi di analisi e a colmare il divario tra evidenze scientifiche e pratica clinica.

Governare l’innovazione per salvare il sistema socio-sanitario

Il sistema ’“IBM Watson for Oncology” non è tuttavia esente da criticità. In primo luogo i dati memorizzati riguardano pazienti americani, mentre è noto che i tumori sono collegabili, oltre che a elementi genetici, a differenze nell’esposizione a fattori di rischio (quali fumo e obesità) e delle condizioni socioeconomiche, insieme alla variabilità nell’accesso e nell’utilizzo dei servizi sanitari. Similmente, i protocolli terapeutici implementati sono basati prevalentemente su studi e linee guida americani, che non tengono in conto il livello dell’offerta di servizi sanitari e della loro variabilità d’accesso e d’utilizzo in altri paesi del mondo.

Più in generale mancano studi clinici randomizzati, pubblicati su riviste di revisione paritaria, che provino l’affidabilità o la superiorità rispetto ai sistemi tradizionali nel fare diagnosi o suggerire terapie. Inoltre, per quanto detto sopra, il sistema va costantemente riorganizzato per mantenerlo in linea coi cambiamenti diagnostici e terapeutici.

Altri dubbi emergono poi dall’incertezza sulla tutela della privacy e da ragioni legate alle responsabilità in caso di errore.

Perplessità etiche da non sottovalutare

Le criticità tecnico-scientifiche e quelle sul consenso all’utilizzo corretto dei propri dati, a giudizio di molti, possono attenuarsi col tempo grazie a perfezionamenti costanti. Rimane per tutti sempre, pur con cangianti sfaccettature, la problematicità etica. Noi ci poniamo anche altri interrogativi, qualcuno dei quali proviamo a condividere.

Partiamo da una premessa. La medicina è una scienza probabilistico-statistica e gran parte delle sue conclusioni derivano da:

  • studi epidemiologici (es.: “Il fumo aumenta del 20% il rischio di cancro al polmone”);
  • sperimentazioni cliniche randomizzate (es.: “Il farmaco X riduce la mortalità del 30% rispetto al placebo”).
  • meta-analisi (che combinano dati di molti studi per migliorare l’affidabilità statistica).

Per questo, se un farmaco funziona nel 70% dei pazienti in uno studio ben controllato, la medicina lo raccomanderà, anche se non è efficace per tutti. Il razionale è probabilistico non di causa-effetto proprio di una scienza sperimentale.

Trasformazione digitale e sanità: un modello di anticipatory governance

Ma la statistica non basta in un quadro crescente di medicina personalizzata, sia sul piano biologico che su quello psicologico e socio-relazionale, e di casi clinici complessi, quali quelli prospettati da pazienti con molte patologie contemporanee e terapia multipla, che creano situazioni da sorvegliare singolarmente.

La stessa piena osservanza delle linee guida non esime dall’attenzione alle specificità del caso concreto per valutare se esse siano o meno proporzionate a una corretta gestione della situazione e adeguate al percorso terapeutico, anche se ciò implicasse un discostamento dalle indicazioni generali. Analogamente non basta il riferimento alle conclusioni dell’IA per un esonero da eventuali colpe in caso di eventi lesivi.

Implicazioni giuridiche che meritano attenzione

La Cassazione Penale (Sezione IV sentenza n. 37617/2021) ha esaminato un caso di presunta responsabilità medica in ostetricia-ginecologia, relativo al mancato ricovero di una donna alla 31ª settimana e alla morte successiva del feto. Il medico è stato assolto in primo e secondo grado, poiché il decesso è stato attribuito a prolasso del funicolo e le linee guida ospedaliere risultavano rispettate. Tuttavia, la Suprema Corte ha cassato la sentenza d’appello per motivazioni giudicate troppo sintetiche e insufficienti, richiedendo una maggiore approfondimento, specialmente sulle linee guida seguite.

Così si è espressa in sentenza la Corte di Cassazione:

A tal proposito giova ricordare che il formale rispetto delle linee guida vigenti presso il nosocomio non poteva (e non può) considerarsi esaustivo ai fini dell’esclusione della responsabilità del ginecologo: ciò in quanto le linee guida, lungi dall’atteggiarsi come regole di cautela a carattere normativo, costituiscono invece raccomandazioni di massima che non sollevano il sanitario dal dovere di verificarne la praticabilità e l’adattabilità nel singolo caso concreto. La giurisprudenza della Corte di legittimità è chiara nell’affermare che il rispetto delle “linee guida” non può essere univocamente assunto quale parametro di riferimento della legittimità e di valutazione della condotta del medico; e quindi “nulla può aggiungere o togliere al diritto del malato di ottenere le prestazioni mediche più appropriate né all’autonomia ed alla responsabilità del medico nella cura del paziente”.

Pertanto, “non può dirsi esclusa la responsabilità colposa del medico in riguardo all’evento lesivo occorso al paziente per il solo fatto che abbia rispettato le linee guida, comunque elaborate, avendo il dovere di curare utilizzando i presidi diagnostici e terapeutici di cui al tempo la scienza medica dispone” … Del resto, … può ricordarsi che anche nella recente L. n. 24 del 2017 (la c.d. legge Gelli – Bianco), pur non applicabile al caso di specie ratione temporis, il recepimento delle linee guida in appositi elenchi regolamentati e aggiornati mediante decreti ministeriali non ne ha mutato la natura e la finalità: l’art. 5, comma 1, della legge obbliga infatti gli esercenti le professioni sanitarie – nell’esecuzione delle prestazioni sanitarie … ad attenersi alle raccomandazioni previste dalle linee guida (pubblicate ai sensi del successivo comma 3) “salve le specificità del caso concreto”; e d’altronde lo stesso art. 6 della legge prevede l’esclusione della punibilità nel caso in cui l’evento si sia verificato a causa di imperizia quando sono rispettate le raccomandazioni previste dalle linee guida sempreché queste “risultino adeguate alle specificità del caso concreto”.

Nel caso di specie, appare evidente che la Corte distrettuale ha completamente omesso di verificare se, rispetto alle peculiarità del caso concreto, il rispetto delle linee guida fosse bastevole o richiedesse, invece, un approfondimento delle condizioni della paziente, mantenendola per qualche tempo in ambiente ospedaliero.

Come per le linee guida cliniche, anche il supporto dell’Intelligenza Artificiale sarà sempre più riconosciuto uno strumento essenziale per la pratica medica, fornendo un quadro di riferimento per la condotta professionale e contribuendo all’efficacia decisionale. Tuttavia se le linee guida sono concepite come “regole cautelari” orientative, la cui applicazione non va mai considerata rigida o meccanicistica, anche le risultanze dell’interrogazione di un sistema d’IA devono risultare opportune “rispetto all’obiettivo della migliore cura per lo specifico caso del paziente”. Ciò significa che la loro utilità è subordinata alla loro pertinenza e all’efficacia nel contesto clinico individuale.

Uno stimolo al miglioramento continuo

L’evoluzione della tecnologia e dell’informatica promuovono un modello di medicina sempre più flessibile, adattabile e profondamente imperniato sul paziente. Questo richiede un impegno costante nello sviluppo professionale, una documentazione meticolosa e un solido quadro etico per i compiti decisionali, evitando ogni trascuratezza nel parlare con il paziente e puntualizzare alcuni aspetti della sua storia clinica. Tutti funzionali all’accoglimento o meno del responso dell’IA.

Ne viene pertanto, anche sulla base dell’insostituibilità etico-professionale e giuridica del suo giudizio clinico, che il medico in proprio deve saper raccogliere esperienze e aggiornarsi per cogliere eventuali bias tecno-informatici, nonché sviluppare capacità di comunicazione con i pazienti e d’interlocuzione chiarificatrice con colleghi. Solo così non si trasforma lui in un semplice assistente del software anziché viceversa.

Così facendo, c’è un sano stimolo al continuo miglioramento professionale in base al processo mentale alimentato dalla logica che è “meglio essere troppo attenti che dispiaciuti” perché il costo di non rilevare un errore reale (falso negativo) è di gran lunga superiore al costo di percepire un errore dove non esiste (falso positivo).

 

 

Per approfondire

Jada G. Hamilton, et al, “A Tool, Not a Crutch”: Patient Perspectives About IBM Watson for Oncology Trained by Memorial Sloan Kettering, Journal of Oncology Practice, Volume 15, Number 4, https://doi.org/10.1200/JOP.18.00417

Foto di copertina: Generato da OpenAI su prompt di Percorsi di secondo welfare