Uso dell’IA nelle immagini istopatologiche di cancro mammario: performance e validazione esterna

Numerosi modelli di machine learning (ML) sono stati sviluppati per il cancro della mammella utilizzando diverse tipologie di dati. La validazione esterna (EV) di tali modelli è una prova importante della loro generalizzabilità. Un gruppo di ricercatori ha eseguito una revisione sistematica con la finalità di valutare le prestazioni di modelli ML su immagini istopatologiche, con validazione esterna, per la diagnosi, la classificazione, la prognosi o la previsione dell’esito del trattamento nel tumore mammario femminile.

È stata condotta un’esplorazione sistematica dei database MEDLINE, EMBASE, CINAHL, conferenze IEEE, MICCAI e SPIE alla ricerca di lavori pertinenti pubblicati tra gennaio 2010 e febbraio 2022. È stato impiegato il Prediction Model Risk of Bias Assessment Tool (PROBAST) e i risultati sono stati descritti in forma narrativa. Su 2011 articoli reperiti all’inizio, gli esperti, alla fine, hanno selezionato 8 articoli di riviste e 2 atti di conferenze che hanno soddisfatto i criteri di inclusione.

Tre studi hanno convalidato esternamente modelli ML per la diagnosi, quattro per la classificazione, due per la prognosi e uno sia per la classificazione che per la prognosi. La maggior parte degli studi ha utilizzato reti neurali convoluzionali e uno ha impiegato algoritmi di regressione logistica.

Per i modelli diagnostici/di classificazione, le metriche di performance più comuni riportate nella EV sono accuratezza e area sotto la curva, superiori rispettivamente all’87% e al 90%, utilizzando le annotazioni/diagnosi dei patologi come riferimento. Usando dati clinici come riferimento, gli hazard ratio nella EV dei modelli ML prognostici variano tra 1,7 (95% CI, 1,2-2,6) e 1,8 (95% CI, 1,3-2,7) per predire la sopravvivenza libera da malattia a distanza; 1,91 (95% CI, 1,11-3,29) per la recidiva e tra 0,09 (95% CI, 0,01-0,70) e 0,65 (95% CI, 0,43-0,98) per la sopravvivenza globale,.

Nonostante la EV sia un passo importante prima dell’applicazione clinica di un modello ML, questa non viene eseguita di routine. L’ampia variabilità nei dataset di training/validazione, nei metodi, nelle metriche di performance e nelle informazioni riportate ha limitato il confronto dei modelli e l’analisi dei loro risultati. Aumentare la disponibilità di dataset di validazione e implementare metodi standardizzati e protocolli di reporting potrebbe facilitare le analisi future. Gli Autori concludono che la validazione esterna, pur essendo cruciale, è ancora poco applicata e la sua standardizzazione è necessaria per confrontare e convalidare i modelli di intelligenza artificiale in ambito oncologico.

Fonte: J Pathol Inform. 2023

https://www.sciencedirect.com/science/article/pii/S2153353923001621?via%3Dihub

Contenuti simili

I più visti