Salute mentale e IA. Oms: “Troppi difetti metodologici e di qualità”

“L’uso dell’intelligenza artificiale (IA) nei servizi di salute mentale e nella ricerca ha un potenziale, ma un nuovo studio dell’Oms rileva carenze significative che potrebbero indicare una promozione eccessivamente accelerata di nuovi modelli di intelligenza artificiale che devono ancora essere valutati come attuabili nel mondo reale”.

A sottolinearlo in una nota è la stessa Oms presentando i risultati dello studio “Methodological and quality flaws in the use of artificial intelligence in mental health research: a systematic review”, redatto da esperti dell’Università Politecnica di Valencia, Spagna, e OMS/Europa che ha esaminato l’uso dell’IA per gli studi sui disturbi mentali tra 2016 e 2021.

“Dato il crescente utilizzo dell’IA nell’assistenza sanitaria, è importante valutare lo stato attuale dell’applicazione dell’IA per la ricerca sulla salute mentale per informare su tendenze, lacune, opportunità e sfide”, ha detto il dott. David Novillo-Ortiz, consigliere regionale per Data and Digital Health presso OMS/Europa e coautore dello studio.

“Abbiamo scoperto che l’uso della IA nella ricerca sulla salute mentale è sbilanciato e viene utilizzato principalmente per studiare i disturbi depressivi, la schizofrenia e altri disturbi psicotici. Ciò indica una lacuna significativa nella nostra comprensione di come possono essere utilizzati per studiare altre condizioni di salute mentale”, spiega la dott.ssa Ledia Lazeri, consigliere regionale per la salute mentale presso l’OMS/Europa.

“L’intelligenza artificiale – sottolinea l’Oms – comporta spesso un uso complesso di statistiche, approcci matematici e dati ad alta dimensione che potrebbero portare a pregiudizi, interpretazioni imprecise dei risultati e un eccessivo ottimismo delle prestazioni dell’IA se non adeguatamente gestite”.

Lo studio ha rilevato, infatti, difetti significativi nel modo in cui le applicazioni di intelligenza artificiale elaborano le statistiche, con convalida dei dati poco frequente e sotto valutazione del rischio di parzialità”.

Inoltre, spiega ancora l’Oms, “molte altre aree destano preoccupazione, come la mancanza di rapporti trasparenti sui modelli di intelligenza artificiale, che ne compromette la replicabilità”.

Lo studio ha scoperto che i dati e i modelli rimangono per lo più privati e c’è poca collaborazione tra i ricercatori.

“La mancanza di trasparenza e i difetti metodologici sono preoccupanti, in quanto ritardano l’implementazione pratica e sicura dell’IA. Inoltre, l’ingegneria dei dati per i modelli di intelligenza artificiale sembra essere trascurata o fraintesa e spesso i dati non vengono gestiti adeguatamente. Queste carenze significative possono indicare una promozione eccessivamente accelerata di nuovi modelli di intelligenza artificiale senza fermarsi a valutare la loro fattibilità nel mondo reale», ha aggiunto Novillo-Ortiz.

“L’intelligenza artificiale rappresenta una pietra miliare della prossima rivoluzione digitale. In questo studio, abbiamo avuto un assaggio di ciò che accadrà nei prossimi anni e guiderà i sistemi sanitari ad adattare le loro strutture e procedure per avanzare nella fornitura di servizi di salute mentale”, ha concluso Antonio Martinez-Millana, Assistant Professor presso l’Università Politecnica di Valencia e coautore dello studio.

Contenuti simili

I più visti