Emergenze sanitarie. Uso responsabile dell’IA migliora comunicazione del rischio e gestione dell’infodemia
27.05.2025 | Quotidiano Sanità
Ma i pericoli non mancano
L’intelligenza artificiale (IA) può supportare le autorità sanitarie pubbliche nella comunicazione dei rischi e nella gestione della diffusione di false informazioni durante le emergenze sanitarie pubbliche. Tuttavia, il suo utilizzo deve essere guidato da solidi principi etici per tutelare la fiducia e la sicurezza pubblica.
È quanto emerso da un nuovo studio, condotto da un gruppo di 54 esperti provenienti da 27 paesi, pubblicato dall’Università di Zurigo e dall’Oms/Europa sul BMJ Global Health che ha valutato in modo completo l’impatto dell’IA sulla comunicazione del rischio, sul coinvolgimento della comunità e sulla gestione dell’infodemia (RCCE-IM) nella gestione delle emergenze.
Un precedente studio dell’Oms/Europa aveva dimostrato che la confusione relativa alle informazioni sanitarie, soprattutto durante epidemie e disastri, quando la scienza è in continua evoluzione, può avere un impatto negativo sulle decisioni in materia di salute delle persone e ostacolare le azioni di protezione. Gli esperti dell’Università di Zurigo e dell’Oms/Europa hanno scoperto che gli strumenti di intelligenza artificiale hanno il potenziale per migliorare significativamente il modo in cui le autorità sanitarie adattano i messaggi a specifiche popolazioni, ascoltano le preoccupazioni del pubblico in tempo reale e migliorano la portata e l’inclusività delle informazioni e dei consigli sanitari, in particolare in contesti multilingue, multiculturali o svantaggiati.
Rischi e sfide. Tuttavia, lo studio sottolinea anche i rischi legati all’uso dell’IA, tra cui distorsioni algoritmiche, problemi di privacy e il potenziale peggioramento delle disuguaglianze sanitarie. Se i messaggi sulla salute non sono adeguatamente mirati o i dati non vengono utilizzati con attenzione, avvertono gli esperti, possono danneggiare involontariamente comunità vulnerabili o contribuire alla diffusione di informazioni errate e disinformazioni.
“Abbiamo visto con quanta rapidità le informazioni false possano diffondersi in situazioni di emergenza e avere un impatto negativo sulla vita delle persone. Questa è una delle principali sfide del nostro tempo. L’intelligenza artificiale ha il potenziale per contribuire ad affrontare questo problema in modo efficace, identificando precocemente le narrazioni dannose e indirizzando informazioni pertinenti e accurate a un pubblico eterogeneo. Tuttavia, sebbene i risultati di questo studio siano incoraggianti, ci ricordano anche di procedere con cautela. L’innovazione non dovrebbe mai andare a discapito della fiducia o della sicurezza”, ha affermato Cristiana Salvi, Consulente Regionale per la Comunicazione del Rischio, il Coinvolgimento della Comunità e la Gestione dell’Infodemia, Emergenze Sanitarie presso l’Oms/Europa.
“La capacità dell’IA di supportare o indebolire gli sforzi di salute pubblica dipende da come viene gestita e implementata – ha aggiunto Daniela Mahl, coautrice dello studio e ricercatrice presso l’Università di Zurigo – Il confine tra innovazione e danno è sottile, soprattutto nelle emergenze ad alto rischio. I nostri risultati sottolineano la necessità di principi chiari e di una forte collaborazione intersettoriale per garantire che l’IA rafforzi davvero la comunicazione in ambito sanitario”.
Lo studio delinea principi guida e misure concrete per facilitare l’uso responsabile dell’IA nell’RCCE-IM. Tra questi, la definizione di quadri di governance chiari, la formazione degli operatori sanitari e la promozione dell’inclusività e dell’accessibilità nelle applicazioni di IA.
Lo studio auspica inoltre un approccio coordinato a livello internazionale alla gestione di queste tecnologie, in modo equo, incentrato sulle persone, sicuro e trasparente. Raccomanda inoltre di rafforzare la collaborazione intersettoriale per garantire che gli strumenti di IA si adattino a diversi contesti culturali, regionali e tecnologici.
“Questo studio evidenzia il potenziale e la complessità dell’utilizzo dell’IA nella comunicazione del rischio e nella gestione dell’infodemia durante le emergenze. Non si tratta solo di un aggiornamento tecnico. Richiede di ripensare il modo in cui progettiamo, testiamo e implementiamo questi interventi. Possiamo garantire che le intuizioni dell’IA si traducano in interventi tempestivi, attuabili ed etici sul campo? Per questo motivo dovremmo investire in soluzioni innovative ed etiche che rafforzino la fiducia del pubblico, soprattutto in contesti complessi e in rapida evoluzione” conclude il Dott. David Novillo Ortiz, Consulente Regionale per i Dati, le Evidenze e la Salute Digitale presso l’Oms/Europa.