L’Europa sta rapidamente integrando l’intelligenza artificiale (AI) nei suoi sistemi sanitari, ma un nuovo rapporto dell’Organizzazione Mondiale della Sanità (OMS) avverte che la protezione dei pazienti è pericolosamente in ritardo. Sebbene l’intelligenza artificiale offra il potenziale per migliorare le cure e ridurre la pressione sui professionisti medici, la sua diffusione diffusa sta procedendo senza adeguate garanzie, sollevando serie preoccupazioni sull’equità, l’accuratezza e la responsabilità.
Adozione e finanziamenti disomogenei in tutta Europa
L’analisi dell’OMS, che copre 50 paesi in Europa e Asia centrale, rivela un approccio frammentato all’IA nel settore sanitario. La metà delle nazioni intervistate utilizza già chatbot basati sull’intelligenza artificiale per le interazioni con i pazienti, mentre 32 stanno implementando strumenti diagnostici basati sull’intelligenza artificiale, in particolare in aree come l’imaging medico. Le applicazioni spaziano dalla diagnosi precoce delle malattie (Spagna) alla formazione della forza lavoro (Finlandia) e all’analisi dei dati (Estonia).
Tuttavia, solo 14 paesi hanno dedicato finanziamenti alle proprie iniziative sanitarie legate all’intelligenza artificiale, e solo quattro – Andorra, Finlandia, Slovacchia e Svezia – hanno messo in atto strategie nazionali globali. Questa disparità sottolinea un divario critico: l’entusiasmo per l’implementazione dell’intelligenza artificiale senza una chiara tabella di marcia per un’integrazione responsabile.
I rischi: pregiudizi, errori e responsabilità
Il rapporto dell’OMS evidenzia i rischi intrinseci dell’IA nel settore sanitario. Questi strumenti si basano su enormi set di dati, che possono essere imperfetti, distorti o incompleti. Di conseguenza, le decisioni guidate dall’intelligenza artificiale possono perpetuare le disparità sanitarie esistenti o addirittura portare a errori medici, come diagnosi mancate o trattamenti inappropriati.
Una domanda chiave rimane senza risposta: chi è responsabile quando un sistema di intelligenza artificiale commette un errore? La mancanza di una chiara responsabilità potrebbe erodere la fiducia del pubblico e dissuadere gli operatori sanitari dall’adottare queste tecnologie.
Raccomandazioni dell’OMS: un appello alla cautela e alla chiarezza
Per mitigare questi rischi, l’OMS esorta i paesi europei a dare priorità agli obiettivi di sanità pubblica, investire nell’alfabetizzazione dell’IA per gli operatori sanitari e stabilire solide linee guida etiche e legali. La trasparenza è fondamentale: i pazienti meritano di sapere quando e come l’IA viene utilizzata nelle loro cure.
“L’intelligenza artificiale è sul punto di rivoluzionare l’assistenza sanitaria, ma le sue promesse si realizzeranno solo se le persone e i pazienti rimarranno al centro di ogni decisione”, avverte il dottor Hans Kluge, capo dell’ufficio europeo dell’OMS.
L’OMS sottolinea inoltre la necessità di test rigorosi per garantire che i sistemi di intelligenza artificiale siano sicuri, equi ed efficaci in contesti reali prima di essere distribuiti ai pazienti.
Secondo il dottor David Novillo Ortiz dell’OMS, l’attuale mancanza di un controllo standardizzato potrebbe già causare esitazione tra gli operatori sanitari. Senza misure proattive, il potenziale dell’IA nel migliorare l’assistenza sanitaria potrebbe essere messo in ombra dai suoi rischi.
Il rapporto serve a ricordare duramente che il progresso tecnologico deve essere accompagnato da una governance responsabile per garantire un’assistenza sanitaria equa e sicura per tutti.



















































