L’Europe intègre rapidement l’intelligence artificielle (IA) dans ses systèmes de santé, mais un nouveau rapport de l’Organisation mondiale de la santé (OMS) prévient que la protection des patients est dangereusement à la traîne. Même si l’IA offre la possibilité d’améliorer les soins et de réduire la pression exercée sur les professionnels de la santé, son déploiement généralisé se poursuit sans garanties adéquates, ce qui soulève de sérieuses inquiétudes quant à l’équité, à l’exactitude et à la responsabilité.
Adoption et financement inégaux à travers l’Europe
L’analyse de l’OMS, couvrant 50 pays d’Europe et d’Asie centrale, révèle une approche fragmentée de l’IA dans les soins de santé. La moitié des pays interrogés utilisent déjà des chatbots IA pour les interactions avec les patients, tandis que 32 pays déploient des outils de diagnostic basés sur l’IA, en particulier dans des domaines comme l’imagerie médicale. Les applications vont de la détection précoce des maladies (Espagne) à la formation de la main-d’œuvre (Finlande) et à l’analyse des données (Estonie).
Cependant, seuls 14 pays ont consacré un financement à leurs initiatives de soins de santé liées à l’IA, et quatre seulement – Andorre, la Finlande, la Slovaquie et la Suède – ont mis en place des stratégies nationales globales. Cette disparité souligne une lacune critique : l’enthousiasme pour la mise en œuvre de l’IA sans une feuille de route claire pour une intégration responsable.
Les risques : biais, erreurs et responsabilité
Le rapport de l’OMS souligne les risques inhérents à l’IA dans le domaine des soins de santé. Ces outils s’appuient sur des ensembles de données massifs, qui peuvent être imparfaits, biaisés ou incomplets. Par conséquent, les décisions fondées sur l’IA peuvent perpétuer les disparités existantes en matière de santé, voire conduire à des erreurs médicales, telles que des diagnostics manqués ou des traitements inappropriés.
Une question clé reste sans réponse : qui est responsable lorsqu’un système d’IA commet une erreur ? L’absence de responsabilité claire pourrait éroder la confiance du public et dissuader les professionnels de santé d’adopter ces technologies.
Recommandations de l’OMS : un appel à la prudence et à la clarté
Pour atténuer ces risques, l’OMS exhorte les pays européens à donner la priorité aux objectifs de santé publique, à investir dans la culture de l’IA pour les professionnels de santé et à établir des directives éthiques et juridiques solides. La transparence est cruciale : les patients méritent de savoir quand et comment l’IA est utilisée dans leurs soins.
“L’IA est sur le point de révolutionner les soins de santé, mais ses promesses ne se réaliseront que si les personnes et les patients restent au centre de chaque décision”, prévient le Dr Hans Kluge, chef du bureau Europe de l’OMS.
L’OMS souligne également la nécessité de procéder à des tests rigoureux pour garantir que les systèmes d’IA sont sûrs, équitables et efficaces dans des contextes réels avant d’être déployés auprès des patients.
Le manque actuel de surveillance standardisée suscite peut-être déjà des hésitations parmi les professionnels de la santé, selon le Dr David Novillo Ortiz de l’OMS. Sans mesures proactives, le potentiel de l’IA pour améliorer les soins de santé pourrait être éclipsé par ses risques.
Le rapport rappelle brutalement que les progrès technologiques doivent être associés à une gouvernance responsable pour garantir des soins de santé équitables et sûrs pour tous.
