Europa szybko integruje sztuczną inteligencję (AI) ze swoimi systemami opieki zdrowotnej, ale nowy raport Światowej Organizacji Zdrowia (WHO) ostrzega, że ochrona praw pacjentów pozostaje w niebezpieczeństwie. Chociaż sztuczna inteligencja oferuje potencjał poprawy opieki zdrowotnej i zmniejszenia obciążeń pracowników służby zdrowia, jej powszechne przyjęcie nastąpiło bez wystarczających zabezpieczeń, co budzi poważne obawy co do uczciwości, dokładności i odpowiedzialności.
Nierówne wdrażanie i finansowanie w Europie
Analiza WHO obejmująca 50 krajów w Europie i Azji Środkowej pokazuje fragmentaryczne podejście do sztucznej inteligencji w opiece zdrowotnej. Połowa krajów objętych badaniem korzysta już z chatbotów AI do interakcji z pacjentami, a 32 wdraża narzędzia diagnostyczne oparte na sztucznej inteligencji, szczególnie w takich obszarach jak obrazowanie medyczne. Zakres zastosowań sięga od wczesnego wykrywania chorób (Hiszpania) po szkolenie personelu (Finlandia) i analizę danych (Estonia).
Jednak tylko 14 krajów przeznaczyło fundusze na sztuczną inteligencję w inicjatywach związanych z opieką zdrowotną i tylko cztery – Andora, Finlandia, Słowacja i Szwecja – mają kompleksowe strategie krajowe. Ta luka uwydatnia krytyczny problem: entuzjazm dla przyjęcia sztucznej inteligencji bez jasnego planu działania na rzecz odpowiedzialnej integracji.
Ryzyko: stronniczość, błędy i odpowiedzialność
Raport WHO podkreśla nieodłączne ryzyko związane ze sztuczną inteligencją w opiece zdrowotnej. Narzędzia te opierają się na ogromnych zbiorach danych, które mogą być nieprawidłowe, stronnicze lub niekompletne. W rezultacie decyzje oparte na sztucznej inteligencji mogą pogłębić istniejące nierówności w zakresie zdrowia, a nawet prowadzić do błędów medycznych, takich jak niewłaściwa diagnoza lub niewłaściwe leczenie.
Kluczowe pytanie pozostaje bez odpowiedzi: Kto jest odpowiedzialny, gdy system sztucznej inteligencji popełnia błąd? Brak jasnej odpowiedzialności może podważyć zaufanie publiczne i zniechęcić podmioty świadczące opiekę zdrowotną do korzystania z tych technologii.
Rada WHO: wezwanie do ostrożności i przejrzystości
Aby złagodzić to ryzyko, WHO wzywa kraje europejskie do nadania priorytetu kwestiom zdrowia publicznego, inwestowania w podnoszenie świadomości sztucznej inteligencji wśród pracowników służby zdrowia oraz ustanowienia solidnych wytycznych etycznych i prawnych. Przejrzystość ma kluczowe znaczenie: pacjenci muszą wiedzieć, kiedy i w jaki sposób sztuczna inteligencja jest wykorzystywana w ich opiece.
„Sztuczna inteligencja jest o krok od rewolucji w opiece zdrowotnej, ale jej potencjał zostanie wykorzystany tylko wtedy, gdy ludzie i pacjenci pozostaną w centrum każdej decyzji” – ostrzega dr Hans Kluge, szef WHO Europe.
WHO podkreśla również potrzebę rygorystycznych testów, aby upewnić się, że systemy sztucznej inteligencji są bezpieczne, sprawiedliwe i skuteczne w rzeczywistych warunkach, zanim zostaną wdrożone u pacjentów.
Według dr Davida Novillo Ortiza z WHO brak ujednoliconego nadzoru może już powodować wahania wśród pracowników służby zdrowia. Bez proaktywnych środków potencjał sztucznej inteligencji w zakresie poprawy opieki zdrowotnej może zostać przyćmiony przez związane z nią ryzyko.
Raport stanowi wyraźne przypomnienie, że postępowi technologicznemu musi towarzyszyć odpowiedzialne zarządzanie, aby zapewnić wszystkim sprawiedliwą i bezpieczną opiekę zdrowotną.
