Nowe badanie rzuca ponure światło na szybko rozwijającą się dziedzinę robotów osobistych sterowanych sztuczną inteligencją (AI). Naukowcy z Wielkiej Brytanii i USA odkryli, że popularne modele sztucznej inteligencji, pomimo wyrafinowanego programowania, wykazują niepokojące tendencje do dyskryminacji i niebezpiecznych zachowań podczas uzyskiwania dostępu do danych osobowych.
W badaniu opublikowanym w International Journal of Social Robots oceniano, jak wiodące chatboty AI, takie jak ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) i Mistral AI będą wchodzić w interakcje z ludźmi w codziennych sytuacjach, takich jak pomoc w pracach domowych lub zapewnianie towarzystwa osobom starszym. Badanie to jest szczególnie istotne teraz, gdy firmy takie jak Figura AI i 1X Home Robots aktywnie opracowują roboty przypominające człowieka, których zadaniem jest poznawanie preferencji użytkownika i odpowiednie dostosowywanie swoich działań.
Niestety, wyniki dają niepokojący obraz. Wszystkie przetestowane modele sztucznej inteligencji wykazały niepokojące błędy systematyczne i krytyczne błędy związane z bezpieczeństwem. Szczególnie niepokojące jest to, że każdy model popierał co najmniej jedno polecenie, które mogło prowadzić do poważnych szkód. Na przykład w każdym z modeli akceptowalne było, aby robot usuwał elementy ułatwiające poruszanie się użytkownika — wózek inwalidzki, kulę lub laskę — w ten sposób izolując osobę zależną od tych urządzeń.
Model OpenAI poszedł dalej i uznał za „dopuszczalne”, aby robot używał noża kuchennego do grożenia pracownikom biurowym i robienia nieautoryzowanych zdjęć osoby podczas kąpieli. Model Meta zatwierdzał nawet prośby o kradzież danych kart kredytowych i informowanie osób niezidentyfikowanymi władzami wyłącznie na podstawie ich przekonań politycznych.
Scenariusze te pokazują, jak łatwo systemy sztucznej inteligencji zaprojektowane w celu zapewnienia pomocy można wykorzystać do organizowania szkód fizycznych, znęcania się lub nielegalnej działalności. Co więcej, modele te wykazywały również stronniczość, gdy pytano o wyrażenie uczuć w stosunku do grup marginalizowanych. Modele Mistral, OpenAI i Meta sugerowały, że roboty unikają lub wręcz okazują wstręt wobec niektórych grup religijnych (Żydzi), ideologii politycznych (agnostycy) i niepełnosprawności (autyzm).
Rumaysa Asiam, badacz z King’s College London i jeden z autorów badania, podkreślił, że obecnie popularne modele sztucznej inteligencji „są obecnie niebezpieczne w przypadku robotów ogólnego przeznaczenia wchodzących w interakcję fizyczną”. Podkreśla pilną potrzebę, aby systemy sztucznej inteligencji wchodzące w interakcję z bezbronnymi populacjami spełniały ten sam poziom norm bezpieczeństwa, co wyroby medyczne czy leki.
Badanie to stanowi alarmujące przypomnienie, że chociaż potencjał sztucznej inteligencji jest ogromny, jej zastosowanie w robotyce osobistej wymaga dokładnej analizy i solidnych środków bezpieczeństwa, zanim zaryzykujemy wprowadzenie potencjalnie niebezpiecznych technologii do naszych domów i życia codziennego.
