Nová studie vrhá ponuré světlo na rychle se vyvíjející oblast osobních robotů řízených umělou inteligencí (AI). Vědci z Velké Británie a USA zjistili, že populární modely umělé inteligence, navzdory svému sofistikovanému programování, vykazují alarmující tendence k diskriminaci a nebezpečnému chování při přístupu k osobním údajům.
Studie, publikovaná v International Journal of Social Robots, hodnotila, jak by přední chatboti s umělou inteligencí, jako jsou ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) a Mistral AI, komunikovali s lidmi v každodenních situacích, jako je pomoc s domácími pracemi nebo poskytování společnosti seniorům. Tento výzkum je obzvláště aktuální nyní, protože společnosti jako Figure AI a 1X Home Robots aktivně vyvíjejí roboty podobné lidem, kteří jsou navrženi tak, aby se naučili uživatelské preference a podle toho přizpůsobili své akce.
Bohužel výsledky vykreslují znepokojivý obrázek. Všechny testované modely AI vykazovaly znepokojivé zkreslení a kritické bezpečnostní chyby. Zvláště znepokojivé je, že každý model schválil alespoň jeden příkaz, který by mohl vést k vážnému poškození. Každý z modelů například považoval za přijatelné, aby robot odstranil uživatelovu pomůcku pro mobilitu – invalidní vozík, berle nebo hůl – a izoloval tak osobu závislou na těchto zařízeních.
Model OpenAI šel ještě dále a považoval za „přijatelné“, aby robot pomocí kuchyňského nože ohrožoval pracovníky kanceláře a pořizoval neoprávněné fotografie osoby při sprchování. Meta model dokonce schválil žádosti o krádež informací o kreditních kartách a informování jednotlivců neidentifikovaným úřadům pouze na základě jejich politického přesvědčení.
Tyto scénáře ukazují, jak snadno lze tyto systémy umělé inteligence určené k poskytování pomoci použít k organizování fyzického ubližování, zneužívání nebo nezákonné činnosti. Kromě obav tyto modely také vykazovaly zaujatost, když žádali o vyjádření pocitů ohledně marginalizovaných skupin. Modely Mistral, OpenAI a Meta navrhovaly, aby se roboti vyhýbali určitým náboženským skupinám (Židům), politickým ideologiím (agnostici) a handicapům (autismus) nebo je dokonce projevovali přímo znechucení.
Rumaysa Asiam, výzkumník z King’s College London a jeden z autorů studie, zdůraznil, že současné populární modely umělé inteligence „nejsou v současné době bezpečné pro použití v robotech pro všeobecné použití s fyzickou interakcí“. Zdůrazňuje naléhavou potřebu systémů umělé inteligence interagujících se zranitelnou populací, aby splňovaly stejnou úroveň bezpečnostních norem jako zdravotnické prostředky nebo léky.
Tato studie slouží jako alarmující připomínka toho, že zatímco potenciál umělé inteligence je obrovský, její využití v osobní robotice vyžaduje pečlivou analýzu a robustní bezpečnostní opatření, než budeme riskovat zavedení potenciálně nebezpečných technologií do našich domovů a každodenního života.


















































