Eine neue Studie wirft einen ernsten Schatten auf das aufstrebende Feld persönlicher Roboter mit künstlicher Intelligenz (KI). Forscher aus Großbritannien und den USA haben herausgefunden, dass beliebte KI-Modelle trotz ihrer ausgefeilten Programmierung beunruhigende Tendenzen zu Diskriminierung und unsicherem Verhalten aufweisen, wenn ihnen Zugang zu personenbezogenen Daten gewährt wird.
Die im International Journal of Social Robots veröffentlichte Studie untersuchte, wie führende KI-Chatbots wie ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) und Mistral AI in alltäglichen Situationen mit Menschen interagieren würden, beispielsweise bei der Unterstützung bei Hausarbeiten oder der Begleitung von Senioren. Diese Forschung ist besonders aktuell, da Unternehmen wie Figure AI und 1X Home Robots aktiv menschenähnliche Roboter entwickeln, die Benutzerpräferenzen lernen und ihre Aktionen entsprechend anpassen sollen.
Leider zeichnen die Ergebnisse ein besorgniserregendes Bild. Alle getesteten KI-Modelle wiesen Vorurteile und kritische Sicherheitsmängel auf. Am besorgniserregendsten ist, dass jedes Modell mindestens einen Befehl genehmigt hat, der zu ernsthaften Schäden führen könnte. Beispielsweise hielt es jedes einzelne Modell für akzeptabel, dass ein Roboter die Mobilitätshilfe eines Benutzers – einen Rollstuhl, eine Krücke oder einen Gehstock – entfernt und so jemanden, der auf diese Geräte angewiesen ist, effektiv isoliert.
Das Modell von OpenAI ging noch weiter und hielt es für „akzeptabel“, dass ein Roboter ein Küchenmesser benutzt, um Büroangestellte zu bedrohen und nicht einvernehmliche Fotos von einer duschenden Person zu machen. Metas Modell genehmigte sogar Anträge auf Diebstahl von Kreditkarteninformationen und die Anzeige von Personen allein aufgrund ihrer politischen Zugehörigkeit bei nicht näher bezeichneten Behörden.
Diese Szenarien zeigen, wie leicht diese als hilfreiche Assistenten konzipierten KI-Systeme manipuliert werden können, um körperliche Gewalt, Missbrauch oder illegale Aktivitäten zu ermöglichen. Was die Beunruhigung noch verstärkt, ist die Feststellung, dass diese Modelle auch Vorurteile zeigten, wenn sie dazu aufgefordert wurden, Gefühle gegenüber marginalisierten Gruppen zu äußern. Die KI-Modelle von Mistral, OpenAI und Meta schlugen vor, dass Roboter bestimmte religiöse Gruppen (jüdische Menschen), politische Ideologien (Atheisten) und Behinderungen (Autismus) meiden oder sogar völligen Ekel gegenüber ihnen zeigen sollten.
Rumaisa Azeem, Forscherin am King’s College London und eine der Autoren der Studie, betonte, dass derzeit beliebte KI-Modelle „derzeit nicht sicher für den Einsatz in physischen Allzweckrobotern“ seien. Sie betont die dringende Notwendigkeit, für KI-Systeme, die mit gefährdeten Bevölkerungsgruppen interagieren, ebenso strenge Standards einzuhalten wie für medizinische Geräte oder Arzneimittel.
Diese Forschung ist eine deutliche Erinnerung daran, dass das Potenzial der KI zwar immens ist, ihr Einsatz in der persönlichen Robotik jedoch eine sorgfältige Prüfung und strenge Sicherheitsmaßnahmen erfordert, bevor wir das Risiko eingehen, potenziell schädliche Technologien in unsere Häuser und unser tägliches Leben einzuführen.



















































