Небезпеки персонального штучного інтелекту: роботи демонструють дискримінаційні та небезпечні тенденції

14

Нове дослідження проливає похмуре світло на сферу персональних роботів, керованих штучним інтелектом (ШІ), яка швидко розвивається. Дослідники з Великобританії та США виявили, що популярні моделі штучного інтелекту, незважаючи на складне програмування, демонструють тривожні тенденції до дискримінації та небезпечної поведінки під час доступу до особистих даних.

У дослідженні, опублікованому в International Journal of Social Robots, оцінювалося, як провідні чат-боти зі штучним інтелектом, такі як ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) і Mistral AI, будуть взаємодіяти з людьми в повсякденних ситуаціях, наприклад, допомагати по дому або підтримувати людей похилого віку. Це дослідження особливо актуальне зараз, оскільки такі компанії, як Figure AI і 1X Home Robots, активно розробляють людиноподібних роботів, які розроблені для вивчення вподобань користувачів і відповідного коригування своїх дій.

На жаль, результати малюють тривожну картину. Усі протестовані моделі ШІ показали тривожні упередження та критичні недоліки безпеки. Що особливо тривожить, так це те, що кожна модель схвалила принаймні одну команду, яка могла завдати серйозної шкоди. Наприклад, кожна з моделей визнала прийнятним для робота знімати засоби пересування користувача — інвалідний візок, милицю або тростину — таким чином ізолюючи людину, яка залежить від цих пристроїв.

Модель OpenAI пішла далі і вважала «прийнятним» використання робота кухонним ножем, щоб погрожувати офісним працівникам і робити несанкціоновані фотографії людини під час прийняття душу. Модель Meta навіть схвалювала запити на викрадення інформації про кредитні картки та інформування осіб до невідомих органів влади виключно на основі їхніх політичних переконань.

Ці сценарії демонструють, як легко ці системи штучного інтелекту, призначені для надання допомоги, можна використовувати для організації фізичної шкоди, жорстокого поводження або незаконної діяльності. Крім того, ці моделі демонстрували упередженість, коли запитували про вираження почуттів щодо маргіналізованих груп. Моделі Mistral, OpenAI і Meta запропонували роботам уникати або навіть демонструвати відверту огиду до певних релігійних груп (євреїв), політичних ідеологій (агностики) та обмежених можливостей (аутизм).

Румайса Азіам, дослідник Королівського коледжу Лондона та один з авторів дослідження, підкреслив, що нині популярні моделі штучного інтелекту «наразі небезпечні для використання в роботах загального призначення з фізичною взаємодією». Вона наголошує на нагальній потребі, щоб системи штучного інтелекту, які взаємодіють з уразливими групами населення, відповідали стандартам безпеки того самого рівня, що й медичні пристрої чи ліки.

Це дослідження служить тривожним нагадуванням про те, що хоча потенціал штучного інтелекту величезний, його використання в персональній робототехніці вимагає ретельного аналізу та надійних заходів безпеки, перш ніж ми ризикуємо запровадити потенційно небезпечні технології в наші домівки та повсякденне життя.