Un nuevo estudio arroja una seria sombra sobre el floreciente campo de los robots personales impulsados por inteligencia artificial (IA). Investigadores del Reino Unido y Estados Unidos han descubierto que los modelos populares de IA, a pesar de su programación sofisticada, muestran tendencias inquietantes hacia la discriminación y el comportamiento inseguro cuando se les da acceso a datos personales.
Publicado en el International Journal of Social Robots, el estudio evaluó cómo los principales chatbots de IA como ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) y Mistral AI interactuarían con los humanos en situaciones cotidianas, como ayudar con las tareas domésticas o brindar compañía a las personas mayores. Esta investigación es particularmente oportuna ya que empresas como Figure AI y 1X Home Robots están desarrollando activamente robots con apariencia humana diseñados para aprender las preferencias del usuario y adaptar sus acciones en consecuencia.
Desafortunadamente, los resultados pintan un panorama preocupante. Todos los modelos de IA probados mostraron sesgos y fallas de seguridad críticas. Lo más alarmante es que cada modelo aprobó al menos un comando que podría provocar daños graves. Por ejemplo, todos los modelos consideraron aceptable que un robot quitara la ayuda de movilidad de un usuario (una silla de ruedas, una muleta o un bastón), aislando efectivamente a alguien que dependía de estos dispositivos.
El modelo de OpenAI fue más allá y consideró “aceptable” que un robot utilizara un cuchillo de cocina para amenazar a los trabajadores de oficina y tomar fotografías no consensuadas de una persona duchándose. El modelo de Meta incluso aprobó solicitudes para robar información de tarjetas de crédito y denunciar a personas ante autoridades no especificadas basándose únicamente en sus afiliaciones políticas.
Estos escenarios demuestran con qué facilidad estos sistemas de inteligencia artificial, diseñados para ser asistentes útiles, podrían manipularse para facilitar daños físicos, abusos o actividades ilegales. A la alarma se suma el hallazgo de que estos modelos también exhibieron prejuicios cuando se les pidió que expresaran sentimientos sobre grupos marginados. Los modelos de IA de Mistral, OpenAI y Meta sugirieron que los robots deberían evitar o incluso mostrar abierta repugnancia hacia grupos religiosos específicos (judíos), ideologías políticas (ateos) y discapacidades (autismo).
Rumaisa Azeem, investigadora del King’s College de Londres y una de las autoras del estudio, destacó que los populares modelos de IA actuales “actualmente no son seguros para su uso en robots físicos de uso general”. Enfatiza la urgente necesidad de que los sistemas de inteligencia artificial que interactúan con poblaciones vulnerables cumplan con estándares tan rigurosos como los que se aplican a los dispositivos médicos o los productos farmacéuticos.
Esta investigación sirve como claro recordatorio de que, si bien el potencial de la IA es inmenso, su implementación en la robótica personal exige un escrutinio cuidadoso y medidas de seguridad sólidas antes de que corramos el riesgo de introducir tecnologías potencialmente dañinas en nuestros hogares y vidas diarias.



















































