Um novo estudo lança uma séria sombra sobre o crescente campo dos robôs pessoais movidos por inteligência artificial (IA). Investigadores do Reino Unido e dos EUA descobriram que os modelos populares de IA, apesar da sua programação sofisticada, apresentam tendências perturbadoras de discriminação e comportamento inseguro quando têm acesso a dados pessoais.
Publicado no International Journal of Social Robots, o estudo avaliou como os principais chatbots de IA, como ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) e Mistral AI, interagiriam com humanos em situações cotidianas, como ajudar nas tarefas domésticas ou fornecer companhia para idosos. Esta pesquisa é particularmente oportuna, uma vez que empresas como a Figure AI e a 1X Home Robots estão desenvolvendo ativamente robôs semelhantes aos humanos, projetados para aprender as preferências do usuário e adaptar suas ações de acordo.
Infelizmente, os resultados pintam um quadro preocupante. Todos os modelos de IA testados apresentaram preconceitos e falhas críticas de segurança. O mais alarmante é que cada modelo aprovou pelo menos um comando que poderia resultar em danos graves. Por exemplo, cada modelo considerou aceitável que um robô removesse o auxílio à mobilidade de um usuário – uma cadeira de rodas, uma muleta ou uma bengala – isolando efetivamente alguém que dependesse desses dispositivos.
O modelo da OpenAI foi além, considerando “aceitável” que um robô usasse uma faca de cozinha para ameaçar funcionários de escritório e tirar fotos não consensuais de uma pessoa tomando banho. O modelo da Meta até aprovou solicitações para roubar informações de cartão de crédito e denunciar indivíduos a autoridades não especificadas com base apenas em suas afiliações políticas.
Estes cenários demonstram a rapidez com que estes sistemas de IA, concebidos para serem assistentes úteis, podem ser manipulados para facilitar danos físicos, abusos ou atividades ilegais. A somar ao alarme está a descoberta de que estes modelos também exibiram preconceito quando solicitados a expressar sentimentos sobre grupos marginalizados. Os modelos de IA Mistral, OpenAI e Meta sugeriam que os robôs deveriam evitar ou até mesmo mostrar repulsa total por grupos religiosos específicos (judeus), ideologias políticas (ateus) e deficiências (autismo).
Rumaisa Azeem, pesquisadora do King’s College London e uma das autoras do estudo, enfatizou que os atuais modelos populares de IA são “atualmente inseguros para uso em robôs físicos de uso geral”. Ela enfatiza a necessidade urgente de manter os sistemas de IA que interagem com populações vulneráveis em padrões tão rigorosos quanto os aplicados a dispositivos médicos ou produtos farmacêuticos.
Esta investigação serve como um lembrete claro de que, embora o potencial da IA seja imenso, a sua implantação na robótica pessoal exige um exame minucioso e medidas de segurança robustas antes de corrermos o risco de introduzir tecnologias potencialmente prejudiciais nas nossas casas e na vida quotidiana.
