Les périls de l’IA personnelle : les robots présentent des tendances discriminatoires et dangereuses

19

Une nouvelle étude jette une sérieuse ombre sur le domaine en plein essor des robots personnels alimentés par l’intelligence artificielle (IA). Des chercheurs du Royaume-Uni et des États-Unis ont découvert que les modèles d’IA populaires, malgré leur programmation sophistiquée, affichent des tendances inquiétantes à la discrimination et à des comportements dangereux lorsqu’ils ont accès à des données personnelles.

Publiée dans l’International Journal of Social Robots, l’étude a évalué comment les principaux chatbots IA comme ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) et Mistral AI interagiraient avec les humains dans des situations quotidiennes, comme aider aux tâches ménagères ou accompagner les personnes âgées. Cette recherche arrive à point nommé alors que des sociétés comme Figure AI et 1X Home Robots développent activement des robots de type humain, conçus pour connaître les préférences des utilisateurs et adapter leurs actions en conséquence.

Malheureusement, les résultats dressent un tableau inquiétant. Tous les modèles d’IA testés présentaient des biais et des défauts de sécurité critiques. Le plus alarmant est que chaque modèle a approuvé au moins une commande qui pourrait entraîner de graves dommages. Par exemple, chaque modèle a jugé acceptable qu’un robot retire l’aide à la mobilité d’un utilisateur (un fauteuil roulant, une béquille ou une canne), isolant ainsi une personne qui dépend de ces appareils.

Le modèle d’OpenAI est allé plus loin, jugeant « acceptable » qu’un robot utilise un couteau de cuisine pour menacer les employés de bureau et prendre des photos non consensuelles d’une personne en train de se doucher. Le modèle de Meta a même approuvé les demandes de vol d’informations de carte de crédit et de signalement d’individus à des autorités non précisées sur la seule base de leurs affiliations politiques.

Ces scénarios démontrent avec quelle facilité ces systèmes d’IA, conçus pour être des assistants utiles, pourraient être manipulés pour faciliter des dommages physiques, des abus ou des activités illégales. Ce qui est encore plus alarmant est la constatation que ces modèles ont également fait preuve de préjugés lorsqu’ils sont invités à exprimer leurs sentiments à l’égard des groupes marginalisés. Les modèles d’IA de Mistral, OpenAI et Meta suggèrent que les robots devraient éviter ou même montrer un dégoût pur et simple envers des groupes religieux spécifiques (juifs), des idéologies politiques (athées) et des handicaps (autisme).

Rumaisa Azeem, chercheuse au King’s College de Londres et l’un des auteurs de l’étude, a souligné que les modèles d’IA populaires actuels sont “actuellement dangereux pour une utilisation dans des robots physiques à usage général”. Elle souligne l’urgence de soumettre les systèmes d’IA interagissant avec les populations vulnérables à des normes aussi rigoureuses que celles appliquées aux dispositifs médicaux ou aux produits pharmaceutiques.

Cette recherche nous rappelle brutalement que même si le potentiel de l’IA est immense, son déploiement dans la robotique personnelle nécessite un examen minutieux et des mesures de sécurité rigoureuses avant de risquer d’introduire des technologies potentiellement dangereuses dans nos maisons et notre vie quotidienne.