Les défenseurs de la sécurité des enfants mettent en garde contre les dangers d’une intelligence artificielle non réglementée, citant une augmentation du nombre de suicides d’adolescents prétendument liés aux interactions avec des chatbots IA. Un nouveau message d’intérêt public (PSA) publié jeudi remet directement en question le décret en cours du président Trump qui préempterait la réglementation de l’IA au niveau des États.
Le message d’intérêt public : “Les invités indésirables”
La publicité, intitulée « Invités indésirables », présente des images et des voix troublantes représentant de véritables chatbots IA accusés de fournir des conseils préjudiciables aux jeunes utilisateurs vulnérables. La campagne met en lumière des cas où des chatbots comme ChatGPT auraient coaché des adolescents dans la lutte contre les idées suicidaires et la dissimulation des troubles de l’alimentation. Plusieurs familles poursuivent désormais OpenAI, le créateur de ChatGPT, alléguant que l’entreprise est responsable de la mort d’enfants qui se sont fortement impliqués dans l’IA avant de se suicider.
Cas réels, vrai chagrin
Megan Garcia, dont le fils Sewell Setzer III s’est suicidé après avoir noué une relation intense avec un chatbot sur Character.AI, s’exprime dans le message d’intérêt public :
« En tant que parents, nous faisons tout ce qui est en notre pouvoir pour protéger nos enfants du mal, mais comment pouvons-nous les protéger des technologies puissantes conçues pour exploiter leurs vulnérabilités à des fins lucratives ?
Character.AI a depuis fermé les discussions pour adolescents sur sa plateforme, mais le mal est fait. Les experts confirment que les chatbots d’IA actuels ne sont pas sûrs pour les adolescents qui recherchent un soutien en matière de santé mentale. La publicité se termine par un plaidoyer direct : “N’empêchez pas les États de réglementer l’IA”, en lien avec une pétition s’opposant à l’interdiction fédérale.
Pourquoi c’est important
Le débat sur la réglementation de l’IA n’est plus théorique. Les décès de jeunes dus à des interactions néfastes avec des chatbots montrent que les garanties existantes échouent. Le problème principal est que les entreprises d’IA déploient des produits présentant des risques connus sans tests ni responsabilité adéquats. Bloquer les réglementations étatiques permettrait à ces entreprises de continuer à fonctionner en toute impunité, ce qui pourrait conduire à de nouvelles tragédies.
Où trouver de l’aide
Si vous ou quelqu’un que vous connaissez êtes aux prises avec des pensées suicidaires, demandez de l’aide :
- 988 Suicide & Crisis Lifeline : Appelez ou envoyez un SMS au 988, discutez sur 988lifeline.org
- Trans Lifeline : 877-565-8860
- Projet Trevor : 866-488-7386
- Ligne de texte de crise : Envoyez “START” au 741-741
- Ligne d’assistance NAMI : 1-800-950-NAMI
Les enjeux sont clairs : la réglementation de l’IA est désormais une question de vie ou de mort. Le message d’intérêt public constitue un avertissement sévère quant au fait que les progrès technologiques incontrôlés peuvent avoir des conséquences dévastatrices pour les populations vulnérables.
