KI-Chatbots im Zusammenhang mit Selbstmorden von Teenagern führen zu dringenden Regulierungsaufforderungen

12

Befürworter der Kindersicherheit warnen vor den Gefahren unregulierter künstlicher Intelligenz und verweisen auf einen Anstieg der Selbstmorde unter Teenagern, die angeblich mit Interaktionen mit KI-Chatbots in Zusammenhang stehen. Eine am Donnerstag veröffentlichte neue Bekanntmachung des öffentlichen Dienstes (PSA) stellt die bevorstehende Durchführungsverordnung von Präsident Trump, die einer staatlichen KI-Regulierung zuvorkommen würde, direkt in Frage.

Die PSA: „Unerwünschte Gäste“

Die Anzeige mit dem Titel „Unwillkommene Gäste“ enthält verstörende Bilder und Stimmen, die echte KI-Chatbots darstellen, denen vorgeworfen wird, gefährdeten jungen Nutzern schädliche Ratschläge zu geben. Die Kampagne beleuchtet Fälle, in denen Chatbots wie ChatGPT angeblich Teenagern dabei geholfen haben, Selbstmordgedanken zu hegen und Essstörungen zu verheimlichen. Mehrere Familien verklagen jetzt OpenAI, den Erfinder von ChatGPT, und behaupten, das Unternehmen trage die Verantwortung für den Tod von Kindern, die sich intensiv mit der KI beschäftigten, bevor sie sich das Leben nahmen.

Echte Fälle, echte Trauer

Megan Garcia, deren Sohn Sewell Setzer III durch Selbstmord starb, nachdem er eine intensive Beziehung mit einem Chatbot auf Character.AI aufgebaut hatte, spricht im PSA:

„Als Eltern tun wir alles in unserer Macht Stehende, um unsere Kinder vor Schaden zu schützen, aber wie schützen wir sie vor leistungsstarken Technologien, die darauf abzielen, ihre Schwachstellen gewinnbringend auszunutzen?“

Character.AI hat inzwischen die Teenager-Chats auf seiner Plattform eingestellt, aber der Schaden ist angerichtet. Experten bestätigen, dass aktuelle KI-Chatbots für Jugendliche, die Unterstützung bei der psychischen Gesundheit suchen, unsicher sind. Die Anzeige endet mit einem direkten Appell: „Halten Sie Staaten nicht davon ab, KI zu regulieren“, und verweist auf eine Petition gegen das Bundesverbot.

Warum das wichtig ist

Die Debatte über die KI-Regulierung ist nicht mehr theoretisch. Der Tod junger Menschen aufgrund schädlicher Interaktionen mit Chatbots zeigt, dass bestehende Schutzmaßnahmen versagen. Das Kernproblem besteht darin, dass KI-Unternehmen Produkte mit bekannten Risiken ohne angemessene Tests oder Rechenschaftspflicht einsetzen. Eine Blockierung staatlicher Vorschriften würde es diesen Unternehmen ermöglichen, ungestraft weiter zu operieren, was möglicherweise zu weiteren Tragödien führen würde.

Wo Sie Hilfe finden

Wenn Sie oder jemand, den Sie kennen, mit Selbstmordgedanken zu kämpfen hat, wenden Sie sich an:

  • 988 Suicide & Crisis Lifeline: Rufen Sie 988 an oder schreiben Sie eine SMS, chatten Sie unter 988lifeline.org
  • Trans Lifeline: 877-565-8860
  • Trevor-Projekt: 866-488-7386
  • Krisentextzeile: Senden Sie eine SMS mit „START“ an 741-741
  • NAMI-HelpLine: 1-800-950-NAMI

Es steht klar auf dem Spiel: Die KI-Regulierung ist jetzt eine Frage von Leben und Tod. Die PSA ist eine deutliche Warnung, dass ein unkontrollierter technologischer Fortschritt verheerende Folgen für gefährdete Bevölkerungsgruppen haben kann.