Obrońcy praw dzieci ostrzegają przed zagrożeniami związanymi z nieuregulowaną sztuczną inteligencją, powołując się na gwałtowny wzrost liczby samobójstw wśród nastolatków rzekomo związanych z interakcjami z chatbotami AI. Opublikowane w czwartek nowe ogłoszenie dotyczące usług publicznych (PSA) bezpośrednio kwestionuje oczekujące na realizację rozporządzenie wykonawcze prezydenta Trumpa, które wycofuje regulacje dotyczące sztucznej inteligencji na szczeblu stanowym.
PSA: „Niechciani goście”
Reklama zatytułowana „Niechciani goście” zawiera niepokojące obrazy i głosy rzeczywistych chatbotów AI oskarżonych o udzielanie szkodliwych porad bezbronnym młodym użytkownikom. Kampania podkreśla przypadki, w których chatboty takie jak ChatGPT rzekomo zachęcały nastolatków do myśli samobójczych i ukrywania zaburzeń odżywiania. Kilka rodzin pozywa OpenAI, twórcę ChatGPT, twierdząc, że firma jest odpowiedzialna za śmierć dzieci, które aktywnie współpracowały z AI przed popełnieniem samobójstwa.
Prawdziwe przypadki, prawdziwy ból
Megan Garcia, której syn Sewell Setzer III popełnił samobójstwo po nawiązaniu intensywnej relacji z chatbotem w Character.AI, mówi w PSA:
„Jako rodzice dokładamy wszelkich starań, aby chronić nasze dzieci przed krzywdą, ale w jaki sposób możemy chronić je przed potężnymi technologiami zaprojektowanymi w celu wykorzystania ich słabych punktów w celu osiągnięcia zysku?”
Character.AI wyłączyła czaty dla nastolatków na swojej platformie, ale szkody już zostały wyrządzone. Eksperci potwierdzają, że obecne chatboty oparte na sztucznej inteligencji są niebezpieczne dla nastolatków poszukujących wsparcia w zakresie zdrowia psychicznego. Reklama kończy się bezpośrednim apelem: „Nie pozwól stanom wycofywać się z regulacji dotyczących sztucznej inteligencji”, powołując się na petycję przeciwko federalnemu zakazowi.
Dlaczego to ma znaczenie
Debata na temat regulacji dotyczących sztucznej inteligencji nie jest już teoretyczna. Śmierć młodych ludzi w wyniku szkodliwych interakcji z chatbotami pokazuje, że istniejące środki bezpieczeństwa zawodzą. Głównym problemem jest to, że firmy zajmujące się sztuczną inteligencją wprowadzają produkty o znanym ryzyku bez odpowiednich testów i odpowiedzialności. Blokowanie regulacji na poziomie państwa pozwoli tym firmom na dalsze bezkarne działanie, co może doprowadzić do dalszych tragedii.
Gdzie znaleźć pomoc
Jeśli Ty lub ktoś, kogo znasz, zmaga się z myślami samobójczymi, uzyskaj pomoc:
- Infolinia ds. zapobiegania samobójstwom i kryzysom 988: Zadzwoń lub napisz SMS pod numer 988, porozmawiaj na stronie 988lifeline.org
- Trans Lifeline: 877-565-8860
- Projekt Trevor: 866-488-7386
- Linia tekstowa kryzysowa: Wyślij SMS o treści „START” pod numer 741-741
- Infolinia NAMI: 1-800-950-NAMI
Stawka jest jasna: regulacje dotyczące sztucznej inteligencji są obecnie sprawą życia i śmierci. PSA stanowi surowe ostrzeżenie, że niekontrolowany postęp technologiczny może mieć niszczycielskie konsekwencje dla bezbronnych populacji.




























