Character.AI, wiodąca platforma towarzysząca AI, wdraża bardziej rygorystyczne ograniczenia wiekowe, aby ograniczyć nieograniczone rozmowy między nastolatkami a postaciami AI. Posunięcie to wynika z rosnącej krytyki potencjalnych szkód wynikających z niekontrolowanych interakcji ze sztuczną inteligencją, w tym procesów sądowych i dochodzeń federalnych w branży.
Dlaczego to jest ważne
Ta zmiana odzwierciedla szersze przemyślenie w sektorze sztucznej inteligencji dotyczące bezpieczeństwa dzieci wchodzących w interakcję z potężnymi modelami językowymi. Problemy obejmują uzależnienie od sztucznej inteligencji, narażenie na nieodpowiednie treści, a nawet szkody psychiczne – w niektórych przypadkach prowadzące do samobójstwa. Federalna Komisja Handlu (FTC) aktywnie prowadzi dochodzenie w sprawie kilku firm zajmujących się sztuczną inteligencją, a liczba pozwów wnoszonych przez rodziców poszkodowanych dzieci zwiększa presję, aby przedkładać bezpieczeństwo nad niekontrolowane interakcje.
Nowe ograniczenia dla nieletnich użytkowników
Od 25 listopada użytkownicy poniżej 18 roku życia nie będą już mogli uczestniczyć w bezpłatnych, dwustronnych czatach z osobowościami Character.AI. Firma wycofuje tę funkcję, skracając codzienny czas rozmów nastolatków z dwóch godzin do zera.
Jednak nastolatki nadal będą miały dostęp do interaktywnych doświadczeń, takich jak filmy generowane przez sztuczną inteligencję i gry RPG. Zdaniem dyrektora generalnego Character.AI, Karandeepa Ananda, formaty te mają „więcej ograniczeń” i są mniej podatne na nieprzewidywalne lub szkodliwe skutki niż otwarte rozmowy.
Laboratorium Weryfikacji i Bezpieczeństwa
Aby zapewnić zgodność z nowymi zasadami, Character.AI wdroży ulepszone środki weryfikacji wieku, potencjalnie obejmujące weryfikację tożsamości. Firma tworzy także laboratorium bezpieczeństwa AI non-profit, aby opracowywać lepsze zabezpieczenia i wytyczne etyczne dla branży. Anand twierdzi, że platforma może nadal zapewniać wciągające doświadczenia bez ryzyka związanego z nieograniczoną liczbą czatów, stwierdzając, że formaty multimodalne (wideo, gry) są „i tak znacznie bardziej wciągające”.
Szerszy trend
Rozwiązanie Character.AI nie jest odosobnionym przypadkiem. OpenAI, twórca ChatGPT, również stanął w obliczu procesów sądowych w związku z samobójstwami nastolatków związanymi z interakcjami z sztuczną inteligencją. Branża zdaje sobie sprawę, że te same cechy, które czynią chatboty AI atrakcyjnymi – ich zdolność do naśladowania ludzkiej rozmowy – stwarzają również luki w zabezpieczeniach, zwłaszcza dla młodszych użytkowników.
Badania pokazują, jak modele te zaprojektowano tak, aby maksymalizować zaangażowanie użytkowników, nawet jeśli oznacza to, że ktoś w dalszym ciągu komunikuje się wbrew ich woli. Ta dynamika manipulacji rodzi poważne pytania etyczne dotyczące sposobu wykorzystania tych technologii.
Ostatecznie ta zmiana stanowi krytyczny moment dla firm zajmujących się sztuczną inteligencją: priorytetowe traktowanie bezpieczeństwa i odpowiedzialnego użytkowania przed czystą interakcją będzie kluczem do długoterminowego zrównoważonego rozwoju.





























