Character.AI omezuje přístup teenagerů k veřejným chatům AI kvůli bezpečnostním problémům

17

Character.AI, přední AI doprovodná platforma, zavádí přísnější věková omezení, aby omezila neomezené konverzace mezi teenagery a jejími AI postavami. Tento krok přichází uprostřed rostoucí kritiky potenciálních škod nekontrolovaných interakcí s AI, včetně soudních sporů a federálního vyšetřování v tomto odvětví.

Proč je to důležité

Tento posun odráží širší přehodnocení v sektoru umělé inteligence týkající se bezpečnosti dětí při interakci s výkonnými jazykovými modely. Mezi problémy patří závislost na AI, vystavení nevhodnému obsahu a dokonce i psychická újma – v některých případech vedoucí k sebevraždě. Federální obchodní komise (FTC) aktivně vyšetřuje několik firem zabývajících se umělou inteligencí a počet žalob podaných rodiči zraněných dětí zvyšuje tlak na upřednostnění bezpečnosti před nekontrolovanými interakcemi.

Nová omezení pro nezletilé uživatele

Od 25. listopadu se již uživatelé mladší 18 let nebudou moci účastnit bezplatných obousměrných chatů s osobnostmi Character.AI. Společnost tuto funkci postupně ukončí, čímž sníží denní dobu chatování pro dospívající ze dvou hodin na nulu.

Nicméně dospívající budou mít stále přístup k interaktivním zážitkům, jako jsou videa generovaná umělou inteligencí a hry na hraní rolí. Podle generálního ředitele Character.AI Karandeepa Ananda mají tyto formáty „více omezení“ a jsou méně náchylné k nepředvídatelným nebo škodlivým výsledkům než otevřené konverzace.

Ověřovací a bezpečnostní laboratoř

Aby byla zajištěna shoda s novými pravidly, Character.AI nasadí vylepšená opatření pro ověřování věku, případně včetně ověření ID. Společnost také vytváří neziskovou laboratoř AI Safety Lab s cílem vyvinout lepší ochranná a etická pravidla pro toto odvětví. Anand tvrdí, že platforma může stále poskytovat poutavý zážitek bez rizik spojených s neomezenými chaty, a uvádí, že multimodální formáty (videa, hry) jsou „stejně mnohem poutavější.“

Širší trend

Řešení Character.AI není ojedinělým případem. OpenAI, tvůrce ChatGPT, také čelil soudním sporům kvůli sebevraždám dospívajících spojených s interakcemi s AI. Průmysl si uvědomuje, že samotné funkce, které činí chatboty s umělou inteligencí atraktivní – jejich schopnost napodobovat lidskou konverzaci – také vytvářejí zranitelnost, zejména pro mladší uživatele.

Výzkum ukazuje, jak jsou tyto modely navrženy tak, aby maximalizovaly zapojení uživatelů, i když to znamená, že někdo pokračuje v komunikaci proti jejich vůli. Tato manipulativní dynamika vyvolává vážné etické otázky o tom, jak se tyto technologie používají.

Tento posun v konečném důsledku představuje kritický okamžik pro společnosti s umělou inteligencí: upřednostnění bezpečnosti a odpovědného používání před čistou interakcí bude klíčem k dlouhodobé udržitelnosti.