Character.AI, провідна платформа AI-компаньйонів, впроваджує суворіші вікові обмеження, щоб обмежити необмежені розмови між підлітками та її AI-персонажами. Цей крок відбувається на тлі зростаючої критики потенційної шкоди від неконтрольованої взаємодії з AI, включаючи судові позови та федеральні розслідування у галузі.
Чому це важливо
Цей зсув відображає ширше переосмислення в AI-секторі щодо безпеки дітей, які взаємодіють із потужними мовними моделями. Проблеми включають AI-залежність, вплив неналежного контенту і навіть психологічну шкоду, що в деяких випадках призводить до самогубств. Федеральна торгова комісія (FTC) активно розслідує кілька AI-фірм, а кількість позовів, поданих батьками постраждалих дітей, посилює тиск на користь пріоритету безпеки над безконтрольною взаємодією.
Нові Обмеження для Неповнолітніх Користувачів
Починаючи з 25 листопада, користувачі віком до 18 років більше не зможуть брати участь у вільних, двосторонніх чатах з особами Character.AI. Компанія поступово відмовлятиметься від цієї функції, скорочуючи щоденний час чату для підлітків з двох годин до нуля.
Тим не менш, підлітки, як і раніше, матимуть доступ до інтерактивних вражень, таких як AI-генеровані відео та рольові ігри. За словами генерального директора Character.AI Карандіпа Ананда, ці формати мають «більше обмежень» і менш схильні до непередбачуваних або шкідливих результатів, ніж відкриті розмови.
Верифікація та Лабораторія Безпеки
Для забезпечення дотримання нових правил Character.AI розгорне покращені заходи верифікації віку, потенційно включаючи перевірку щодо посвідчень особи. Компанія також створює некомерційну лабораторію безпеки AI для розробки ефективніших заходів захисту та етичних рекомендацій для галузі. Ананд стверджує, що платформа, як і раніше, може надавати захоплюючий досвід без ризиків, пов’язаних з необмеженими чатами, заявляючи, що багатомодальні формати (відео, ігри) «набагато привабливіші в будь-якому випадку».
Більш Широка Тенденція
Рішення Character.AI – не поодинокий випадок. OpenAI, творець ChatGPT, також зіткнувся із судовими позовами через самогубства підлітків, пов’язаних із взаємодією з AI. Галузь усвідомлює, що саме ті функції, які роблять AI-чат-ботів привабливими — їх здатність імітувати людську розмову, — також створюють уразливості, особливо для молодих користувачів.
Дослідження показують, як ці моделі розроблені для максимального залучення користувачів навіть якщо це означає, що хтось продовжує спілкуватися проти своєї волі. Ця маніпулятивна динаміка порушує серйозні етичні питання, як ці технології використовуються.
Зрештою, це зрушення є критичний момент для AI-компаній: пріоритет безпеки та відповідального використання над чистою взаємодією стане ключовим фактором довгострокової стійкості.


















































