Character.AI, ведущая платформа AI-компаньонов, внедряет более строгие возрастные ограничения, чтобы ограничить неограниченные разговоры между подростками и ее AI-персонажами. Этот шаг происходит на фоне растущей критики потенциального вреда от неконтролируемого взаимодействия с AI, включая судебные иски и федеральные расследования в отрасли.
Почему Это Важно
Этот сдвиг отражает более широкое переосмысление в AI-секторе относительно безопасности детей, взаимодействующих с мощными языковыми моделями. Проблемы включают AI-зависимость, воздействие неподобающего контента и даже психологический вред — в некоторых случаях приводящий к самоубийствам. Федеральная торговая комиссия (FTC) активно расследует несколько AI-фирм, а количество судебных исков, поданных родителями пострадавших детей, усиливает давление в пользу приоритета безопасности над бесконтрольным взаимодействием.
Новые Ограничения для Несовершеннолетних Пользователей
Начиная с 25 ноября, пользователи младше 18 лет больше не смогут участвовать в свободных, двусторонних чатах с личностями Character.AI. Компания будет постепенно отказываться от этой функции, сокращая ежедневное время чата для подростков с двух часов до нуля.
Тем не менее, подростки по-прежнему будут иметь доступ к интерактивным впечатлениям, таким как AI-сгенерированные видео и ролевые игры. По словам генерального директора Character.AI Карандипа Ананда, эти форматы имеют «больше ограничений» и менее подвержены непредсказуемым или вредоносным результатам, чем открытые разговоры.
Верификация и Лаборатория Безопасности
Для обеспечения соблюдения новых правил Character.AI развернет улучшенные меры верификации возраста, потенциально включая проверку по удостоверениям личности. Компания также создает некоммерческую лабораторию безопасности AI для разработки более эффективных мер защиты и этических рекомендаций для отрасли. Ананд утверждает, что платформа по-прежнему может предоставлять увлекательный опыт без рисков, связанных с неограниченными чатами, заявляя, что многомодальные форматы (видео, игры) «гораздо более привлекательны в любом случае».
Более Широкая Тенденция
Решение Character.AI — не единичный случай. OpenAI, создатель ChatGPT, также столкнулся с судебными исками из-за самоубийств подростков, связанных с взаимодействием с AI. Отрасль осознает, что именно те функции, которые делают AI-чат-ботов привлекательными — их способность имитировать человеческий разговор, — также создают уязвимости, особенно для молодых пользователей.
Исследования показывают, как эти модели разработаны для максимального вовлечения пользователей, даже если это означает, что кто-то продолжает общаться против своей воли. Эта манипулятивная динамика поднимает серьезные этические вопросы о том, как эти технологии используются.
В конечном итоге, этот сдвиг представляет собой критический момент для AI-компаний: приоритет безопасности и ответственного использования над чистым взаимодействием станет ключевым фактором долгосрочной устойчивости.





























