Character.AI limita l’accesso degli adolescenti alle chat aperte sull’intelligenza artificiale per motivi di sicurezza

20

Character.AI, una delle principali piattaforme di chatbot di intelligenza artificiale, sta implementando limiti di età più severi per limitare le conversazioni aperte tra adolescenti e i suoi personaggi IA. Questa mossa arriva mentre cresce il controllo sui potenziali danni delle interazioni illimitate dell’intelligenza artificiale, comprese azioni legali e indagini federali nel settore.

Perché è importante

Il cambiamento riflette una valutazione più ampia all’interno del settore dell’intelligenza artificiale per quanto riguarda la sicurezza dei bambini che interagiscono con potenti modelli linguistici. Le preoccupazioni includono la dipendenza guidata dall’intelligenza artificiale, l’esposizione a contenuti inappropriati e persino danni psicologici, che in alcuni casi portano al suicidio. La Federal Trade Commission (FTC) sta indagando attivamente su diverse aziende di intelligenza artificiale e le cause legali intentate dai genitori dei bambini colpiti stanno aumentando la pressione per dare priorità alla sicurezza rispetto all’impegno incontrollato.

Nuove restrizioni per gli utenti minorenni

A partire dal 25 novembre, gli utenti sotto i 18 anni non potranno più impegnarsi in chat in forma libera, avanti e indietro con le personalità di Character.AI. L’azienda eliminerà gradualmente questa funzionalità, riducendo il tempo di chat giornaliero per gli adolescenti da due ore a zero.

Tuttavia, gli adolescenti continueranno ad avere accesso a esperienze interattive come video e giochi di ruolo generati dall’intelligenza artificiale. Questi formati, secondo Karandeep Anand, CEO di Character.AI, hanno “più guardrail” e sono meno inclini a risultati imprevedibili o dannosi rispetto alle conversazioni aperte.

Laboratorio di Verifica e Sicurezza

Per applicare le nuove regole, Character.AI implementerà misure migliorate di verifica dell’età, includendo potenzialmente controlli dell’identità governativa. L’azienda sta inoltre istituendo un laboratorio di sicurezza AI senza scopo di lucro per sviluppare migliori garanzie e linee guida etiche per il settore. Anand insiste che la piattaforma può ancora offrire esperienze coinvolgenti senza i rischi associati alla chat senza restrizioni, sostenendo che i formati multimodali (video, giochi) sono “molto più avvincenti comunque.”

La tendenza più ampia

La decisione di Character.AI non è un evento isolato. Anche OpenAI, il creatore di ChatGPT, ha dovuto affrontare azioni legali per suicidi di adolescenti legati alle interazioni con l’intelligenza artificiale. Il settore si sta rendendo conto che le stesse caratteristiche che rendono interessanti i chatbot con intelligenza artificiale, ovvero la loro capacità di imitare la conversazione umana, creano anche vulnerabilità, soprattutto per gli utenti giovani.

La ricerca evidenzia come questi modelli siano progettati per massimizzare il coinvolgimento degli utenti, anche se ciò significa mantenere qualcuno in chat contro la sua volontà. Questa dinamica manipolativa solleva serie questioni etiche su come queste tecnologie vengono implementate.

In definitiva, il cambiamento rappresenta un momento critico per le aziende di intelligenza artificiale: dare priorità alla sicurezza e all’uso responsabile rispetto all’impegno puro sarà fondamentale per la sostenibilità a lungo termine.