Character.AI bloccherà dal 25 novembre l'accesso degli utenti minori di 18 anni. Lo rende noto la stessa start-up californiana specializzata nella creazione di compagni virtuali creati con l'IA, diventata molto popolare tra i giovani e accusata in Usa del suicidio di un 14enne.
"Stiamo apportando queste modifiche alla luce del panorama in evoluzione dell'intelligenza artificiale e degli adolescenti - scrive la società - Recenti notizie hanno sollevato diversi interrogativi e abbiamo ricevuto richieste dalle autorità di regolamentazione sui contenuti in cui si imbattono gli adolescenti quando chattano con l'IA e su come questo può influenzarli, anche quando i controlli funzionano perfettamente".
Character.AI è stata lanciata nel maggio 2023 ed è diventata subito popolare tra i teenager, anche in Italia. Permette di creare con l'IA degli amici virtuali personalizzati oppure replicare la personalità di una celebrità. Ha suscitato a più riprese la reazione di diversi esperti preoccupati per l'attaccamento a volte irrazionale dei ragazzi al chatbot e anche alla natura delle interazioni. Un anno fa negli Stati Uniti la società è stata portata in tribunale dalla mamma di un 14enne che si è suicidato, con l'accusa di aver favorito una dipendenza emotiva del ragazzo al chatbot creato.
Casi simili sono stati segnalati anche su altre piattaforme come ChatGpt che di recente ha introdotto dei paletti per gli utenti più giovani e sta lavorando ad un sistema di verifica dell'età. Pochi giorni fa la stessa OpenAI, la casa madre di ChatGpt, ha reso pubblici alcuni dati interni secondo cui oltre un milione di conversazioni settimanali sulla piattaforma contengono riferimenti espliciti a pensieri suicidi, depressione o disturbi psicologici acuti.
Riproduzione riservata © Copyright ANSA

3 ore fa
3









English (US) ·