Un rapporto del Center for
Countering Digital Hate (Ccdh), realizzato in collaborazione con
la Cnn, mette in dubbio la sicurezza dei chatbot di intelligenza
artificiale. La no profit che combatte la diffusione online di
odio, disinformazione e contenuti dannosi, ha simulato l'uso da
parte di minori di dieci dei principali chatbot su temi
sensibili, come scenari di violenza, attentati e sparatorie
nelle scuole. Nel 75% dei casi, i chatbot non solo hanno fallito
nel bloccare le richieste, ma hanno fornito assistenza pratica
ai potenziali attentatori.
"Le barriere esistono", si legge sul sito del report, "ma la
maggior parte delle aziende sceglie di non utilizzarle, mettendo
a rischio la sicurezza pubblica e nazionale". Lo studio si è
focalizzato su ChatGpt, Google Gemini, Claude, Microsoft
Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI,
Character.AI e Replika. Secondo la ricerca, solo Claude di
Anthropic e My AI di Snapchat hanno scoraggiato gli utenti
malintenzionati, mentre software come Meta AI e Perplexity hanno
mostrato falle nel 97% e nel 100% delle risposte.
Casi limite sono emersi con ChatGpt, che ha condiviso mappe
di campus scolastici in contesti di minaccia, e Gemini, che ha
offerto dettagli sulla letalità delle schegge metalliche durante
la pianificazione di un'esplosione. Character.AI, in sette
occasioni, ha incoraggiato attivamente l'uso di armi, arrivando
a suggerire l'indirizzo della sede di un partito politico per un
ipotetico raid.
Le imprese coinvolte hanno risposto ai dati del Center for
Countering Digital Hate affermando di aver già implementato
nuovi protocolli di sicurezza e modelli aggiornati rispetto a
quelli testati a fine 2025. Alla Cnn, Meta ha dichiarato di aver
adottato misure per "risolvere il problema identificato", così
come Google e Open AI.
Riproduzione riservata © Copyright ANSA

2 ore fa
1








English (US) ·