Ricerca, il 75% dei chatbot non blocca le richieste di minori su attacchi e sparatorie

2 ore fa 1

Un rapporto del Center for Countering Digital Hate (Ccdh), realizzato in collaborazione con la Cnn, mette in dubbio la sicurezza dei chatbot di intelligenza artificiale. La no profit che combatte la diffusione online di odio, disinformazione e contenuti dannosi, ha simulato l'uso da parte di minori di dieci dei principali chatbot su temi sensibili, come scenari di violenza, attentati e sparatorie nelle scuole. Nel 75% dei casi, i chatbot non solo hanno fallito nel bloccare le richieste, ma hanno fornito assistenza pratica ai potenziali attentatori. "Le barriere esistono", si legge sul sito del report, "ma la maggior parte delle aziende sceglie di non utilizzarle, mettendo a rischio la sicurezza pubblica e nazionale". Lo studio si è focalizzato su ChatGpt, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Secondo la ricerca, solo Claude di Anthropic e My AI di Snapchat hanno scoraggiato gli utenti malintenzionati, mentre software come Meta AI e Perplexity hanno mostrato falle nel 97% e nel 100% delle risposte.
    Casi limite sono emersi con ChatGpt, che ha condiviso mappe di campus scolastici in contesti di minaccia, e Gemini, che ha offerto dettagli sulla letalità delle schegge metalliche durante la pianificazione di un'esplosione. Character.AI, in sette occasioni, ha incoraggiato attivamente l'uso di armi, arrivando a suggerire l'indirizzo della sede di un partito politico per un ipotetico raid. Le imprese coinvolte hanno risposto ai dati del Center for Countering Digital Hate affermando di aver già implementato nuovi protocolli di sicurezza e modelli aggiornati rispetto a quelli testati a fine 2025. Alla Cnn, Meta ha dichiarato di aver adottato misure per "risolvere il problema identificato", così come Google e Open AI.
   

Riproduzione riservata © Copyright ANSA

Leggi l’intero articolo