Qualche ora dopo l'uccisione
dell'attivista di destra Charlie Kirk, l'Fbi ha pubblicato
online alcune foto, sfocate, del presunto killer. Da quel
momento, come riporta il sito The Verge, gli utenti hanno
utilizzato gli strumenti di intelligenza artificiale per
migliorare le immagini. "Gli strumenti di IA non scoprono
dettagli segreti in un'immagine sfocata, ma deducono cosa
potrebbe esserci - scrive The Verge -, anche creando elementi
che in realtà non esistono". I principali smartphone oggi in
circolazione integrano strumenti di IA nelle app fotografiche,
per poter eliminare o aggiungere contenuti alle immagini in
pochi minuti.
Come da ricerca di The Verge, sul social X e i forum sul web
sono decine le grafiche generate dall'IA che si basano sui
fotogrammi diffusi dall'Fbi e che mostrano come potrebbe essere
il volto della persona 'di interesse', persino nel colore degli
occhi. Molte varianti arrivano da Grok, l'IA di X, altre da
ChatGpt. "È improbabile che qualcuna di queste foto sia davvero
utile all'Fbi - prosegue The Verge -, più che altro servono a
ottenere facili like".
Lo Stato dello Utah ha in seguito pubblicato immagini più
nitide del giovane, rivelando maggiori dettagli, dallo zaino al
paio di scarpe. Affidarsi ai chatbot di IA per trovare notizie
sul killer sta producendo, in alcuni casi, disinformazione. Il
portale The Hindu riporta esempi di risposte di Grok e ChatGpt,
che affermano come l'assassino sia un democratico dello Utah di
nome Michael Mallinson. I chatbot attribuiscono l'informazione,
una bufala, alla Cnn e al New York Times. "Le notizie spesso
innescano una frenetica ricerca di nuove informazioni sui social
media - scrive The Hindu -, portando a false conclusioni che poi
i chatbot ripropongono, contribuendo ad aumentare il caos".
Riproduzione riservata © Copyright ANSA