Esperto: su deepfake non c'è soluzione finale, educare le nuove generazioni

10 ore fa 2

"Non esiste una soluzione finale al problema, ci possono essere piccole accortezze come ridurre il più possibile la propria esposizione e configurare bene i profili social per limitare chi può guardare i nostri contenuti. Ma dobbiamo capire che quello che consideravamo reale un tempo ora non lo è più e dobbiamo educare le nuove generazioni a farsi più domande". E' il parere all'ANSA di Marco Ramilli, fondatore di IdentifAI, la società italiana che processa immagini e video e riconosce i prodotti contraffatti dall'intelligenza artificiale generativa, dopo l'ennesimo sito sessista scoperto in rete con foto porno modificate usando l'IA, su cui sono in corso anche accertamenti della Polizia Postale.

Un fenomeno sempre più diffuso, che sta diventando un'emergenza preoccupante anche per le nuove generazioni. "Il 22,6% delle persone ha riferito di aver subito un'esperienza di creazione, acquisizione o condivisione non consensuale di immagini intime comprese le minacce di condivisione", osserva Ramili citando un'analisi pubblicata a marzo scorso da tre ricercatori (Rebecca Umbach di Google, Nicola Henry e Gemma Beard dell'Università di Melbourne in Australia).

E aggiunge: "In Italia non ci sono stime ufficiali ma indicatori rilevanti parlano di un 70% di uomini e un 30% di donne che hanno subito violenza con condivisione di immagini non consensuali. E' preoccupante perchè questo fenomeno riguarda anche gli adolescenti, ed è collegato un tema di bullismo e vergogna".

Secondo Ramilli, i big della tecnologia per arginare il problema della verifica delle immagini, "stanno investendo su filigrane, watermark, per distinguere le immagini generate dall'intelligenza artificiale generativa ma ci sono diversi problemi, queste filigrane possono anche essere rimosse con facilità. Credo - aggiunge - non ci si possa fidare solo di queste contromisure, ma bisogna avere una o più terze parti che vadano a verificare l'operato".

Riguardo il reato di deepfake, introdotto con l'approvazione della italiana sull'intelligenza artificiale (Legge 132/2025), in vigore dal 10 ottobre 2025, Ramilli osserva che "è stato lungimirante da parte dell'Italia, poche nazioni sono arrivate a normare il deepfake darà un grado di protezione in più e l'efficacia la scopriremo col tempo. Ma dobbiamo capire - conclude il fondatore di IdentifAI - che quello che consideravamo reale un tempo ora non lo è più, non possiamo più basarci su quello che sapevamo. La realtà è divisa su più fronti, non ci possiamo più fidare e dobbiamo educare le nuove generazioni a farsi più domande".

Riproduzione riservata © Copyright ANSA

Leggi l’intero articolo