Anche i modelli di intelligenza
artificiale soffrono come gli uomini di 'brain rot', il
rimbambimento da web, la parola dell'anno 2024 per l'Oxford
Dictionary che sta ad indicare un deterioramento intellettuale
dovuto al consumo compulsivo di contenuti online di bassa
qualità, specialmente quelli che girano sui social. Lo indica
uno studio dell'Università del Texas ad Austin e della Purdue
University che ha condotto un esperimento su due modelli
linguistici di grandi dimensioni 'open source', Llama di Meta e
Qwen della cinese Alibaba.
"Viviamo in un'epoca in cui le informazioni crescono più
velocemente dell'attenzione e gran parte di queste sono
progettate per catturare clic non per trasmettere profondità. Ci
siamo chiesti cosa succede quando le IA vengono addestrate su
contenuti spazzatura", afferma Junyuan Hong, professore presso
l'Università Nazionale di Singapore che ha collaborato alla
ricerca.
Per questo Hong e i suoi colleghi hanno inserito diversi tipi
di testo nei modelli linguistici di grandi dimensioni di Meta e
Alibaba e hanno esaminato cosa accadeva quando venivano
alimentate con post che contenevano espressioni acchiappa clic o
di tipo sensazionalistico come "wow", "guarda" o "solo oggi".
Hanno registrato una sorta di 'brain rot' delle piattaforme con
declino cognitivo, ridotte capacità di ragionamento e memoria
degradata. I modelli sono diventati anche meno allineati
eticamente e psicotici.
I risultati sono importanti per il settore, afferma Hong,
perché chi costruisce i modelli di IA potrebbe partire
dall'assunto che i post sui social media sono una buona fonte di
dati per l'addestramento degli stessi. "L'allenamento delle IA
su contenuti virali o che attirano l'attenzione può sembrare
un'operazione di ampliamento dei dati - afferma il ricercatore -
Ma può corrodere il ragionamento, l'etica e l'attenzione".
Riproduzione riservata © Copyright ANSA

3 ore fa
1










English (US) ·