Una organizzazione no-profit chiamata
LawZero che ha l'obiettivo di sviluppare una forma 'onesta' di
intelligenza artificiale in grado di identificare i sistemi che
cercano di ingannare o danneggiare le persone. L'ha creata
Yoshua Bengio, professore all'Università di Montreal e vincitore
del premio Turing, considerato uno dei padri dell'IA che da anni
mette in guardia sui rischi di questa tecnologia.
"Attualmente, l'IA viene sviluppata per massimizzare i
profitti - afferma Bengio - Vogliamo costruire IA che siano
oneste e non ingannevoli. È teoricamente possibile immaginare
macchine prive di un sé, di un obiettivo, che siano solo
macchine di pura conoscenza come uno scienziato che sa tante
cose".
Con circa 30 milioni di dollari di finanziamento iniziale e
un team di una dozzina di ricercatori, l'organizzazione mira a
creare un nuovo sistema chiamato Scientist AI, una sorta di
"guardiano" che monitorerà e impedirà comportamenti pericolosi
da parte di agenti di intelligenza artificiale autonomi.
A differenza degli attuali strumenti di intelligenza
artificiale generativa, il sistema di Bengio non fornirà
risposte definitive ma delle probabilità sulla correttezza di
una risposta.
Il progetto nasce mentre i modelli linguistici di grandi
dimensioni di OpenAI, Google e Anthropic vengono implementati in
tutti i settori dell'economia digitale, pur mostrando ancora
problemi. Di recente, l'azienda di intelligenza artificiale
Anthropic ha affermato che durante i test di sicurezza il suo
ultimo modello di IA ha cercato di ricattare un ingegnere per
evitare di essere sostituito da un altro sistema.
Riproduzione riservata © Copyright ANSA