Miles Brundage, ex responsabile
delle politiche di OpenAI, ha annunciato la nascita dell'AI
Verification and Evaluation Research Institute (Averi). Al sito
Fortune, Brundage ha spiegato che l'idea di base è spingere le
aziende che sviluppano intelligenze artificiali a far valutare i
loro modelli da enti terzi e non solo da procedure interne. "In
un certo senso, oggi ognuno scrive le proprie regole", ha detto
a Fortune, "le compagnie stanno definendo in autonomia le
norme".
Brundage è stato per sette anni ricercatore e consulente di
OpenAI, da cui è uscito nel 2024. Insieme all'annuncio, Averi ha
pubblicato sul sito ufficiale i passaggi previsti per la
verifica dei modelli. L'istituto propone un quadro di "garanzia
dell'IA" che va dal livello 1, con test generali, al livello 4,
che copre i requisiti internazionali sulla sicurezza dell'IA.
Fortune sottolinea che sebbene i principali laboratori di
intelligenza artificiale conducano test di sicurezza e
pubblichino report tecnici sui risultati di molte di queste
valutazioni, "consumatori, aziende e governi devono
semplicemente fidarsi di ciò che i test affermano. Nessuno li
obbliga a condurre valutazioni o a riportarle secondo un insieme
specifico di standard".
L'AI Verification and Evaluation Research Institute non
vuole operare come revisore diretto, ma agirà da coordinatore
nel definire gli standard che società di consulenza,
assicurazioni e startup di sicurezza dovranno seguire. Il
progetto ha già raccolto 7,5 milioni di dollari da un pool di
finanziatori che include ex dirigenti della Silicon Valley.
Riproduzione riservata © Copyright ANSA

7 ore fa
1









English (US) ·