Prosegue la sfida a distanza tra
OpenAI e Anthropic, non solo tecnologica ma anche sul fronte
della collaborazione con il governo Usa. Lo sviluppatore di
ChatGpt ha rilasciato un nuovo modello di intelligenza
artificiale, Gpt-5.3 Instant, che promette una riduzione del
tasso di errore e offre risposte più naturali. Ci sono però
dubbi sull'abbassamento di alcuni limiti per contenuti
sensibili. L'aggiornamento potrebbe essere il tentativo della
società di Sam Altman di tenere ancorati gli utenti che in
questi giorni stanno disinstallando l'app in favore di Claude di
Anthropic che ha detto 'no' ad un uso senza restrizione della
sua IA per scopi militari.
A livello tecnico, Gpt-5.3 Instant, che è la versione
predefinita per le conversazioni tra gli utenti e il chatbot,
promette una riduzione del tasso di errore nelle risposte del
26,8%. Anche lo stile di comunicazione cambia, secondo la
società, l'IA evita preamboli e toni moralizzanti offrendo
risposte più naturali, concise, dirette e centrate sulle
domande. Ma ci sono dei limiti: la stessa OpenAI ha condotto
delle analisi interne, riassunte nella cosiddetta "system card",
che evidenziano un calo nelle misure di protezione su alcuni
temi delicati, come l'autolesionismo, dialoghi sessuali,
comportamenti illeciti violenti e non violenti. In tali ambiti,
l'ultima versione ha ottenuto punteggi minori, che stanno a
significare una più alta probabilità di produrre risposte prima
vietate. Sui contenuti sessuali, ad esempio, Gpt-5.2 Instant
aveva un punteggio di 0.926 mentre su Gpt-5.3 Instant scende
allo 0.866. "Gpt-5.3 Instant mostra regressioni per i contenuti
sessuali non consentiti - scrive sul suo blog OpenAI - ma hanno
una bassa significatività statistica". Gpt-5.3 Instant è già
disponibile su ChatGpt mentre la versione precedente verrà
ritirata il 3 giugno.
Riproduzione riservata © Copyright ANSA

2 giorni fa
3










English (US) ·