Il Pentagono sta considerando di
interrompere il suo contratto da 200 milioni di dollari con
Anthropic a causa dell'insistenza della società di intelligenza
artificiale nel mantenere alcune limitazioni sull'uso che
l'esercito può fare dei suoi modelli, in particolare Claude. Lo
riporta Axios citando un alto funzionario dell'amministrazione.
Il dipartimento della difesa sta facendo pressione sui
quattro principali laboratori di IA affinché consentano
all'esercito di utilizzare i loro strumenti per "tutti gli usi
leciti", comprese le aree più sensibili come lo sviluppo di
armi, la raccolta di intelligence e le operazioni sul campo di
battaglia. Anthropic non ha accettato tali condizioni, e dopo
mesi di negoziati difficili il Pentagono è sempre più frustrato.
Anthropic - che ha raddoppiato il suo valore in sei mesi e
ora vale 380 miliardi di dollari - sostiene che due ambiti
debbano rimanere vietati: la sorveglianza di massa degli
americani e i sistemi d'arma completamente autonomi. La fonte ha
sostenuto che esiste una notevole zona grigia su ciò che
rientrerebbe o meno in queste categorie, e che non è praticabile
per il Pentagono dover negoziare caso per caso con Anthropic — o
avere il modello Claude che blocca inaspettatamente certe
applicazioni. Le tensioni sono esplose recentemente sull'uso di
Claude da parte dell'esercito nell'operazione per catturare
Nicolás Maduro in Venezuela, attraverso la partnership di
Anthropic con la società di software di IA Palantir, del magnate
Peter Thiel, grande donatore repubblicano e vicino a Donald
Trump.
Riproduzione riservata © Copyright ANSA

4 ore fa
1










English (US) ·