La rottura sulle clausole di utilizzo per fini bellici spinge la Difesa a bandire la startup dai contratti governativi, nonostante il ruolo dell'IA nei recenti successi dell'intelligence in Medio Oriente
06 marzo 2026 | 20.08
LETTURA: 3 minuti
Il Dipartimento della Difesa degli Stati Uniti ha formalmente designato Anthropic come un "rischio per la catena di approvvigionamento", segnando un'escalation senza precedenti nel rapporto tra l'amministrazione Trump e l'industria della Silicon Valley. La decisione, maturata dopo settimane di negoziati falliti e minacce legali, impone ai contractor della difesa il divieto di collaborare con il governo qualora Claude, il modello linguistico di punta della società, sia integrato nei loro sistemi. Si tratta della prima volta che un’azienda americana riceve una classificazione solitamente riservata a entità straniere vicine a governi ostili, una mossa che il CEO Dario Amodei ha già definito priva di fondamento giuridico, confermando l'intenzione di procedere per vie legali.
Al centro dello scontro risiede la fermezza di Anthropic nel negare al Pentagono l'uso della propria tecnologia per due scopi specifici: lo sviluppo di armi letali autonome prive di supervisione umana e l'attuazione di programmi di sorveglianza di massa. Se da un lato il Pentagono sostiene che le pretese di controllo della startup sottraggano poteri decisionali allo Stato in favore di un ente privato, dall'altro l'azienda non ha ritenuto sufficienti le rassicurazioni governative circa il rispetto delle proprie "linee rosse" etiche. Il conflitto è degenerato definitivamente giovedì scorso, quando il rifiuto di Anthropic di piegarsi alle richieste di Washington ha spinto il Dipartimento della Difesa ad attivare la procedura di esclusione.
Le conseguenze della direttiva firmata dal Segretario alla Difesa Pete Hegseth potrebbero avere un impatto sistemico sull'intero ecosistema tecnologico militare. Hegseth ha infatti dichiarato che qualsiasi azienda impegnata in attività commerciali con Anthropic, anche al di fuori delle commesse governative, rischia la cancellazione dei contratti con la difesa. Questa interpretazione estensiva della norma, giudicata illegale dalla società di Amodei, mira a isolare Anthropic dal mercato dei grandi fornitori statali, imponendo un termine di sei mesi per l'estromissione definitiva di Claude dai server federali.
Tuttavia, l'effettiva applicazione del bando appare paradossale alla luce delle recenti operazioni belliche. Alcuni rapporti indicano che gli strumenti di intelligence potenziati da Claude siano stati determinanti nel successo dell'attacco missilistico dello scorso fine settimana contro l'Ayatollah Ali Khamenei. La difficoltà di sostituire in tempi brevi una tecnologia che si è già dimostrata fondamentale per l'efficacia operativa delle forze armate solleva dubbi sulla sostenibilità della linea dura adottata dal Pentagono e sulle possibili ripercussioni per la sicurezza nazionale nel breve periodo.
Nonostante la classificazione di Claude come rischio per la sicurezza nazionale, l'adozione dell'intelligenza artificiale da parte degli utenti comuni ha raggiunto picchi mai visti prima, con nuovi record di iscrizioni quotidiane registrati in tutti i territori in cui il servizio è operativo sin dall'inizio della scorsa settimana. I dati di AppFigures confermano questa tendenza globale, posizionando l'applicazione stabilmente ai vertici delle classifiche dell'App Store per le categorie gratuite e dedicate all'IA in decine di paesi, inclusi Stati Uniti, Canada e gran parte dell'Europa.
Tag
Vedi anche










English (US) ·