Aisintesi Logo

Aisintesi

← Back to Home
Pentagon's Ultimatum to Anthropic: "Full access to Claude or you will be banned"

The Pentagon orders Anthropic to remove ethical limits to military use of Claude, otherwise facing a blacklist and the loss of federal contracts.

Pentagon's Ultimatum to Anthropic: "Full access to Claude or you will be banned"

WASHINGTON – Sale la tensione tra il Dipartimento della Difesa degli Stati Uniti e Anthropic, l'azienda di intelligenza artificiale nota per il suo approccio rigoroso alla sicurezza. Il Pentagono ha lanciato un avvertimento perentorio: la società ha tempo fino a venerdì per rimuovere i limiti etici all'uso militare del suo chatbot Claude. Se Anthropic non dovesse cedere, rischierebbe non solo la perdita di un contratto da 200 milioni di dollari, ma anche l'inserimento in una "lista nera" come rischio per la catena di fornitura, mossa che ne decreterebbe l'ostracismo definitivo dal settore Difesa.

Il nodo del contendere: etica contro operatività

Al centro della disputa c'è la clausola di utilizzo di Anthropic, che vieta esplicitamente l'impiego della propria tecnologia per lo sviluppo di armi autonome o per attività di sorveglianza di massa sul suolo statunitense.

Nonostante queste restrizioni, Claude è già profondamente integrato in sistemi militari classificati. Secondo fonti interne, l'intelligenza artificiale dell'azienda sarebbe stata utilizzata in missioni internazionali ad alto profilo, tra cui operazioni di intelligence sensibili legate alla cattura di figure chiave come Nicolás Maduro. Ora, il governo USA esige che tali strumenti siano privi di "filtri morali" che possano limitare l'efficacia bellica o strategica.

Le armi del Pentagono: il Defense Production Act

L'amministrazione non sembra intenzionata a negoziare. Tra le opzioni sul tavolo della Difesa compare l'attivazione del Defense Production Act, una legge dell'era della Guerra di Corea che permetterebbe al Presidente di forzare le aziende private a dare priorità alle necessità della sicurezza nazionale, scavalcando di fatto le policy aziendali.

Una crisi di governance globale

Il caso Anthropic rappresenta un momento spartiacque per l'industria tecnologica. Mentre concorrenti come OpenAI sembrano aver trovato un compromesso più morbido con le agenzie federali, Anthropic si trova trincerata in una posizione di resistenza etica.

La posta in gioco è altissima: definire se un'azienda privata abbia il diritto di porre limiti all'uso della propria tecnologia da parte dello Stato in nome dell'etica, o se la Sicurezza Nazionale debba avere sempre l'ultima parola nell'era della corsa agli armamenti digitali. Il verdetto di venerdì potrebbe ridisegnare i confini tra Silicon Valley e Washington per i decenni a venire.

Related Articles

@aisintesi