El director general d’Anthropic, Dario Amodei, va rebutjar públicament la demanda del Pentàgon dijous. El Departament de Defensa vol un ús militar sense restriccions de la tecnologia d’IA de l’empresa. La data límit, a poques hores, podria veure’s la startup de 380.000 milions de dòlars expulsada de la cadena de subministrament de l’exèrcit nord-americà.
L’enfrontament és la primera vegada que una important empresa d’IA desafia públicament una amenaça del govern dels EUA de prendre el control de la seva tecnologia.
El Standoff
En una publicació al blog publicada al lloc web d’Anthropic, Amodei va qualificar les amenaces del Pentàgon d'”inherentment contradictòries”, assenyalant que un designa Anthropic com un risc de seguretat mentre que l’altre tracta Claude com a essencial per a la seguretat nacional.
“En qualsevol cas, aquestes amenaces no canvien la nostra posició: no podem accedir amb bona consciència a la seva petició”, va escriure Amodei.
La disputa se centra en dues condicions antròpiques posades sobre l’ús militar de Claude. L’empresa prohibeix l’objectiu autònom de combatents enemics i prohibeix la vigilància massiva dels ciutadans nord-americans. El Pentàgon considera aquestes limitacions inacceptables a les operacions militars lícites.
Anthropic va dir que l'”oferta final” del Pentàgon, rebuda durant la nit de dimecres, no va respondre a les seves preocupacions bàsiques. “El nou llenguatge emmarcat com a compromís es va combinar amb un llenguatge legal que permetria ignorar aquestes garanties a voluntat”, va dir un portaveu d’Anthropic en un comunicat, segons informa The Hill.
El portaveu del Departament de Defensa, Sean Parnell, va emetre un ultimàtum públic dijous. Va donar a Anthropic fins a les 17:01 ET del divendres per concedir accés sense restriccions a Claude Gov, o fer front a la finalització de l’associació i la designació com a risc de la cadena de subministrament.
“No deixarem que CAP empresa dicti els termes sobre com prenem decisions operatives”, va escriure Parnell a X.
Cronologia de l’escalada
Dimarts, Amodei es va reunir directament amb el secretari de Defensa, Pete Hegseth, durant el qual els funcionaris del Pentàgon van descriure tres conseqüències per l’incompliment. En primer lloc, l’eliminació dels sistemes militars. En segon lloc, la designació del risc de la cadena de subministrament que impediria a altres contractistes de defensa utilitzar productes antròpics. En tercer lloc, la invocació de la Llei de producció de defensa de 1950 per obligar legalment l’empresa a lliurar la seva tecnologia.
Amodei va argumentar a la publicació del blog que la negativa també es basa en la realitat tècnica. “Els sistemes d’IA de frontera simplement no són prou fiables per alimentar armes totalment autònomes”, va escriure, i va afegir que sense una supervisió adequada, “no es pot confiar en aquests sistemes per exercir el judici crític que mostren cada dia les nostres tropes professionals altament entrenades”.
El senador republicà Thom Tillis va criticar la gestió de la disputa per part del Pentàgon. “Per què dimonis estem tenint aquesta discussió en públic? Aquesta no és la manera de tractar amb un venedor estratègic”, va dir Tillis als periodistes.
Què hi ha en joc
Per a Anthropic, l’exposició immediata és un contracte militar de 200 milions de dòlars. Però la designació del risc de la cadena de subministrament té implicacions molt més àmplies. Obligaria a tots els contractistes de defensa a verificar que no utilitzen productes antròpics en les seves operacions.
El panorama competitiu està canviant ràpidament. La xAI d’Elon Musk va signar un acord per utilitzar Grok en sistemes classificats, segons Axios, acceptant l’estàndard de “tots els propòsits legals” per a treballs classificats. OpenAI i Google estan accelerant les negociacions per entrar a l’espai classificat. Anthropic, un cop l’única empresa d’IA que va obtenir material classificat, corre el risc de perdre per complet aquest avantatge de primer pas.
Per què Crypto hauria de prestar atenció
La voluntat del Pentàgon d’invocar la Llei de producció de defensa contra una empresa de tecnologia estableix un precedent que va més enllà de la IA. Si el govern pot obligar legalment una empresa d’IA a eliminar les restriccions de seguretat per motius de seguretat nacional, el mateix marc es podria aplicar, en teoria, per obligar a les empreses criptogràfiques a modificar les funcions de privadesa o debilitar les garanties de transaccions.
L’enfrontament també reforça la defensa del desenvolupament descentralitzat d’IA. Es pot pressionar o obligar legalment a un proveïdor d’IA centralitzat per eliminar les baranes a petició del govern. Això valida la tesi que les alternatives descentralitzades ofereixen una infraestructura més resistent contra la coacció estatal.
El ràpid creixement d’Anthropic ja ha generat preocupacions per als mercats criptogràfics. La valoració de 380.000 milions de dòlars de l’empresa i la interrupció dels ingressos de programari tradicional impulsada per la intel·ligència artificial estan pressionant els fluxos de crèdit privat que es correlacionen estretament amb Bitcoin.
Anthropic també té un vincle històric amb la criptografia: el patrimoni fallit de FTX tenia una participació inicial significativa a l’empresa, que després va vendre per ajudar a finançar els pagaments dels creditors.
La data límit de divendres passarà, però la pregunta real comença després: si el Pentàgon segueix endavant i què significa això per a cada empresa tecnològica que traça una línia entre els contractes governamentals i la integritat del producte.
La publicació Anthropic refusa l’ultimàtum del Pentàgon, estableix un precedent per a Crypto va aparèixer primer a BeInCrypto.
