Un juez federal ha frenado en seco la ofensiva del Departamento de Defensa contra Anthropic, la creadora de Claude. La magistrada Rita F. Lin ha emitido una orden judicial provisional que bloquea la lista negra impuesta por la administración, devolviendo el aliento a la tecnológica en un conflicto que mezcla seguridad nacional con libertad de expresión.
Este fallo supone un giro drástico tras meses de tensión donde se acusó a la empresa de ser un riesgo para la cadena de suministro. La disputa legal revela una fractura profunda entre las exigencias éticas de los desarrolladores de inteligencia artificial y las ambiciones militares del Gobierno, que buscaba un control total sobre estos sistemas.

Anthropic gana la batalla legal contra el Pentágono
Tal y como se ha publicado originalmente en TechCrunch, la decisión judicial de 43 páginas no deja lugar a dudas sobre la arbitrariedad de las medidas tomadas contra la compañía. La jueza describió las acciones gubernamentales como una represalia ilegal tras la negativa de la empresa a ceder el control de sus modelos para fines bélicos sin restricciones.
No existe fundamento legal para la idea orwelliana de que una empresa estadounidense pueda ser tachada de potencial adversaria y saboteadora de Estados Unidos por expresar su desacuerdo con el gobierno.
El origen del conflicto reside en un contrato de 200 millones de dólares que Anthropic firmó en julio. La tecnológica exigió cláusulas estrictas para evitar que su modelo, Claude, fuera utilizado en armas letales autónomas o sistemas de vigilancia masiva. Esta postura ética provocó una reacción hostil inmediata por parte de los altos mandos del Departamento de Defensa.
Tras la negativa, el secretario de Defensa, Pete Hegseth, etiquetó a la firma como un peligro para la seguridad nacional. Esta calificación, habitualmente reservada para grupos terroristas, fue reforzada por declaraciones en redes sociales que tildaban a la empresa de izquierda radical, ordenando la eliminación de sus herramientas en todas las oficinas federales del país.
OpenAI y el nuevo escenario de defensa
Mientras Anthropic luchaba en los tribunales, competidores como OpenAI aprovecharon el vacío para firmar acuerdos lucrativos con el ejército. La compañía dirigida por Sam Altman desplegará sus modelos en redes clasificadas para «fines legales», marcando una clara diferencia en la política de uso militar que cada gigante tecnológico está dispuesto a aceptar hoy.
A pesar de este bloqueo, la tecnología de Claude ya opera en entornos críticos mediante integraciones externas. Actualmente, el sistema Maven de Palantir utiliza estos modelos para procesar inteligencia y seleccionar objetivos en operaciones militares activas. Esto demuestra que la IA ya es una pieza central en la estrategia de defensa moderna de los Estados Unidos.
La administración tiene ahora un plazo de siete días para presentar una apelación ante el tribunal. Aunque esta medida cautelar otorga un respiro vital, la batalla legal por la IA está lejos de concluir. El sector tecnológico observa con atención un caso que definirá si el Gobierno puede castigar a empresas que imponen límites éticos a sus creaciones.

Comentarios!