Ir al contenido principal
UsedBy.ai
Todos los artículos
Análisis de tendencias3 min de lectura
Publicado: 27 de febrero de 2026

El pulso legal entre Anthropic y el Department of War por Claude 4.5

Anthropic mantiene un bloqueo técnico en Claude 4.5 Opus para impedir su uso en vigilancia masiva doméstica y armamento autónomo (fuente: Dossier UsedBy). Esta postura ha llevado al gobierno a amenaza

Diego Navarro
Diego Navarro
Early Adopter Tech Analyst

El Pitch

Anthropic se enfrenta a una amenaza directa del Department of War para eliminar las salvaguardas de seguridad de Claude 4.5 Opus y adaptarlo a fines bélicos (fuente: Anthropic News / HN Thread Feb 2026). La herramienta es actualmente el estándar de privacidad para 247 empresas en nuestra base de datos, incluyendo nombres como Notion, DuckDuckGo y Quora. Ver ficha de Claude.

Bajo el capó

Anthropic mantiene un bloqueo técnico en Claude 4.5 Opus para impedir su uso en vigilancia masiva doméstica y armamento autónomo (fuente: Dossier UsedBy). Esta postura ha llevado al gobierno a amenazar con invocar la Defense Production Act (DPA) para forzar una versión a medida del modelo, llegando a calificar a la empresa como un "riesgo para la cadena de suministro" (fuente: HN Statement by Dario Amodei).

Lo que funciona:
- El frente unido de la industria: empleados de los equipos de GPT-5 en OpenAI y Gemini 2.5 en Google han firmado la carta "We Will Not Be Divided" en apoyo a Anthropic (fuente: notdivided.org).
- La arquitectura de seguridad actual sigue resistiendo intentos de bypass para aplicaciones militares letales (fuente: Dossier UsedBy).

Lo que falla:
- La "ambigüedad estratégica": críticos señalan que la negativa de Anthropic se basa en la "falta de fiabilidad actual" del modelo, lo que sugiere que Claude 5 o modelos posteriores sí podrían usarse en combate si son más precisos (fuente: HN Comment analysis).
- El uso de la palabra "doméstica" en su rechazo a la vigilancia deja un vacío legal para operaciones en el extranjero (fuente: Dossier UsedBy).

Lo que aún no sabemos:
- Los requisitos de datos de entrenamiento específicos que los militares están exigiendo para su versión personalizada (missing_info).
- La respuesta oficial o acciones legales inmediatas que tomará el Department of War tras las últimas declaraciones (missing_info).
- La fecha exacta en la que se ejecutaría la intervención mediante la DPA (missing_info).

La opinión de Diego

Seguid usando Claude 4.5 Opus en producción, pero tened un plan de contingencia de 24 horas para migrar a GPT-5 o Gemini 2.5 si la situación escala. Si el gobierno finalmente designa a Anthropic como riesgo de suministro, empresas como DuckDuckGo o Quora tendrán una presión legal insostenible para desconectar sus APIs (Dossier UsedBy). Claude es el modelo más robusto ahora mismo, pero si sus pesos acaban en manos del estado bajo la DPA, la privacidad que compramos dejará de existir por decreto ley.


Código limpio siempre,
Diego.

Diego Navarro
Diego Navarro

Diego Navarro - Early Adopter Tech Analyst at UsedBy.ai

Artículos relacionados

Mantente al día con las tendencias de adopción de IA

Recibe nuestros últimos informes y análisis en tu correo. Sin spam, solo datos.