Claude Opus 4.6: ventana de 1M de tokens y equipos de agentes nativos
Anthropic ha lanzado Claude Opus 4.6 introduciendo una ventana de contexto de 1M de tokens y la capacidad experimental "Agent Teams" en su CLI, Claude Code. El sistema busca automatizar flujos complet

El Pitch
Anthropic ha lanzado Claude Opus 4.6 introduciendo una ventana de contexto de 1M de tokens y la capacidad experimental "Agent Teams" en su CLI, Claude Code. El sistema busca automatizar flujos completos de ingeniería de software mediante la colaboración de múltiples agentes integrados (fuente: anthropic.com).
Bajo el capó
La capacidad de recuperación de datos (retrieval) en contextos masivos es sólida, logrando recordar 49 de 50 elementos específicos en pruebas de 733K tokens (fuente: Hacker News). En términos de razonamiento profesional, el modelo supera a GPT-5.2 por 144 puntos Elo en el benchmark GDPval-AA, posicionándose como una opción robusta para tareas de conocimiento económico (fuente: Anthropic System Card).
Sin embargo, el despliegue técnico presenta fricciones importantes. Los usuarios han reportado "instruction drift" (deriva de instrucciones), donde el modelo ignora revisiones o correcciones a planes complejos para ceñirse a los borradores iniciales (fuente: HN). Además, la versión 2.1.32 de Claude Code presenta errores de conexión con Chrome en entornos Windows, lo que complica su adopción inmediata en ciertos setups de desarrollo (fuente: Reddit).
El coste operativo es otro factor crítico para cualquier CTO. El precio escala de los $5/$25 estándar a $10/$37.50 por millón de tokens cuando el contexto supera los 200k, lo que puede agotar límites diarios de uso en apenas un par de consultas intensivas (fuente: Trending Topics). Ver ficha de Claude, que ya cuenta con 247 empresas usuarias como Notion y DuckDuckGo.
Actualmente, no disponemos de información pública sobre el coste específico de la función "Agent Teams" fuera de los planes API/Max, ni existen verificaciones independientes de los resultados de GDPval-AA más allá de los datos internos de Anthropic (fuente: Dossier UsedBy). Aunque Opus 4.6 lideró brevemente el Terminal-Bench 2.0 con un 65.4%, fue superado minutos después por GPT-5.3 Codex (fuente: OfficeChai).
La opinión de Diego
No lo metas en producción todavía. Aunque el millón de tokens suena bien en el papel, el "instruction drift" es un problema real que te hará perder más tiempo corrigiendo al modelo que escribiendo código. Es una herramienta excelente para side-projects donde quieras experimentar con la colaboración multi-agente usando CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1, pero la volatilidad de los benchmarks y el precio prohibitivo del contexto largo lo hacen poco práctico para el día a día de un equipo de ingeniería. Si buscas eficiencia de costes, quédate en contextos cortos o espera a que estabilicen la persistencia de las instrucciones en tareas largas.
Código limpio siempre,
Diego.

Diego Navarro - Early Adopter Tech Analyst at UsedBy.ai
Artículos relacionados

Tin Can: VoIP analógico para niños con graves deudas técnicas y de privacidad
Tin Can es un teléfono fijo físico basado en Wi-Fi diseñado para que los niños realicen llamadas a contactos aprobados sin usar pantallas. El hardware busca ofrecer independencia infantil mediante una

PC Gamer: Análisis de rendimiento en la guía de lectores RSS 2026
PC Gamer ha lanzado su guía curada de los mejores lectores RSS para 2026 con la promesa de ayudar a los usuarios a evitar el ruido de los algoritmos de redes sociales. El artículo se posiciona como un

POSSE: Estrategia de soberanía de contenido y federación nativa
POSSE (Publish on your Own Site, Syndicate Elsewhere) es un modelo de arquitectura de contenido que prioriza la propiedad del dato publicando primero en dominio propio. El ecosistema técnico ha vuelto
Mantente al día con las tendencias de adopción de IA
Recibe nuestros últimos informes y análisis en tu correo. Sin spam, solo datos.