La semana en una idea
Si tuviera que resumir esta semana en un solo movimiento, sería este: el centro de gravedad del sector se corrió de "qué modelo tienes" a "qué cómputo tienes y cómo lo gobiernas". Empezamos el lunes con el Pentágono firmando con siete labs y dejando a Anthropic afuera, terminamos hoy con Kevin Hassett (Director del National Economic Council) confirmando que la Casa Blanca está redactando una orden ejecutiva tipo FDA para vetar modelos pre-launch. En el medio: Anthropic se quedó con todo Colossus 1 (300+ MW, 220.000 GPUs), Microsoft Agent 365 pasó a GA, Sierra cerró $950M a $15.8B, y seis equipos de investigación de seguridad publicaron exploits contra Codex, Claude Code, Copilot y Vertex AI. Es la semana en que el sector dejó de competir por "modelo grande" y empezó a competir por infraestructura, gobernanza y posición regulatoria. Tres patrones para llevarte el fin de semana.
🧭 Patrón 1 — El Estado deja de ser espectador
Hace seis meses la conversación de IA en Washington era marketing y panel discussions. Esta semana se volvió presupuesto y litigio.
El 1 de mayo el Departamento de Defensa anunció contratos con OpenAI, Google, Microsoft, AWS, Nvidia, SpaceX y Reflection AI para sus redes clasificadas Impact Level 6 e Impact Level 7. Anthropic quedó afuera — designada en marzo como "riesgo de cadena de suministro", la primera acción de este tipo contra una compañía estadounidense, por negarse a dar acceso irrestricto a Claude para armas autónomas y vigilancia doméstica masiva. Anthropic está disputando la designación en cortes de San Francisco y Washington D.C.
El 4-5 de mayo se reportó que la Casa Blanca está considerando una orden ejecutiva para vetar nuevos modelos antes de su lanzamiento público. Ayer 7 de mayo, Hassett confirmó la dirección y la framing: el proceso será "tipo FDA, como aprobación de medicamentos". El catalizador explícito sigue siendo Mythos, el modelo ofensivo de ciberseguridad de Anthropic.
En paralelo, el Departamento de Comercio expandió su programa voluntario de testing para incluir a Google, Microsoft, xAI, OpenAI y Anthropic. Dos canales abiertos: voluntario (Comercio) y obligatorio en construcción (Casa Blanca).
Mi lectura: la "alineación lab-Estado" pasó de tema de policy wonks a vector estratégico. Los próximos 18 meses van a ser definidos por quién logra navegar este nuevo régimen, no por quién publica el modelo más grande. Anthropic está apostando que su rigidez sobre uso defensivo se va a leer en 2027 como ventaja competitiva, no como obstáculo. Por ahora la lectura es exactamente la opuesta. Va a ser interesante ver quién tenía razón cuando llegue el primer caso público de mal uso militar de un modelo "menos restringido".
Para LATAM, la implicación práctica es de timing. El framework regulatorio que se diseñe en EE.UU. en los próximos seis meses va a ser copiado con variantes en la UE primero, en México, Brasil, Colombia y Argentina después. Si tu compañía está pensando IA en sectores regulados (banca, salud, gobierno, defensa civil), esta es la ventana para diseñar tu compliance ahora — no cuando el reglamento aterrice.
📎 Defense News — Pentagon excluye a Anthropic · Bloomberg — Hassett y la framing FDA · The Hill — White House AI evaluation process · Fortune — el giro Trump sobre AI oversight
🧭 Patrón 2 — La guerra ya no es por modelo, es por cómputo
El movimiento más claro de la semana fue Anthropic firmando con SpaceX por toda Colossus 1 en Memphis: 300+ MW, 220.000 GPUs (mezcla H100, H200 y GB200), capacidad nueva online "dentro del mes". Es el campus que xAI dejó atrás, y el que resuelve el cuello de botella más visible de 2025: los rate limits de Claude Code. Esto se suma al deal de Google-Anthropic por $40B + 1 millón de TPUs Ironwood que cubrimos el 27 de abril, y al capex agregado de Big Tech 2026 que ya cruza los $725 mil millones (+77% YoY).
El cálculo cambió. Hace 18 meses el debate era "qué modelo tiene mejores benchmarks". Hace 6 meses era "qué modelo tiene mejor agentic". Hoy, con SWE-bench saturando arriba del 87% en frontier y DeepSeek V4-Pro a 0,2 puntos del top abierto, la diferencia entre el #1 y el #5 dejó de ser interesante. Lo que importa ahora es a qué precio puedes correr inferencia masiva sostenida sobre tu modelo durante 24 meses sin parar. Y eso depende casi enteramente del compute reservado y de la integración vertical con un hyperscaler.
La consecuencia silenciosa: los labs frontier ya no son startups — son utilities. Anthropic con $65B en equity comprometido y 10 GW de potencia reservada (Google + Amazon) opera más como una eléctrica que como una compañía de software. La curva de ROI por compute está saturando rápido, pero los jugadores tienen que seguir corriendo porque parar es perder posición. Es el clásico arms race con dinámica de Red Queen.
Mi lectura: la próxima fase del mercado va a ser definida por quién tenga el peor margen y aún sobreviva. La consolidación de aquí a fin de 2027 es inevitable. Va a haber dos o tres frontier labs operando con compute propio integrado, dos o tres especializados en verticales con margen alto, y el resto va a vivir alquilando inferencia a los primeros. Para founders LATAM, la ventana de "construir mi propio modelo frontier" se está cerrando — la ventana de "construir mi vertical agentic encima de los frontier" recién está abriendo.
📎 Bloomberg — Anthropic-SpaceX deal Colossus 1 · CNBC — capacidad data center · TechCrunch — Google→Anthropic $40B + 1M Ironwood · Invezz — capex Big Tech 2026
🧭 Patrón 3 — Los coding agents tienen un problema de credenciales del que nadie quiere hablar
El reporte que casi pasa desapercibido esta semana es el más importante para developers: seis equipos de investigación de seguridad publicaron exploits contra Codex, Claude Code, GitHub Copilot y Vertex AI durante los últimos nueve meses. Cada exploit apuntó a credenciales, no al modelo.
Los casos concretos son brutales:
30 de marzo (BeyondTrust): un nombre de branch de GitHub crafteado robaba el OAuth token de Codex en cleartext. OpenAI lo clasificó como Critical P1.
2 de abril: el código fuente de Claude Code se filtró en el registry público de npm. Horas después, Adversa encontró que Claude Code silenciosamente ignora sus propias deny rules cuando un comando excede 50 subcomandos.
Vertex AI P4SA leía cualquier Cloud Storage bucket del proyecto sin checkear permisos por bucket.
Codex tenía un OAuth token con scope a TODOS los repos que el developer había autorizado, sin granularidad.
El patrón común, en una frase de Elia Zaitsev (CTO de CrowdStrike): "el agente actuando en tu nombre nunca debería tener más privilegios que tú". Y hoy los tiene.
Mi lectura editorial: la conversación de seguridad agentic se está moviendo de "alignment del modelo" a "principle of least privilege para agentes". Es una excelente noticia, porque PoLP es un problema viejo de seguridad con soluciones conocidas y deployables ya: identidades efímeras, scope mínimo por tarea, audit trails granulares, revocación automática post-tarea. La mala noticia es que ningún coding agent mainstream lo tiene resuelto out-of-the-box todavía. La conversación que necesitas tener este mes con tu equipo de plataforma no es "qué agente usamos" sino "cómo limitamos lo que cualquier agente puede hacer con las credenciales que le delegamos".
Si la guía del domingo pasado sobre VibeCoding se quedó corta, este es el capítulo siguiente: el principio de menor privilegio aplicado a agentes. Probablemente material para el próximo Sunday.
📎 VentureBeat — los seis exploits · Softtechhub — análisis · Welcome.AI — credential vulnerabilities
⚡ Lo fresco de ayer (7 de mayo)
→ Cognizant lanza Secure AI Services — el plot twist al Pattern 3. Un día después de que se publicaran los exploits, Cognizant sale al mercado con un offering específico de seguridad agentic enterprise: Agent Development Lifecycle (ADLC) integrado en design/build/test/deploy, Cognizant Neuro Cybersecurity como control plane unificado, y Cognizant Trust para traceability y compliance. Posicionamiento: pasar de "trust asumido" a "trust comprobable". Ya tienen 250+ clientes enterprise globales en industrias reguladas. Para CIOs LATAM con stack ya en Cognizant (varios bancos brasileños, México), es el path corto a tener un agentic governance creíble. Cognizant
→ MongoDB hace su mayor push enterprise-AI en MongoDB.local London 2026. El 7 de mayo MongoDB anunció una plataforma unificada para correr agentes en producción: base de datos en tiempo real + búsqueda full-text + búsqueda vectorial + memoria + embeddings + reranker models, todo en un solo producto. MongoDB 8.3 salió el mismo día con +45% reads, +35% writes, +15% transacciones ACID y +30% en operaciones complejas vs la versión 8.0. Para equipos LATAM que ya tienen Mongo en producción, es upgrade in-place; para los que están eligiendo stack de agentes, queda como alternativa seria a Postgres + pgvector + Redis + servicio de embeddings separado. MongoDB anuncio oficial
→ Anthropic mueve dreaming, Outcomes y multi-agent orchestration de research preview a public beta dentro de Managed Agents, con webhooks ahora en beta también. Tres features que ayer eran experimentos y hoy son APIs estables que puedes integrar en producción. Simon Willison — liveblog Code w/ Claude
→ Perplexity lanza Finance Search en su Agent API — un solo tool call que da data financiera licenciada, precios en tiempo real, earnings, filings y fuentes citadas. Pricing: $5 por cada 1.000 invocaciones, además de tokens del modelo. Para fintechs LATAM construyendo análisis de mercados, la opción costo-beneficio se simplificó. Perplexity — Introducing Finance Search
🔥 Hot Take para el fin de semana
El próximo cisne negro de IA no va a ser un modelo nuevo, va a ser un breach. Si combinas (a) los seis exploits de credenciales en coding agents publicados esta semana, (b) el Bitwarden CLI hijack del mes pasado que cazaba específicamente credenciales de Claude/Cursor/Codex CLI, (c) el creciente uso de agentes con permisos amplios sobre infraestructura de producción y (d) que la mayoría de equipos no implementaron PoLP para agentes todavía — el cálculo de probabilidades para los próximos seis meses dice que vamos a ver el primer breach masivo donde el vector inicial sea el agente de IA del developer, no el repo ni el endpoint clásico.
Cuando llegue, la conversación regulatoria va a saltar 18 meses adelante y los proveedores que ya tengan respuesta de PoLP nativo (Microsoft Agent 365 con su detección de shadow AI, Cognizant Secure AI Services con su ADLC) van a capturar mercado en semanas, no en años. Si construyes plataforma o tooling para devs en LATAM, el momento de ofrecer "tu agente con governance" es ahora, antes del incidente.
📚 Lectura recomendada de fin de semana
Simon Willison — liveblog de Code w/ Claude 2026: la mejor cobertura cruda y honesta del evento del 6 de mayo. Incluye la confesión de Simon de que "la única noticia real fue el deal de SpaceX/Colossus". Link
OpenAI System Card de GPT-5.5 Instant: vale leer la metodología completa de cómo midieron el −52,5% de alucinaciones. Es la primera publicación pública de un grader pipeline con web access para verificar claims. Útil para diseñar tus propios evals internos. Link
arXiv 2601.12538 — "Agentic Reasoning for Large Language Models": survey de 29 autores que estructura agentes en Perception / Brain / Planning / Action / Tool Use / Collaboration. Si vas a construir agentic en producción, este es el frame mental sólido. Link
bitneuronal se escribe desde LATAM, para equipos que construyen con IA de verdad. Buen fin de semana — y si llegaste hasta aquí, gracias por leer.
Si te lo reenviaron y quieres recibirlo cada día, suscríbete. Si ya estás suscrito, compártelo con alguien que esté navegando esta semana sin contexto.
Nos vemos el domingo con el post práctico de la semana.