🥇 Bit #1 — Anthropic cruza $1 trillón y destrona a OpenAI (en secundario)
Las acciones privadas de Anthropic están transando en Forge Global y Augment implicando una valuación de ~$1T, por encima de OpenAI que se mueve en $850–880B en los mismos mercados. Contexto: en febrero 2026, Anthropic cerró su Serie G de $30B a valuación primaria de $380B. En tres meses, el secundario lo multiplicó por 2.5x. El combustible: su ARR saltó de $9B a fin de 2025 a $30B en marzo 2026, empujado principalmente por la adopción explosiva de Claude Code. Un accionista ya expresó voluntad de vender implicando $1.15T.
Take: Dos cosas importantes. Uno: esto no significa que Anthropic podría levantar $1T en primario, ni que un IPO saldría a ese precio — son acciones ilíquidas, minoritarias, sin board rights. Es lo que alguien quiere pagar, no lo que la empresa vale. Dos: es la primera vez en años que OpenAI pierde la corona de "la IA más cara del mundo", y el driver no fue marketing — fue producto (Claude Code). En un mercado inundado de foundation models commodity, el equipo que se llevó a los devs se llevó la valuación. Lección para founders en LATAM: en 2026, developer experience es la estrategia GTM.
🥈 Bit #2 — El breach de Vercel: tu agente AI ya es supply chain
Vercel confirmó un incidente de seguridad que arrancó con un compromiso de Context.ai, una herramienta AI de terceros que un empleado de Vercel usaba con acceso full-read a su Google Drive corporativo. El ataque (que originó con una infección de Lumma Stealer en Context.ai desde ~febrero 2026) robó tokens OAuth de Google Workspace, les permitió tomar la cuenta del empleado, y de ahí saltar a sistemas internos de Vercel. Ya dentro, los atacantes enumeraron environment variables que no estaban marcadas como "sensitive" (y por tanto no estaban encriptadas en reposo) y las usaron para pivotar. Vercel cambió el default: nuevas env vars ahora son sensitive por default. Devs de crypto están rotando API keys como locos.
Take: Este es el incident report más importante del año para cualquiera que esté metiendo agentes AI en flows corporativos — y somos casi todos. La pregunta no es "¿mi proveedor de IA es seguro?" sino "¿qué permisos le di y qué tokens OAuth estoy firmando?". Cada vez que conectás un agente a tu Drive, tu Slack, tu GitHub, estás ampliando tu attack surface con un proveedor que vos no auditás. En LATAM, donde muchas empresas están apenas arrancando adopción de IA con entusiasmo pero poca higiene, esto debería ser lectura obligatoria del CISO, el CTO y el que "probó Context porque vio un reel". Regla nueva: trata todo agente AI como third-party con privilegios de empleado interno. Rotá secrets, audita scopes OAuth, marcá todo como sensitive por default.
🥉 Bit #3 — OpenAI lleva los Workspace Agents a ChatGPT
OpenAI lanzó ayer Workspace Agents en ChatGPT: agentes compartidos a nivel organización, powered by Codex, que corren en la nube (o sea: siguen trabajando aunque cerrés el laptop), pueden escribir y ejecutar código, usar apps conectadas, recordar lo aprendido, correr en schedule, y también vivir dentro de Slack como si fueran un compañero más. Disponibles en research preview para ChatGPT Business, Enterprise, Edu y Teachers. Los admins controlan permisos con role-based controls. Gratis hasta el 6 de mayo, después pricing por créditos.
Take: Esta es la versión enterprise del combo que GPT-5.2-Codex (que ya conocés desde diciembre) viene empujando: pasar de "asistente individual" a "empleado digital compartido". El juego cambia cuando tu equipo puede construir un agente, mejorarlo juntos, y tenerlo disponible en Slack tomando tickets como si fuera un SRE más. Si estás en una empresa LATAM con ChatGPT Enterprise, aprovechá la ventana gratis hasta 6/5 para hacer pilotos. Sugerencia concreta: construí uno que reciba mensajes en tu canal de #soporte y pre-triague los tickets. Dos semanas de prueba, métricas claras, y después decidís si pagás créditos.
🔗 Links rápidos
Palantir publicó un "mini-manifesto" de 22 puntos firmado por Alex Karp denunciando "pluralismo vacío", declarando algunas culturas "regresivas y dañinas", y argumentando que Silicon Valley tiene una "deuda moral" con EE.UU. y debería construir armas AI. Las acciones cayeron; los contratos con gobiernos europeos, bajo revisión. TechCrunch · Al Jazeera
Google DeepMind publicó dos papers esta semana relevantes para visión: Image Generators are Generalist Vision Learners (22/04) y Dynamic Reflections: Probing Video Representations with Text Alignment (23/04). Tesis central: los generadores de imagen aprenden representaciones útiles para tareas de visión en general — línea de investigación que sigue difuminando la frontera entre "generativo" y "perceptual".
Grok caído hace 48+ horas con errores de "high demand", SuperGrok Ani/Rudi/Valentine locked out. Si estabas evaluando xAI para algo serio, este es el tipo de incidente que cuenta. cobertura
¿Te gustó? Reenvíaselo a alguien que también esté tratando de seguirle el ritmo a esto. BitNeuronal · IA técnica para Latinoamérica