🥇 Bit #1 — DeepSeek V4 vuelve a tirar la mesa (otra vez)

DeepSeek liberó hoy preview de sus nuevos flagships V4-Pro (1.6T parámetros MoE, 49B activos) y V4-Flash (284B / 13B activos). Ventana de contexto de 1 millón de tokens, soporte nativo para las interfaces de OpenAI y Anthropic, y pesos open en Hugging Face. V4-Pro le gana a todos los modelos open en matemática y coding, y solo queda por detrás de Gemini 3.1-Pro en world knowledge. Bloomberg y Al Jazeera ya lo están llamando "el segundo terremoto" desde el V3 que sacudió a Silicon Valley hace un año.

Take: Estaba cantado. DeepSeek no juega el juego de "quién tiene el mejor benchmark" — juega el de "quién rompe la curva costo/capacidad". Y cada vez que lo hace, todos los que tienen pricing inflado (hola, OpenAI) tienen que reaccionar. Para cualquier startup LATAM que hoy gasta $20k-50k mensuales en APIs de OpenAI/Anthropic, el cálculo de build vs buy vuelve a abrirse. V4-Flash corriendo en infra propia o en Together/Runpod puede ser el 20% del costo con el 85% del performance. Vale pilotar esta semana, no el mes que viene.

🥈 Bit #2 — OpenAI lanza GPT-5.5 y duplica los precios

OpenAI anunció ayer (rollout corriendo) GPT-5.5, su modelo agentic capaz de trabajar tareas complejas switcheando entre múltiples tools. Mejor coding, mejor computer-use, mejor research profundo. Disponible para Plus, Pro, Business y Enterprise en ChatGPT y en Codex, con API "muy pronto". El detalle que no podemos ignorar: pricing $5/1M input y $30/1M output — exactamente el doble que GPT-5.4 ($2.50/$15). La versión Pro: $30/$180 por 1M. OpenAI dice que "matches GPT-5.4 per-token latency at higher intelligence". VentureBeat destaca que le gana por poco a Claude Mythos Preview en Terminal-Bench 2.0.

Take: Timing brutal. Exactamente el mismo día que DeepSeek preview un modelo con 1M de contexto a costos rotos, OpenAI dice "acá está 5.5, duplicamos el precio, trust us". La lectura corporativa: OpenAI se siente con poder de precio porque Codex + Workspace Agents les están trayendo enterprise. La lectura dev: si no estás bloqueado por contratos o dependencia de features, el costo incremental de probar alternativas está en su mínimo histórico. Si tu startup no está haciendo un análisis trimestral de costo por request en al menos 3 proveedores, estás dejando runway sobre la mesa. En LATAM, donde cada dólar importa 3x más, esto no es opcional.

🥉 Bit #3 — LATAM cerró Q1 con $1.03B y el AI boom es nuestro también

Los startups latinoamericanos levantaron $1.03B combinados en Q1 2026 (seed + growth), +12% YoY según Crunchbase. De eso, $761M fueron a rounds late-stage — un salto de +158% vs los $295M de Q1 2025. El driver: Ualá (Argentina) levantó $195M a valuación de $3.2B. Early stage, en cambio, bajó: $179M vs $472M el año pasado — el capital se concentra arriba. Mientras tanto, la semana del 17 de abril Inner AI (Brasil) cerró seed de $6M a valuación $100M, co-liderado por Canary y ONEVC, con clientes como Embraer, Vivo y Bayer.

Take: Esto es la historia LATAM que la prensa gringa no va a contar. Mientras el 65% del VC global se lo llevan OpenAI, Anthropic, xAI y Waymo, acá está pasando algo distinto: el capital se está distribuyendo. No tenemos un unicornio de IA regional todavía, pero tenemos docenas de apuestas tempranas bien fondeadas. La tesis: aprovechar que los foundation models se volvieron commodity (ver Bit #1) para construir producto vertical en salud, legal, agrotech, fintech. Para founders leyéndonos: el dinero está. Lo que falta es claridad sobre en qué apostar. Si estás construyendo AI-vertical en LATAM y no estás hablando con Kaszek, Monashees, Atlantico, Bullpen o Andreessen (sí, también mira la región), estás perdiendo ventana.

  • Anthropic + NEC: NEC va a poner Claude en manos de sus 30.000 empleados globales, se convierte en el primer partner global basado en Japón de Anthropic, y arma un Center of Excellence para construir una de las mayores organizaciones AI-native de ingeniería del país. Finanzas, manufactura y gobiernos locales son los primeros verticales. Anthropic (oficial) · NEC press release

  • Google Cloud Next 2026: Vertex AI se renombra a Gemini Enterprise Agent Platform, aparece Workspace Studio (no-code agent builder), Project Mariner (web-browsing agent), y el protocolo A2A v1.0 ya en producción con 150 organizaciones. La apuesta full-stack contra OpenAI y Anthropic se hace oficial. TheNextWeb

  • Google presenta TurboQuant en ICLR 2026 — algoritmo que comprime el KV cache a 3-4 bits por elemento con casi cero pérdida de precisión, logrando hasta 8x speedup en atención H100 vs keys a 32-bit. Zero retraining. Ya aparecieron implementaciones open source community-built. Cobertura técnica profunda en la próxima edición semanal. Google Research (blog) · paper ICLR (OpenReview)

¿Te gustó? Reenvíaselo a alguien que también esté tratando de seguirle el ritmo a esto. BitNeuronal · IA técnica para Latinoamérica

Keep Reading