Bit 1 — NVIDIA suelta Lyra 2.0: de una foto a un mundo 3D caminable, en open-source El 16 de abril NVIDIA Spatial Intelligence Lab liberó Lyra 2.0 bajo licencia Apache 2.0 — pesos, código, todo. La premisa es fuerte: le das una sola foto y el sistema genera un mundo 3D explorable de hasta 90 metros de extensión, geométricamente consistente, listo para render en tiempo real. El truco técnico: genera video con cámara controlada simulando el walkthrough, luego lo "levanta" a 3D vía reconstrucción feed-forward, manteniendo geometría 3D por frame para evitar el spatial forgetting y entrenando con self-augmented histories para corregir drift temporal en vez de propagarlo.

El caso de uso que NVIDIA pone adelante no es videojuegos — es simulación robótica. Los escenarios se importan directo a Isaac Sim y un robot navega ahí dentro. Y ese es justamente el cuello de botella que hoy ahoga a la robótica: la variedad y el costo de entornos 3D para entrenar políticas. Con Lyra 2.0, cualquiera con un dataset de fotos tiene un pipeline para generar millones de escenarios distintos.

La implicación para LATAM es enorme. Un lab universitario en Monterrey, São Paulo o Santiago ya no necesita licencias carísimas de Unity + 3D scanners para hacer investigación de robot learning seria. Apache 2.0 + una GPU decente + fotos de tu campus. El gap de acceso a robótica avanzada se acaba de achicar de forma material. 🔗 Fuente: NVIDIA / HuggingFace · Paper (arXiv) · The Decoder

Bit 2 — OpenAI convierte Codex en un IDE distribuido con 90+ plugins El 16 de abril OpenAI publicó "Introducing upgrades to Codex" y el cambio es estructural: más de 90 plugins oficiales (Atlassian Rovo, GitLab Issues, CircleCI, CodeRabbit, Render, Microsoft Suite), multiple terminal tabs, preview enriquecido, GitHub review comments nativos y SSH directo a devboxes remotos. El comando codex marketplace add permite instalar marketplaces de plugins desde GitHub, URLs git, directorios locales o archivos marketplace.json directos.

En paralelo, el Agents SDK estrena sandbox execution nativo, memoria configurable, workspace portátil y durable snapshotting — los agentes ya no se mueren si se cae el proceso. Sumale soporte para MCP Apps tool calls, namespaced MCP registration y parallel-call opt-in. Traducción: OpenAI está estandarizando el protocolo de agentes bajo su paraguas, usando MCP como lingua franca pero con toda la capa de UX propietaria arriba.

Esto no es un update de features, es OpenAI declarando que Codex ya no es una CLI, es una plataforma de agentes con appstore. El ecosistema de plugins va a importar más que cualquier benchmark este trimestre: quien gane el "package manager del agent era" se queda con el mindshare de developers por los próximos 18 meses. Cursor, Claude Code y Replit tienen que responder ya. 🔗 Fuente: OpenAI · Codex Changelog

Bit 3 — MiniMax suelta M2.7: el primer agente open-source que se automejora solo MiniMax liberó M2.7 en open-source el 12 de abril, y el titular técnico es incómodo para Silicon Valley: un modelo con memoria de corto plazo, self-feedback y self-optimization que itera su propio desempeño dentro de ventanas de 24 horas. En MLE-Bench Lite (22 competencias de ML) sacó un medal rate promedio de 66.6%, empatando exactamente a Gemini-3.1 y quedando solo detrás de Claude Opus-4.6 (75.7%) y GPT-5.4 (71.2%). La mejor corrida: 9 medallas de oro, 5 de plata, 1 de bronce. Complementariamente publicaron MMX-CLI, una command-line que da a agentes acceso nativo a image, video, speech, music, vision y search.

Que un lab chino open-sourcee un agente que mejora solo dentro del día y aterrice en el mismo rango que el mejor Gemini deja de ser curiosidad académica — es evidencia de que el gap entre modelos cerrados y abiertos se está cerrando más rápido de lo que se creía. Ojo con la parte de self-optimization: los sistemas que reescriben su propio prompt o memoria son un dolor de cabeza para evals reproducibles y para auditoría. Si los metés a producción, necesitás telemetría agresiva y snapshots del estado por cada iteración.

Para devs en LATAM esto es la mejor noticia del mes: un modelo agentic comparable a Opus-4.6 al ~7% del costo, con pesos abiertos, corriendo en Ollama y NVIDIA NIM. Punto de entrada realista para equipos que no pueden bancar $25/MTok en producción. 🔗 Fuente: MiniMax · MarkTechPost · VentureBeat

🎁 EXTRA — Codex bajo la lupa: qué trajo realmente el update del 16 de abril

Porque el anuncio de OpenAI tiene más capas que los 90 plugins, y varias son cambios de paradigma. Desglose para devs:

El número que OpenAI filtró casi al pasar: 3 millones de developers usan Codex cada semana. Es la primera vez que confirman escala en un release. Contexto: para poner esto en tamaño, GitHub Copilot tenía ~1.8M suscriptores pagos a mediados de 2024. Codex ya no es "una alternativa", es el incumbent.

Computer use en tu propia Mac, con cursor propio. Codex ahora puede ver, clickear y tipear en tus apps nativas — múltiples agentes en paralelo en la misma Mac, sin interferir con tu trabajo en otras apps. El caso de uso que OpenAI destaca: iterar en frontend, testear apps, y automatizar apps que no exponen API. Esto último es enorme: es el workaround universal para integrar con software legacy que nunca va a tener API decente. Disponible inicialmente en macOS (UE y UK después).

Browser in-app con comentarios sobre la página. Codex trae su propio browser donde podés comentar directo sobre la página para darle instrucciones precisas al agente — como dejar sticky notes en un Figma, pero para web real. Hoy apunta a frontend y game development, pero OpenAI dice que va a expandirlo para comandar el browser entero más allá de localhost.

Image generation nativa con gpt-image-1.5. Codex ahora genera e itera imágenes dentro del mismo workflow que código y screenshots. Traducción: mockups, product concepts, assets de games, todo sin salir del agente. El render loop "código → screenshot → imagen nueva → código" ya no necesita copy-paste entre herramientas.

Memory en preview. Codex "recuerda" preferencias personales, correcciones tuyas y contexto que costó juntar. Lo que antes requería custom instructions extensas ahora se construye solo. Por ahora preview; rollout completo a Enterprise, Edu, UE y UK viene pronto.

Los 90+ plugins que importan. OpenAI destaca: Atlassian Rovo (gestión de JIRA), CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon by Databricks, Remotion, Render y Superpowers. Los plugins combinan skills + app integrations + MCP servers — es el bundle format que OpenAI está empujando como estándar.

Automations que se despiertan solas. Codex ahora agenda trabajo futuro para sí mismo y se despierta automáticamente para continuar tareas de largo aliento, potencialmente días o semanas. Casos que OpenAI menciona: aterrizar PRs abiertos, seguir tareas en Slack/Gmail/Notion, mantener conversaciones moviéndose. Es la primera vez que un agente mainstream cruza la barrera de "respondo cuando me hablás" a "yo mismo me despierto cuando corresponde".

Proactive suggestions. Usando memory + plugins + contexto del proyecto, Codex ahora te propone por dónde empezar tu día o dónde retomar un proyecto. Identifica comentarios abiertos en Google Docs que necesitan atención tuya, cruza contexto de Slack y Notion con el codebase, y te arma una lista priorizada de acciones.

Otros fierros que no salen en el titular: soporte para GitHub review comments nativos, multiple terminal tabs, SSH a devboxes remotos (en alpha), sidebar con previews ricos de PDFs/spreadsheets/slides/docs, summary pane para trackear plans y artifacts del agente.

Lectura editorial para LATAM: lo más importante de este release no son los 90 plugins — es que OpenAI acaba de convertir a Codex en un sistema operativo para trabajo cognitivo. Computer use + memory + automations que se despiertan solas + proactive suggestions = un stack que compite con ser tu chief of staff, no con tu autocompletado. Para equipos en la región, la decisión pasa a ser: ¿atás tu workflow al ecosistema cerrado de OpenAI con todas las features nuevas, o armás tu propio stack con Claude Code + MiniMax + MCP abiertos pero cedés velocidad de feature? No hay respuesta correcta, pero hay que elegir conscientemente.

🔗 Links Rápidos

Perplexity Personal Computer para Mac (16 abr): Agente persistente que vive en tu Mac — doble Command para activarlo, acceso a filesystem y apps nativas. Recomendado correrlo en un Mac mini 24/7. Solo para suscriptores Max ($200/mes). Fuente

Google AI Mode en Chrome + Gemini 3.1 Flash TTS + Gemini Desktop para Mac (16 abr): Triple release de Google. TTS en 70 idiomas con audio tags y scene direction, app nativa en Swift, y AI Mode integrado al browser. Fuente

DeepSeek mHC — Manifold-Constrained Hyper-Connections: Paper del arranque de año que analistas ya llaman "striking breakthrough". Extiende residual connections manteniendo múltiples streams de información con restricciones matemáticas — entrenamiento estable con solo 6-7% de overhead. Ripple effect garantizado. Fuente

Keep Reading