⚡ Bit 1 — NVIDIA suelta dos modelos open en un mismo día: Nemotron 3 Nano Omni y la versión comercial de Isaac GR00T
El 28 de abril NVIDIA hizo un doble drop que pasa por debajo del radar mediático y vale la pena mirar de cerca. Por un lado, Nemotron 3 Nano Omni: un modelo open multimodal con arquitectura 30B-A3B hybrid mixture-of-experts, 256K de contexto, y procesamiento unificado de texto, imágenes, audio, video, documentos, charts e interfaces gráficas en un solo sistema. NVIDIA reporta 9x más throughput que otros modelos open omni con la misma interactividad, y lidera 6 leaderboards en document intelligence y audio-video understanding. Disponible vía Hugging Face, OpenRouter, build.nvidia.com como NIM, y +25 plataformas partner. Corre desde Jetson y DGX Spark hasta cloud completo.
Por el otro, Isaac GR00T N1.7 dejó de ser preview técnico y pasó a "comercialmente viable para deployment real". Es un modelo VLA (Vision-Language-Action) de 3B parámetros con arquitectura dual: System 2 es un VLM que hace razonamiento alto nivel, System 1 es un Diffusion Transformer que toma la salida del VLM más el estado del robot en vivo y la convierte en comandos motores precisos en tiempo real. NVIDIA además mostró preview de GR00T N2, que duplica la tasa de éxito en tareas y entornos nuevos respecto a los mejores VLA del mercado. Adopters confirmados: Humanoid, LG Electronics, NEURA y Noble Machines.
Lo que une las dos releases es la apuesta de fondo: NVIDIA ya no intenta competir con OpenAI o Anthropic en el modelo de chat más grande. Está construyendo el stack open de modelos especializados que sus clientes industriales necesitan para construir agentes y robots reales sobre infra Nvidia. Es jugada de plataforma: si quieres operar agentes multimodales o humanoides en producción, el camino "más barato y rápido" pasa por estos modelos open + GPUs Nvidia.
Para LATAM, Nemotron 3 Nano Omni es probablemente la opción más interesante del mes para equipos que quieran montar agentes multimodales sin pagar APIs cerradas. Un equipo de ingeniería en Medellín o Querétaro puede correrlo en una workstation con GPU decente, procesar PDFs, voz, video y screens al mismo tiempo, y construir un agente vertical para banca, salud o logística sin depender de OpenAI ni Anthropic. Y para los labs universitarios de robótica de la región, Isaac GR00T N1.7 con licencia open es el regalo que faltaba: el modelo VLA de referencia ya no requiere acuerdos comerciales para investigarlo.
⚡ Bit 2 — La fuga de DeepMind se confirma: Ineffable Intelligence cierra el seed más grande de Europa con $1.1B
El 27 de abril David Silver salió de stealth con Ineffable Intelligence y un seed round de $1.1 mil millones a una valuación de $5.1 mil millones. Es el seed más grande en la historia de Europa. Lo lideraron Sequoia y Lightspeed, con participación de Nvidia, Google, Index Ventures, DST Global, British Business Bank y el Sovereign AI Fund del Reino Unido.
¿Quién es Silver y por qué importa? Lideró por más de una década el equipo de reinforcement learning de DeepMind. Fue el cerebro detrás de AlphaGo, AlphaZero y AlphaStar — los sistemas que demostraron por primera vez que una IA puede aprender capacidades superhumanas sin datos humanos, solo a través de auto-juego. La tesis de Ineffable es la extensión natural de eso: construir un "superlearner" que descubra todo el conocimiento desde su propia experiencia, desde habilidades motoras elementales hasta breakthroughs intelectuales profundos. Su frase de misión, sin filtro: "hacer primer contacto con la superinteligencia".
Y no está solo. Recursive Superintelligence, fundada hace cuatro meses por Tim Rocktäschel (también ex-DeepMind), Richard Socher (ex-chief scientist de Salesforce) y un equipo con ex-OpenAI (Josh Tobin, Jeff Clune, Tim Shi), cerró $500M a $4B pre-money con GV y Nvidia liderando, y la ronda quedó tan oversuscripta que podría llegar a $1B. Su objetivo: automatizar el pipeline completo de desarrollo de IA frontier — evaluación, selección de datos, training, post-training y dirección de research — sin intervención humana.
Dos lecturas. La primera es de mercado de talento: Big Tech está siendo un balde con agujeros. Los investigadores que más entienden cómo construir AGI están saliendo de DeepMind, OpenAI y Salesforce a fundar sus propias compañías porque (a) los inversores les firman cheques de nueve cifras sin métricas y (b) creen que la próxima ola de breakthroughs viene de tesis específicas (RL puro, self-improvement recursivo) que los labs grandes no priorizan. La segunda es de enfoque técnico: ambas startups están apostando contra la tesis dominante de "más datos + más compute + arquitectura transformer estándar". Apuestan a que la inteligencia emerge de la experiencia, no del corpus. Si tienen razón, los próximos 24 meses van a ser brutales para los datasets curados a costa de billones.
Para LATAM la implicación es indirecta pero importante. Si la frontera vuelve a moverse hacia modelos que aprenden por experiencia y no por scraping de internet, la asimetría de datos entre el norte y el sur global empieza a importar menos. Un lab universitario en São Paulo o Bogotá con acceso a un entorno de simulación bien diseñado puede competir en research donde antes hacía falta acceso a Common Crawl + 10 mil GPUs. La frontera open de RL es el espacio donde la región todavía puede meter goles.
🔗 Fuente: TechCrunch · CNBC · The Decoder (Recursive Superintelligence)
⚡ Bit 3 — Avoca llega a unicornio vendiendo agentes de voz para plomeros y técnicos de aire acondicionado
El 27 de abril Avoca anunció que cerró más de $125 millones combinados entre Seed, Serie A y Serie B, llegando a una valuación de $1 mil millones. La Serie B la lideraron Meritech y General Catalyst, la Serie A la lideró Kleiner Perkins, y completan la cap table Amplify Partners, Nexus Venture Partners y Y Combinator. Lo que vende Avoca: un agente de voz vertical para plomería, HVAC, eléctrica, control de plagas, puertas de garage y construcción. Es decir, los oficios que hasta hace 12 meses nadie consideraba "industrias compradoras de IA enterprise".
El producto tiene tres módulos: Convert (responde 100% de las llamadas, textos y chats; agenda trabajos 24/7), Nurture (campañas de SMS y voz outbound para reactivar clientes y llenar la agenda), y Coach (scoring de llamadas en tiempo real para identificar oportunidades perdidas y dar visibilidad al gerente). Integra nativo con ServiceTitan (estatus Gold Partner) y ya sirve a más de 1.000 negocios de servicios. La métrica más impactante que Avoca declara: está en camino a bookear $1 mil millones en trabajos contratados este año.
La lectura editorial es importante: un plomero en Phoenix hoy es cliente enterprise de IA. Eso suena chiste pero no lo es. La narrativa dominante del último año fue "el value de la IA está en deals de mil millones con farmacéuticas, bancos y gobiernos". Avoca demuestra la tesis opuesta: el ROI más limpio de IA agentic está en negocios fragmentados con alto volumen de transacciones simples donde el humano que hoy contesta el teléfono es el cuello de botella. La economía de servicios en EE.UU. mueve trillones, y nadie había construido el tooling vertical específico para capturarlo.
Para LATAM la oportunidad es directa y casi obvia. La economía de servicios en México, Colombia, Argentina, Brasil o Chile es igual o más grande proporcionalmente que la de EE.UU., y está aún más fragmentada y menos digitalizada. Hay espacio para construir el "Avoca regional" para taxis, fontaneros, electricistas, mecánicos, peluquerías, lavanderías y delivery. La barrera técnica baja todos los meses (con Nemotron 3 del Bit 1, por ejemplo, podrías construirlo open source). La barrera real es sales y go-to-market vertical: hay que entender el negocio del electricista, no el negocio de la IA. El equipo que combine ambas cosas captura un mercado que nadie está mirando.
🔗 Fuente: Avoca Blog · Fortune · PR Newswire
🔗 Links Rápidos
→ Vulnerabilidad crítica en LeRobot de Hugging Face (CVE-2026-25874): Investigadores de seguridad publicaron una RCE no autenticada en el pipeline de inferencia de LeRobot, la plataforma open source de robótica de HF, vía deserialización insegura. Si tu equipo está experimentando con robots usando LeRobot, parchear hoy es prioridad. Es un recordatorio incómodo: la robótica open hereda toda la deuda de seguridad de Python ML.
→ Solo el 43% de las organizaciones tiene una política formal de gobernanza de IA, mientras el spending enterprise proyecta $665 mil millones en 2026: El gap entre adopción y gobernanza es la deuda técnica regulatoria más grande del sector. Para CTOs en LATAM: si vas a desplegar agentes con capacidad de acción real, el documento de gobernanza no es opcional, es el ítem que tu auditor te va a pedir primero.
→ Hannover Messe 2026 muestra humanoides para tareas industriales reales: Ensamblaje, logística y operaciones de planta. La industria pasó de demos de marketing a casos de uso productivos en menos de 18 meses. Para manufactura en México (Bajío, Monterrey) y Brasil, la conversación con tu integrador industrial sobre humanoides empieza este trimestre, no el año que viene.
→ OpenAI Workspace Agents (lanzado el 22 de abril): El sucesor explícito de los Custom GPTs para organizaciones, powered by Codex, corre en cloud y se conecta nativo a Slack, Google Drive, Microsoft 365, Salesforce, Notion y Atlassian Rovo. Si tu compañía paga ChatGPT Enterprise, esto reemplaza tu librería interna de GPTs custom esta semana.
→ Dato del día: $18.8 mil millones de capital riesgo se metieron en startups de IA fundadas desde inicios de 2025, en camino a superar los $27.9B que captaron las del cohort 2024. La velocidad del capital sigue acelerando, no normalizando.
bitneuronal se escribe desde LATAM, para equipos que construyen con IA de verdad. Si te lo reenviaron y quieres recibirlo cada día, suscríbete. Si ya estás suscrito, compártelo con alguien que lo necesite.
Dudas, sugerencias o noticias que se nos escaparon: responde a este correo.
Hasta mañana.