⚡ Bit 1 — SpaceX se mete a la guerra del coding: $10B con Cursor hoy, opción de compra por $60B antes de fin de año
El 21 de abril SpaceX confirmó un acuerdo con Cursor que tiene dos escenarios y ninguno es chico: o paga $10.000 millones por el trabajo conjunto que ya arrancó, o ejerce una opción para comprar Cursor entera por $60.000 millones en algún punto de este año. El deal mete a Cursor a colaborar directo con Colossus, el supercomputador de SpaceX/xAI que —según la propia compañía— tiene capacidad de cómputo equivalente a un millón de H100 de Nvidia. Recordatorio de contexto: xAI fue absorbida por SpaceX en febrero de 2026, así que este movimiento es la primera jugada seria post-integración.
La razón por la que SpaceX no compra ya es puramente regulatoria: la IPO está a la vuelta de la esquina y un M&A de esta magnitud obligaría a actualizar filings y puede retrasar la salida a bolsa. Traducción: la opción de $60B existe básicamente para darle tiempo a los banqueros a cerrar la IPO sin ruido, mientras Cursor ya empieza a correr sus modelos sobre Colossus desde hoy.
El movimiento reacomoda el tablero de coding AI de forma brutal. Cursor venía de una valuación cercana a $30B a principios de 2026, y SpaceX está diciendo "vale el doble si la compro entera". Para Cursor, la contraparte práctica es acceso a compute que ni OpenAI ni Anthropic pueden ofrecer a ese nivel vertical integrado. Para OpenAI Codex (con sus 3M de devs semanales), Claude Code y Replit, es una señal clarísima: el coding agent entró en fase de consolidación financiera, ya no es territorio de startups vs startups, ahora son conglomerados comprando músculo.
Para LATAM, la noticia importa por el efecto cascada: si el ecosistema pro se concentra en jugadores acoplados a hyperscalers propietarios (SpaceX-Cursor, Microsoft-OpenAI, AWS-Anthropic), los equipos de la región que trabajan con modelos abiertos + IDEs open como Zed o Helix quedan mejor parados estratégicamente. La soberanía de stack deja de ser un lujo filosófico y pasa a ser una apuesta defensiva real.
🔗 Fuente: CNBC · TechCrunch · Bloomberg
⚡ Bit 2 — Google parte el TPU en dos: 8t para entrenar, 8i para inferir agentes — y los números son para detenerse
El 22 de abril Google anunció la octava generación de TPUs y rompió con la tradición de un solo chip para todo. Ahora son dos piezas con propósitos separados, diseñadas en conjunto con DeepMind:
TPU 8t (Training): superpod de hasta 9.600 chips, con 2 petabytes de HBM, doble de interchip bandwidth que Ironwood (la generación anterior), y 121 exaflops de FP4. El cómputo por pod casi se triplica. Google lo posiciona como "el chip para bajar el ciclo de desarrollo de un modelo frontier de meses a semanas". Introdujeron además TPUDirect RDMA (transferencia directa entre memoria y NIC) y TPU Direct Storage (DMA entre TPU y storage), que duplican el ancho de banda para movimientos masivos de datos — el cuello de botella real cuando entrenás modelos de 1T+ parámetros no es el compute, es el I/O.
TPU 8i (Inference): pod de hasta 1.152 chips, 331,8 TB de HBM total, 19,2 Tbps de scale-up bidireccional por chip, 11,6 exaflops de FP8. Está diseñado específicamente para "el trabajo intrincado, colaborativo e iterativo de múltiples agentes especializados" — léase: agentic workloads con latencia baja y throughput alto por query.
La lectura estratégica es que Google dejó de competir con Nvidia a nivel chip individual y pasó a competir a nivel sistema de entrenamiento/inferencia integrado vertical, aprovechando que DeepMind, la infraestructura y el software de Gemini están bajo el mismo techo. Es la misma jugada que Apple hizo con M-series contra Intel/AMD, pero para IA: ya no importa el FLOP/$ aislado, importa el FLOP/$ cuando el stack completo está optimizado fin-a-fin.
El 8i es el chip que más importa a mediano plazo. Si la era agentic se materializa —y todo apunta a que sí—, la inferencia va a ser el costo recurrente que mata márgenes. Un pod de 8i corriendo inferencia optimizada FP8 cambia la unit economics de un SaaS agentic de forma radical vs. alquilar H100s en AWS.
Para equipos LATAM que construyen sobre Vertex AI o GCP, la disponibilidad "later this year" significa que el pricing de inferencia de Gemini puede caer entre 30 y 50% cuando el 8i se despliegue — vale la pena no firmar contratos de compute anuales ahora y esperar al Q3.
🔗 Fuente: Google Blog · The Register · CNBC · Data Center Dynamics
⚡ Bit 3 — A Anthropic le hackearon Mythos, el modelo que ellos mismos dijeron que era "demasiado peligroso para liberar"
El 21 de abril se reportó que un grupo no autorizado accedió a Claude Mythos Preview, el modelo ofensivo de ciberseguridad que Anthropic había anunciado apenas el 7 de abril y que describió abiertamente como "demasiado peligroso para publicar". Mythos está entrenado para descubrir zero-days en sistemas operativos y navegadores mayores, y encadenar bugs en exploits multi-step de forma autónoma. O sea: no es ChatGPT haciendo ataques de juguete, es una herramienta ofensiva real.
El detalle más incómodo del incidente: el acceso se logró el mismo día del anuncio público, a través de un entorno de un proveedor tercero, y el grupo adivinó la URL basándose en los patrones de nomenclatura de Anthropic. Hubo participación —al menos parcial— de alguien que trabaja para un contratista tercero. El grupo está asociado a un canal de Discord que trackea modelos de IA no liberados y, según los reportes, venían usando Mythos regularmente.
Anthropic confirmó el incidente y dijo que no hay evidencia de que el acceso haya llegado a sus sistemas core ni escalado más allá del vendor environment. Eso está bien, pero no es lo importante. Lo importante es que un modelo que la propia compañía considera demasiado peligroso para liberar estuvo en manos equivocadas el día 1, y eso pone en cuestión toda la tesis de "acceso restringido como mecanismo de seguridad". Si el perímetro es un proveedor tercero con URLs adivinables, el perímetro no existe.
El episodio va a acelerar tres cosas: (1) reguladores pidiendo auditorías obligatorias a vendors de AI labs, (2) frameworks de access control estilo zero-trust específicos para pesos de modelos frontier, (3) un debate público incómodo sobre si tiene sentido siquiera entrenar modelos que "no deberían existir en producción". La postura de "lo hacemos para investigar defensas" aguanta mientras no se filtre. Ya no aguanta.
Para LATAM, la lectura es defensiva: si Mythos o análogos circulan en canales semi-públicos, los equipos de seguridad de bancos, fintechs y agencias gubernamentales de la región necesitan asumir que el ataque asistido por IA ya está en el ring. Red team interno con modelos ofensivos, SOC 24/7 con detección de exploit chains automatizados, y threat intel feeds actualizados dejan de ser nice-to-have y pasan a ser baseline.
🔗 Fuente: Bloomberg · TechCrunch · Euronews · Anthropic Red
⚡ Bit 4 — México va por su primera ley de IA con cárcel incluida — y la redacción es un problema real
Esta semana el Senado de México presenta al pleno la primera iniciativa nacional para regular la IA, resultado de 16 meses de trabajo de la Comisión especializada, con 72 especialistas consultados y liderada por el senador Rolando Zapata. La arquitectura institucional es ambiciosa: crea la Autoridad Nacional de IA, una Estrategia Nacional, un Fondo Nacional para el Desarrollo de IA, un Sistema Nacional de Certificación, y un Registro Nacional de Sistemas de IA de carácter público. Y sí, incluye penas de prisión por las faltas más graves.
El lado luminoso: prohíbe explícitamente deepfakes sexuales sin consentimiento (con cero tolerancia cuando involucran menores, ninguna autorización vale), manipulación cognitiva sin consentimiento, social scoring discriminatorio, identificación biométrica masiva en espacios públicos sin orden judicial, vigilancia conductual sin base legal, sistemas letales autónomos fuera de marcos legales, y reconocimiento emocional sin base científica en ámbitos laborales o educativos. Crea además tres tiers de infracciones —leves, graves y "gravísimas"— y las gravísimas pueden ir a penal.
El lado problemático, que es mayor: la redacción es vaga en los puntos que más importan. La periodista Laura Brugés y la investigadora Mariana Benavides lo resumen fuerte: no se define "manipulación", no se distingue desinformación maliciosa de crítica política legítima, no se exige dolo específico contra la democracia, y la Autoridad Nacional queda facultada para clasificar nuevos sistemas como "de alto riesgo" de forma unilateral. Benavides la llamó "un caballo de Troya autoritario". Zapata rechazó la lectura y aseguró que la ley "no limita la libertad de expresión" y que el borrador aún puede modificarse en los próximos meses.
La comparación obvia es el EU AI Act, que también tiene categorías de riesgo pero con definiciones técnicas mucho más estrictas y con la CJEU como contrapeso judicial. En México, la combinación de (a) tipos penales con términos elásticos, (b) una autoridad ejecutiva con facultad de prohibir, y (c) registros públicos de sistemas usados por el gobierno federal, abre un espacio legal donde un gobierno hostil podría usar la ley contra periodismo de datos, OSINT o herramientas de verificación de hechos simplemente clasificándolos como "manipulación cognitiva".
Para quien construye con IA en México: esto no es un ejercicio académico. Si desarrollás herramientas de análisis de redes, verificación de deepfakes, scraping de datos públicos, o agentes autónomos para tareas sensibles (salud, finanzas, seguridad), necesitás seguir el trámite legislativo de cerca esta semana y meter comentarios públicos. La ley "aún puede modificarse" — aprovechar esa ventana es el trabajo cívico del momento.
🔗 Fuente: Wired en Español
🎁 EXTRA — ChatGPT Images 2.0: OpenAI mete "thinking mode" al dibujo, y cambia lo que significa generar imágenes con IA
El 21 de abril OpenAI liberó ChatGPT Images 2.0, su reemplazo total para la línea DALL-E (que se retira el 12 de mayo de 2026). El modelo subyacente es gpt-image-2 y la novedad no es cosmética — es la primera vez que un generador de imágenes mainstream trae razonamiento explícito antes de renderizar. Desglose para quien lo va a usar en serio:
Dos modos de generación: Instant y Thinking. El modo Instant es lo que esperás: prompt in, imagen out, rápido. El modo Thinking gasta compute extra planificando la composición, contando objetos y verificando constraints antes de empezar a dibujar. En la práctica esto mata el problema clásico de "pedí 5 personas y salieron 7", o "pedí un diagrama con estas 4 etiquetas y mezcló los nombres". OpenAI lo describe como el modelo "pensando sobre el brief", y el beneficio real es medible: menos rerolls, menos edición manual, más resultados usables en primera pasada.
Resolución 2K y aspect ratios 3:1 a 1:3. Hasta ahora los generadores mainstream se quedaban en ~1024px de lado largo con upscaling post-hoc. Dos kilos nativos cambia el caso de uso: ya sirve para print editorial, banners web full-HD, y thumbnails que no pixelan al zoomear. Los ratios extendidos le dan aire a formatos verticales tipo story y horizontales tipo hero banner sin tener que hackear el prompt.
Hasta 8 imágenes coherentes en una sola generación. Este es el feature silencioso que más va a mover la aguja para diseñadores y equipos de marketing. Pedís 8 imágenes con el mismo personaje y los mismos objetos desde distintos ángulos o en distintas escenas, y el modelo mantiene consistencia. Es el workflow para storyboards, cómics, decks con secuencias visuales, y carruseles de IG/TikTok. MidJourney venía liderando acá; OpenAI se puso al día en una sola release.
Texto renderizado limpio, incluyendo scripts no-latinos. Logos, captions, etiquetas pequeñas, y scripts como japonés, coreano, chino, hindi y bengalí ahora salen legibles sin edición manual. Eso habilita uso directo en packaging, mockups de UI y campañas multi-región — antes necesitabas redraw en Photoshop.
Integración nativa en Codex. Esto es lo que muchos medios no están destacando suficiente: gpt-image-2 está incrustado dentro del IDE de OpenAI. Un dev puede generar, iterar y comparar imágenes sin salir del editor, sin API key separada, usando su suscripción de ChatGPT. El render loop "código → screenshot → imagen nueva → código" ahora vive en un solo lugar. Para cualquiera que haga frontend, game dev o product design, esto es una reducción de fricción enorme.
Distribución por tier: Free se lleva el modelo base gpt-image-2. Plus, Pro y Business desbloquean thinking mode, runs de razonamiento más largos, y web search dentro de la generación (el modelo puede buscar referencias visuales en tiempo real antes de dibujar).
Lectura editorial: el movimiento de OpenAI no es competirle a MidJourney a nivel de "qué imagen sale más bonita", sino poner imágenes en el mismo plano que código y texto dentro del agente unificado. Images 2.0 + Codex + memory + automations no es "un generador de imágenes mejor" — es un sistema operativo creativo donde la imagen es un tipo de output más, tratable programáticamente. Para equipos de producto y creative en LATAM, la implicación práctica es que el stack "MidJourney + ChatGPT + editor aparte" deja de tener sentido. Consolidar en Codex ahorra tiempo real y mejora el ciclo de iteración. La tradeoff sigue siendo la misma del Bit 1: o te metés de lleno en el ecosistema cerrado de OpenAI con toda la velocidad de feature, o mantenés stack abierto a costa de integración.
🔗 Fuente: OpenAI · The New Stack · PetaPixel · Interesting Engineering
🔗 Links Rápidos
→ Meta va a grabar clics, keystrokes y mouse movements de sus empleados en EE.UU. para entrenar agentes (21 abr): El programa se llama Model Capability Initiative (MCI) y captura screenshots ocasionales además de inputs. Meta dice que no se usa para performance review, pero sí alimenta el pipeline de training de agentes que hagan "tareas cotidianas de computadora". Chocará con GDPR en EU y con CCPA + leyes estatales en California. El precedente es preocupante: si Meta puede hacerlo con empleados, el próximo paso lógico es pedir lo mismo a usuarios de Meta Quest o Ray-Ban Meta. Fuente · Fortune
→ AstraZeneca absorbe Modella AI para oncología (anunciado en JPM26, cerrando ahora): Multi-modal foundation models + agentes para aceleración clínica, descubrimiento de biomarcadores y R&D oncológico. Monto no disclosed. El verdadero prize, según analistas, no son las moléculas sino los biomarkers — la data que Modella venía generando en el partnership previo es el activo que AZ quiere internalizar. Precedente fuerte: es el primer "big pharma compra AI lab" post-GPT-5. Fuente · OncoDaily
→ Tendencia clave abril 2026 — La era de los agentes autónomos se come a la IA generativa básica: El foco del sector se movió de "modelos que generan" a "agentes que ejecutan". Bancos, firmas legales y corporativos de LATAM están saltando directo de pilotos con chatbots a agentes con capacidad de acción en CRM, ERP y sistemas internos. Si todavía estás vendiendo o comprando "un asistente que responde preguntas", ya estás atrasado un ciclo.
bitneuronal se escribe desde LATAM, para equipos que construyen con IA de verdad. Si te lo reenviaron y querés recibirlo cada día, suscribite. Si ya estás suscrito, compartilo con alguien que lo necesite.
Dudas, sugerencias o noticias que se nos escaparon: respondé a este correo.
Hasta mañana.