Bit 1 — Anthropic lanza Claude Opus 4.7: más código, más visión, y le quitan lo peligroso a propósito

Anthropic lanzó hoy Claude Opus 4.7, disponible ya en la API (claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry. Los números: 13% mejor en un benchmark de 93 tareas de coding vs. Opus 4.6, 21% menos errores en razonamiento sobre documentos empresariales, y 10-15% de mejora en workflows complejos de agentes. En visión, ahora acepta imágenes de hasta 2,576px en el lado largo (~3.75 megapíxeles) — más de 3x la capacidad anterior. Para agentes de computer use que leen screenshots densos, esto es un salto real.

Novedades técnicas: un nuevo nivel de esfuerzo xhigh para control fino entre profundidad de razonamiento y latencia, mejor seguimiento literal de instrucciones, y verificación de outputs antes de reportar. Lo más interesante está en lo que le quitaron: las capacidades de ciberseguridad ofensiva fueron intencionalmente reducidas durante el entrenamiento — parte de la estrategia post-Mythos. Los profesionales de seguridad pueden unirse al Cyber Verification Program para usos legítimos como pentesting.

Precio: $5/millón input tokens, $25/millón output tokens — sin cambio vs. Opus 4.6.

Anthropic está jugando dos partidas simultáneas. Con Mythos/Glasswing retiene el modelo que encuentra zero-days solo; con Opus 4.7 sube el estándar del modelo que sí puedes usar. La decisión de reducir capabilities cyber durante training es la nueva normalidad: entrenar modelos poderosos menos lo que no quieres que hagan. Bienvenidos al fine-tuning por sustracción.

Bit 2 — Stanford AI Index 2026: China cerró el gap, la confianza pública se desploma, y los modelos no saben leer un reloj

Stanford HAI publicó el AI Index Report 2026 y es el reality check que necesitamos. En performance de modelos, China prácticamente eliminó la ventaja de EE.UU. — el modelo líder de Anthropic solo lleva 2.7% de ventaja y se han turnado el primer lugar varias veces desde 2025. En SWE-bench Verified, los scores pasaron de 60% a casi 100% en un solo año. Los frontier models ya superan baselines humanos en ciencia a nivel PhD y matemáticas de competencia.

Pero los datos que importan de verdad: la confianza pública se hunde. Solo el 23% de la población ve el impacto de AI en el mercado laboral como positivo (vs. 73% de los expertos). El Foundation Model Transparency Index cayó de 58 a 40 puntos — las empresas son menos transparentes que antes. El 80% de estudiantes en EE.UU. ya usan AI para tareas escolares, pero solo el 6% de profesores dicen tener políticas claras. Y la joya: modelos que ganan medallas de oro en la Olimpiada Internacional de Matemáticas solo pueden leer un reloj analógico el 50.1% del tiempo. Stanford lo llama "jagged frontier" — inteligencia dentada.

Dato extra: la adopción de generative AI alcanzó 53% de la población en solo 3 años — más rápido que la PC o el internet.

Los modelos son brutalmente capaces en lo que fueron entrenados, pero el público no confía, las empresas no son transparentes, y las escuelas van sin mapa. La brecha entre capacidad técnica y preparación social ya no es un gap — es un abismo. Y para LATAM, donde la adopción va más lento y los marcos regulatorios ni existen, la ventana para prepararse se cierra rápido.

Bit 3 — UNESCO lanza el primer Observatorio de AI en Educación para Latinoamérica (mientras la región invierte fuerte en AI para vigilancia)

La UNESCO lanzó el Observatorio de Inteligencia Artificial en Educación para América Latina y el Caribe desde la sede de la CEPAL en Santiago de Chile, en el marco del Foro de Desarrollo Sostenible 2026. Es un proyecto de 3 años respaldado por CAF, CENIA (Chile), Fundación CEIBAL, Tec de Monterrey, y el IRCAI, entre otros. El objetivo: orientar políticas públicas, fortalecer capacidades institucionales y promover un uso ético de AI en los sistemas educativos de la región. Incluye una encuesta regional sobre cómo se usa AI en escuelas, su efecto en alumnos y la labor docente.

Mientras tanto, en São Paulo se celebra la feria LAAD, donde 140 empresas de 22 países exhiben soluciones de AI para seguridad y defensa — drones autónomos de Shield AI con 12 horas de autonomía, la plataforma IndraMind de Indra para control fronterizo con AI, y sistemas de reconocimiento facial. La UNESCO además advirtió que la AI está impidiendo el desarrollo del pensamiento crítico en niños y jóvenes de América Latina.

Dos caras de la misma moneda. UNESCO empuja AI para educación y advierte sobre sus riesgos cognitivos en menores, mientras la región invierte agresivamente en AI para vigilancia y defensa. El balance entre estas dos prioridades va a definir qué tipo de adopción tecnológica tiene LATAM — y francamente, ahora mismo la seguridad le lleva años de ventaja a la educación. Para quienes construimos herramientas de AI en la región, el dato de la UNESCO sobre pensamiento crítico es una señal: no basta con hacer tech que funcione, hay que pensar en qué le hace a quien la usa.

🔗 Links Rápidos

PwC: 74% del valor de AI va al 20% de las empresas. Su Global AI Performance Study 2026 muestra que las líderes generan 7.2x más ganancias por AI que el promedio. La clave no es eficiencia sino reinvención del modelo de negocio. Fuente

Nature: Humanos superan a agentes AI en tareas científicas complejas. Los mejores agentes rinden la mitad que expertos con PhD. Los robots logran solo 12% en tareas domésticas. La "inteligencia dentada" es real. Fuente

Project Glasswing bajo escrutinio. The Register reporta que los CVEs encontrados por Claude Mythos Preview siguen sin números concretos. Anthropic comprometió $100M en créditos, pero la comunidad de seguridad pide transparencia. Fuente

Eso es todo por hoy

— BitNeuronal

Keep Reading