Leandro Latorre España

Ingeniero Informático | Arquitecto de IA y Soluciones | Principal Software Engineer
Circuitos digitales representando la verificación de razonamiento en sistemas de IA

Verify Before You Commit: Cómo SAVeR Enseña a los Agentes LLM a No Mentirse a Sí Mismos

SAVeR (Self-Audited Verified Reasoning) es un framework publicado el 9 de abril de 2026 y aceptado en ACL 2026 que resuelve un problema sutil pero crítico: los agentes LLM pueden razonar de forma coherente pero incorrecta, propagando creencias falsas a lo largo de decisiones complejas. SAVeR audita y repara los pasos intermedios antes de que el agente actúe.

April 11, 2026 · Leandro Latorre
Red colaborativa de humanos y agentes de IA trabajando en tareas compartidas

EpochX: La Infraestructura para una Civilización de Agentes de IA

EpochX propone una infraestructura de mercado nativo en créditos donde humanos y agentes de IA son participantes iguales: publican tareas, las reclaman, las ejecutan, y generan activos reutilizables. Un paper del 28 de marzo de 2026 que reencuadra la IA agentica como un problema de diseño organizacional, no solo tecnológico.

April 4, 2026 · Leandro Latorre
Puzzle abstracto — benchmark ARC-AGI-3 para inteligencia agentica

ARC-AGI-3: La IA Sigue Sin Poder Jugar

ARC-AGI-3, lanzado el 25 de marzo de 2026 por François Chollet y ARC Prize, lleva la evaluación de IA a entornos interactivos tipo videojuego donde los agentes deben explorar, inferir reglas y adaptarse sin ninguna instrucción. Resultado: los humanos resuelven el 100%. Los mejores modelos de frontera, el 0.26%. Premio de 2M$ para quien lo rompa.

March 28, 2026 · Leandro Latorre
Científica trabajando en laboratorio — gusto científico e IA

AI Can Learn Scientific Taste

Investigadores de Fudan University proponen RLCF (Reinforcement Learning from Community Feedback), un paradigma que entrena a la IA para desarrollar ‘gusto científico’: la capacidad de juzgar qué ideas de investigación tienen alto potencial de impacto, usando citas como señal de preferencia. El resultado supera a GPT-5.2 y Gemini 3 Pro.

March 22, 2026 · Leandro Latorre
Agente de IA aprendiendo mediante reinforcement learning

OpenClaw-RL: Aprendiendo de Cada Interacción en Tiempo Real

Princeton presenta OpenClaw-RL, un framework de aprendizaje por refuerzo asíncrono que permite a los agentes de IA aprender de señales del siguiente estado: respuestas de usuarios, outputs de herramientas, cambios en interfaces. Un paso hacia agentes que mejoran con el uso real.

March 16, 2026 · Leandro Latorre
Robot de seguridad representando agentes LLM comprometidos

Zombie Agents: Control Persistente de Agentes LLM Auto-Evolutivos

Un nuevo ataque persistente convierte agentes LLM auto-evolutivos en ‘zombies’ comprometidos al inyectar payloads maliciosos en su memoria a largo plazo, manteniendo control entre sesiones.

March 1, 2026 · Leandro Latorre
Representación visual de capas de una red neuronal procesando información

Think Deep, Not Just Long: Midiendo el Esfuerzo Real de Razonamiento en LLMs

Más tokens no significa mejor razonamiento. Este paper demuestra que lo que importa no es cuánto piensa un LLM, sino cómo: introduce los deep-thinking tokens y el DTR como métrica de esfuerzo real, con correlación positiva robusta frente al rendimiento.

February 28, 2026 · Leandro Latorre
Red neuronal y circuitos de seguridad en modelos de lenguaje

Jailbreaking the Matrix: Cómo Manipular LLMs desde sus Circuitos Internos

HMNS es el primer método de jailbreak que usa interpretabilidad mecanística y geometría de subespacios para manipular directamente los circuitos internos de seguridad de un LLM. Aceptado en ICLR 2026.

February 22, 2026 · Leandro Latorre
Intrinsic Stability Limits of Autoregressive Reasoning

Límites de Estabilidad del Razonamiento Autoregresivo: Por Qué los LLMs Fallan en Cadenas Largas

Este paper demuestra matemáticamente que el razonamiento autoregresivo tiene límites intrínsecos de estabilidad: la precisión decae exponencialmente con la longitud de la cadena, independientemente del tamaño del modelo.

February 14, 2026 · Leandro Latorre
AI Co-Scientist Multi-Agent Architecture

AI Co-Scientist: Google Redefine el Descubrimiento Científico con Agentes Multi-IA

Google presenta un sistema multi-agente basado en Gemini 2.0 que genera hipótesis científicas novedosas y ya ha descubierto tratamientos validados en laboratorio para fibrosis hepática.

February 9, 2026 · Leandro Latorre