Los LLM no son agentes: entendiendo la diferencia fundamental
By:César Medina
Contact: cesar.medina@innovox.com.br
- Lectura en 6 minutos - 1081 palabrasArtículo 2 de la Serie de IA con Agentes: Sistemas que Perciben, Deciden y Actúan
< Artículo anterior | Seguiente Artículo >
Muchos equipos asumen que, una vez que integran un modelo de lenguaje complejo, ya han creado un agente. Esto no es así. Y este malentendido causa problemas reales. Conduce a sistemas frágiles, requisitos de automatización que se pasan por alto y proyectos que fracasan en cuanto el “agente” llega al tercer paso de una tarea.
Antes de construir nada, es útil tener claro qué es un modelo de lenguaje complejo y qué no lo es.
Qué es un modelo de lenguaje complejo
En esencia, un modelo de lenguaje complejo es una función matemática.
Recibe texto como entrada, lo procesa mediante un conjunto masivo de parámetros y produce texto como salida.
En una sola interacción, puede realizar un trabajo impresionante. Puede resumir, traducir, escribir código, estructurar ideas y reconocer patrones. La calidad de la salida puede ser sorprendentemente alta.
La limitación no reside en lo que puede hacer, sino en lo que no puede hacer por sí solo.
Por defecto, un modelo de lenguaje complejo:
- No recuerda nada entre llamadas. Cada interacción comienza desde cero.
- No toma acción. Puede describir qué hacer, pero no lo hará.
- No tiene objetivos continuos. Reacciona en lugar de trabajar para lograr algo.
- No se revisa en función de los resultados reales.
En pocas palabras, un LLM es un potente motor de lenguaje, pero no opera a lo largo del tiempo.
Qué no es un agente (Errores comunes)
Actualmente, existe mucha terminología imprecisa en el mercado. Algunas configuraciones son útiles, pero no son agentes.
- RAG (Generación Aumentada por Recuperación) proporciona al modelo más contexto y luego responde. Útil, pero sigue siendo una sola respuesta.
- El encadenamiento de indicaciones conecta varias indicaciones en secuencia. Es un proceso que usted controla, no algo que el modelo gestiona.
- El ajuste fino modifica lo que el modelo sabe, no cómo se comporta como sistema.
- Las aplicaciones de chat con complementos pueden parecer agentes, pero la interfaz no define su arquitectura.
La diferencia radica en cómo se construye el sistema, no en su apariencia.
¿Qué convierte un LLM en un agente?
Un agente se obtiene al integrar un LLM en un sistema que completa sus funcionalidades.
La clave reside en el entorno.
Un agente interactúa con algo: archivos, API, bases de datos, la web o herramientas internas. Ese entorno es lo que puede observar y modificar. En la IA clásica, los agentes siempre se definen en relación con su entorno. Ignorar esto da lugar a sistemas que parecen capaces, pero que fallan en la práctica.
Para construir un agente, se necesitan algunos elementos esenciales.
1. Bucle de ejecución
Un LLM responde una vez y se detiene. Un agente continúa su ejecución.
Un bucle simple se ve así:
percibir → razonar → actuar → observar → repetir
En código:
while not goal_achieved:
context = perceive(environment)
thought = llm(context)
action = decide(thought)
result = execute(action)
update_memory(result)
Cada ciclo incorpora nueva información, toma una decisión, realiza una acción y registra lo sucedido.
Sin este bucle, se obtiene una respuesta. Con él, se obtiene un proceso.
2. Memoria
Los LLM no retienen información a menos que se les retroalimente.
Los agentes necesitan memoria estructurada, generalmente dividida en capas:
- Memoria a corto plazo: lo que está sucediendo en el momento actual de la tarea.
- Memoria a largo plazo: datos almacenados entre sesiones.
- Memoria episódica: historial de acciones y resultados.
Sin memoria, el sistema se reinicia constantemente. Con memoria, construye contexto a lo largo del tiempo y evita repetir errores.
3. Herramientas
Las herramientas permiten que un agente realice tareas.
Son funciones que el modelo puede solicitar. El sistema las ejecuta y devuelve el resultado.
Ejemplos:
| Herramienta | Propósito |
|---|---|
| search_web | Obtener información actualizada |
| read_file | Acceder al contenido de un archivo |
| run_code | Ejecutar código |
| call_api | Interactuar con servicios externos |
| query_database | Recuperar datos estructurados |
| send_email | Enviar mensajes |
Un detalle importante: el modelo no debe ejecutar directamente estas acciones.
Una capa de control debe actuar como intermediaria, validando las solicitudes, aplicando los permisos y gestionando los errores. El modelo sugiere qué hacer. El sistema decide si se realiza y cómo.
Esta separación aumenta la seguridad y facilita la gestión.
4. Planificación
Un modelo de aprendizaje automático (LLM) responde a una pregunta. Un agente divide un objetivo en pasos.
Por ejemplo: «Analizar las ventas del último trimestre y redactar un informe» se convierte en: obtener datos → calcular métricas → identificar tendencias → redactar → verificar.
Existen varias formas de gestionar la planificación:
- Planificación estática: definir todo de antemano.
- Planificación dinámica: decidir el siguiente paso sobre la marcha.
- Planificación jerárquica: distribuir el trabajo entre varios agentes.
El enfoque adecuado depende de la previsibilidad de la tarea.
Más planificación no siempre es mejor. Los planes extensos pueden quedar obsoletos rápidamente y aumentar los costos. En muchos casos, avanzar paso a paso funciona mejor.
Comparación directa
| Artículo | LLM | Agente |
|---|---|---|
| Estado entre llamadas | ✗ | ✓ |
| Realiza acciones reales | ✗ | ✓ |
| Tiene objetivos continuos | ✗ | ✓ |
| Se adapta según los resultados | ✗ | ✓ |
| Conserva la memoria | ✗ | ✓ |
| Planifica pasos | ✗ | ✓ |
| Completa tareas reales | Limitado | Fuerte |
Una analogía
Imagina un cerebro brillante aislado. Puede pensar con claridad y resolver problemas, pero carece de sentidos, de capacidad de acción y de memoria de experiencias pasadas. Cada vez que empieza a pensar, parte de cero.
Ese es un LLM (Lenguaje Mental de Aprendizaje).
Ahora conecta ese cerebro a sensores, herramientas, memoria y un bucle que lo mantiene interactuando con el mundo.
Ese es un agente.
La inteligencia no ha cambiado. Lo que ha cambiado es la capacidad de actuar.
Conclusión
Un modelo de lógica de negocio (LLM) es un componente. Un agente es un sistema construido a su alrededor.
El modelo proporciona el razonamiento. La arquitectura circundante le otorga la capacidad de operar en el mundo real.
Así que, cuando veas algo etiquetado como “agente de IA”, no te centres en el modelo que utiliza.
Observa el sistema que lo rodea.
Ahí es donde suele surgir el acierto o el error.
En los próximos artículos, analizaremos cómo implementar el bucle, la memoria, las herramientas y la planificación en la práctica.
Este es el segundo artículo de una serie sobre IA con agentes: sistemas que perciben, deciden y actúan. Es lo suficientemente técnico para desarrolladores, pero accesible para quienes se inician en este campo.
< Artículo anterior | Seguiente Artículo >
Equipo de ingeniería de InnoVox
Ingenieros especializados en la creación de sistemas de IA confiables