Ir al contenido
Intermedio IA para desarrolladores Primeros modulos gratis tras iniciar sesion

Construcción de un agente de IA razonador con LlamaIndex: ReAct y Function Agent en Python

Taller para desarrolladores de nivel intermedio que quieren construir paso a paso en Python un agente razonador en LlamaIndex, comparar ReActAgent y FunctionAgent, aprender diseño de herramientas, depuración, guardrails y, al final, ensamblar el listado completo de un agente funcional.

8 horas 6 módulos Certificado

Curso práctico de taller que muestra cómo diseñar, implementar y poner en marcha desde cero un agente de IA razonador utilizando la biblioteca LlamaIndex. El participante recorrerá el proceso completo: desde la elección de la arquitectura del agente, pasando por la definición de herramientas en Python, el diseño de instrucciones del sistema, la gestión de memoria y estado, hasta las pruebas, el diagnóstico de errores y la construcción de una solución completa end-to-end. El curso contrapone deliberadamente dos enfoques respaldados por la documentación actual de LlamaIndex: FunctionAgent, preferido para modelos con function/tool calling nativo, y ReActAgent, útil cuando queremos un ciclo explícito reason-act o trabajamos con modelos sin function calling nativo. El taller se basa en patrones actuales de la documentación de LlamaIndex, donde los agentes se construyen con el paquete workflow, las herramientas pueden ser funciones normales de Python o QueryEngineTool, y el contexto arquitectónico más amplio se sitúa en Workflows orientados a eventos. Además del código, el curso explica por qué ciertas decisiones de diseño son correctas, qué errores aparecen con más frecuencia y cómo evitarlos en la práctica de producción.

Que aprenderas

  • Explicarás las diferencias entre ReActAgent y FunctionAgent y elegirás el tipo de agente adecuado según las capacidades del modelo LLM.
  • Construirás en Python un agente funcional de LlamaIndex basado en tus propias funciones-herramienta y en firmas y docstrings correctamente descritos.
  • Diseñarás la instrucción del sistema, las descripciones de las herramientas y el contrato de entrada/salida para que el agente elija con más frecuencia las acciones correctas.
  • Añadirás estado de conversación y contexto de ejecución usando mecanismos de workflow y aprenderás a controlar el flujo de razonamiento multietapa.
  • Diagnosticarás los errores más comunes: mala elección de herramienta, argumentos alucinados, bucles del agente, prompts demasiado amplios y descripciones de funciones poco claras.
  • Compararás artefactos completos before/after: herramientas, prompts y recorridos de decisión del agente mal diseñados y bien diseñados.
  • Integrarás herramientas funcionales con herramientas basadas en QueryEngineTool para que el agente pueda usar tanto la lógica de la aplicación como la capa de conocimiento.
  • Realizarás pruebas manuales y por escenarios del agente, añadirás registro de eventos y prepararás una checklist de calidad antes del despliegue.
  • Al final del curso ensamblarás un listado completo y funcional de todo el agente, junto con una explicación de cada sección del código y de las razones detrás de la arquitectura.

Requisitos

Conocimiento de Python a nivel intermedio, fundamentos del trabajo con APIs de modelos LLM, capacidad para ejecutar proyectos en virtualenv o uv, conocimiento básico de JSON y tipado de funciones. Será útil tener experiencia con prompt engineering y conocimientos básicos de RAG, pero el curso también guía paso a paso por las decisiones arquitectónicas. El participante debe tener configurado un entorno Python 3.10+ y una clave API del proveedor de modelo elegido.

Programa del curso

  • Caso de uso del curso: un agente de desarrollo que elige una herramienta, llama a una API y justifica el resultado
  • El stack actual de LlamaIndex para agentes: tools, Context, workflow e instrumentación
  • ReActAgent vs FunctionAgent en la práctica: tabla de decisiones, limitaciones de los modelos y coste de las malas elecciones
  • Artefacto de trabajo: matriz de selección ReAct vs FunctionAgent para 6 tipos de tareas
  • Quiz: reconocimiento de la arquitectura adecuada del agente en función de los requisitos del sistema
  • De una función Python común a FunctionTool: firma, docstring, tipos y contrato de entrada
  • Descripción débil vs. sólida de una herramienta: comparación de definiciones completas de tools before/after
  • Diseñar argumentos JSON sin trampas: enums, valores por defecto, campos opcionales y validación
  • Return_direct, formato de respuesta y cuándo una herramienta debe devolver datos en bruto en lugar de narración
  • Taller: preparación de una checklist de calidad de una herramienta y una plantilla de especificación para el repositorio
  • Quiz: identificación de errores en las definiciones de herramientas que provocan un mal tool calling
  • Configuración del proyecto: virtualenv o uv, estructura de carpetas, dependencias y configuración de claves API
  • Implementación de un conjunto común de herramientas: cálculo, obtención de datos desde API y una búsqueda local simple
  • Construimos ReActAgent: prompt de control, pasos Thought/Action y control de la respuesta final
  • Construimos FunctionAgent: tool calling nativo, Context y gestión del estado entre llamadas
  • El mismo problema, dos agentes: ejemplo trabajado completo desde la entrada hasta la salida con crítica de la respuesta
  • Quiz: qué fragmento de la implementación es responsable de la selección de la herramienta, el estado y el formato de la respuesta
  • Cómo streamear eventos y registrar el recorrido del agente: AgentInput, ToolCall, ToolCallResult y output
  • Errores típicos de ReActAgent: bucles de razonamiento, mala elección de herramienta y sobrescritura de la instrucción del sistema
  • Errores típicos de FunctionAgent: schema incompatible, argumentos incorrectos y serialización frágil de datos
  • Notebook de depuración: 5 fallos end-to-end y su reparación paso a paso con logs before/after
  • Artefacto de equipo: scorecard para evaluar respuestas del agente, llamadas a herramientas y calidad de las justificaciones
  • Quiz: diagnóstico de la fuente del error a partir del registro de ejecución
  • Límites de responsabilidad del agente: qué debe decidir el modelo y qué debe decidir el código duro de la aplicación
  • Memoria y estado en LlamaIndex: cuándo usar Context, cuándo aislar sesiones y cuándo reiniciar el historial
  • Guardrails para herramientas y respuestas: validación, retry, timeouts, fallbacks y mensajes de error seguros
  • Costo y latencia: cómo reducir el número de llamadas al modelo y a las herramientas sin perder calidad
  • Comparación de arquitecturas: agente único, agente con workflow y agente ligero sobre RAG
  • Quiz: selección de mecanismos de hardening para escenarios de producción concretos
  • Brief del proyecto: agente en Python para gestionar consultas operativas sobre APIs y herramientas locales
  • Elección de la arquitectura y plan de implementación: diagrama de flujo Mermaid, lista de herramientas y criterios de éxito
  • Implementación de MVP: recorrido completo desde el primer prompt hasta la respuesta funcional del agente
  • Pruebas de escenarios y regresión: conjunto de casos, resultados esperados y tabla de evaluación
  • Hardening review: checklist antes de producción, deudas técnicas y plan de siguientes iteraciones
  • Cuestionario final: selección de correcciones arquitectónicas basadas en los síntomas del mini-proyecto

Preguntas frecuentes

Aprenderás desde cero a construir un agente de IA razonador en Python utilizando LlamaIndex: desde la elección de la arquitectura, pasando por la definición de herramientas y prompts del sistema, hasta la gestión de memoria, estado, depuración y la puesta en marcha de una solución completa end-to-end.

Porque ambos enfoques son importantes en la práctica. La documentación actual de LlamaIndex indica que conviene preferir FunctionAgent para modelos que soportan function calling nativo, mientras que ReActAgent sigue siendo muy útil cuando importa una mayor universalidad del modelo y un flujo de acción explícito. Gracias a ello, el curso ayuda a entender no solo cómo construir un agente, sino también cuándo elegir cada enfoque.

Sí. El mercado se está moviendo rápidamente hacia sistemas agénticos: Gartner pronosticó que para finales de 2026 el 40% de las aplicaciones enterprise incluirá agentes de IA especializados, mientras que en 2025 era menos del 5%. Esto hace que la habilidad práctica de construir agentes con herramientas, memoria y control de flujo sea cada vez más valiosa.

Para programadores de Python, ingenieros de IA/ML, personas que construyen aplicaciones LLM y profesionales que quieren pasar de simples chatbots a agentes que ejecutan tareas usando herramientas, lógica de razonamiento y control de estado.

No. El curso guía paso a paso por los elementos más importantes del ecosistema necesarios para construir un agente. Sin embargo, será útil tener conocimientos básicos de Python y una comprensión general de cómo funcionan los modelos de lenguaje.

Es un curso de taller, orientado a la implementación y no a la teoría. En lugar de una visión general, obtienes un proceso de diseño, decisiones arquitectónicas concretas, trabajo con herramientas en Python, memoria y estado del agente, y métodos para diagnosticar errores en una solución real.

Construcción de un agente de IA razonador con LlamaIndex: ReAct y Function Agent en Python
67 EUR
34 EUR
Probar la vista previa
  • 8 horas
  • Intermedio
  • Certificado al terminar
  • Acceso inmediato tras la compra

Usamos cookies para ofrecer el mejor servicio. Detalles en la politica de cookies