Construction d’un agent IA de raisonnement avec LlamaIndex : ReAct et Function Agent en Python
Atelier pour développeurs de niveau intermédiaire qui souhaitent construire pas à pas en Python un agent de raisonnement dans LlamaIndex, comparer ReActAgent et FunctionAgent, apprendre la conception d’outils, le débogage, les garde-fous, puis assembler à la fin un listing complet d’un agent fonctionnel.
Cours pratique sous forme d’atelier montrant comment concevoir, implémenter et exécuter de zéro un agent IA de raisonnement à l’aide de la bibliothèque LlamaIndex. Le participant suivra l’ensemble du processus : du choix de l’architecture de l’agent à la définition d’outils en Python, en passant par la conception des instructions système, la gestion de la mémoire et de l’état, jusqu’aux tests, au diagnostic des erreurs et à l’assemblage d’une solution complète de bout en bout. Le cours met volontairement en regard deux approches prises en charge par la documentation actuelle de LlamaIndex : FunctionAgent, privilégié pour les modèles disposant d’un function/tool calling natif, et ReActAgent, utile lorsque l’on souhaite un cycle reason-act explicite ou que l’on travaille avec des modèles sans function calling natif. L’atelier s’appuie sur les modèles actuels de la documentation LlamaIndex, où les agents sont construits à partir du package workflow, les outils peuvent être de simples fonctions Python ou des QueryEngineTool, et le contexte architectural plus large est inscrit dans des Workflows pilotés par événements. Au-delà du code lui-même, le cours explique pourquoi certaines décisions de conception sont correctes, quelles erreurs apparaissent le plus souvent et comment les éviter en pratique de production.
Ce que vous apprendrez
- Vous expliquerez les différences entre ReActAgent et FunctionAgent et choisirez le type d’agent adapté aux capacités du modèle LLM.
- Vous construirez en Python un agent LlamaIndex fonctionnel basé sur vos propres fonctions-outils ainsi que sur des signatures et docstrings correctement décrites.
- Vous concevrez l’instruction système, les descriptions des outils et le contrat d’entrée/sortie afin que l’agent choisisse plus souvent les bonnes actions.
- Vous ajouterez l’état de conversation et le contexte d’exécution à l’aide des mécanismes de workflow et apprendrez à contrôler le déroulement d’un raisonnement en plusieurs étapes.
- Vous diagnostiquerez les erreurs les plus fréquentes : mauvais choix d’outil, arguments halluciné́s, boucles d’agent, prompts trop larges et descriptions de fonctions peu lisibles.
- Vous comparerez des artefacts complets before/after : outils, prompts et parcours de décision de l’agent mal conçus et bien conçus.
- Vous intégrerez des outils fonctionnels avec des outils basés sur QueryEngineTool, afin que l’agent puisse utiliser à la fois la logique applicative et la couche de connaissance.
- Vous réaliserez des tests manuels et scénarisés de l’agent, ajouterez la journalisation des événements et préparerez une checklist qualité avant le déploiement.
- Vous assemblerez à la fin du cours un listing complet et intégral de tout l’agent, avec une explication de chaque section du code et des raisons architecturales qui la sous-tendent.
Prerequis
Connaissance de Python à un niveau intermédiaire, bases du travail avec les API de modèles LLM, capacité à lancer des projets dans virtualenv ou uv, connaissance de base du JSON et du typage des fonctions. Une expérience en prompt engineering ainsi qu’une connaissance de base du RAG seront utiles, mais le cours guide également pas à pas à travers les décisions architecturales. Le participant doit disposer d’un environnement Python 3.10+ configuré ainsi que d’une clé API pour le fournisseur de modèle choisi.
Programme du cours
- Cas d’usage du cours : un agent développeur qui choisit un outil, appelle une API et justifie le résultat
- La stack LlamaIndex actuelle pour les agents : tools, Context, workflow et instrumentation
- ReActAgent vs FunctionAgent en pratique : tableau de décision, limites des modèles et coût des mauvais choix
- Artefact de travail : matrice de choix ReAct vs FunctionAgent pour 6 types de tâches
- Quiz : reconnaître la bonne architecture d’agent à partir des exigences système
- De la fonction Python ordinaire à FunctionTool : signature, docstring, types et contrat d’entrée
- Description faible vs forte d’un outil : comparaison des définitions complètes des outils before/after
- Concevoir des arguments JSON sans pièges : enums, valeurs par défaut, champs optionnels et validation
- Return_direct, format de réponse et quand un tool doit renvoyer des données brutes plutôt qu’une narration
- Atelier : préparation d’une checklist qualité pour les tools et d’un modèle de spécification pour le dépôt
- Quiz : identification des erreurs dans les définitions d’outils provoquant un mauvais tool calling
- Configuration du projet : virtualenv ou uv, structure des dossiers, dépendances et configuration des clés API
- Implémentation d’un ensemble commun d’outils : calcul, récupération de données via API et simple lookup local
- Construisons ReActAgent : prompt de contrôle, étapes Thought/Action et contrôle de la réponse finale
- Construisons FunctionAgent : tool calling natif, Context et gestion de l’état entre les appels
- La même tâche, deux agents : exemple travaillé complet de l’entrée à la sortie avec critique de la réponse
- Quiz : quel fragment de l’implémentation est responsable du choix de l’outil, de l’état et du format de la réponse
- Comment streamer les événements et journaliser le déroulement de l’agent : AgentInput, ToolCall, ToolCallResult et output
- Erreurs typiques de ReActAgent : boucles de raisonnement, mauvais choix d’outil et écrasement de l’instruction système
- Erreurs typiques de FunctionAgent : schéma incompatible, arguments erronés et sérialisation fragile des données
- Carnet de débogage : 5 pannes end-to-end et leur correction pas à pas avec des logs before/after
- Artefact d’équipe : scorecard d’évaluation des réponses de l’agent, des appels d’outils et de la qualité des justifications
- Quiz : diagnostic de la source de l’erreur à partir du journal d’exécution
- Limites de responsabilité de l’agent : ce que le modèle doit trancher et ce que le code dur de l’application doit gérer
- Mémoire et état dans LlamaIndex : quand utiliser Context, quand isoler les sessions et réinitialiser l’historique
- Garde-fous pour les outils et les réponses : validation, retry, timeouts, fallbacks et messages d’erreur sûrs
- Coût et latence : comment réduire le nombre d’appels au modèle et aux outils sans perdre en qualité
- Comparaison des architectures : agent unique, agent avec workflow et agent léger au-dessus de RAG
- Quiz : choix des mécanismes de durcissement pour des scénarios de production spécifiques
- Brief du projet : agent Python pour gérer des requêtes opérationnelles sur des API et des outils locaux
- Choix de l’architecture et plan d’implémentation : diagramme de flux Mermaid, liste d’outils et critères de succès
- Implémentation du MVP : déroulement complet du premier prompt à la réponse fonctionnelle de l’agent
- Tests scénaristiques et de régression : ensemble de cas, résultats attendus et tableau d’évaluation
- Revue de hardening : checklist avant la production, dette technique et plan des itérations suivantes
- Quiz final : sélection des corrections architecturales sur la base des symptômes du mini-projet
Questions fréquentes
Vous apprendrez à construire de zéro un agent IA de raisonnement en Python à l’aide de LlamaIndex : du choix de l’architecture à la définition des outils et des prompts système, jusqu’à la gestion de la mémoire, de l’état, au débogage et au lancement d’une solution complète de bout en bout.
Parce que les deux approches sont importantes en pratique. La documentation actuelle de LlamaIndex indique qu’il est préférable d’utiliser FunctionAgent pour les modèles prenant en charge le function calling natif, tandis que ReActAgent reste très utile lorsque l’on recherche une plus grande universalité du modèle et un déroulement explicite des actions. Ainsi, le cours aide à comprendre non seulement comment construire un agent, mais aussi quand choisir telle ou telle approche.
Oui. Le marché évolue rapidement vers les systèmes agentiques : Gartner prévoyait qu’à la fin de 2026, 40 % des applications d’entreprise incluraient des agents IA spécialisés, alors qu’en 2025 ce chiffre était inférieur à 5 %. Cela rend la capacité pratique à construire des agents avec des outils, de la mémoire et un contrôle du flux de plus en plus précieuse.
Pour les développeurs Python, les ingénieurs IA/ML, les personnes qui construisent des applications LLM et les praticiens qui souhaitent passer de simples chatbots à des agents exécutant des tâches à l’aide d’outils, de logique de raisonnement et de contrôle d’état.
Non. Le cours vous guide pas à pas à travers les éléments essentiels de l’écosystème nécessaires à la construction d’un agent. Une connaissance de base de Python et une compréhension générale du fonctionnement des modèles de langage seront toutefois utiles.
C’est un cours atelier, orienté implémentation plutôt que théorie. Au lieu d’un panorama général, vous obtenez un processus de conception, des décisions architecturales concrètes, du travail avec des outils en Python, la mémoire et l’état de l’agent, ainsi que des méthodes de diagnostic des erreurs dans une solution réelle.
- 8 heures
- Intermediaire
- Certificat a la fin
- Acces immediat apres achat