Aller au contenu
Intermediaire IA pour developpeurs

Construction d’un agent IA de raisonnement avec LlamaIndex : ReAct et Function Agent en Python

Atelier pour développeurs de niveau intermédiaire qui souhaitent construire pas à pas en Python un agent de raisonnement dans LlamaIndex, comparer ReActAgent et FunctionAgent, apprendre la conception d’outils, le débogage, les garde-fous, puis assembler à la fin le listing complet d’un agent fonctionnel.

8 heures Modules : 6 Certificat

Cours pratique sous forme d’atelier montrant comment concevoir, implémenter et exécuter de zéro un agent IA de raisonnement à l’aide de la bibliothèque LlamaIndex. Le participant suivra le processus complet : du choix de l’architecture de l’agent à la définition des outils en Python, en passant par la conception des instructions système, la gestion de la mémoire et de l’état, jusqu’aux tests, au diagnostic des erreurs et à l’assemblage d’une solution complète de bout en bout. Le cours met volontairement en regard deux approches soutenues par la documentation actuelle de LlamaIndex : FunctionAgent, privilégié pour les modèles disposant d’un function/tool calling natif, et ReActAgent, utile lorsque l’on souhaite un cycle reason-act explicite ou que l’on travaille avec des modèles sans function calling natif. L’atelier s’appuie sur les modèles actuels de la documentation LlamaIndex, où les agents sont construits à partir du package workflow, les outils peuvent être de simples fonctions Python ou des QueryEngineTool, et le contexte architectural plus large s’inscrit dans des Workflows orientés événements. Au-delà du code, le cours explique pourquoi certaines décisions de conception sont correctes, quelles erreurs apparaissent le plus souvent et comment les éviter en pratique de production.

Ce que vous apprendrez

  • Vous expliquerez les différences entre ReActAgent et FunctionAgent et choisirez le type d’agent adapté aux capacités du modèle LLM.
  • Vous construirez en Python un agent LlamaIndex fonctionnel basé sur vos propres fonctions-outils ainsi que sur des signatures et docstrings correctement décrites.
  • Vous concevrez l’instruction système, les descriptions des outils et le contrat d’entrée/sortie afin que l’agent choisisse plus souvent les bonnes actions.
  • Vous ajouterez un état de conversation et un contexte d’exécution à l’aide des mécanismes de workflow et apprendrez à contrôler le déroulement d’un raisonnement en plusieurs étapes.
  • Vous diagnostiquerez les erreurs les plus fréquentes : mauvais choix d’outil, arguments hallucinés, boucles d’agent, prompts trop larges et descriptions de fonctions peu claires.
  • Vous comparerez des artefacts complets avant/après : outils, prompts et déroulements de décision de l’agent mal conçus et bien conçus.
  • Vous intégrerez des outils fonctionnels avec des outils basés sur QueryEngineTool, afin que l’agent puisse utiliser à la fois la logique applicative et la couche de connaissance.
  • Vous réaliserez des tests manuels et scénarisés de l’agent, ajouterez la journalisation des événements et préparerez une checklist qualité avant le déploiement.
  • Vous assemblerez à la fin du cours le listing complet et intégral de tout l’agent, avec une explication de chaque section du code et des raisons architecturales qui la sous-tendent.

Prerequis

Connaissance de Python à un niveau intermédiaire, bases du travail avec les API de modèles LLM, capacité à lancer des projets dans virtualenv ou uv, connaissance de base du JSON et du typage des fonctions. Une expérience en prompt engineering ainsi qu’une connaissance de base du RAG seront utiles, mais le cours guide aussi pas à pas à travers les décisions architecturales. Le participant doit disposer d’un environnement Python 3.10+ configuré ainsi que d’une clé API pour le fournisseur de modèle choisi.

Programme du cours

  • À quoi ressemble aujourd’hui l’API des agents dans LlamaIndex : `llama_index.core.agent.workflow` sans deviner l’architecture
  • ReActAgent vs FunctionAgent sur une même tâche : comparaison du déroulement reasoning -> tool -> answer
  • Pourquoi FunctionAgent est généralement le premier choix pour les modèles avec function calling, et ReActAgent reste un plan B
  • Environnement de workshop : Python 3.10+, installation de `llama-index`, provider LLM et bootstrap minimal du projet
  • Quiz : choix du type d’agent selon le modèle, les outils et le mode de contrôle du flux
  • Premier tool fonctionnel à partir d’une fonction Python : types, docstring et retour de données sans chaos
  • `FunctionTool` et génération automatique du schéma : ce que LlamaIndex déduit de la signature, et ce qu’il ne devinera pas
  • Description faible vs bonne description d’un outil : exemples complets de noms, d’arguments et de docstrings qui modifient les choix de l’agent
  • Les erreurs les plus fréquentes dans les tools : effets secondaires cachés, champs requis implicites, périmètre de responsabilité trop large
  • Conception d’un mini-kit d’outils pour un agent opérationnel : calcul, validation, recherche et fallback
  • Quiz : reconnaître les outils mal conçus et les améliorer
  • Le `FunctionAgent` minimal avec deux outils : premier passage end-to-end en Python
  • Prompt système qui pilote l’agent au lieu d’être un vœu pieux : règles, anti-patterns et correctifs
  • Comment forcer l’utilisation correcte des outils : instructions décisionnelles, quand répondre soi-même et quand appeler un tool
  • Gestion des erreurs d’appels de fonctions : validation des arguments, exceptions et messages de retour pour le modèle
  • Streaming et observation du déroulement de l’agent : quoi journaliser pour voir les décisions du modèle, et pas seulement la réponse finale
  • Atelier comparatif before/after : le même agent avant le refactoring et après le refactoring du prompt et des outils
  • Quiz : ce FunctionAgent est-il prêt à être utilisé par l’utilisateur ?
  • Minimaliste `ReActAgent` avec les mêmes outils : ce qui change par rapport à FunctionAgent
  • Lire les traces Reasoning/Action/Observation : comment diagnostiquer un raisonnement erroné pas à pas
  • Boucles, overthinking et mauvaises actions successives : des garde-fous pour ReActAgent
  • Quand ReActAgent peut être meilleur que FunctionAgent : modèles sans function calling et scénarios avec planification explicite
  • Exercice comparatif : la même tâche résolue par FunctionAgent et ReActAgent avec analyse de la qualité des réponses
  • Quiz : choix d’une stratégie agentique sur la base des journaux et des exigences du projet
  • Session d’agent et `Context` : comment conserver l’état de la conversation sans recoller l’historique à la main
  • Ajout de `QueryEngineTool` à l’agent : quand un outil doit calculer et quand il doit interroger l’index
  • Combiner des outils fonctionnels et des outils de connaissance dans un seul agent sans conflits de décision
  • Les erreurs les plus fréquentes avec l’état et la mémoire : fuite de contexte, excès d’historique, dépendances implicites entre les étapes
  • Introduction aux Workflows et à l’orchestration pilotée par événements : pourquoi connaître cette API même pour un agent simple
  • Quiz : choix de l’outil en fonction des données, de l’état et du type de requête de l’utilisateur
  • Projet final : agent de résolution de tâches multi-étapes utilisant des outils et une source de connaissances
  • Implémentation de bout en bout : structure des fichiers, configuration des modèles, définitions des outils et initialisation de l’agent
  • Tests scénaristiques de l’agent : entrées utilisateur complètes, actions de tool attendues et critères de validation
  • Checklist de production : observabilité, timeouts, validation, fallbacks et maîtrise du coût des appels
  • Listing complet de l’agent entier avec commentaire ligne par ligne : pourquoi chaque section du code est exactement comme ça
  • Quiz final : diagnostic des erreurs dans un agent prêt à l’emploi et plan de développement ultérieur

Questions fréquentes

Vous apprendrez à construire de zéro un agent IA de raisonnement en Python à l’aide de LlamaIndex : du choix de l’architecture à la définition des outils et des prompts système, jusqu’à la gestion de la mémoire, de l’état, au débogage et au lancement d’une solution complète de bout en bout.

Parce que les deux approches sont importantes en pratique. La documentation actuelle de LlamaIndex indique qu’il vaut mieux privilégier FunctionAgent pour les modèles prenant en charge le function calling natif, tandis que ReActAgent reste très utile lorsque l’on recherche une plus grande universalité du modèle et un déroulement explicite des actions. Ainsi, le cours aide à comprendre non seulement comment construire un agent, mais aussi quand choisir telle ou telle approche.

Oui. Le marché évolue rapidement vers les systèmes agentiques : Gartner prévoyait qu’à la fin de 2026, 40 % des applications d’entreprise incluraient des agents IA spécialisés, alors qu’en 2025 ce chiffre était inférieur à 5 %. Cela rend la capacité pratique à construire des agents avec des outils, de la mémoire et un contrôle du flux de plus en plus précieuse.

Pour les développeurs Python, les ingénieurs IA/ML, les personnes qui construisent des applications LLM ainsi que les praticiens qui souhaitent passer de simples chatbots à des agents exécutant des tâches à l’aide d’outils, de logique de raisonnement et de contrôle d’état.

Non. Le cours vous guide pas à pas à travers les éléments les plus importants de l’écosystème nécessaires à la construction d’un agent. Une connaissance de base de Python et une compréhension générale du fonctionnement des modèles de langage seront toutefois utiles.

C’est un cours atelier, orienté implémentation et non théorie. Au lieu d’un panorama général, vous recevez un processus de conception, des décisions architecturales concrètes, du travail avec des outils en Python, la mémoire et l’état de l’agent, ainsi que des méthodes de diagnostic des erreurs dans une solution réelle.

Construction d’un agent IA de raisonnement avec LlamaIndex : ReAct et Function Agent en Python
67 EUR
45 EUR
  • 8 heures
  • Intermediaire
  • Certificat a la fin
  • Acces immediat apres achat

Nous utilisons des cookies pour la meilleure qualite de service. Details dans la politique cookies