Aller au contenu
Intermediaire IA pour developpeurs

MCP en pratique : construction de serveurs et d’intégrations pour les agents IA en Python

Atelier pour les développeurs qui veulent passer de l’utilisation de l’IA dans l’IDE à la création de leurs propres serveurs MCP, outils et intégrations pour les agents. Le cours va d’un serveur local en Python à un deuxième exemple en TypeScript, puis à l’intégration avec Responses API, Claude Code et un serveur MCP distant public.

12 heures Modules : 8 Certificat

Cours intensif de type build-along : le participant commence avec un dépôt vide et construit pas à pas un écosystème MCP fonctionnel pour des agents IA. En chemin, il clarifie les différences entre MCP, function calling et les intégrations API classiques ; met en place une architecture client-server avec tools, resources et prompts ; lance un serveur MCP local en Python ; crée un deuxième serveur en TypeScript ; teste et débogue l’ensemble dans MCP Inspector ; ajoute des mécanismes de sécurité, un approval flow et des restrictions de permissions ; expose un serveur MCP distant via HTTP ; et termine par un mini-projet d’agent qui relie un dépôt de code, la documentation et une API externe. Le cours mélange volontairement de courts briefings architecturaux, des checklists qualité, des comparaisons de bonnes et de mauvaises définitions d’outils, des tâches d’implémentation, des sessions de débogage et des revues d’artefacts, afin que l’apprentissage ne se réduise pas à cliquer dans une interface. Le périmètre et les exercices s’appuient sur l’écosystème MCP officiel et actuel : les SDK officiels pour Python et TypeScript, MCP Inspector, les transports locaux et distants modernes, les intégrations avec OpenAI Docs MCP / la documentation OpenAI, des ressources sur la construction de MCP pour les intégrations API OpenAI, ainsi que les capacités actuelles de Claude Code et des connecteurs MCP distants.

Ce que vous apprendrez

  • Vous expliquerez concrètement quand MCP offre un avantage par rapport au function calling classique et à l’intégration API traditionnelle, et quand il s’agit d’une couche superflue.
  • Vous concevrez une architecture MCP comprenant host, client, server, tools, resources, prompts et le choix d’un transport local ou distant.
  • Vous construirez de zéro un serveur MCP local en Python avec des outils, des ressources et des prompts décrits de manière pertinente.
  • Vous préparerez un deuxième exemple parallèle de serveur MCP en TypeScript et comparerez les idiomes des deux SDK.
  • Vous connecterez le serveur MCP à un workflow avec OpenAI Responses API ainsi qu’à des outils comme Claude Code et des clients desktop.
  • Vous saurez tester et déboguer les serveurs via MCP Inspector, les logs et des scénarios d’incident au lieu de deviner pourquoi l’agent n’utilise pas l’outil.
  • Vous implémenterez une exposition sécurisée des outils : auth, approval flow, restrictions de périmètre et minimisation du risque de fuite de données.
  • Vous exposerez un serveur MCP distant via un endpoint HTTP public et le préparerez à être utilisé par des clients externes.
  • Vous réaliserez un mini-projet final : un agent qui relie un dépôt, la documentation et une API externe dans un seul flux de travail.
  • Vous apprendrez à évaluer la qualité d’un MCP non pas au fait qu’il « fonctionne », mais à savoir si l’agent choisit les bons outils, renvoie des résultats utiles et peut être maintenu en production.

Prerequis

Maîtrise de Python au niveau du travail quotidien de développeur, connaissances de base en TypeScript/Node.js, expérience avec REST/HTTP et JSON, capacité à travailler avec le terminal, Git et un environnement virtuel. Sont un plus : bases de FastAPI/Express, Docker et n’importe quel client IA de type Claude Code, Cursor, VS Code Agent ou un script personnel utilisant l’API.

Programme du cours

  • MCP vs function calling vs API assemblée à la main : trois architectures pour une même tâche d’agent
  • Revue de cas : pourquoi un agent basé uniquement sur le function calling perd le contexte des outils et des permissions
  • Checklist décisionnelle : quand MCP simplifie l’intégration, et quand c’est de l’overengineering
  • Anatomie de l’écosystème MCP : host, client, server, tools, resources, prompts, transports
  • Quiz décisionnel : choisissez le bon modèle d’intégration pour 8 scénarios produits
  • Bootstrap repo : structure du projet, env, dépendances et scripts dev pour l’atelier MCP
  • Premier serveur en Python : un FastMCP minimal en stdio qui répond vraiment
  • Pas seulement un tool : ajouter des resources et des prompts pour que l’agent ait plus que des actions
  • Artefact complet à comparer : mauvaise vs bonne définition d’un outil et description des paramètres
  • Première exécution avec un client local : ce que vous devriez voir avant d’aller plus loin
  • Quiz des erreurs de démarrage : identifiez le problème à partir du symptôme, du journal et du comportement du client
  • Cadre de conception pour les outils MCP : nom, contrat d’entrée, résultat, erreurs, effets de bord
  • Atelier des contrats : refonte de 3 outils de la version « demo » à la version « agent-friendly »
  • Les resources comme couche de contexte : quand les URI et la lecture sont meilleurs qu’un tool de plus
  • Les prompts comme procédures prêtes à l’emploi : comment empaqueter un workflow sans coder en dur la logique dans le modèle
  • Critique des artefacts : comparaison before/after des réponses de l’agent sur les mêmes tâches
  • Quiz qualité : indiquez quelle description de l’outil augmente les chances que le modèle fasse le bon choix
  • MCP Inspector de l’intérieur : quelles questions poser au serveur avant de lancer le client IA
  • Débogage de session locale : énumération des tools/resources/prompts et vérification du capability handshake
  • Travail sur les erreurs : schema mismatch, exception dans l’outil, mauvais content type, timeout
  • Trop grandes réponses et trop de tokens : comment réduire le payload, paginer et renvoyer des résultats pertinents
  • Journaux, traces et checklist de reproduction : comment signaler un bug MCP pour que quelqu’un d’autre puisse le corriger
  • Quiz diagnostique : associez le symptôme à la cause la plus probable
  • Pourquoi le deuxième exemple en TypeScript ne devrait pas être une copie 1:1 de Python
  • Construire un serveur en TypeScript : démarrage du projet, SDK, transport et premier tool
  • Exemple d’intégration : serveur de documentation/projet avec resource templates et filtrage des résultats
  • Comparaison Python vs TypeScript : ergonomie des décorateurs, types, validation et structure du code
  • Revue de code de deux implémentations : quelles décisions transférer entre dépôts, et lesquelles non
  • Quiz comparatif : choisissez le meilleur stack pour un helper local, un serveur d’équipe et un endpoint public
  • Carte d’intégration : client MCP local, Claude Code, clients desktop et connecteurs API distants
  • OpenAI et MCP en pratique : comment intégrer la documentation et vos propres outils dans un workflow avec Responses API
  • Claude Code + serveur local : configuration, sélection des outils et attentes d’approbation
  • Flux de travail du client de bureau : lancer le même serveur dans la configuration de l’utilisateur final
  • Scénario de bout en bout : l’agent lit une ressource, lance un outil et compose une réponse avec un contexte cit-able
  • Quiz d'intégration : indiquez quelles limitations proviennent du client et lesquelles du serveur
  • Modèle de menace pour MCP : ce qui peut mal tourner lors de la lecture de fichiers, de dépôts, de secrets et d’actions mutantes
  • Flux d’approbation en pratique : quelles opérations exigent une validation humaine et comment l’imposer
  • Authentification vers un serveur distant : jetons, flux bearer et séparation de l’identité de l’utilisateur et du serveur
  • Le moindre privilège by design : réduire la portée du dépôt, des endpoints, des paramètres et des formats de réponse
  • Aperçu des anti-modèles : outils avec des effets de bord cachés, secrets dans le payload, confiance accordée à des proxys non officiels
  • Quiz de sécurité : évaluez le risque et choisissez le contrat d’outil minimal sûr
  • STDIO vs Streamable HTTP : décision de transport avant le déploiement et conséquences pour l’architecture
  • Déploiement d’un serveur MCP distant : endpoint public, configuration d’environnement et smoke test après déploiement
  • Checklist de production : health checks, limites, observabilité, versioning et rollback
  • Mini-projet partie 1 : agent pour travailler avec un dépôt, la documentation et une API externe — plan et contrats
  • Mini-projet partie 2 : implémentation du flux et tests des scénarios de succès et d’échec
  • Mini-projet partie 3 : critique des résultats, refactor des contrats et amélioration de la qualité des réponses de l’agent
  • Quiz final : décisions architecturales et de débogage à partir d’une seule étude de cas de production

Questions fréquentes

Vous apprendrez pas à pas à construire un écosystème MCP de production, depuis un dépôt vide jusqu’à une intégration fonctionnelle pour des agents IA. Vous clarifierez les différences entre MCP, function calling et les intégrations API classiques, mettrez en place une architecture client-server avec tools, resources et prompts, lancerez un serveur MCP local en Python, créerez un deuxième serveur en TypeScript, puis testerez et déboguerez l’ensemble dans MCP Inspector. Le cours prend la forme d’un atelier intensif build-along, donc au lieu de théorie seule, vous créez de vrais composants que vous pourrez ensuite faire évoluer dans un projet d’entreprise.

Parce que le marché des agents IA mûrit rapidement et que l’interopérabilité devient essentielle. OpenAI positionne Responses API comme une direction d’évolution pour la construction d’agents et d’outils, tandis qu’Anthropic développe Model Context Protocol comme standard ouvert pour travailler avec les outils et le contexte des agents. Cela signifie que les compétences liées à MCP, aux intégrations d’outils et à l’orchestration sécurisée des agents deviennent de plus en plus pratiques et recherchées, en particulier dans les équipes qui construisent leurs propres workflows IA. Le cours vous aide à entrer dans ce domaine non pas par des slogans généraux, mais par l’implémentation d’une architecture fonctionnelle.

Résolument par la pratique. C’est un cours atelier de type build-along : le participant part d’un dépôt vide et construit, avec le formateur, une solution complète. Chaque élément — de l’architecture MCP à la création du serveur en Python et en TypeScript, en passant par les tests, le débogage, la sécurité et la limitation des permissions — est mis en œuvre en direct. Ainsi, à la fin du cours, vous n’avez pas seulement compris les concepts, mais aussi du code, une structure de projet et des patterns de déploiement que vous pourrez réutiliser dans vos propres agents IA.

Pour les développeurs Python, les backend developers, les AI engineers, les créateurs d’automatisations et les personnes qui construisent des agents IA et veulent aller au-delà d’une simple démo de function calling. Il conviendra aussi aux équipes produit et techniques qui doivent comprendre quand un simple appel de fonction suffit et quand il vaut mieux concevoir un écosystème MCP complet avec contrôle d’accès, approval flow et modèle d’intégration clair.

Non. Le cours pose les bases dès le départ et montre les différences pratiques entre MCP, function calling et API classique. Si vous connaissez les bases de Python et comprenez ce que sont les intégrations HTTP/API, vous entrerez dans le contenu sans difficulté. En même temps, le rythme et le périmètre sont suffisamment concrets pour que les participants plus avancés y trouvent aussi des patterns d’implémentation prêts à l’emploi et une meilleure approche de la conception d’agents.

Le langage principal est Python, dans lequel vous lancez un serveur MCP local et construisez des intégrations pratiques pour des agents IA. En plus, vous créez un deuxième serveur en TypeScript, ce qui vous permet de comprendre comment concevoir un environnement multilingue et comment transférer des patterns entre stacks. Le cours utilise aussi MCP Inspector pour les tests et le débogage, ainsi que des sujets liés à la sécurité, au contrôle des permissions et aux workflows d’approbation.

Oui — et c’est l’un de ses plus grands atouts. En plus du simple lancement du serveur, vous apprenez à ajouter des mécanismes de sécurité, un approval flow et des restrictions de permissions. C’est particulièrement important aujourd’hui, car les outils agentiques peuvent exécuter des actions dans des systèmes externes, et des plateformes comme OpenAI développent des outils et des boucles d’orchestration d’agents de plus en plus avancés. Le cours montre donc non seulement comment connecter quelque chose, mais comment le faire de manière responsable et prête pour une évolution ultérieure.

Le function calling apprend au modèle à appeler des fonctions spécifiques, mais MCP introduit un modèle plus large et plus structuré de collaboration de l’agent avec les outils, les ressources et les prompts. En pratique, cela signifie une meilleure scalabilité des intégrations, une architecture client-server plus lisible et une plus grande prévisibilité dans l’évolution de l’environnement agentique. Ce cours ne s’arrête pas à un appel d’outil isolé — il montre comment concevoir tout un écosystème d’intégration, le tester dans MCP Inspector et le faire évoluer dans des cas d’usage réels.

MCP en pratique : construction de serveurs et d’intégrations pour les agents IA en Python
40 EUR
  • 12 heures
  • Intermediaire
  • Certificat a la fin
  • Acces immediat apres achat

Nous utilisons des cookies pour la meilleure qualite de service. Details dans la politique cookies