En novembre 2024, Anthropic a publié le Model Context Protocol (MCP), une spécification open source qui est en train de devenir le standard d’interopérabilité entre les LLMs et les systèmes d’information d’entreprise. Compréhensible en une phrase : MCP est aux agents IA ce que l’API REST est aux applications web — un langage commun qui permet à n’importe quel modèle de parler à n’importe quel outil.
Le problème que MCP résout
Avant MCP, chaque intégration LLM-outil était un projet sur mesure. Pour connecter Claude à votre CRM Salesforce, il fallait écrire du code spécifique. Pour le connecter à votre base de données interne, encore du code spécifique. Pour chaque combinaison modèle × outil, un développement unique.
Le résultat : un écosystème de silos. Les agents IA restaient confinés aux outils préintégrés par leurs fournisseurs. L’innovation était freinée par la complexité d’intégration.
MCP propose une alternative : un protocole standardisé où les outils deviennent des “serveurs MCP” et les modèles des “clients MCP”. Une fois un outil exposé via MCP, il devient accessible à tous les modèles compatibles — Claude, GPT-4, Gemini — sans redéveloppement.
Architecture MCP : les concepts clés
Les trois primitives de MCP
1. Resources (Ressources) Ce sont des données que le serveur MCP expose en lecture. Exemples :
- Fichiers d’un système de fichiers local
- Lignes d’une base de données
- Tickets d’un Jira
- Emails d’une boîte Outlook
2. Tools (Outils) Ce sont des actions que le modèle peut déclencher. Exemples :
- Créer un ticket dans Jira
- Envoyer un email
- Exécuter une requête SQL
- Appeler une API REST externe
3. Prompts (Templates) Ce sont des modèles de prompts prédéfinis que le serveur peut suggérer au client selon le contexte.
Le flux d’une interaction MCP
Utilisateur → Client MCP (Claude Desktop, etc.)
↓ Découverte des outils disponibles
Serveur MCP
↓ Liste des resources/tools/prompts
Client LLM
↓ Appel d'outil (ex: query_database)
Serveur MCP
↓ Exécution + résultat
Client LLM
↓ Réponse finale à l'utilisateur
Utilisateur
L’écosystème MCP en 2025 : ce qui est déjà disponible
En moins de 6 mois après son lancement, MCP a vu émerger un écosystème impressionnant :
Serveurs MCP officiels (Anthropic + partenaires)
- Filesystem : accès aux fichiers locaux
- GitHub : lecture/écriture de repos, issues, PRs
- Google Drive / Docs : accès aux documents Google
- Slack : lecture des messages, envoi de messages
- PostgreSQL / SQLite : requêtes sur bases de données
- Puppeteer : automatisation de navigateur web
- Brave Search : recherche web
- AWS S3 : accès aux buckets S3
Serveurs MCP communautaires notables
- Notion : accès complet à votre workspace Notion
- Linear : gestion des issues et projets
- Stripe : données de paiement (lecture)
- HubSpot : CRM
- Salesforce : CRM Salesforce
- Jira : gestion de projet Atlassian
- Airtable : bases de données no-code
- Supabase : base de données PostgreSQL cloud
Cas d’usage enterprise concrets
1. Agent d’analyse commerciale
Un agent connecté via MCP à votre CRM (HubSpot/Salesforce), votre outil de facturation et votre data warehouse peut, sur simple demande en langage naturel :
- “Donne-moi les 10 clients les plus à risque de churn ce trimestre avec les raisons”
- L’agent interroge le CRM pour les interactions récentes, la facturation pour les paiements en retard, et le DWH pour les métriques d’usage
Avant MCP : rapport manuel 2h + requêtes SQL + copier-coller Excel Avec MCP : 30 secondes de conversation
2. Agent de support technique
Un agent MCP connecté à votre base de connaissances interne, votre outil de ticketing et votre documentation technique peut :
- Rechercher les tickets similaires résolus
- Identifier la solution probable
- Rédiger la réponse au client
- Mettre à jour le ticket et la base de connaissances
3. Agent de veille réglementaire
Connecté à vos bases documentaires internes, à des serveurs MCP de recherche web et à votre outil de gestion des politiques :
- Surveille les nouvelles publications réglementaires (AI Act, RGPD, NIS2)
- Compare avec vos politiques internes existantes
- Génère une liste d’actions de mise en conformité
MCP vs autres approches d’intégration
| Approche | Flexibilité | Maintenance | Portabilité | Complexité initiale |
|---|---|---|---|---|
| Intégration native (ex: OpenAI plugins) | Faible | Élevée | Nulle | Faible |
| API sur mesure | Élevée | Élevée | Faible | Très élevée |
| LangChain tools | Élevée | Moyenne | Moyenne | Élevée |
| MCP | Élevée | Faible | Très élevée | Moyenne |
L’avantage clé de MCP : write once, use anywhere. Un serveur MCP développé pour Claude fonctionne automatiquement avec tout client compatible MCP — y compris des clients concurrents.
Sécurité et gouvernance avec MCP
Contrôle des permissions
MCP intègre un modèle de permissions granulaire. Chaque serveur déclare les capacités qu’il expose, et le client peut restreindre ce que le LLM est autorisé à faire.
Exemple : un serveur MCP GitHub peut être configuré en lecture seule pour un agent d’analyse, mais en lecture/écriture pour un agent de développement.
Audit et traçabilité
Toutes les interactions MCP peuvent être loggées : quels outils ont été appelés, avec quels paramètres, avec quel résultat. C’est un avantage majeur pour la conformité — vous pouvez auditer exactement ce que l’agent a fait.
Isolation des environnements
Les serveurs MCP peuvent être hébergés on-premise, ce qui permet de garder les données sensibles hors des infrastructure cloud des fournisseurs LLM. L’agent LLM reçoit uniquement les résultats des requêtes, pas un accès direct aux données.
Comment démarrer avec MCP en entreprise
Pour les équipes techniques
- Commencez par un cas d’usage simple : connectez Claude Desktop à votre filesystem ou base de données locale avec un serveur MCP open source
- Identifiez les 3 outils qui auraient le plus d’impact si un agent pouvait y accéder en lecture
- Évaluez les serveurs MCP existants avant de développer le vôtre (l’écosystème est riche)
- Définissez une politique de permissions avant tout déploiement en production
Pour les décideurs
- MCP est gratuit et open source — pas de licence supplémentaire
- La complexité d’implémentation est accessible pour une équipe dev standard (pas besoin d’experts IA spécialisés)
- L’investissement principal est dans la définition des cas d’usage et la sécurisation des accès
Questions fréquentes
MCP est-il compatible avec d’autres LLMs que Claude ? Oui. MCP est un standard ouvert. Des clients MCP existent pour GPT-4 (via des wrappers), Gemini, et d’autres modèles open source. Claude Desktop est le client de référence, mais le protocole est indépendant du modèle.
Faut-il être développeur pour utiliser MCP ? Pour créer un nouveau serveur MCP, oui — c’est du développement logiciel. Pour utiliser des serveurs MCP existants avec Claude Desktop, un minimum de compétences techniques suffit (configuration en JSON).
MCP est-il sécurisé pour des données sensibles ? La sécurité dépend de la configuration. Un serveur MCP hébergé on-premise avec permissions restrictives peut être très sécurisé. Un serveur mal configuré peut exposer des données critiques. Le principe de moindre privilège est essentiel.
Quelle est la différence entre MCP et les “function calling” des LLMs ? Le function calling est une capacité du LLM à appeler des fonctions définies dans le prompt. MCP est un protocole de transport standardisé au-dessus de ce mécanisme, ajoutant découverte dynamique des outils, gestion des sessions, et interopérabilité multi-modèles.
Conclusion
MCP représente une étape importante dans la maturité de l’écosystème IA. Là où les agents IA étaient des îlots isolés, MCP construit les ponts qui les connectent aux systèmes d’information existants. Pour les entreprises, c’est la fin du “on ne peut pas connecter ça facilement” — et le début d’une nouvelle façon de construire des workflows intelligents.
Chez BetterPeople, nous aidons les équipes à identifier et construire leurs premiers cas d’usage MCP, de la définition des besoins au déploiement sécurisé. Discutons de votre projet.
Prêt à transformer votre organisation avec l'IA ?
Réservez un diagnostic gratuit de 30 minutes avec notre équipe.