AccueilBlogTutoriel
Tutoriel25 mars 2026· 7 min

Créer ton premier serveur MCP local en 30 minutes

Tutoriel pratique pour créer un serveur MCP (Model Context Protocol) avec FastMCP et Python. Connecte ton LLM local à des outils en 30 minutes.

Créer ton premier serveur MCP local en 30 minutes

Le Model Context Protocol vient de passer un cap. Hugging Face a lancé son cours MCP gratuit en mars 2026, et Anthropic a publié une roadmap pour standardiser les communications entre agents d'ici fin 2026. Si t'as pas encore touché à MCP, c'est le bon moment.

MCP, c'est le "USB-C pour l'IA" : un protocole open-source qui standardise comment les LLMs se connectent à des outils externes (fichiers, bases de données, APIs). En clair, au lieu de coller tous tes outils dans le contexte de ton prompt, tu crées des serveurs spécialisés que ton agent peut appeler à la demande.

C'est quoi concrètement un serveur MCP ?

Un serveur MCP expose des outils (functions) qu'un LLM peut décider d'appeler. Le modèle reçoit la liste des outils disponibles, décide lequel utiliser selon le contexte, et appelle l'API correspondante. Résultat : moins de tokens gaspillés, un agent qui scale bien, et une architecture propre.

En mars 2026, MCP est supporté nativement par Claude (Anthropic), ChatGPT (OpenAI via plugins), LM Studio, et Cursor. C'est devenu le standard de facto pour connecter des LLMs à des contextes locaux.

Chiffres à retenir :

  • +400% d'adoption de MCP entre mi-2025 et début 2026 selon les stats npm
  • Plus de 1 200 serveurs MCP publics répertoriés sur GitHub
  • Réduction de 60-70% des tokens consommés par rapport aux approches "tout-dans-le-contexte"

Ce qu'il te faut avant de commencer

Prérequis techniques :

  • Python 3.10+
  • uv (gestionnaire de paquets Python moderne, pip fonctionne aussi)
  • Claude Desktop ou un LLM local via Ollama
  • 30 minutes

Installation des librairies :

pip install fastmcp fastapi uvicorn httpx
# ou avec uv :
uv add "mcp[cli]" fastmcp fastapi uvicorn httpx

FastMCP est la librairie qui simplifie tout. Sans elle, tu dois gérer le protocole JSON-RPC à la main. Chez Claw-Bot, on l'utilise systématiquement pour les intégrations locales.

Comment créer ton premier serveur MCP en 10 lignes ?

Crée un fichier mon_serveur.py :

from fastmcp import FastMCP
import os

mcp = FastMCP("MonServeur")

@mcp.tool()
def lire_fichier(chemin: str) -> str:
    """Lit le contenu d'un fichier local."""
    if os.path.exists(chemin):
        with open(chemin, 'r') as f:
            return f.read()
    return "Fichier introuvable."

@mcp.tool()
def lister_dossier(chemin: str) -> list:
    """Liste les fichiers d'un dossier."""
    return os.listdir(chemin) if os.path.isdir(chemin) else []

if __name__ == "__main__":
    mcp.run()

Lance-le :

python mon_serveur.py
# Serveur MCP actif sur stdio (mode Claude Desktop) ou HTTP

Connecte-le à Claude Desktop en ajoutant dans ~/Library/Application Support/Claude/claude_desktop_config.json :

{
  "mcpServers": {
    "mon-serveur": {
      "command": "python",
      "args": ["/chemin/vers/mon_serveur.py"]
    }
  }
}

Redémarre Claude Desktop, et tu peux maintenant demander à Claude : "Lis le fichier /etc/hosts et résume-le." Il appellera ton outil automatiquement.

Comment ajouter une base de données locale ?

@mcp.tool()
def requete_sqlite(sql: str) -> str:
    """Exécute une requête SQL sur la base locale."""
    import sqlite3
    conn = sqlite3.connect("ma_base.db")
    cursor = conn.cursor()
    cursor.execute(sql)
    resultats = cursor.fetchall()
    conn.close()
    return str(resultats)

C'est tout. Ton LLM peut maintenant interroger ta base de données locale sans que tu lui passes le schéma entier dans le contexte à chaque fois.

Pourquoi Claw-Bot recommande MCP pour les setups personnels ?

Claw-Bot recommande MCP dès que tu as plus de 2-3 outils à connecter à ton agent local. La raison est simple : sans MCP, chaque outil injecte du contexte statique dans chaque requête. Avec MCP, le LLM appelle les outils seulement quand il en a besoin.

Pour un usage perso sur Mac Mini ou laptop, ça change vraiment la donne sur la durée des conversations et le coût si tu utilises Claude API.

Prochaine étape logique : combiner plusieurs serveurs MCP (un pour les fichiers, un pour la DB, un pour ton calendrier) et créer un agent qui orchestre tout. C'est exactement ce que fait OpenClaw en coulisses sur claw-bot.fr.


Sources : modelcontextprotocol.io, Hugging Face MCP Course, Roadmap MCP 2026

Voir aussi : FAQ OpenClawNos cas d'usage

Un projet OpenClaw ?

Setup sécurisé, formation, support. On en parle ?