OpenClaw : l’assistant IA open source qui automatise votre quotidien dev
OpenClaw a été lancé en janvier 2026 comme « le Jarvis open source du développeur » et la promesse mérite qu’on l’examine de près. Présenté par ses auteurs comme « Personal AI assistant you run on your own devices. Any OS. Any Platform. » (voir openclaw.ai), OpenClaw est une passerelle multi-canal (Telegram, Slack, Discord, WhatsApp, Signal, iMessage, Matrix, Microsoft Teams, Zalo, Feishu) pour vos AI agents, agnostique du modèle (Claude, GPT, Ollama). Sur le papier, OpenClaw automatise la couche au-dessus du code, là où Claude Code s’arrête. Cet article tranche : ce qu’il fait que vos outils actuels ne font pas, comment l’installer en 30 minutes, cinq cas d’usage qui changent vraiment le quotidien, comment écrire son propre skill, et un avis lucide sur le statut beta.

OpenClaw, un agent système, pas un coding agent
La promesse Jarvis open source
La première chose à comprendre : OpenClaw n’écrit pas votre code. Il ne refactore pas votre application Next.js et il ne pousse pas une PR sur GitHub avec un fix. Il automatise tout ce qui entoure votre travail de dev : trier des notifications GitHub, capturer une idée dans Obsidian depuis Telegram, vous envoyer le résumé quotidien des PR ouvertes sur Slack, basculer Spotify en mode focus quand vous démarrez un sprint. C’est une couche d’agent système, pas un assistant code. La distinction est cruciale et beaucoup de premiers articles l’ont ratée.
Sur le marché 2026, ça le place dans une niche qu’aucun acteur ne couvrait sérieusement avant : entre Claude Code (qui code pour vous) et n8n (qui orchestre des workflows visuels), OpenClaw est le compagnon conversationnel qui reçoit vos instructions en langage naturel via les canaux que vous utilisez déjà.
Architecture TypeScript, agnostique du modèle
OpenClaw est écrit en TypeScript et tourne sur Node.js 20+. Le projet vit sur github.com/openclaw/openclaw, sous licence MIT. L’architecture repose sur trois couches : les canaux (où l’utilisateur parle), les skills (modules réutilisables qui exécutent des actions, stockés dans ~/.openclaw/workspace/skills/ avec un fichier SKILL.md par skill), et les modèles (Claude, GPT, Mistral via API, ou Ollama en local). Trois types de skills cohabitent : bundled (livrés avec OpenClaw), managed (installés depuis ClawHub) et workspace (vos skills locaux). Vous pouvez basculer de Claude à un Llama 3.3 local en changeant une variable d’environnement, sans modifier vos skills. La doc officielle vit sur docs.openclaw.ai.
Multi-canal : Telegram, Slack, Discord, WhatsApp, Signal, iMessage
Un canal est simplement le moyen par lequel vous parlez à votre OpenClaw : un bot Telegram, un webhook Slack, un compte Discord, sans oublier Matrix, Microsoft Teams, Zalo et Feishu. Vous appairez les canaux via la CLI (openclaw pairing approve), et la même gateway répond où qu’elle soit sollicitée. Cas typique : vous écrivez à votre bot Telegram en mobilité, la gateway reçoit, route vers l’agent, exécute et répond. Côté voix, OpenClaw expose un wake word continu sur Android et un wake word natif sur macOS / iOS. Les companion apps macOS (menu bar) et iOS / Android (mobile nodes) prolongent l’assistant hors de votre poste de travail. La fonctionnalité Live Canvas (A2UI) ouvre en plus un workspace visuel que l’agent peut piloter — éditeur, croquis, plans d’action.
Installation et premier skill
Prérequis et installation
Node.js 20+, 2 Go de RAM disponibles, un token bot Telegram (ou une autre clé canal de votre choix), et soit une clé API Claude/OpenAI, soit une instance Ollama locale. L’onboarding officiel passe par la CLI openclaw qui installe le daemon et la gateway sur votre machine :
# Installer le daemon OpenClaw
openclaw onboard --install-daemon
# Démarrer la gateway sur le port par défaut (18789)
openclaw gateway --port 18789 --verbose
# Vérifier que tout va bien
openclaw gateway status
openclaw doctor
Le dashboard se lance avec openclaw dashboard. La documentation officielle vit sur docs.openclaw.ai et le registre communautaire de skills sur clawhub.ai.
Connecter un modèle
OpenClaw accepte trois types de providers : cloud propriétaire (Anthropic, OpenAI, Mistral via API), cloud OSS (Together, Groq, Fireworks), et local (Ollama). Pour brancher Ollama, l’opération est immédiate : MODEL_PROVIDER=ollama et OLLAMA_HOST=http://host.docker.internal:11434. Plus de détails dans le guide pour faire tourner OpenClaw avec un modèle Ollama local.
Activer son premier skill
Un skill est un module réutilisable qui sait faire une chose : parler à GitHub, écrire dans Obsidian, contrôler Spotify. ClawHub est le registre communautaire qui distribue les skills officiels et tiers (équivalent fonctionnel d’un npm dédié). Côté pairing canal, l’approbation s’effectue depuis la CLI :
# Approuver un appairage canal (Telegram, Slack, etc.)
openclaw pairing approve telegram <code>
# Envoyer un message via la gateway depuis la CLI
openclaw message send --target +33612345678 --message "Test depuis OpenClaw"
# Lancer une instruction directement à un agent
openclaw agent --message "Liste mes PR ouvertes sur webcreatid/api hier" --thinking high
Une fois la gateway en ligne et un canal appairé, vous pouvez écrire à votre bot Telegram : « liste les PR ouvertes sur webcreatid/api hier », et OpenClaw route le message vers l’agent, exécute le skill correspondant, formate la réponse, et la renvoie dans le canal d’origine.
Cinq cas d’usage qui changent le quotidien dev

Triage automatique des notifications GitHub
OpenClaw lit votre flux de notifications GitHub toutes les heures, classe en trois catégories (action requise, attente d’autrui, lecture optionnelle), et envoie un résumé Telegram. Vous évitez l’inbox GitHub à 200 lignes le matin et vous attaquez la journée avec trois actions claires. Skill : github-triage.
Capture rapide d’idées vers Obsidian depuis Telegram
Cas d’usage typique du dev qui pense à un fix sous la douche : vous dictez ou écrivez un message à votre bot, OpenClaw structure (titre, tags, date), et l’écrit dans votre vault Obsidian sur la machine où il tourne. Plus besoin d’ouvrir l’app et de chercher la bonne note. Skill : obsidian-capture.
Résumé quotidien des PR et issues sur Slack
Tous les matins à 8h45, OpenClaw poste sur le canal Slack #standup un récap automatique : PR ouvertes, mergées, issues critiques, blocages détectés. Le LLM produit un résumé court, hiérarchisé, en français. Vous arrivez en réunion avec le contexte. Skill : github-digest.
Rappels intelligents calendrier et contexte projet
OpenClaw connecte votre calendrier (Google, CalDAV) et envoie un brief contextuel 10 minutes avant chaque réunion : participants, dernier ticket lié, dernière conversation Slack. C’est plus utile qu’un rappel sec : c’est un contexte. Skill : calendar-brief.
Contrôle Spotify et focus mode
« Mode focus, deux heures » : OpenClaw lance votre playlist deep work, coupe les notifications Slack en posant un statut « focus », active Do Not Disturb sur macOS, et relance tout au bout du timer. Pas révolutionnaire pris isolément, mais redoutablement utile une fois en place. Skill : focus-mode.
Écrire son propre skill

Le SDK et la structure d’un skill
Un skill est un dossier qui contient un manifest JSON, un script TypeScript, et éventuellement une config. Voici un skill complet « notify-on-PR-review » qui notifie sur Telegram quand une PR reçoit une review :
// notify-on-pr-review/skill.ts
import { defineSkill } from "@openclaw/sdk";
import { Octokit } from "@octokit/rest";
export default defineSkill({
name: "notify-on-pr-review",
description: "Alerte Telegram quand une PR reçoit une review",
trigger: { type: "cron", schedule: "*/5 * * * *" },
async run({ config, channels, llm }) {
const gh = new Octokit({ auth: config.github_token });
const events = await gh.activity.listReceivedEventsForUser({
username: config.username
});
const reviews = events.data.filter(e =>
e.type === "PullRequestReviewEvent"
);
for (const r of reviews) {
const msg = await llm.summarize(r.payload, "fr");
await channels.telegram.send(msg);
}
}
});
Trente lignes, un manifest, et le skill est exploitable. Le SDK gère l’authentification canal, le state, les retries, et l’observabilité. Vous écrivez la logique métier, OpenClaw fait le reste.
Partager via ClawHub
Vos skills locaux vivent dans ~/.openclaw/workspace/skills/<skill>/SKILL.md aux côtés des skills bundled et managed. ClawHub joue le rôle de registre communautaire (équivalent fonctionnel d’un npm dédié) où skills et plugins gateway sont publiés et installés. La communauté reste jeune début 2026, donc les premiers skills bien faits gagnent en visibilité — un terrain d’expression idéal si vous cherchez à exister dans l’écosystème agentique.
OpenClaw vs les alternatives
| Critère | OpenClaw | Claude Code | n8n | Zapier / Make |
|---|---|---|---|---|
| Type | Agent système conversationnel | Coding agent | Orchestrateur visuel | SaaS workflows no-code |
| Interface | Multi-canal (chat) | CLI / IDE | Web visuel | Web visuel |
| Open source | Oui (MIT) | Non (Anthropic) | Oui (Sustainable) | Non (SaaS) |
| Self-hosted | Oui | Non | Oui | Non |
| Modèle local (Ollama) | Natif | Non | Natif | Non |
| Cas idéal | Automatiser le quotidien dev | Écrire et refactorer du code | Pipelines complexes versionnés | Connecter SaaS rapidement |
vs Claude Code
Pas de concurrence frontale : Claude Code, le coding agent écrit du code dans votre repo, OpenClaw orchestre la couche système autour. Vous utilisez Claude Code pour qu’il écrive votre service Express, OpenClaw pour qu’il vous notifie quand un test échoue en prod et capture la stack trace dans Obsidian. Les deux se complètent.
vs n8n
n8n excelle sur les workflows complexes, multi-étapes, versionnables en JSON, avec des branches conditionnelles. OpenClaw préfère les interactions courtes et conversationnelles. Beaucoup d’équipes utilisent les deux : n8n côté pipeline lourd, OpenClaw côté chat humain. Voir la comparaison avec n8n pour l’orchestration détaillée.
vs Zapier / Make
Zapier et Make brillent côté SaaS no-code : trois clics pour brancher Gmail à HubSpot, mais tout passe par leurs serveurs et tout coûte par tâche. OpenClaw est moins immédiat, mais self-hosted, gratuit, et compatible avec un LLM local. Pour des flux contenant des données sensibles, l’écart est massif.
Le statut beta : ce qu’il faut savoir avant d’adopter
OpenClaw est officiellement en beta en mai 2026. La 1.0 est annoncée pour fin 2026. Concrètement, ça veut dire : le core est stable, les skills officiels marchent, mais certains skills tiers cassent à chaque montée de version, la doc reste partielle sur quelques canaux secondaires (Signal, iMessage), et l’observabilité interne est encore basique. Pour un usage solo de productivité, c’est tout à fait viable. Pour un déploiement en équipe avec engagement de service, attendez la 1.0.
Le projet a un avantage que peu d’OSS atteignent à 4 mois de vie : un cap technique cohérent, une communauté active sur Discord, et des releases fréquentes. Pour un développeur indie ou un freelance, ça vaut le coup d’investir maintenant. Pour le reste, le pilier stack IA dev 100% locale (pilier) donne le contexte de placement, et le panorama 2026 des agents IA situe OpenClaw dans l’écosystème complet.
Questions fréquentes
Qu’est-ce qu’OpenClaw exactement ?
OpenClaw est un agent système open source (licence MIT) lancé en janvier 2026 par la communauté du même nom. Il automatise la couche au-dessus du code (mails, GitHub events, capture Obsidian, contrôle Spotify, calendrier) à partir d’instructions en langage naturel reçues sur Telegram, Slack, Discord, WhatsApp, Signal ou iMessage. Il est agnostique du modèle (Claude, GPT, Mistral, ou Ollama local) et entièrement self-hosted.
OpenClaw est-il vraiment open source et gratuit ?
Oui, sous licence MIT, code source public sur github.com/openclaw/openclaw. L’utilisation est totalement gratuite, sans quota ni télémétrie obligatoire. Les skills officiels sont gratuits sur ClawHub. Certains skills tiers premium pourront être payants à terme, mais la couche cœur reste libre. Vous payez uniquement votre LLM si vous utilisez un provider cloud (et zéro si vous restez sur Ollama).
Quelle différence entre OpenClaw, Claude Code et n8n ?
Trois outils, trois usages. Claude Code écrit et modifie du code dans votre repo. n8n orchestre des pipelines visuels complexes versionnables en JSON. OpenClaw est un compagnon conversationnel multi-canal qui automatise vos tâches dev quotidiennes hors-code. Les trois se complètent ; aucun n’est interchangeable. La règle simple : Claude Code pour coder, n8n pour orchestrer, OpenClaw pour discuter avec votre stack.
Peut-on utiliser OpenClaw avec Ollama en local ?
Oui, c’est même un cas d’usage privilégié. Configurez MODEL_PROVIDER=ollama et OLLAMA_HOST=http://localhost:11434 dans les variables d’environnement, choisissez votre modèle (Llama 3.3, Qwen, Mistral) et OpenClaw fonctionne sans aucun appel cloud. Idéal pour les contextes confidentiels (santé, juridique, finance) ou pour zéro coût marginal après amortissement matériel.
Comment écrire un skill custom OpenClaw ?
Un skill est un dossier contenant un manifest JSON et un script TypeScript qui exporte une fonction defineSkill. Vous y déclarez le nom, la description, le trigger (cron, événement, commande chat), et la fonction run qui reçoit la config, les canaux et le LLM en paramètre. Le SDK @openclaw/sdk documente tout sur docs.openclaw.ai. Un skill simple tient en 30 lignes ; un skill complexe se structure en plusieurs fichiers.
Vous voulez automatiser votre quotidien dev sans tout pousser dans le cloud, en gardant un OpenClaw branché sur votre Ollama local ? On peut cadrer un setup ensemble.





Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !