Cabinet · Format expert unique · France
CONCEPT 11 min de lecture

OpenClaw : test complet et avis 2026 sur l'agent IA local qui a passé les 350 000 étoiles GitHub

Le phénomène OpenClaw est réel, mais une étoile GitHub ne paie pas une facture client. Voici ce que fait vraiment l'agent, comment il s'installe, pourquoi l'incident ClawHavoc oblige à un cadre sécurité strict, et la lecture AI Act pour une PME française. Sans hype, avec mes mises en garde après l'avoir testé chez moi.

OpenClaw est l'agent IA autonome open-source qui a passé les 350 000 étoiles GitHub en mai 2026, soit le projet le plus étoilé de la plateforme. Son slogan officiel résume sa promesse : "the AI that actually does things". Contrairement à un chatbot qui répond, l'agent agit : il lit vos emails, planifie vos rendez-vous, automatise vos messageries, exécute du code, navigue sur le web.

L'engouement est réel, le record est documenté (passage devant React en 60 jours), mais une étoile GitHub ne paie pas une facture client. Cet article répond à trois questions concrètes pour une PME française : qu'est-ce que ça fait vraiment, dans quelles conditions c'est utilisable en production, et comment cadrer le risque de l'incident ClawHavoc qui a frappé l'écosystème début 2026.

Je suis Matthias Marin, fondateur d'AzenFlow. J'ai installé OpenClaw sur ma propre machine, testé les intégrations Telegram et Slack, et je m'appuie ici sur mes 40 + automatisations en production active chez des clients PME (depuis février 2025) pour vous donner une lecture honnête. Si vous hésitez encore entre cet agent et le concurrent direct Hermes Agent par Nous Research, le comparatif détaillé sortira en complément de cet article.

Le phénomène OpenClaw en 2026

Avant de regarder l'outil, regardons la métrique qui fait parler. En mai 2026, OpenClaw dépasse les 350 000 étoiles GitHub et devient le dépôt le plus étoilé de la plateforme, battant React de Meta. Le record est tombé en 60 jours, du jamais-vu sur GitHub dont la décennie précédente était dominée par les frameworks JavaScript.

Cette dynamique tient à trois choses cumulées : un format viral (l'agent vit dans vos messageries, ce qui produit des démonstrations spectaculaires sur les réseaux), une posture open-source assumée (licence permissive, code auditable, marketplace public), et une vague plus large d'agents IA autonomes que je décris dans mon guide sur les agents IA autonomes connectés à n8n.

Concrètement, une étoile GitHub indique un intérêt, pas un usage. Sur les 350 000 étoiles, la fraction qui correspond à un déploiement en production stable se compte plutôt en milliers. C'est encore beaucoup, et c'est cohérent avec ce que je vois passer chez mes contacts techniques. Mais il faut savoir lire la métrique pour ce qu'elle est, pas pour ce qu'on veut y voir.

Peter Steinberger et la communauté open-source

Le créateur d'OpenClaw est Peter Steinberger, alias Molty, surnommé "space lobster AI" par la communauté. Il a lancé le projet début janvier 2026 sous la promesse d'un agent IA qui agit dans le monde réel, pas seulement dans une fenêtre de chat. Le format de communication (vidéos courtes sur les réseaux, démos brutes, marketing très direct) a accéléré la viralité.

En cours d'année 2026, Peter Steinberger a annoncé son arrivée chez OpenAI. Le projet OpenClaw reste en open-source, gouverné par la communauté, mais sa figure tutélaire a basculé côté éditeur. C'est un point que je trouve important à noter pour les dirigeants de PME : la pérennité d'un projet open-source ne dépend pas que de son créateur, elle dépend aussi de la masse critique de contributeurs autour. Sur ce critère, OpenClaw est à un niveau confortable, comparable aux gros frameworks installés.

La gouvernance de fait s'organise autour du dépôt principal, d'une équipe de mainteneurs cooptés, et d'un marketplace communautaire de skills appelé ClawHub. C'est précisément cette ouverture qui fait la force du projet, et c'est aussi elle qui a permis l'incident ClawHavoc que je détaille plus loin.

Ce que fait OpenClaw concrètement

L'agent expose quatre capacités principales que je vois revenir dans les retours de la communauté et dans mes propres tests. Toutes sont compatibles avec une PME française, à condition de cadrer le périmètre comme je vais l'expliquer en section AI Act.

1. Inboxes, calendriers, voyages

Le cas d'usage emblématique de la communauté. Vous demandez à l'agent depuis WhatsApp ou Telegram "trouve-moi un vol Paris-Lisbonne mardi prochain matin, réserve dans ma fourchette habituelle, et bloque le créneau dans mon calendrier". L'agent navigue les sites de réservation, applique vos préférences mémorisées, et confirme via la même conversation. Même mécanique sur le triage email, la planification de meetings, le suivi des tâches via Todoist.

2. Browser automation et exécution shell

OpenClaw peut piloter un navigateur (extraction de données, remplissage de formulaires, interactions web sans API publique) et exécuter du code shell sur votre machine. Cela ouvre la porte à des cas plus techniques : scraping de prospects, surveillance de prix, automatisation d'installations. Attention : cette capacité est aussi le principal vecteur de risque, à cadrer avec une sandbox propre.

3. Mémoire persistante 24/7

L'agent stocke ce qu'il apprend dans une base locale qui survit aux redémarrages. Si vous lui dites lundi de surveiller un concurrent et de vous envoyer un récap chaque vendredi, il s'en souvient. Sur la durée, il affine ses recommandations à partir de vos retours. C'est l'un des points de convergence avec Hermes Agent dont j'ai parlé hier dans le guide Hermes Agent : la mémoire persistante est devenue la table d'enjeu des agents autonomes en 2026.

4. ClawHub et les skills communautaires

ClawHub est le marketplace public où la communauté publie des skills (extensions). En mai 2026, on y trouve plusieurs milliers de skills pour Spotify, Philips Hue, Obsidian, Twitter, Gmail, GitHub, Railway, 1Password, Beeper, WordPress, Hetzner, WHOOP, Google Cloud, Sentry et beaucoup d'autres. C'est la force du projet et, comme je vais l'expliquer plus bas, c'est aussi sa principale vulnérabilité structurelle.

Architecture : local-first, multi-LLM, multi-OS

Trois choix d'architecture structurent OpenClaw. Comprendre ces choix permet de juger si l'outil correspond à votre contexte avant de l'installer.

Local-first. L'agent tourne sur votre machine. Vos données restent locales par défaut (sauf quand l'agent appelle un LLM tiers, ce qui est paramétrable). C'est un argument fort pour la souveraineté que j'ai détaillé dans mon article sur la souveraineté pragmatique de l'IA pour PME : le local-first ne suffit pas à garantir la conformité, mais il pose la bonne base de départ.

Multi-LLM. Vous branchez le modèle de votre choix. Anthropic Claude (la dernière version v2026415 intègre nativement Claude Opus 4.7), OpenAI GPT, MiniMax 2.5 cité comme alternative compétitive, ou des modèles locaux que je couvre dans mon article sur les modèles IA open-source 2026 pour PME. Le choix structure le coût et la conformité : un modèle local laisse tout chez vous, un modèle cloud envoie les requêtes chez le fournisseur.

Multi-OS. Mac, Windows, Linux supportés en première classe. La companion app macOS est en bêta, le canal dev est accessible via openclaw update --channel dev pour ceux qui veulent tester les fonctionnalités à venir avant la release stable. Pour une PME, je recommande systématiquement le canal stable.

Installation et premières heures

L'installation est volontairement simple, une seule commande shell pour bootstrapper l'agent et son runtime Node.js embarqué :

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw setup

La commande openclaw setup ouvre un assistant interactif qui pose les questions essentielles : quel LLM connecter, quelles messageries brancher (Telegram, WhatsApp, Slack, Discord, Signal, iMessage), quelles intégrations activer parmi le catalogue ClawHub. Comptez 15 à 30 minutes pour un premier setup fonctionnel, plus le temps de récupérer les clés API.

Prérequis techniques. Un poste de travail ou un serveur avec accès shell, une clé API LLM (ou un modèle local hébergé chez vous), et idéalement un environnement isolé (conteneur, machine virtuelle ou utilisateur dédié) pour limiter la surface d'attaque de l'exécution shell. L'installation est techniquement accessible, mais elle n'est pas grand-public : il faut être à l'aise avec un terminal.

Mon conseil pour les premières heures : commencez par une tâche simple, observable et réversible. Un briefing email matinal, un suivi de meeting Slack, une veille sur un thème ciblé. Évitez d'emblée les tâches engageantes (envois automatiques vers des clients, modifications de CRM en autonomie complète) tant que vous n'avez pas confiance dans le comportement de l'agent sur votre contexte. Et installez la première session sans aucun skill ClawHub tiers : validez le coeur avant d'élargir.

Le sujet qui dérange : ClawHavoc, 341 skills malveillants sur ClawHub

Au début de l'année 2026, une attaque dite de supply chain nommée ClawHavoc a vu 341 skills malveillants être publiés sur ClawHub, le marketplace communautaire d'OpenClaw. Une fois installés par les utilisateurs, ces skills exfiltraient des données (jetons d'authentification, fichiers locaux, contenu de messageries) vers des serveurs externes contrôlés par les attaquants.

L'incident est structurel à un modèle de skills communautaires non audités. C'est le même schéma que les attaques sur npm, PyPI ou les extensions navigateur. Ce n'est pas une faille du code d'OpenClaw en soi, c'est une faille de l'écosystème de distribution. À écosystème ouvert sans audit centralisé, risque ouvert.

L'équipe OpenClaw a réagi en retirant les skills incriminés, en publiant un audit des packages compromis, et en ajoutant un système de signature pour les skills officiels. Mais le marketplace reste structurellement ouvert, et un nouvel incident reste possible.

Pour une PME française, l'enjeu est triple :

  • RGPD : l'exfiltration de données personnelles constitue une violation au sens de l'article 33 du RGPD, déclarable à la CNIL sous 72 heures. Si vos données clients ou salariés sont touchées, vous êtes en première ligne en tant que responsable de traitement.
  • NIS 2 : la directive européenne sur la cybersécurité des entités essentielles et importantes s'applique à beaucoup de TPE et PME depuis octobre 2024, et impose un management des risques de chaîne d'approvisionnement logicielle. Un skill tiers non audité installé en production est exactement le type de risque visé.
  • AI Act : l'article 26 du règlement européen sur l'IA impose aux "déployeurs" de garantir la robustesse du système d'IA mis en oeuvre, y compris ses composants tiers. Un skill malveillant compromet directement cette robustesse.

Concrètement, si vous déployez OpenClaw en production dans une PME française, je recommande quatre mesures non négociables :

  1. Whitelist explicite des skills autorisés, validée par votre DSI ou un sponsor technique, et révisée à chaque ajout. Pas d'installation libre par l'utilisateur final.
  2. Environnement sandboxé pour l'exécution (conteneur, machine virtuelle, utilisateur dédié sans accès aux données sensibles par défaut). L'option par défaut d'OpenClaw propose une isolation, à vérifier sur votre installation.
  3. Journal d'exécution centralisé et conservé 12 mois minimum. Chaque appel à un skill, chaque action de l'agent, doit être traçable a posteriori. C'est aussi une obligation de l'AI Act pour les déployeurs.
  4. Revue trimestrielle des skills installés par un référent sécurité, avec retrait immédiat des skills devenus non maintenus ou identifiés comme compromis.

Ces quatre mesures ne sont pas du zèle, ce sont les obligations minimales pour rester du bon côté de la régulation. Une PME qui les met en place est mieux armée que la moyenne, y compris hors contexte OpenClaw.

AI Act et RGPD : ce que ça implique au-delà de ClawHavoc

Le local-first d'OpenClaw est une bonne base pour la souveraineté, mais il n'est pas un blanc-seing réglementaire. Dès que vous déployez l'agent dans un contexte professionnel, vous devenez "déployeur" au sens du règlement européen sur l'IA, avec trois obligations principales que je rappelle systématiquement à mes clients.

  1. Transparence (article 50) : si l'agent interagit avec un humain (client, salarié, prestataire), informer explicitement qu'il s'agit d'un système IA. Une mention claire dans la signature de l'agent, un disclaimer visible dans les messageries, et une page transparence sur votre site sont la base.
  2. Journalisation (article 26) : conserver les logs des décisions à impact pendant la durée réglementaire (12 mois minimum pour la majorité des cas). C'est exactement la recommandation que j'ai détaillée pour ClawHavoc, et elle vaut indépendamment de l'incident.
  3. Supervision humaine : au moins un humain reste responsable des décisions de l'agent sur les sujets sensibles (RH, finance, juridique). Un agent autonome n'absout pas la chaîne de responsabilité.

Côté RGPD, deux points spécifiques à OpenClaw méritent attention. Premièrement, le choix du LLM : si vous appelez Anthropic ou OpenAI depuis l'agent, les données quittent l'Europe (hébergement majoritairement États-Unis). À documenter dans votre registre des traitements. Deuxièmement, la mémoire persistante : l'agent stocke localement ce qu'il apprend, ce qui peut inclure des données personnelles de vos interlocuteurs. Prévoir une politique de purge et un mécanisme de droit à l'effacement compatible avec l'article 17 du RGPD.

Pour qui c'est viable, pour qui ce n'est pas (encore)

Sur la base de mes tests et de mes échanges avec la communauté, voici la matrice que j'utilise pour qualifier un projet OpenClaw en avant-vente.

Profil Verdict Raison
PME 20-200 personnes avec sponsor techniqueViableVous avez la capacité d'installer le cadre sécurité, de superviser l'agent, et de mesurer le ROI.
TPE sans équipe techniqueNon viableCommencer par des workflows n8n déterministes, plus prudents et plus simples à cadrer.
Cabinets comptables, avocats, RHViable avec cadre strictLe secret professionnel et le RGPD imposent un local-first complet (modèle local, zéro skill tiers non audité).
ETI multi-sitesViableMais préférer une architecture multi-agents avec orchestration centralisée plutôt qu'un agent par poste.
Décisions à très haute criticité (médical, juridique tranchant)Non recommandéUn workflow n8n déterministe ou une procédure humaine reste plus prudent. L'agent peut assister, pas décider.

Mes 3 mises en garde avant d'aller en production

J'ai du respect pour le travail accompli sur OpenClaw, et la dynamique communautaire est réelle. Cela dit, après avoir testé l'outil et au regard de mes 40 + automatisations en production active chez des clients PME (depuis février 2025), voici les trois points sur lesquels je vous mettrais en garde avant tout déploiement engageant.

1. La hype des 350 000 étoiles ne dit rien de la production

Une étoile GitHub est un signal d'intérêt, pas une preuve d'usage. Sur les 350 000 étoiles, je table sur quelques milliers de déploiements stables en mai 2026, le reste étant de la curiosité ou du tracking de tendances. Pour une PME, le bon référentiel n'est pas le nombre d'étoiles mais le nombre de retours d'expérience documentés sur des cas comparables au vôtre. Ce volume reste limité.

2. ClawHub est une force ET un risque

Le marketplace de skills est la magie de l'écosystème, et c'est précisément ce qui a permis ClawHavoc. Je ne crois pas qu'on puisse avoir l'un sans l'autre dans un modèle 100 % ouvert. La leçon que j'en tire : traiter ClawHub comme on traite npm ou PyPI en production sérieuse, c'est-à-dire avec une politique de dépendances explicite, un audit de chaque ajout, et une supervision continue. Pas en mode libre-service.

3. Local-first n'est pas un blanc-seing réglementaire

Le fait que l'agent tourne chez vous ne suffit pas à coller à l'AI Act ou au RGPD. Les obligations de transparence, journalisation et supervision humaine s'appliquent quel que soit l'hébergement. Je vois trop souvent l'argument "c'est en local donc c'est conforme", c'est faux et c'est dangereux. La conformité se construit dans la conception de l'usage, pas dans la géographie du serveur.

Verdict et prochaines étapes

Pour qui c'est utile : les PME et ETI avec un sponsor technique en interne, des tâches récurrentes longues (veille, triage, briefings), et la capacité d'installer un cadre sécurité strict autour de ClawHub. Avec un budget LLM mensuel de 50 à 200 euros, vous avez un agent productif qui s'amortit vite sur le triage email et la veille.

Pour qui ce n'est pas (encore) utile : les TPE sans équipe technique, les usages à très haute criticité, ou les organisations qui n'ont personne pour superviser l'agent au quotidien. Dans ces cas, une prestation n8n déterministe reste un meilleur premier pas.

Si vous hésitez entre OpenClaw, Hermes Agent ou un workflow n8n classique, l'audit gratuit de 45 minutes que je propose permet de poser le sujet sur la table. On regarde vos processus, vos volumes, votre exposition réglementaire, et on choisit l'outil qui correspond. Si vous voulez un cadrage AI Act dédié pour préparer un déploiement OpenClaw, je propose un accompagnement spécifique via mes formations IA et conformité.

Matthias Marin, fondateur AzenFlow

RÉDIGÉ PAR

Matthias Marin

Fondateur d'AzenFlow, cabinet de stratégie IA en format expert unique. 40 + automatisations en production active chez des clients PME depuis février 2025, 25 + missions cabinet réalisées. Formateur Claude Code dans quatre organismes Qualiopi (Matchers, Alphorm, Senza, École Cube) et intervenant au MSc Finance & Data x Mines Paris PSL (Albert School), module Workflow Automation. Profil vérifiable : LinkedIn Matthias Marin.

Article publié le

QUESTIONS FRÉQUENTES

Ce que les dirigeants me demandent sur OpenClaw

OpenClaw est-il vraiment gratuit ?

Oui, OpenClaw est open-source et gratuit, y compris pour un usage commercial. Deux coûts subsistent toutefois : le LLM appelé (Claude, GPT, MiniMax, modèles locaux) facturé à l'usage ou hébergé chez vous, et le temps technicien interne pour le déploiement, le suivi des skills et la supervision. Comptez 50 à 200 euros de LLM par mois pour une PME, plus un demi-jour technicien mensuel en routine stable.

OpenClaw ou Hermes Agent, lequel choisir ?

Les deux sont open-source et autonomes, mais répondent à deux profils. OpenClaw est plus grand public technique, install one-liner, marketplace ClawHub, intégration messageries facile. Hermes Agent est plus ingénieur, 5 backends d'exécution explicites, pas de marketplace public, plus facile à cadrer en AI Act. Lisez le comparatif complet Hermes Agent vs OpenClaw pour une matrice détaillée par profil PME.

Comment se protéger de ClawHavoc et des skills malveillants ?

Quatre mesures concrètes : une whitelist explicite des skills autorisés validée par votre DSI, un environnement sandboxé pour l'exécution, un journal d'exécution centralisé conservé 12 mois minimum, et une revue trimestrielle des skills installés. Ces mesures couvrent l'essentiel des obligations NIS 2 et AI Act article 26 sur la chaîne d'approvisionnement logicielle.

OpenClaw remplace-t-il un workflow n8n ?

Non, les deux paradigmes sont complémentaires. Un workflow n8n est déterministe (même entrée, même sortie, traçable, simple à auditer), OpenClaw est un agent qui décide en fonction du contexte (plus puissant sur les tâches non scriptables, plus difficile à auditer). J'ai détaillé l'architecture multi-agents pour PME qui explique comment combiner workflow déterministe et agent autonome.

Faut-il être développeur pour utiliser OpenClaw ?

Oui pour le déployer, non pour interagir avec lui. L'installation tient en une commande shell, mais la configuration des skills, le choix du LLM, le branchement aux messageries et la mise en place du cadre sécurité demandent une appétence technique réelle. Une fois en route, vos équipes parlent à l'agent depuis WhatsApp, Telegram ou Slack en langage naturel. Pour une TPE sans sponsor technique, je recommande de commencer par des workflows n8n déterministes.

À LIRE AUSSI
AUDIT GRATUIT · 45 MIN

Prêt à évaluer si OpenClaw a sa place chez vous ?

45 minutes pour cartographier vos processus, identifier où un agent type OpenClaw ou un workflow n8n apporte le plus de valeur, et repartir avec des recommandations concrètes. Sans engagement.

Réserver l'audit

45 min · Gratuit · Sans engagement · Recommandations personnalisées