Qu'est-ce qu'une swarm intelligence appliquée à la prédiction ?
La swarm intelligence (intelligence en essaim) fait collaborer un grand nombre d'agents simples dont les interactions produisent un comportement émergent. Appliquée à la prédiction, l'idée est élégante : simuler une communauté virtuelle (utilisateurs Twitter, votants, consommateurs), la confronter à un scénario, observer comment la situation évolue. C'est le cousin numérique des marchés de pari (prediction markets), sans transactions monétaires réelles.
Concrètement, vous décrivez 100 ou 500 agents avec des profils variés (CSP, opinions, habitudes médiatiques), vous leur soumettez un événement déclencheur (lancement produit, crise sanitaire, changement réglementaire), et la simulation tourne plusieurs tours. État final : 73 % des agents adoptent le produit, 41 % partagent l'information négative, 12 % changent d'opinion. Ces chiffres sont des indications, pas des vérités. Pour le cadre théorique large, consultez mon article sur l'architecture multi-agents pour PME.
Le paradigme est ancien (les chercheurs de l'INRIA y travaillent depuis vingt ans), mais 2025-2026 a vu son explosion grâce à deux facteurs : les LLM rendent les agents crédibles dans leurs réactions, et le coût d'inférence a chuté assez pour simuler des centaines d'agents pour quelques euros. MiroShark et MiroFish sont les deux moteurs open-source les plus visibles pour démocratiser ce paradigme.
MiroShark : l'outsider américain
MiroShark est porté par Aaron J. Mars, développeur indépendant américain, publié sur github.com/aaronjmars/MiroShark. Le projet revendique le titre de Universal Swarm Intelligence Engine : 1 100 étoiles GitHub, 224 forks, 413 commits, sous AGPL-3.0. Stack lisible : Python 3.11+, Vue côté interface, Neo4j comme base de graphe pour modéliser les relations entre agents, OpenRouter pour l'accès aux LLM.
Périmètre fonctionnel resserré : simulation d'une plateforme Twitter-like (publication, partage, commentaire), simulation Reddit (votes, threads), simulation de marchés de prédiction. Lanceur one-liner ./miroshark, première simulation en environ 10 minutes pour ~1 dollar de coût LLM. Compatible Ollama pour les modèles locaux, déployable via Docker, Railway, Render ou en local.
Fonctionnalités notables : counterfactual branching (faire bifurquer une simulation pour comparer deux scénarios), mode director (intervenir pour orienter la suite), galerie publique de scénarios partagés, webhooks, flux RSS/Atom des résultats. Pour une équipe data avec exigence de souveraineté, cette stack est rassurante : code lisible, routage LLM via OpenRouter, Neo4j auto-hébergé. Mon panorama des modèles IA open-source 2026 pour PME situe OpenRouter et Ollama dans le paysage souverain.
MiroFish : le géant chinois
MiroFish est publié sur github.com/666ghj/MiroFish par 666ghj, soutenu par Shanda Group (groupe chinois actif dans le jeu vidéo, la finance et la tech). Chiffres impressionnants : 60 200 étoiles GitHub, 9 400 forks, dernière release v0.1.2 du 7 mars 2026, 260 + commits, 127 issues ouvertes. Licence AGPL-3.0.
Positionnement plus ambitieux : AI prediction engine that simulates future outcomes. Stack : Python 3.11-3.12, Vue (41,2 % du code), Node.js 18+, SDK OpenAI-compatible avec Qwen (Alibaba) recommandé par défaut, Zep Cloud pour la mémoire des agents. Moteur de simulation basé sur OASIS (Open Agent Social Interaction Simulations), framework académique qui modélise les dynamiques sociales sur plusieurs plateformes simultanément.
Cas d'usage publics documentés : étude conduite avec l'université de Wuhan sur l'opinion publique lors d'un événement médiatique, simulation littéraire autour du roman classique Le Rêve dans le Pavillon Rouge, scénarios financiers et politiques. Ces vitrines vendent le projet à un public académique ou tech, mais soulèvent une question de souveraineté : l'écosystème Qwen/Alibaba implique un routage LLM par la Chine si vous suivez les recommandations par défaut. Mon guide AI Act 2026 pour PME détaille les obligations de transparence sur les sous-traitants IA.
Tableau comparatif complet
Voici la grille de lecture que j'utilise pour comparer les deux projets, mise à jour au 12 mai 2026 à partir des dépôts GitHub publics et des documentations éditeur.
| Critère | MiroShark | MiroFish |
|---|---|---|
| Origine | Aaron J. Mars, développeur indépendant (États-Unis) | 666ghj, soutien Shanda Group (Chine) |
| Étoiles GitHub | 1 100, 224 forks, 413 commits | 60 200, 9 400 forks, 260 + commits |
| Licence | AGPL-3.0 | AGPL-3.0 |
| Stack technique | Python 3.11+, Vue, Neo4j, Docker | Python 3.11-3.12, Vue (41,2 %), Node.js 18+ |
| LLM recommandé | OpenRouter (multi-fournisseurs), Ollama pour local | SDK OpenAI-compatible, Qwen (Alibaba) par défaut |
| Simulation engine | Moteur maison (Twitter-like, Reddit, prediction markets) | OASIS (framework académique multi-plateforme) |
| Mémoire des agents | Neo4j (base de graphe locale) | Zep Cloud (service cloud externe) |
| Cas d'usage publics | Galerie publique de scénarios partagés, webhooks, RSS/Atom | Université Wuhan (opinion publique), littérature classique chinoise, scénarios financiers et politiques |
| Fréquence des releases | Commits fréquents, pas de release taggée formelle visible | Release taggée v0.1.2 (7 mars 2026), rythme modéré |
| Déploiement | One-liner ./miroshark, Docker, Railway, Render, local | Setup guidé, Docker documenté, dépendance Zep Cloud |
Premier constat : les deux projets partagent une stack Python + Vue et une licence AGPL-3.0, mais divergent fortement sur les choix de souveraineté. MiroShark garde la mémoire en local via Neo4j, MiroFish dépend d'un service cloud externe (Zep Cloud). Ce détail technique a des conséquences réelles côté RGPD et AI Act, j'y reviens plus loin.
Le piège des métriques GitHub
C'est l'encadré que je voulais absolument écrire pour cet article. La communauté swarm intelligence francophone regarde souvent MiroFish avec déférence à cause des 60 000 étoiles, et range MiroShark dans la catégorie "petit projet". Cette lecture est paresseuse. Voici les vrais signaux à regarder.
Une croissance d'étoiles GitHub peut venir d'une couverture média virale (légitime), d'un partenariat avec un grand acteur (visible dans le README), de campagnes de promotion (légitime aussi), ou d'opérations artificielles (star-farming, comptes inactifs). Pour MiroFish, le soutien public de Shanda Group est documenté et légitime une partie de l'attention. Mais le ratio étoiles/issues fermées et la cadence de release modérée (une seule taggée en 2026) sont des signaux à pondérer.
Côté MiroShark, 413 commits sur un dépôt avec un contributeur principal et un rythme régulier est un signal sain pour un projet de R&D. Pas un projet mature pour la production non plus : les deux sont à un stade expérimental. Ma règle : les étoiles sont une métrique de notoriété, pas de qualité technique. Pour évaluer la qualité, lisez le code, faites tourner un projet exemple, comparez les architectures.
Cas d'usage concrets pour une PME française
Mettons les pieds dans le réel : à quoi peuvent servir ces outils dans une PME française en 2026, et surtout, à quoi ils ne servent pas. Voici les cinq cas que je rencontre en audit, avec leurs limites.
1. Anticiper les retombées presse d'une annonce
Une PME prévoit une annonce produit ou un communiqué sensible. On simule 200 agents représentatifs (journalistes, influenceurs sectoriels, clients critiques, utilisateurs lambda), on injecte le communiqué, on observe la dynamique des partages sur 5 tours. Sortie utile : identifier les angles de critique probables avant publication. La simulation est un test de résistance, pas un compteur.
2. Tester des scénarii business avant décision
Lancement de gamme tarifaire, repositionnement marketing, changement de canal. On simule la réaction de personas clients (démographies issues de votre CRM, anonymisées) face à différentes hypothèses, on identifie le scénario à plus faible résistance. Ce n'est pas un substitut à une étude de marché professionnelle, c'est un éclairage rapide quand la décision doit être prise sans budget étude.
3. Simuler l'impact d'un changement réglementaire
Un cabinet comptable peut simuler la réaction de ses clients PME à une obligation déclarative nouvelle, ou tester l'adhérence à une recommandation interne sur un sujet sensible. On cherche les zones de friction probables, pas un taux d'adoption précis. Pour le cadre réglementaire IA, lisez mon guide AI Act 2026 et conformité PME.
4. AVERTISSEMENT : ce n'est PAS un oracle financier ni un substitut d'étude de marché
Je vois passer des promesses de simulation prédictive sur les marchés financiers ou les comportements d'achat. Ces outils ne sont pas des oracles : un agent simulé est un modèle statistique d'un humain, pas un humain. Les comportements émergents qu'il produit reflètent les biais de vos prompts et de vos données seed plus que la réalité. Utiliser MiroShark ou MiroFish pour orienter une décision financière à fort enjeu sans validation humaine est imprudent. De même, une étude de marché professionnelle s'appuie sur des panels représentatifs et une humanité réelle dans les réponses : les deux approches sont complémentaires, pas substituables. Pour les biais en IA générative, voir mon article sur les hallucinations IA en 4 étapes.
AI Act, licence AGPL-3.0 et limites juridiques
La licence AGPL-3.0 partagée par les deux outils est plus contraignante que la GPL classique sur un point critique : la clause copyleft réseau. Si vous modifiez le code et que vous l'exposez via un service en ligne accessible à des tiers (SaaS, API publique, application web), vous devez publier votre code modifié sous la même licence. La GPL classique ne déclenche cette obligation qu'en cas de redistribution physique.
- Usage interne uniquement : aucune obligation de publication. Vous installez l'outil sur vos serveurs, vos modifications restent privées. C'est le cas par défaut pour la R&D et la veille concurrentielle.
- Mise à disposition à des clients via une interface web : l'AGPL-3.0 se déclenche, vous devez publier vos modifications. Obstacle réel si votre modèle commercial repose sur du code propriétaire.
- Intégration dans un produit SaaS commercial : même conclusion. Anticiper avec un avocat IT, et évaluer une éventuelle licence commerciale (rare sur ces projets, mais possible avec Shanda Group pour MiroFish).
Sur le plan AI Act, l'usage interne d'une simulation multi-agents ne tombe en général pas dans les catégories à haut risque, sauf décisions à impact (RH, crédit, accès à un service). Dans ce cas : documenter le système, journaliser les décisions, garantir une supervision humaine. La transparence article 50 s'applique dès que les résultats sont restitués à un humain non averti dans le cadre d'une décision.
Mes mises en garde
Trois points que je répète systématiquement en audit quand un dirigeant me parle de simulation multi-agents. Ce sont mes biais argumentés, pas des certitudes universelles.
1. Les simulations multi-agents sont des laboratoires d'hypothèse, pas des oracles
Je le dis souvent et je le redirai : le rôle d'une simulation est de stresser une hypothèse, pas de la valider. Quand MiroShark ou MiroFish annoncent "73 % des agents adoptent le produit", cette sortie a une valeur exploratoire, pas prédictive : vous avez identifié un scénario parmi plusieurs, et vous devez maintenant enrichir l'hypothèse avec d'autres sources (sondage, entretien client, données historiques). Confondre exploration et prédiction est l'erreur la plus fréquente que je vois sur ces outils.
2. La qualité dépend fortement des prompts initiaux et des données seed
J'ai testé les deux outils avec deux jeux de prompts différents sur le même scénario : les résultats divergent de plus de 30 %. La qualité des sorties est conditionnée par la qualité des entrées. Investir 80 % de votre temps dans la conception des prompts et le choix des données seed est plus rentable que de jouer avec les paramètres du moteur. Je recommande trois jeux de prompts indépendants par scénario, et mesurer la dispersion des résultats avant de conclure.
3. Un dirigeant PME aura plus de ROI sur des automatisations n8n déterministes
Pour 80 % des PME françaises, un workflow n8n qui automatise les relances de factures, le triage des emails, la synchronisation CRM-comptabilité ou la veille concurrentielle apportera plus de valeur en 2026 qu'une simulation multi-agents probabiliste. Mon retour de 40 + automatisations en production active chez des clients PME (depuis février 2025) est sans appel. Les simulations arrivent dans un second temps, quand l'opérationnel est déjà en place. Pour le contexte agents IA connectés à n8n, lisez mon guide complet.
Verdict final et matrice de décision
Mon choix par défaut pour un projet R&D PME en mai 2026 : MiroShark. Stack plus lisible (Neo4j local, OpenRouter transparent), périmètre fonctionnel resserré, pas de dépendance à un service cloud externe, cadre RGPD et AI Act simplifié.
Quand basculer vers MiroFish : équipe data avec budget LLM large, exploitation du moteur OASIS et de ses scénarios multi-plateformes, souveraineté non prioritaire, audit AGPL préalable accepté pour anticiper les obligations en cas de déploiement commercial.
Quand prendre du recul : si votre PME n'a pas encore automatisé ses processus opérationnels avec n8n, commencez par là. Les simulations sont un investissement de maturité : elles éclairent les décisions stratégiques d'organisations qui ont déjà l'opérationnel en place. L'audit gratuit de 45 minutes que je propose pose ce diagnostic sur votre contexte précis.
RÉDIGÉ PAR
Matthias Marin
Fondateur d'AzenFlow, cabinet de stratégie IA en format expert unique. 40 + automatisations en production active chez des clients PME depuis février 2025, 25 + missions cabinet réalisées. Formateur Claude Code dans quatre organismes Qualiopi (Matchers, Alphorm, Senza, École Cube) et intervenant au MSc Finance & Data x Mines Paris PSL (Albert School), module Workflow Automation. Profil vérifiable : LinkedIn Matthias Marin.
Article publié le