Cabinet de stratégie IA · 100 % remote · France & Europe
🤖 IA & TRANSPARENCE Mise à jour : 30 avril 2026 Conforme AI Act art. 50

Transparence totale
sur notre usage de l'IA.

Nous parlons de conformité AI Act à nos clients. Il est normal que nous appliquions à nous-mêmes ce que nous prêchons. Voici le registre exhaustif des systèmes d'IA utilisés chez AzenFlow.

Nos engagements en matière d'IA

Nos principes guident chaque déploiement d'IA dans nos workflows internes et chez nos clients :

  • Validation humaine systématique (HITL) : aucune décision finale n'est prise par une IA sans contrôle d'un humain. Les contenus générés par IA sont relus, corrigés ou validés avant diffusion ou exécution.
  • Mention de l'IA : tout contenu rédigé avec l'assistance de l'IA et destiné à un client, partenaire ou utilisateur final est explicitement signalé comme tel (signature, mention de bas de page, ou indication contextuelle).
  • Données minimales : nous n'envoyons aux modèles d'IA que les données strictement nécessaires à la tâche. Aucune donnée personnelle sensible (santé, juridique sensible, données de mineurs) n'est traitée par des modèles SaaS sans consentement explicite et DPA renforcé.
  • Sous-traitants vérifiés : tous nos fournisseurs d'IA (Anthropic, OpenAI, etc.) ont signé un DPA conforme RGPD avec nous, et les transferts hors UE sont encadrés par les clauses contractuelles types (SCCs) de la Commission européenne.
  • Logs d'audit : pour les workflows de production, nous conservons des logs d'audit pendant 12 mois (qui, quand, quel modèle, hash de la requête et de la réponse) afin de pouvoir tracer toute interaction IA en cas de contrôle CNIL.
  • Pas d'entraînement sur vos données : nous utilisons uniquement les modes "API" ou "Enterprise" qui garantissent la non-réutilisation de vos prompts et réponses pour l'entraînement de modèles. Vos données ne nourrissent pas les futurs modèles.
  • Révision annuelle : ce registre est revu chaque année (prochaine révision : 30 avril 2027). Toute modification substantielle (nouveau système, changement de fournisseur) est documentée immédiatement.

Registre des systèmes d'IA utilisés par AzenFlow

Liste exhaustive des systèmes d'IA actifs au 30 avril 2026, classés par usage. Cette liste évolue : nous l'enrichissons à chaque ajout d'outil et la simplifions à chaque retrait.

SYSTÈME 1 Risque limité (art. 50)

EN PRODUCTION

Assistance à la rédaction de contenus pédagogiques

MODÈLE

Claude Sonnet 4.5 (Anthropic)

FOURNISSEUR

Anthropic PBC (États-Unis)

USAGE

Pré-rédaction et structuration des chapitres de cours et articles de blog AzenFlow

DPA SIGNÉ

Oui, conforme RGPD article 28

Données envoyées : plans de cours, briefs éditoriaux, recherches documentaires. Pas de données personnelles client.

Contrôle humain : 100% des contenus sont relus, édités et validés par Matthias Marin avant publication. Aucune publication automatisée.

Mention pour le lecteur : les cours et articles ne sont pas explicitement marqués "IA-assisté" car le travail éditorial humain est substantiel (relecture, correction, restructuration, ajout d'expérience terrain). Cette page de transparence couvre l'engagement.

SYSTÈME 2 Risque limité (art. 50)

EN PRODUCTION

Recherche documentaire et veille technologique

MODÈLE

Claude (recherche assistée), Perplexity, ChatGPT

FOURNISSEURS

Anthropic, Perplexity AI, OpenAI

USAGE

Vérification de faits, synthèse de documentation, exploration de tendances marché

DPA SIGNÉ

Oui pour Anthropic et OpenAI

Données envoyées : requêtes textuelles génériques (questions techniques, recherches métiers). Aucune donnée client.

Contrôle humain : vérification systématique des sources avant intégration dans nos contenus ou recommandations clients. Une recherche IA n'est jamais une source primaire.

Pratique éditoriale : nous vérifions chaque chiffre, citation ou affirmation auprès de la source officielle (CNIL, JOUE, documentation produit, etc.) avant publication.

SYSTÈME 3 Risque limité

EN PRODUCTION

Génération et révision de code

OUTILS

Claude Code (CLI), GitHub Copilot

FOURNISSEURS

Anthropic, GitHub (Microsoft)

USAGE

Développement du site web AzenFlow et des workflows clients (avec autorisation explicite)

DPA SIGNÉ

Oui, opt-out training data activé

Données envoyées : code source des projets en cours, documentation technique. Aucune donnée client métier.

Contrôle humain : tout code généré est revu manuellement, testé localement, puis déployé. Aucun déploiement automatique sans validation humaine.

Pour les missions client : nous demandons toujours l'autorisation écrite avant d'utiliser des assistants IA sur du code métier sensible. Pour les clients refusant, nous codons sans assistance IA.

SYSTÈME 4 Risque limité (art. 50)

EN PRODUCTION

Pré-rédaction de réponses aux emails entrants

MODÈLE

Claude Sonnet 4.5 via n8n auto-hébergé

INFRASTRUCTURE

VPS Hostinger France, données chiffrées

USAGE

Brouillons de réponse aux demandes commerciales et support, classification automatique

CONSERVATION LOGS

12 mois (registre AI Act)

Données traitées : contenu des emails reçus (nom, adresse email, message). Stockage temporaire pour traitement, pas de conservation au-delà du brouillon créé.

Contrôle humain : 100% des brouillons sont relus, modifiés ou réécrits par Matthias Marin avant envoi. Aucun envoi automatique.

Mention dans la réponse : chaque réponse pré-rédigée comporte une mention en signature : "Réponse pré-rédigée par un assistant IA, revue et corrigée par notre équipe avant envoi".

Base légale RGPD : intérêt légitime (article 6.1.f), pour l'amélioration de la qualité et de la rapidité du service client.

SYSTÈME 5 Risque limité (art. 50)

EN PRODUCTION

Zen-Bot — assistant conversationnel public sur azenflow.com

MODÈLE

Claude Sonnet 4.5 (via workflow n8n auto-hébergé)

FOURNISSEUR

Anthropic PBC (US) via webhook n8n France

USAGE

Réponses aux questions visiteurs sur services, formations, IA Act, n8n, méthode CADRE

DPA SIGNÉ

Oui (Anthropic + clauses contractuelles types UE)

Données traitées : texte des messages utilisateur (max 500 caractères) + historique conversation (max 12 messages). Aucune demande d'email, téléphone ou identité.

Mention transparence (art. 50) : badge "IA assistée" affiché en permanence dans l'en-tête du widget. Disclaimer dès la première interaction. Lien vers cette page accessible en permanence depuis le widget.

Contrôle humain : rate limit (5/min, 50/jour par IP), prompts système restrictifs (jamais de prix précis, jamais de promesse contractuelle, redirection systématique vers un humain pour les sujets engageants), logs sans PII, pas d'effet juridique automatisé.

Conservation : conversations stockées localement dans le navigateur de l'utilisateur (localStorage). Côté serveur, logs agrégés sans contenu (timestamp, IP, longueurs) conservés 12 mois maximum.

Bouton de réinitialisation : chaque utilisateur peut effacer sa conversation à tout moment depuis le widget (bouton "↺ Reset").

Ce que nous ne faisons PAS

Liste explicite des usages d'IA que nous refusons par principe ou par éthique :

  • Aucune décision automatisée à effet juridique sur nos clients ou nos prospects (refus de contrat, scoring, etc.)
  • Aucune génération automatique d'emails sortants sans relecture humaine systématique
  • Aucun usage de deepfakes ou de génération d'images de personnes réelles
  • Aucun profilage automatisé de prospects ou clients (au sens RGPD article 22)
  • Aucune utilisation de modèles SaaS pour traiter des données sensibles (santé, opinions politiques, données pénales) sans consentement explicite renforcé
  • Aucun envoi de données client à des modèles d'IA sans clause contractuelle explicite ou autorisation écrite
  • Aucune participation aux programmes d'entraînement de modèles d'IA tiers (opt-out systématique chez tous nos fournisseurs)

Sous-traitants IA et conformité RGPD

Pour chaque fournisseur d'IA, nous avons signé un DPA (Data Processing Agreement) conforme à l'article 28 du RGPD. Les transferts hors UE sont encadrés par les SCCs (Standard Contractual Clauses) de la Commission européenne.

Anthropic PBC

Siège : États-Unis · DPA signé avec SCCs · Opt-out training data activé · Conformité SOC 2 Type II

OpenAI

Siège : États-Unis · DPA signé avec SCCs · Mode API (non-utilisation des données pour training, garantie contractuelle)

GitHub (Microsoft)

Siège : États-Unis · DPA Microsoft · Opt-out Copilot training activé · Compatible RGPD

Perplexity AI

Siège : États-Unis · Compte payant Pro · Mode "no training" activé · Usage limité à la recherche documentaire publique

Nous évaluons régulièrement des alternatives européennes (Mistral AI, Aleph Alpha) et migrons quand la qualité métier le permet. C'est un travail continu de souveraineté pragmatique.

Vos droits face à nos systèmes d'IA

En tant que personne dont les données peuvent être traitées par nos systèmes d'IA (par exemple lorsque vous nous écrivez un email), vous disposez des droits suivants :

  • Droit à l'information (art. 13-14 RGPD) : cette page le matérialise. Vous savez précisément quels systèmes d'IA traitent vos données.
  • Droit d'accès (art. 15) : vous pouvez demander à tout moment quelles données vous concernant ont été traitées par un système d'IA.
  • Droit de rectification (art. 16) : si une réponse pré-rédigée par IA contient une information erronée, signalez-le, nous corrigeons et, si pertinent, nous mettons à jour le prompt source.
  • Droit d'effacement (art. 17) : à votre demande, nous supprimons vos données des logs d'audit IA (sauf obligations légales contraires).
  • Droit d'opposition au profilage (art. 22) : nous ne pratiquons aucun profilage automatisé. Si vous le souhaitez, vous pouvez explicitement demander qu'aucun système d'IA ne traite vos données dans nos échanges.
  • Droit à l'intervention humaine : sur simple demande, votre dossier est traité 100% manuellement, sans aucune assistance IA.

Pour exercer un de ces droits, écrivez-nous à contact@azenflow.com. Nous répondons sous 30 jours maximum, conformément au RGPD.

Gouvernance et contact

La gouvernance des systèmes d'IA chez AzenFlow est assurée directement par notre fondateur et responsable légal :

Responsable IA et délégué à la protection des données : Matthias Marin

Email : contact@azenflow.com

Adresse postale : SASU AZENFLOW, contact via formulaire

Si vous estimez qu'un de nos systèmes d'IA porte atteinte à vos droits, vous pouvez déposer une réclamation auprès de la CNIL (Commission nationale de l'informatique et des libertés), autorité de contrôle française pour le RGPD et l'AI Act.

Historique des révisions

  • v1.0 · 30 avril 2026 Version initiale du registre. Documentation des 4 systèmes en production : rédaction pédagogique (Claude), recherche documentaire (multi-modèles), génération de code (Claude Code, Copilot), pré-rédaction d'emails (n8n + Claude).

Les futures révisions seront listées ci-dessus avec date et résumé des changements. Prochaine révision programmée : 30 avril 2027 (revue annuelle).

VOUS AUSSI ?

Construire votre propre page de transparence IA.

L'AI Act 2026 (article 50) impose la transparence sur l'usage de l'IA. Notre cours gratuit IA Act 2026 pour PME françaises vous guide chapitre par chapitre. Pour un accompagnement sur mesure, parlons-nous.

Réserver un audit