Construire la Confiance par une IA Transparente : Un Partenariat Humain-Machine pour la Participation Citoyenne
Comment Ò Capistaine construit la confiance avec les citoyens et les agents publics grâce à une fiabilité mesurable de l'IA

La confiance est le produit
Quand nous déployons l'IA dans des applications civiques, nous ne vendons pas un logiciel — nous demandons la confiance. La confiance de deux groupes aux préoccupations très différentes :
- Les citoyens ont besoin de croire que leur voix compte, qu'un algorithme ne rejettera pas silencieusement leur contribution
- Les agents publics ont besoin de croire que l'IA est un collègue, pas une menace pour leur expertise et leur emploi
Ces deux formes de confiance partagent un fondement commun : une fiabilité démontrée dans le temps. Pas des promesses. Pas du marketing. Des preuves mesurées, visibles, continues que le système fonctionne avec les humains, pas à leur place.
La peur que nous devons affronter
Soyons directs sur l'éléphant dans la pièce : les agents publics s'inquiètent que l'IA prenne leur emploi. Cette peur est légitime et nous refusons de la balayer.
Notre réponse n’est pas « l’IA ne vous remplacera pas » (promesse que nous ne pouvons pas tenir). Nous préférons être honnêtes :
Dans la participation citoyenne, l'IA ne peut pas et ne devrait pas remplacer le jugement humain. Elle peut seulement gagner le droit de gérer les tâches routinières en faisant ses preuves, libérant les humains pour le travail qui nécessite véritablement la sagesse humaine.
L'objectif n'est pas l'automatisation, mais l'augmentation — créer une équipe où chacun apporte ses forces.
Le Modèle d'Équipe Humain-IA
Nous n'implémentons pas « l'automatisation par IA ». Nous construisons une équipe avec des rôles clairs :
┌─────────────────────────────────────────────────────────────────┐
│ LE MODÈLE DE COLLABORATION │
├─────────────────────────────────────────────────────────────────┤
│ │
│ L'IA APPORTE │ L'HUMAIN APPORTE │
│ ──────────── │ ──────────────── │
│ • Rapidité (disponible 24/7) │ • Jugement (contexte) │
│ • Cohérence (mêmes règles) │ • Empathie (intention) │
│ • Reconnaissance de patterns │ • Responsabilité │
│ • Tri infatigable │ • Connaissance locale │
│ │ • Légitimité démocratique │
│ │
│ L'IA NE FAIT JAMAIS │ L'HUMAIN FAIT TOUJOURS │
│ ─────────────────── │ ────────────────────── │
│ • Rejet définitif │ • Examen des appels │
│ • Décisions politiques │ • Résolution cas limites │
│ • Communication aux citoyens │ • Vérification confiance │
│ │
└─────────────────────────────────────────────────────────────────┘
Ce n'est pas une échelle où l'IA grimpe vers le remplacement des humains. C'est un partenariat stable où les responsabilités sont divisées par compétence, pas par commodité.
Comment la confiance se construit : Transparence à chaque étape
La confiance ne se décrète pas — elle se gagne par la transparence. Chaque décision de l'IA dans Ò Capistaine vient avec une divulgation complète :
┌─────────────────────────────────────────────────────────────────┐
│ CONTRIBUTION CITOYENNE : "Le port a besoin de modernisation" │
├─────────────────────────────────────────────────────────────────┤
│ │
│ ÉVALUATION IA (visible par l'agent public) : │
│ │
│ ✓ Conforme à la Charte : OUI │
│ ✓ Catégorie : économie │
│ ✓ Confiance : 92% │
│ │
│ Raisonnement : "*Proposition concrète concernant les │
│ infrastructures portuaires, sans attaque personnelle, │
│ en rapport direct avec Audierne.*" │
│ │
│ Aspects positifs détectés : │
│ • Proposition concrète │
│ • Pertinence locale │
│ │
│ ┌─────────────────────────────────────────────────────────┐ │
│ │ [✓ Approuver] [✗ Corriger] [? Demander révision] │ │
│ └─────────────────────────────────────────────────────────┘ │
│ │
└─────────────────────────────────────────────────────────────────┘
L'agent public voit tout : la décision, le niveau de confiance, le raisonnement et les aspects spécifiques qui ont influencé l'IA. Il peut approuver en un clic, corriger avec une explication, ou escalader vers un collègue.
L'IA ne cache jamais son travail. Cette transparence sert deux objectifs :
- Les agents publics peuvent vérifier le jugement de l'IA par rapport à leur propre expertise
- Avec le temps, des patterns émergent — les humains apprennent quand faire confiance à l'IA, et quand vérifier
Le Cycle de Construction de la Confiance : Les Corrections Humaines Améliorent l'IA
C'est ici que le modèle d'équipe devient puissant : chaque correction humaine améliore l'IA.
┌─────────────────────────────────────────────────────────────────┐
│ LE CYCLE D'APPRENTISSAGE CONTINU │
├─────────────────────────────────────────────────────────────────┤
│ │
│ ┌──────────────┐ │
│ │ L'IA suggère │ │
│ └──────┬───────┘ │
│ │ │
│ ▼ │
│ ┌──────────────┐ ┌──────────────┐ │
│ │L'humain │─────▶│ Correction ? │ │
│ │examine │ └──────┬───────┘ │
│ └──────────────┘ │ │
│ ┌─────────────────────┼─────────────────────┐ │
│ │ │ │ │
│ ▼ ▼ ▼ │
│ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐│
│ │ Approuver │ │ Corriger │ │ Escalader ││
│ │ (IA correcte)│ │(IA apprend) │ │ (cas limite) ││
│ └──────┬───────┘ └──────┬───────┘ └──────┬───────┘│
│ │ │ │ │
│ └─────────────────────┼─────────────────────┘ │
│ │ │
│ ▼ │
│ ┌──────────────┐ │
│ │ Données │ │
│ │d'entraînement│ │
│ │ mises à jour│ │
│ └──────┬───────┘ │
│ │ │
│ ▼ │
│ ┌────────────────┐ │
│ │ L'IA s'améliore│ │
│ │ au │ │
│ │ cycle suivant │ │
│ └────────────────┘ │
│ │
└─────────────────────────────────────────────────────────────────┘
Quand un agent public corrige une décision de l'IA, cette correction devient une donnée d'entraînement. L'IA apprend de l'expertise humaine. Au fil des semaines et des mois :
- Le taux d'approbation augmente (l'IA s'améliore)
- Le taux de correction diminue (moins de corrections nécessaires)
- Les agents publics passent moins de temps sur les cas routiniers
- Les agents publics passent plus de temps sur les cas véritablement complexes
Ce n'est pas une suppression d'emploi — c'est une élévation du métier. L'IA gère les cas évidents ; les humains se concentrent sur ceux qui nécessitent réellement un jugement humain.
Confiance Mesurable : Les Chiffres Ne Mentent Pas
Nous suivons tout, et les métriques sont visibles par tous les membres de l'équipe :
| Métrique | Ce Qu'elle Mesure | Signal de Confiance |
|---|---|---|
| Taux d'approbation | % des décisions IA acceptées par les humains | Fiabilité de l'IA |
| Taux de correction | % des décisions IA corrigées par les humains | Opportunités d'apprentissage |
| Calibration de confiance | Quand l'IA dit "90% sûre", a-t-elle raison 90% du temps ? | Auto-conscience de l'IA |
| Temps économisé | Heures de travail routinier gérées par l'IA | Efficacité de l'équipe |
| Cas limites | Cas complexes nécessitant un jugement humain | Valeur de l'expertise humaine |
En cas de doute, respecter le citoyen
Un principe fondamental qui construit la confiance citoyenne : quand l'IA est incertaine, elle s'en remet aux humains — jamais de rejet silencieux.
┌─────────────────────────────────────────────────────────────────┐
│ LE PRINCIPE "FAIL OPEN" (ÉCHOUER OUVERTEMENT) │
├─────────────────────────────────────────────────────────────────┤
│ │
│ Scénario : L'IA n'est pas sûre d'une contribution │
│ │
│ ❌ MAUVAISE APPROCHE : │
│ Confiance IA : 60% │
│ → Rejeter silencieusement │
│ → Le citoyen ne sait jamais pourquoi │
│ → Confiance détruite │
│ │
│ ✓ NOTRE APPROCHE : │
│ Confiance IA : 60% │
│ → Signaler pour révision humaine │
│ → L'agent public prend la décision finale │
│ → Le citoyen a droit à une écoute équitable │
│ → L'IA apprend de la décision │
│ │
└─────────────────────────────────────────────────────────────────┘
Ce principe a une implémentation technique :
- Haute confiance (
\>85%) : Recommandation IA affichée en évidence, approbation en un clic - Confiance moyenne (60-85%) : L'IA montre son raisonnement, décision humaine requise
- Basse confiance (
\<60%) : Signalé comme "nécessite révision", pas de recommandation IA affichée - État d'erreur : Traité comme basse confiance, jamais comme rejet
Pourquoi c'est important pour les citoyens : Aucun algorithme ne rejette silencieusement leur voix. Si l'IA ne peut pas évaluer une contribution avec confiance, un humain la révisera. La démocratie exige cette garantie.
Pourquoi c'est important pour les agents publics : Ils ne sont pas là pour tamponner les décisions de l'IA. Sur les cas incertains, ils exercent un véritable jugement. Leur expertise compte.
Actions Visibles, Décisions Traçables
Chaque action automatisée est visible et traçable. Quand l'IA marque une contribution comme "conforme charte", ce n'est pas un flag caché en base de données — c'est un label visible sur GitHub que tout le monde peut voir.
┌─────────────────────────────────────────────────────────────────┐
│ Issue GitHub #42 : "Modernisation du port de pêche" │
├─────────────────────────────────────────────────────────────────┤
│ │
│ Labels : │
│ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │
│ │ économie │ │conforme │ │ validé par │ │
│ │ │ │charte │ │ Forseti 92% │ │
│ └──────────────┘ └──────────────┘ └──────────────┘ │
│ │
│ Journal d'activité : │
│ • 14:32 - Contribution soumise par le citoyen │
│ • 14:32 - Forseti a évalué : valide (92% confiance) │
│ • 14:33 - Label "conforme charte" ajouté automatiquement │
│ • 14:45 - Agent public a révisé et confirmé │
│ │
└─────────────────────────────────────────────────────────────────┘
Le niveau de confiance est visible. Les citoyens peuvent voir "validé par Forseti 92%" — ils savent qu'une IA a aidé, et ils savent à quel point elle était confiante. Pas d'algorithmes cachés. Pas de boîtes noires.
Métriques de Confiance : Prouver Que le Partenariat Fonctionne
Nous ne demandons à personne de nous faire confiance sur parole. Nous publions des métriques qui prouvent que le système fonctionne :
Pour les Citoyens : "Ma voix est-elle entendue équitablement ?"
| Question | Métrique | Statut Actuel |
|---|---|---|
| Les contributions valides sont-elles acceptées ? | Taux d'approbation pour les posts conformes | Cible : \>98% |
| Les rejets sont-ils expliqués ? | % des rejets avec raisonnement | 100% (par conception) |
| Puis-je faire appel ? | Révision humaine disponible ? | Toujours |
Pour les Agents Publics : "Cet outil m'aide-t-il vraiment ?"
| Question | Métrique | Statut Actuel |
|---|---|---|
| L'IA est-elle précise ? | Taux d'accord avec les décisions humaines | En suivi |
| Est-ce que je gagne du temps ? | Heures économisées par semaine | En suivi |
| Suis-je encore nécessaire ? | Cas limites nécessitant un jugement humain | Toujours présents |
| L'IA s'améliore-t-elle ? | Tendance du taux de correction | Devrait diminuer |
Pour les Administrateurs : "Est-ce un déploiement IA responsable ?"
| Question | Métrique | Statut Actuel |
|---|---|---|
| L'IA est-elle consciente de son incertitude ? | Courbe de calibration de confiance | Surveillé via Opik |
| Détectons-nous les problèmes ? | Rappel de détection des violations | Cible \>90% |
| Le système est-il auditable ? | Trace complète des décisions disponible | 100% (par conception) |
Le Parcours de la Confiance : Gagner des Responsabilités au Fil du Temps
La confiance ne s'accorde pas — elle se gagne. Voici comment l'IA gagne plus de responsabilités au fil du temps :
Étape 1 : Observateur (Actuel)
Rôle de l'IA : Observer et apprendre Rôle de l'humain : Tout faire, l'IA prend des notes
- L'IA analyse chaque contribution silencieusement
- Les humains prennent toutes les décisions
- Les prédictions de l'IA sont enregistrées pour suivre la précision
- Aucune action IA visible par les citoyens
Niveau de confiance : Zéro. Nous prouvons que l'IA peut même comprendre la tâche.
Étape 2 : Assistant (Quand : Précision \>85%)
Rôle de l'IA : Préparer le travail Rôle de l'humain : Réviser et décider
- L'IA pré-remplit les formulaires d'évaluation
- Les humains révisent les suggestions de l'IA
- Approbation ou correction en un clic
- Chaque correction améliore l'IA
Niveau de confiance : Limité. L'IA fait gagner du temps mais les humains restent maîtres.
Étape 3 : Collègue (Quand : Précision \>95% pendant 3 mois)
Rôle de l'IA : Gérer les cas routiniers Rôle de l'humain : Se concentrer sur les cas complexes
- Cas à haute confiance traités automatiquement
- Confiance moyenne signalée pour révision
- Basse confiance escaladée au personnel senior
- Tableaux de bord de précision quotidiens
Niveau de confiance : Substantiel. L'IA a prouvé sa fiabilité sur le travail routinier.
Étape 4 : Partenaire de Confiance (Quand : 6 mois stable à \>95%)
Rôle de l'IA : Évaluation de première ligne Rôle de l'humain : Assurance qualité et appels
- L'IA gère la plupart des validations automatiquement
- Les humains auditent des échantillons aléatoires
- Les humains gèrent tous les appels et cas limites
- Disjoncteurs si la précision chute
Niveau de confiance : Élevé, mais jamais complet. Les humains ont toujours autorité pour corriger.
Note : Nous n'atteindrons peut-être jamais l'Étape 4, et c'est très bien. L'objectif n'est pas l'automatisation maximale — c'est la collaboration optimale.
Pourquoi Audierne-Esquibien ?
Une petite commune bretonne peut sembler un endroit étrange pour l'expérimentation IA. Mais c'est précisément pourquoi ça fonctionne :
- Échelle humaine : Nous connaissons personnellement les agents publics. Nous pouvons prendre un café avec eux quand quelque chose ne va pas.
- Enjeux réels : Ce sont de vraies contributions citoyennes sur de vrais sujets — infrastructure portuaire, logement, commerces locaux.
- Complexité gérable : 7 catégories, une charte, une communauté. Assez pour être significatif, assez petit pour itérer.
L'IA dans les applications civiques ne consiste pas à remplacer le contact humain qui fait fonctionner la démocratie locale. Il s'agit de s'assurer que ce contact humain peut passer à l'échelle. Quand Audierne reçoit 50 contributions en une semaine au lieu de 5, les agents publics ne devraient pas se noyer dans le travail de tri. Ils devraient passer leur temps sur ce que les humains font le mieux : comprendre le contexte, montrer de l'empathie, porter des jugements.
Ce Que Nous Construisons Vraiment
Ò Capistaine n'est pas un produit IA. C'est un système de construction de confiance qui utilise l'IA.
Les vrais livrables sont :
-
Pour les citoyens : La certitude que leur voix compte, qu'ils auront une écoute équitable, que la technologie sert la démocratie plutôt que de la filtrer
-
Pour les agents publics : Un collègue qui gère le travail routinier, apprend de leur expertise, et rend leur métier plus significatif — pas obsolète
-
Pour la municipalité : La preuve qu'un déploiement IA responsable est possible, avec des métriques pour le démontrer
-
Pour les autres communautés : Un modèle de collaboration humain-IA dans les applications civiques, testé en conditions réelles dans une vraie municipalité
L'Invitation
C'est une expérience ouverte. Le code est public. Les métriques seront publiées. Les erreurs seront documentées aux côtés des succès.
Si vous êtes un agent public inquiet de l'IA sur votre lieu de travail : nous vous entendons. Venez voir comment nous construisons cela. Dites-nous ce qui vous ferait lui faire confiance.
Si vous êtes un citoyen sceptique de la modération algorithmique : nous comprenons. Chaque décision IA est transparente, expliquée et peut être corrigée. Votre voix compte plus que n'importe quel score de confiance d'un modèle.
Si vous êtes un technologue intéressé par l'IA responsable : rejoignez-nous. C'est plus difficile que de construire le modèle. C'est construire la confiance.
Le chemin vers une IA de confiance dans les applications civiques commence par de petits pas, mesurés avec soin, avec les humains toujours dans la boucle.
Suivez notre progression : audierne2026/participons
