Clément Mabi
Enseignant à l’INSA Rennes et responsable du Laboratoire de la fabrique de pensée critique.
Mathieu Brugidou
Chercheur à EDF R&D et au laboratoire Pacte
Dans un contexte de transformation numérique accélérée de nos sociétés, l'émergence de l'intelligence artificielle comme outil potentiel de renforcement de la participation citoyenne cristallise à la fois de grands espoirs et de profondes inquiétudes.
L’ambition de déployer la participation citoyenne à une échelle inédite grâce à l’IA, tout en améliorant la qualité de la production citoyenne, se heurte à une réalité complexe où s’entremêlent promesses technologiques et défis démocratiques. D’un côté, des initiatives pionnières comme la plateforme Pol.is à Taïwan [1] qui utilise l’IA pour lutter contre la polarisation des opinions ou le Youth for climate Belgium [2] en 2019, qui a automatisé les outils de synthèse des contributions, laissent entrevoir des possibilités fascinantes. De l’autre, des voix critiques s’élèvent pour mettre en garde contre les risques d’une « techno-tyrannie » et d’un effondrement démocratique.
De nouvelles promesses
L’intégration de l’intelligence artificielle dans les processus démocratiques suscite un enthousiasme et crée une dynamique – bien connue en matière d’innovation technologique – de nouvelles promesses autour de l’idée que l’IA ouvrirait des perspectives pour transformer les interactions entre les acteurs publics et la société civile. La politologue Hélène Landemore [3] identifie plusieurs domaines : améliorer la sélection et la distribution des participants dans les discussions publiques, faciliter les échanges d’idées ou encore offrir des outils performants pour la traduction automatique, rendant ainsi possibles des dialogues multilingues au sein d’initiatives, comme celle menée par les Jeunes européens fédéralistes lors de leur campagne EurHope [4]. Elle estime que l’IA peut aussi contribuer au fact-checking [la vérification des faits et des chiffres évoqués dans les échanges] et à l’organisation des arguments et opinions exprimés lors des débats.
Certaines organisations et entreprises de la civic tech imaginent que l’IA peut permettre une participation plus égalitaire et inclusive, en rendant le processus décisionnel accessible à un plus grand nombre de citoyens. Mais toutes se posent des questions, comme Simon Zilinskas, responsable produit chez Open source politics dans son entretien.
Les technologies ne sont jamais neutres
Il existe un risque réel de fétichisme technologique, l’IA pouvant être perçue comme un juge de paix impartial, censé simplifier la prise de décision démocratique et nous économiser un regard critique sur notre manière de gouverner.
Chaque outil technique est ancré dans un contexte spécifique et reflète les intentions et les biais de ses concepteurs. Et il s’agit déjà de comprendre – un peu – les différentes formes d’IA avant de se lancer, comme l’explique Valérie Urmann dans son article « IA générative, LLM… De quoi parle-t-on ? ».
Différentes configurations d’IA produiront des effets variés sur la construction du sens et l’orientation des activités démocratiques : des modèles comme ChatGPT ne font souvent que simuler l’intelligence [5]. Ces systèmes, basés sur l’anticipation statistique du langage, peuvent produire des discours cohérents en apparence, mais manquent de véritable compréhension. Ils risquent de générer des résultats plausibles plutôt que véridiques, pouvant ainsi déformer la réalité pour la rendre plus acceptable.
De plus, la synthèse des contributions citoyennes par l’IA pourrait conduire à une vision tiède négligeant les signaux faibles ou à une interprétation partielle reflétant les biais de ses concepteurs. C’est ce que pointe Aurélien Bellet qui, avec des collègues chercheurs de l’Inria, a évalué la synthèse officielle de la consultation numérique du Grand débat national (lire son entretien).
De même, la facilitation des discussions par l’IA pose des questions sur sa capacité à gérer des nuances, expliquent Isadora Guerra et Julien Cammas de la Métropole Rouen Normandie dans leur entretien ; ou à traiter des informations à la limite de la désinformation. Enfin et surtout, les principaux maux qui affectent la participation (sujets à faibles enjeux, déconnexion de la décision, etc.) ne sont pas traités par l’IA. C’est notre capacité à réformer les processus de délibération et à nous attaquer aux freins institutionnels et sociopolitiques qui développeront les potentiels démocratiques de ces technologies.
Rendre le numérique démocratique
L’utilisation de l’IA dans les processus démocratiques soulève des enjeux cruciaux de transparence et d’explicabilité. Il est essentiel que les citoyens puissent comprendre comment les décisions sont prises et quels sont les mécanismes sous-jacents des systèmes d’IA utilisés et qu’ils puissent donner leur avis. Nombre de collectivités se sont engagées dans des démarches associant les citoyens aux orientations ; c’est le cas à Montpellier et à Rennes : lire l’article « Les citoyens veulent plus d’éthique et de transparence ». Des initiatives lancées par des acteurs privés et publics comme les Communs démocratiques (lire l’article « Qu’est-ce qu’une IA démocratique ? » tentent d’ouvrir un chemin académique pour définir le comportement de l’IA dans un usage démocratique.
Que souhaitons-nous déléguer aux outils ?
Prendre en compte ces alertes est une invitation à repenser plus largement ce qu’on attend de la participation et du moment délibératif, à considérer son émotion, ses argumentations, ses joutes oratoires, ses discours construits, ses disputatio à l’atterrissage imprévisible. Que souhaitons-nous déléguer aux outils ? Les processus délibératifs reposent sur des temps d’apprentissage collectifs cruciaux. L’accélération de l’accès à l’information par l’IA ne doit pas se faire au détriment de cette expérience d’apprentissage partagé, essentielle à la qualité de la délibération. La technologie ne peut évidemment pas résoudre la crise démocratique qui trouve ses racines dans des problèmes plus profonds [6].
Il existe un risque réel de sur-technicisation des procédures démocratiques, pouvant conduire à une opacité accrue et à une mise à distance des citoyens. Nous avons besoin d’esprit critique pour « évaluer l’IA au-delà de critères techniques » comme l’indique le sociologue Jean-Philippe Cointet. Enfin, une focalisation trop étroite de la réflexion sur une IA responsable ne doit pas occulter les problèmes rencontrés par la participation citoyenne !