L’intelligence artificielle, entre espoirs et risques

Clément Mabi

Enseignant à l’INSA Rennes et responsable du Laboratoire de la fabrique de pensée critique.

Mathieu Brugidou

Chercheur à EDF R&D et au laboratoire Pacte

Dans un contexte de transformation numérique accélérée de nos sociétés, l'émergence de l'intelligence artificielle comme outil potentiel de renforcement de la participation citoyenne cristallise à la fois de grands espoirs et de profondes inquiétudes.

L’ambition de déployer la participation citoyenne à une échelle inédite grâce à l’IA, tout en améliorant la qualité de la production citoyenne, se heurte à une réalité complexe où s’entremêlent promesses technologiques et défis démocratiques. D’un côté, des initiatives pionnières comme la plateforme Pol.is à Taïwan [1] qui utilise l’IA pour lutter contre la polarisation des opinions ou le Youth for climate Belgium [2] en 2019,  qui a automatisé les outils de synthèse des contributions, laissent entrevoir des possibilités fascinantes. De l’autre, des voix critiques s’élèvent pour mettre en garde contre les risques d’une « techno-tyrannie » et d’un effondrement démocratique.

De nouvelles promesses

L’intégration de l’intelligence artificielle dans les processus démocratiques suscite un enthousiasme et crée une dynamique – bien connue en matière d’innovation technologique – de nouvelles promesses autour de l’idée que l’IA ouvrirait des perspectives pour transformer les interactions entre les acteurs publics et la société civile. La politologue Hélène Landemore [3] identifie plusieurs domaines : améliorer la sélection et la distribution des participants dans les discussions publiques, faciliter les échanges d’idées ou encore offrir des outils performants pour la traduction automatique, rendant ainsi possibles des dialogues multilingues au sein d’initiatives, comme celle menée par les Jeunes européens fédéralistes lors de leur campagne EurHope [4]. Elle estime que l’IA peut aussi contribuer au fact-checking [la vérification des faits et des chiffres évoqués dans les échanges] et à l’organisation des arguments et opinions exprimés lors des débats.

Certaines organisations et entreprises de la civic tech imaginent que l’IA peut permettre une participation plus égalitaire et inclusive, en rendant le processus décisionnel accessible à un plus grand nombre de citoyens. Mais toutes se posent des questions, comme Simon Zilinskas, responsable produit chez Open source politics dans son entretien.

Les technologies ne sont jamais neutres

Il existe un risque réel de fétichisme technologique, l’IA pouvant être perçue comme un juge de paix impartial, censé simplifier la prise de décision démocratique et nous économiser un regard critique sur notre manière de gouverner.

Chaque outil technique est ancré dans un contexte spécifique et reflète les intentions et les biais de ses concepteurs. Et il s’agit déjà de comprendre – un peu – les différentes formes d’IA avant de se lancer, comme l’explique Valérie Urmann dans son article « IA générative, LLM… De quoi parle-t-on ? ».

Différentes configurations d’IA produiront des effets variés sur la construction du sens et l’orientation des activités démocratiques : des modèles comme ChatGPT ne font souvent que simuler l’intelligence [5]. Ces systèmes, basés sur l’anticipation statistique du langage, peuvent produire des discours cohérents en apparence, mais manquent de véritable compréhension. Ils risquent de générer des résultats plausibles plutôt que véridiques, pouvant ainsi déformer la réalité pour la rendre plus acceptable.

De plus, la synthèse des contributions citoyennes par l’IA pourrait conduire à une vision tiède négligeant les signaux faibles ou à une interprétation partielle reflétant les biais de ses concepteurs. C’est ce que pointe Aurélien Bellet qui, avec des collègues chercheurs de l’Inria, a évalué la synthèse officielle de la consultation numérique du Grand débat national (lire son entretien).

De même, la facilitation des discussions par l’IA pose des questions sur sa capacité à gérer des nuances, expliquent Isadora Guerra et Julien Cammas de la Métropole Rouen Normandie dans leur entretien ; ou à traiter des informations à la limite de la désinformation. Enfin et surtout, les principaux maux qui affectent la participation (sujets à faibles enjeux, déconnexion de la décision, etc.) ne sont pas traités par l’IA. C’est notre capacité à réformer les processus de délibération et à nous attaquer aux freins institutionnels et sociopolitiques qui développeront les potentiels démocratiques de ces technologies.

Rendre le numérique démocratique

L’utilisation de l’IA dans les processus démocratiques soulève des enjeux cruciaux de transparence et d’explicabilité. Il est essentiel que les citoyens puissent comprendre comment les décisions sont prises et quels sont les mécanismes sous-jacents des systèmes d’IA utilisés et qu’ils puissent donner leur avis. Nombre de collectivités se sont engagées dans des démarches associant les citoyens aux orientations ; c’est le cas à Montpellier et à Rennes : lire l’article « Les citoyens veulent plus d’éthique et de transparence ». Des initiatives lancées par des acteurs privés et publics comme les Communs démocratiques (lire l’article « Qu’est-ce qu’une IA démocratique ? » tentent d’ouvrir un chemin académique pour définir le comportement de l’IA dans un usage démocratique.

Que souhaitons-nous déléguer aux outils ?

Prendre en compte ces alertes est une invitation à repenser plus largement ce qu’on attend de la participation et du moment délibératif, à considérer son émotion, ses argumentations, ses joutes oratoires, ses discours construits, ses disputatio à l’atterrissage imprévisible. Que souhaitons-nous déléguer aux outils ? Les processus délibératifs reposent sur des temps d’apprentissage collectifs cruciaux. L’accélération de l’accès à l’information par l’IA ne doit pas se faire au détriment de cette expérience d’apprentissage partagé, essentielle à la qualité de la délibération. La technologie ne peut évidemment pas résoudre la crise démocratique qui trouve ses racines dans des problèmes plus profonds [6].

Il existe un risque réel de sur-technicisation des procédures démocratiques, pouvant conduire à une opacité accrue et à une mise à distance des citoyens. Nous avons besoin d’esprit critique pour « évaluer l’IA au-delà de critères techniques » comme l’indique le sociologue Jean-Philippe Cointet. Enfin, une focalisation trop étroite de la réflexion sur une IA responsable ne doit pas occulter les problèmes rencontrés par la participation citoyenne !

[1] Créée en 2012 aux États-Unis à la suite du mouvement Occupy Wall street, Pol.is est une plateforme permettant d’organiser une « quasi-délibération » décentralisée en ligne. L’outil est notamment connu pour avoir été importé puis institutionnalisé à Taïwan en 2014 : le gouvernement taïwanais utilise cet algorithme encore aujourd’hui pour faire débattre les citoyens à grande échelle sur différents sujets comme la régulation de la plateforme Uber ou la législation de vente d’alcool en ligne.
[2] En 2019, le mouvement Youth for Climate Belgium a utilisé l’IA pour transformer les 1 700 idées, 2 600 commentaires et 32 000 votes soumis à une plateforme en ligne par les citoyens en des données concises et exploitables.
[3] Hélène Landemore est une politologue franco-américaine spécialiste de la théorie démocratique. À lire : « L’IA peut améliorer les institutions démocratiques en permettant aux citoyens de vraiment faire entendre leur voix » : www.imf.org
[4] EurHope est une consultation lancée en mai 2023 par Make.org et les Jeunes européens fédéralistes, qui a débouché sur près de 1,5 million de votes et 5 000 propositions, synthétisées en un « agenda de l’Espoir » autour de quinze priorités-clés.
[5] À lire l’entretien avec Charbel-Raphaël Segerie, directeur exécutif du Centre pour la sécurité de l’intelligence artificielle (CeSIA), dans la revue Techniques de l’ingénieur : « Il faut bien avoir à l’esprit que les IA ne sont pas des logiciels comme les autres » : www.techniques-ingenieur.fr
[6] Sur ce sujet, voir la synthèse de la table ronde organisée par Renaissance numérique dans le cadre du Forum sur la gouvernance de l’internet en France, le 3 octobre 2024 et rédigée par Léo Reinbold et Jessica Galissaire : www.renaissancenumerique.org

Clément Mabi

Clément Mabi est professeur junior à l’INSA Rennes et responsable du Laboratoire de la fabrique de pensée critique (LFPC). Ses recherches explorent les interactions entre technologies, société et environnement pour repenser les choix techniques en vue de construire des modèles durables et inclusifs. Spécialiste des enjeux démocratiques et des usages du numérique, il interroge les modalités de participation citoyenne et les transformations des institutions à l’ère numérique.

Mathieu Brugidou

Mathieu Brugidou est chercheur senior à EDF R&D et chercheur associé au laboratoire Pacte. Ses recherches portent sur la définition et le traitement des enjeux énergétiques dans le débat public. Ses travaux actuels, mobilisant les sciences sociales computationnelles, analysent les effets de la numérisation de l’espace public sur la formation de l’opinion publique et la participation citoyenne.