Entretien avec
Axel Dauchez
Fondateur et dirigeant de la plateforme civique Make.org
L’IA, arme de manipulation massive ? Sans aucun doute, alerte l’entrepreneur Axel Dauchez, à l’initiative d’un vaste programme de recherche sur les principes de compatibilité démocratique de l’intelligence artificielle.
L’IA est-elle un risque pour la démocratie, une chance, juste un outil de plus ?
Dans l’histoire du numérique, le design de l’outil a toujours compté moins que l’usage qu’on en fait. Ce n’est plus vrai avec l’intelligence artificielle. La puissance de changement de l’IA est telle qu’il est impératif de s’assurer que la conception des outils n’est pas un danger pour la démocratie. Les biais de l’IA sont un péril, qu’ils proviennent d’une technologie mal maitrisée ou de la volonté délibérée du concepteur.
Par exemple, pour synthétiser une masse de contributions ou pour modérer des débats, je veux une IA apolitique, je ne veux pas d’une IA de gauche, de droite, social-démocrate ou libérale… Ces termes prennent toutefois un sens différent selon les contextes sociopolitiques et linguistiques. Si l’on corrige les outils d’IA en France, cela ne marchera pas pour l’Allemagne, ni pour les États-Unis, ni pour l’Angleterre… Le débiaisage de l’IA est le premier objectif fondamental et cela doit se faire pays par pays, langue par langue.
Définir l’IA démocratique, est-ce le sens du programme de recherche Communs démocratiques ?
Nous sommes face à des risques élevés d’ingérence et de manipulation. L’IA peut permettre de tromper la population, de corrompre l’éthique d’une campagne électorale… Nous sommes entrés dans une zone d’alerte rouge où les bénéfices de l’IA ne pèseront guère à côté de ses utilisations dites « armées ». L’IA va être partout, sa vitesse d’amélioration est phénoménale, il n’y pas de temps à perdre pour être capables, collectivement, de faire les choix conscients d’une IA démocratique. Si l’on ne se pose pas les bonnes questions, si l’on emploie l’IA n’importe comment, sans éthique, sans soucis des biais, c’est une catastrophe en marche.
Le sens du programme Communs démocratiques[1] est d’ouvrir un chemin académique, à une échelle mondiale, pour définir le comportement de l’IA dans un usage démocratique et les moyens de le corriger. L’ambition est de dégager les principes de compatibilité démocratique de l’IA sur des questions qui n’ont jamais été posées auparavant[2].
Nous espérons que beaucoup de communautés de chercheurs vont s’en saisir pour que la réflexion se déploie.
De quels principes pourrait-il s’agir ?
Pour point de départ, nous avons établi un panorama d’une quinzaine de cas d’usage de l’IA dans l’intermédiation citoyenne, dans trois contextes d’exercice du pouvoir : l’élection, le processus législatif, la fabrique et l’évaluation des politiques publiques. Par exemple, dans le contexte électoral, quelle est la fonction de l’IA dans l’accès à l’information et aux programmes ? En croisant les cas d’usages avec les compétences de l’IA – traduire, synthétiser, faciliter, accompagner – nous parvenons à une carte sur laquelle les chercheurs travaillent, dans un premier temps, pour essayer d’exprimer les principes démocratiques à appliquer à chaque cas. On voit apparaître des questions : si l’on veut résumer un énorme corpus, quelle place donner aux idées majoritaires par rapport aux idées minoritaires ? Ce type de choix, qui relève du design de l’outil, a un sens politique.
Au-delà de ces enjeux de conception, comment abordez-vous les usages de l’IA ?
Nous avons développé une plateforme spécifique, AI Panoramic, utilisant les modèles d’IA générative de Mistral ou d’OpenAI. Nous dépendons de ces Grands Modèles de Langage (LLM) qui, on l’a dit, contiennent encore des biais. En tant que civic tech, pour espérer servir à quelque chose, notre parti-pris est d’ouvrir des modules d’interaction à la hauteur du citoyen le moins engagé. Si nous parvenons à mobiliser 20 % d’une population sur un petit bout de chemin d’engagement, avons-nous déjà un effet démocratique ? Est-ce que cela augmente le consentement à l’action publique ? Et est-ce que la production citoyenne obtenue a plus de légitimité que celle d’un groupe d’experts ?
Qu’apporte l’IA à ce format de conversation entre les pouvoirs publics et les citoyens ?
L’IA ne changera pas grand-chose à la capacité de mobiliser, d’aller chercher des gens. Mais elle pourra apporter deux choses fortement contributives : d’une part maximiser la contribution en ligne de chacun ; d’autre part, permettre la montée en compétence des citoyens profanes.
Aujourd’hui, la plateforme numérique ouvre une petite porte au citoyen ordinaire. On lui pose une question pour qu’il entre dans la conversation, souvent il répond d’une phrase. L’IA peut l’aider à approfondir, à préciser. Si trois contributions citoyennes sont proches, l’IA peut aussi demander aux participants s’ils disent la même chose ou les inviter à nuancer. L’IA sera capable de tenir ce rôle, certes pas aussi bien qu’un facilitateur humain mais correctement, sans biais, et à l’échelle de milliers ou de millions de contributeurs. C’est un objectif de moyen terme.
Sa deuxième fonction est de favoriser la montée en compétence en rendant accessibles des contenus compliqués. Aujourd’hui, un citoyen ordinaire ne tire rien d’aller suivre les travaux des parlementaires sur la chaîne de télévision Public Sénat. C’est hyper codé. On voit un petit bout d’un débat commencé deux mois avant… L’IA peut contextualiser, poser les controverses, retracer l’impact de telle intervention sur le débat, montrer le poids des amendements… C’est un usage déjà actif. Nous avons engagé un projet avec le Parlement belge pour proposer des modules civiques dans les lycées.
Cet outil, testé lors de la convention citoyenne sur la fin de vie, est jugé « médiocre » par le chercheur Bernard Reber, garant de la convention. Il constate que l’IA « ajoute des écrans plutôt que de la transparence ». Acceptez-vous la critique ?
Bien sûr, c’est une analyse du moment, en mars 2024[3]. Le modèle faisait encore beaucoup d’erreurs et nous n’avions eu accès qu’à une petite part des débats. Les choses évoluent vite. Moins d’un an plus tard, le niveau de pertinence du modèle est déjà incomparable. Le Conseil économique social et environnemental (CESE), organisateur de la convention citoyenne, a eu le courage d’essayer une technologie alors expérimentale. Nous avons beaucoup appris, par exemple pour affiner les questions qu’il faut poser à l’IA en fonction du public visé : s’agit-il des citoyens tirés au sort, du grand public, des parlementaires ? Notre maitrise nous permet aujourd’hui de collaborer avec l’Agence fédérale allemande en charge de l’éducation civique [la BPB, Bundeszentrale für politische Bildung], pour rendre accessibles les programmes politiques dans le cadre des élections fédérales de 2025.
La promesse d’une IA pouvant porter la délibération citoyenne à grande échelle est-elle réaliste ?
J’y crois totalement mais c’est un objectif de long terme. Nous sommes tous conscients de l’effet irremplaçable d’une animation de qualité sur un groupe de participants. L’enjeu de l’IA n’est certainement pas de dupliquer le travail en profondeur réalisé par l’humain. La question est de savoir comment utiliser l’IA pour passer à une vaste échelle[4], quel rôle elle peut avoir dans la modération de très grands groupes.
Propos recueillis par Valérie Urman