Entretien avec
Simon Zilinskas
Responsable produit chez Open Source Politics
L’entreprise civique Open Source Politics, qui déploie des dispositifs participatifs, perçoit en l’IA un saut technologique majeur. Sans s’emballer : encore très peu d’usages sont matures. Sans compter leur impact énergétique désastreux.
Quels sont vos enjeux liés à l’IA ?
Nous sommes face à des choix difficiles, tant sur les modèles que sur les usages. Open Source Politics a toujours défendu une transparence complète, en ouvrant sa méthode et son code source. Mais qu’est-ce que l’open source dans l’IA ? Va-t-on choisir un modèle totalement ouvert (les paramétrages et les données d’entraînement) ou partiellement ouvert (les paramètres seulement) ? Il existe encore peu de modèles d’IA générative véritablement open source. D’où le dilemme : est-ce qu’on garde une éthique radicale ? Ou bien les modèles semi-ouverts nous semblent-ils acceptables ?
En plus de ce choix-là, d’autres facteurs sont déterminants : l’hébergement et la sécurité des données, le modèle économique, la taille du modèle. Nous voulons privilégier le plus petit modèle d’IA pouvant couvrir nos usages, aussi pour des raisons d’éco-responsabilité car l’impact environnemental de l’IA est catastrophique…
À quel point ?
Auparavant, on se demandait comment optimiser une image pour qu’elle soit moins gourmande en énergie avec moins de données à transmettre… On passe désormais à un tout autre ordre de grandeur : une seule seconde d’IA générative consomme des milliers de fois plus que la plupart des technologies qu’on utilisait avant. L’IA générative fait exploser l’empreinte écologique de chaque produit qui l’utilise. Va-t-on réussir à compenser ? Pour l’instant, l’empreinte citoyenne de l’IA est très compliquée à calculer, les premières études commencent à sortir[1].
D’où l’intérêt d’utiliser les très petits modèles en les spécialisant ensuite sur nos usages clés, au lieu des énormes modèles généralistes d’OpenAI.
Comment cela oriente-t-il votre utilisation de l’IA et ses performances ?
L’un des problèmes des IA génératives généralistes et hyper puissantes est qu’elles répondent à la question qu’on leur pose mais elles peuvent aussi halluciner [inventer] une partie des réponses. Une piste pour obtenir moins d’erreurs et de meilleures performances est de spécialiser un modèle sur une tâche concrète. Modérer des contributions sur une plateforme numérique de participation, générer des résumés, l’IA générative commence à le faire convenablement. Nous utilisons déjà ces fonctions d’aide aux administrateurs de la plateforme et aux agents des services participation des collectivités, par exemple pour traiter des propositions par la catégorisation automatique.
Nous testons d’autres modalités, encore en développement. Par exemple, nous créons un outil vocal, en imaginant installer des bornes numériques sur les places publiques. Les habitants pourront déposer oralement des propositions, automatiquement transcrites et versées sur la plateforme de participation après validation du résultat de la transcription. L’IA fera gagner du temps, c’est l’intérêt. Et ce sera un moyen supplémentaire pour élargir un peu la mobilisation.
Pour l’instant, vous n’intégrez pas l’IA à vos processus délibératifs ?
On cherche comment et à quel endroit l’IA peut aider. Dans un dispositif en présentiel, elle peut intervenir lors du travail en sous-groupes quand il n’y pas de facilitateur à chaque table. On pose des téléphones sur les tables pour générer automatiquement les résumés des échanges, avec des verbatim[2], afin que l’animateur principal suive mieux, en temps réel, l’orientation des débats.
L’opportunité technologique est ici d’utiliser l’IA dans un cadre où les échanges sont foisonnants, moins cadrés que dans une assemblée plénière, plus difficiles à synthétiser sans simplifier et écraser la diversité des points de vue. En format atelier, les participants discutent beaucoup sans prendre de notes, ils attendent souvent la fin du temps dédié pour résumer leurs échanges. Beaucoup de matière se perd. On gagnerait à restituer la richesse argumentative des processus de délibération.
Pour cela, on utilise le modèle Whisper, le plus répandu, développé par OpenAI en open source. Il est expérimenté dans beaucoup de contextes différents, en médecine par exemple, malgré des résultats inégaux. Ce modèle de transcription vocale, entrainé en partie sur Youtube, a tendance à halluciner, comme les IA génératives.
À notre échelle, on ne peut évidemment pas développer un modèle – qui coûte des milliards d’euros. Mais on peut le spécialiser et lui apporter des correctifs pour diminuer le nombre d’erreurs.
La synthèse de données massives est la fonction la plus mise en avant mais pas la mieux réalisée. Comment l’abordez-vous ?
Nous travaillons sur la catégorisation automatique des contributions. Lorsque 10 000 contributions sont déposées sur une plateforme de participation citoyenne, les administrateurs et les agents de la collectivité ont besoin d’aide pour les traiter. Nous testons un modèle tout en maintenant encore intégralement l’intervention humaine. Quelqu’un relit chaque contribution pour vérifier que la catégorisation tient la route.
Que vous apporte l’IA s’il faut repasser derrière ?
Nous sommes dans une phase d’expérimentation, le temps gagné est encore faible car des précautions s’imposent. La catégorisation automatique de contributions textuelles est utilisée depuis quelques années, les résultats s’améliorent sans être toujours suffisants pour remplacer un humain. C’est un usage clé, l’enjeu de fiabilité est donc très important. Nous sommes assez confiants dans l’outil, d’autant que les modèles évoluent très vite. Et tout dépend des démarches : s’il s’agit de classer les projets du budget participatif d’une grande ville, nous sommes prêts ; en revanche, la catégorisation automatique me paraît actuellement moins appropriée pour restituer la richesse délibérative d’une convention citoyenne.
À terme, si une grande part du travail est automatisée, on gardera toujours l’alternative humaine. Malgré sa popularité fulgurante, l’IA ne fait pas de miracle et pourrait décevoir. Bien que nous proposions une plateforme de participation, nous ne voyons pas la technologie comme une solution à tout. Nous l’explorons, prudemment, avec les collectivités qui acceptent d’être des territoires d’apprentissage.
Nous pensons que l’IA est un développement technologique majeur. Mais il faut se souvenir des premiers smartphones : les premières applications étaient absurdes, les usages utiles ont demandé dix ans de maturation. Nous travaillons sur le temps long.
Une étude affirme que l’IA fait irruption dans les territoires, où le nombre de projets a décollé dans tous les domaines, sauf dans celui de la citoyenneté qui représente moins de 1 % des projets[3]. Est-ce votre constat ?
Ce n’est pas ce que j’observe sur le terrain. Je perçois l’affichage et le discours, mais très peu de projets innovants réellement engagés. Quasiment tous les secteurs d’application sont encore en mode expérimental quant à l’utilisation de l’IA. La démocratie participative est un domaine sensible, de ce fait peut-être moins touchée par les effets d’annonce, et tout l’écosystème porte la responsabilité de faire les choses bien.
Propos recueillis par Valérie Urman