IA : risque pour la société civile ou opportunité démocratique ?
Quels sont les effets de l’intelligence artificielle sur la société civile ? Cette question a fait l’objet d’un débat lors de l’événement Numérique en communs initié par le Social good accelerator (Soga) . Cette association accompagne les acteurs de l’ESS dans leur transition vers les nouvelles technologies.
L’intelligence artificielle (IA) représente-t-elle un futur vertueux ou nécessairement apocalyptique pour la société civile ? Theo Alves Da Costa, président de Data for Good, qui rassemble des spécialistes de la tech engagés auprès d’associations, d’ONG et de l’ESS, tranche : « Ce n'est pas de cette façon qu'il faut poser la question. Il faut plutôt se demander si nous pouvons travailler avec les LLM (large language models) c’est-à-dire les IA capables de reconnaître et de générer du texte et des images, telles qu’on les connait aujourd’hui. Peut-on les détourner en ne participant pas aux projets des grandes entreprises du secteur ? »
Ce sujet a fait l’objet d’un débat animé par Diana Filippova, romancière et essayiste, qui s’est tenu au Cedias-Musée social à Paris le 26 novembre,lors de l’événement Numérique en commun initié par Social good accelerator (Soga). L’association accompagne les acteurs de l’ESS dans leur transition vers les nouvelles technologies.
Vers une IA d’intérêt général ?
Elise Van Beneden, vice-présidente de l’association Anticor et avocate, évoque la place de l’IA dans le contrôle démocratique et la lutte anti-corruption. Son organisation porte à bras le corps ces problématiques via des plaintes et des constitutions de partie civile dans des affaires politico-financières.
De juin 2023 à septembre 2024, Anticor avait perdu son agrément, pourtant nécessaire pour intenter une action en justice.
C’est dans ce contexte qu’elle a créé un data lab en collaboration avec 12 étudiants de l’École normale supérieure de Rennes. « L’objectif est de créer des outils de contrôle citoyen et, à terme, de les mettre à la disposition de la population », explique Elise Van Beneden. Des tests internes ont lieu jusqu’en mars avec les six juristes et informaticiens participants.
« L’un de nos projets porte sur la donnée publique, notamment celles des marchés publics. On s’est alors demandé ce qu'il était possible de faire avec ces informations pour détecter des anomalies dans les passations de marchés public », explique l’avocate. Dans cette optique, une plateforme qui repère les incohérences en temps réel a vu le jour. « Cela permet de déceler des recours systématiques aux mêmes entreprises par exemple. Je rappelle que cet outil n’est pas là pour détecter les infractions pénales mais bien des comportements qui doivent nous alerter », précise-t-elle.
Theo Alves Da Costa rappelle également que l'IA est utilisée par des associations comme Quota climat, qui œuvre pour une meilleure couverture médiatique des enjeux environnementaux. « Ces technologies permettent de scanner de nombreuses séquences audiovisuelles. Les contenus sont ensuite vérifiés par des humains », détaille-t-il.
L’omnibus numérique : un potentiel retour en arrière qui inquiète
Mais quid des conséquences de l’IA sur les droits humains ? Katia Roux, chargée de plaidoyer pour Amnesty International, note que son effet est déjà tangible et documenté. « Des gouvernements recourent à ces technologies à des fins sécuritaires et la sphère privée des personnes est déjà impactée. Par exemple, les discriminations raciales sont amplifiées par la puissance informatique », détaille-t-elle. Katia Roux note la nécessité d’interdire les systèmes d’IA incompatibles avec les droits humains en s’inquiétant des simplifications européennes à l’instar de « l’omnibus numérique ».
Publiée par la Commission européenne le 19 novembre, la proposition de réforme vise à simplifier le règlement européen sur l’IA, qui vise notamment à limiter les risques de celle-ci sur la vie privée. Katia Roux souligne par ailleurs que des solutions en la matière sont portées par des acteurs de la société civile et regrette qu’ils ne soient pas écoutés par les décideurs.
« Je ne suis pas pour l'IA générative à proprement parler, mais pour le traitement des données permettant aux associations d’agir », explique quant à lui Pierre-Yves Gosset, coordinateur des services numériques de Framasoft. L’association promeut les logiciels libres à des fins éducatives. Il espère également que les façons « plus propres » de faire de l’IA ne servent pas de caution au système global. « Jamais les intelligences artificielles des LLM ne seront éthiques ou écologiquement neutres », assène-t-il.
Léanna Voegeli 