Aller au contenu principal
Par Carenews INFO - Publié le 25 mars 2026 - 09:00 - Mise à jour le 25 mars 2026 - 09:00
Recevoir les news Tous les articles de l'acteur

Un guide pour « encadrer l’usage de l’IA au sein des associations et fondations »

France générosités et le Don en confiance, deux organisations représentant les associations et fondations faisant appel aux dons, publient un guide pour les aider à s’interroger sur l’intelligence artificielle et les opportunités qu’elle offre, à cartographier les risques liés à son utilisation et à mettre en place une gouvernance adaptée.

Les auteurs rappellent les risques associés à l'IA et invitent à s'interroger sur les alternatives, tout en identifiant les opportunités. Crédit : iStock.
Les auteurs rappellent les risques associés à l'IA et invitent à s'interroger sur les alternatives, tout en identifiant les opportunités. Crédit : iStock.

 

« L’intelligence artificielle, notamment générative (IA et IAG), représente une opportunité majeure pour les organismes sans but lucratif », mais elle « soulève d’importantes questions techniques, juridiques et éthiques », écrivent les auteurs du guide « Encadrer l’usage de l’IA au sein des associations et des fondations ». France générosités, l’organisme représentant les associations et fondations faisant appel au don, ainsi que le Don en confiance, une association porteuse d’une charte de déontologie à destination de ces organisations, ont publié ce guide le 17 mars dernier. 

En France, 36 % des organisations à but non lucratif utilisent l’IA, rappelle France générosités en s’appuyant sur un sondage réalisé auprès de 751 structures européennes. L’objectif est de « proposer des repères et des bonnes pratiques », précisent les auteurs. « Rester informé des avancées technologiques, des nouvelles réglementations et des besoins changeants de son organisation est indispensable », insistent-ils.  

Identifier les risques 

 

Après avoir défini l’intelligence artificielle et exploré les réglementations en vigueur, les auteurs appellent à réfléchir à « des cas d’usages concrets » spécifiques ou non aux organisations sans but lucratif. Par exemple, il est possible de « mettre en place un chatbot sur le site d’une association pour répondre aux demandes simples des donateurs » ou de se servir d’outils pour « analyser les pratiques des autres structures associatives, les attentes et les besoins des bénéficiaires ». Des conseils pour sélectionner les outils d’IA sont ensuite détaillés. 

Identifier les opportunités ne suffit pas. « Il faut évaluer le « bénéfice-risque de l’utilisation de l’IA », soulignent-ils. Une association « œuvrant dans le médical ou le social devra prêter une attention particulière à la confidentialité des données », illustrent les auteurs, « tandis qu’une structure axée sur le plaidoyer ou la communication devra anticiper les risques de désinformation ou de manipulation de contenus générés par l’IA ». Une méthode pour réfléchir aux différents risques, généraux ou propres à la structure concernée, est proposée. 

« Avant de se lancer dans l’adoption d’une solution d’IA, l’association ou la fondation doit d’abord clarifier ses attentes et ses objectifs », ainsi que « s’interroger sur l’existence de solutions alternatives », soutiennent-ils.  « Une analyse rigoureuse, combinant retours d’expérience, tests pilotes et consultation des parties prenantes contribue à une prise de décision éclairée, justifiée et alignée avec les missions, les ressources et les valeurs de la structure », peut-on également lire dans le guide.   

 


Lire également : Six initiatives qui militent pour une IA responsable 


Formation des équipes  

 

Troisième étape : mettre en place une gouvernance de l’IA en définissant « une architecture claire de gestion, de supervision et de contrôle » des systèmes utilisés. Les auteurs donnent des clés pour « définir et répartir les responsabilités », « construire un cadre responsable et éthique de l’usage de l’IA », au moyen d’une « charte éthique et/ou d’une politique d’usage ». Ils mettent ensuite en avant « des exemples de bonnes pratiques et de clauses à intégrer » dans ces documents, en fonction de « grandes catégories de risques » : réglementaires, éthiques, professionnels, sociétaux et environnementaux.  

Enfin, le guide détaille les manières de renouveler les procédures internes pour prendre en compte l’IA, dans la contractualisation notamment. Mais aussi d’informer, de sensibiliser et de former les équipes. « Les former, c’est leur donner les clés pour en comprendre les mécanismes, et ainsi désamorcer les craintes tout en évitant les usages naïfs ou inappropriés », estiment les auteurs. 

 

La rédaction 

Fermer

Cliquez pour vous inscrire à nos Newsletters

La quotidienne
L'hebdo entreprise, fondation, partenaire
L'hebdo association
L'hebdo grand public

Fermer