Aller au contenu principal
Par Carenews INFO - Publié le 13 mai 2024 - 15:00 - Mise à jour le 13 mai 2024 - 15:00 - Ecrit par : Théo Nepipvoda
Recevoir les news Tous les articles de l'acteur

L’open source, un atout pour une IA au service du bien commun ?

L’open source peut être utile pour mettre l’intelligence artificielle au service de l’intérêt général. Un consortium allant dans ce sens a vu le jour en 2023 : il s’agit d’OpenLLM-France. Il souhaite constituer un modèle souverain et libre pour cette année à l’opposé de ChatGPT.

Mettre l'intelligence artificielle au service du bien commun. Crédit : ismagilov, iStock.
Mettre l'intelligence artificielle au service du bien commun. Crédit : ismagilov, iStock.

 

Fondée en 2023, l'entreprise Mistral AI, spécialisée dans l’intelligence artificielle, est régulièrement présentée comme une alternative française crédible à l’américain OpenAI, maison mère de ChatGPT. Nombre de commentateurs présentent cette licorne française comme un modèle d’open source puisque son code est accessible librement.

Or, « concernant l’intelligence artificielle, l’open source est une notion plus complexe. Le code source n’est qu’une petite partie de la question, alors que la partie principale est celle de l’accessibilité des données utilisées pour entraîner le modèle », explique Joël Gombin, fondateur de Datactivist, une société spécialisée dans l’open data. L’Open source initiative, organisation référence en la matière, devrait publier une définition à ce sujet en septembre. Elle devrait à priori aller dans cette direction. En s’y référant, difficile de continuer d’affirmer que Mistral AI est championne de l’open source puisque ses données d'entraînement ne sont pas publiques. D’ailleurs, depuis, Mistral AI a opéré un virage en proposant également des modèles propriétaires dont l’utilisation est payante.

 

750 membres autour d’un projet d’open source

 

Michel-Marie Maudet a cofondé l’entreprise Linagora, éditeur de logiciels libres français. Il est à l’initiative de OpenLLM-France, un consortium d’acteurs lancé en 2023 regroupant des entreprises et des acteurs académiques. Il réunit aujourd’hui 750 membres et s’est donné pour objectif de mettre au point un modèle d’intelligence artificielle français souverain, basé sur des données de qualité et surtout en open source. Nommé Lucie et composé de sept milliards de paramètres (GPT-4 en compterait mille milliards), il pourrait voir le jour en septembre 2024. Une version de 1,5 milliard dédiée aux smartphones devrait également être proposée. 

 


À lire aussi : Climate Q&A : un « Chat GPT » qui répond à vos questions sur le climat


 

Outre le code, le corpus de données utilisées pour entraîner le modèle sera ouvert, auditable, et la licence d’utilisation libre. « Concernant l’intelligence artificielle, c’est important de se situer dans le domaine du bien commun, du collectif et de faire preuve de transparence », explique Michel-Marie Maudet. « L’open source permettra de savoir quelles données font partie du modèle et lesquelles n’en font pas partie. »

 

Quels sont les avantages de l’open source ?

 

En matière d'intelligence artificielle, les données utilisées pour entraîner le modèle, collectées sur internet, proviennent en grande partie de l’homme et peuvent présenter des biais, être le reflet d’idéologies. De plus, les producteurs du modèle effectuent des choix de données à utiliser : on dit qu’ils injectent des préférences. Le modèle est donc le reflet de diverses décisions humaines : « En publiant les données d'entraînement, tout le monde peut les analyser. C’est important car la personne à l’origine du modèle a une forme de responsabilité sur les choix qui ont été effectués concernant les données d’apprentissage », juge Michel-Marie Maudet. De plus, cela permet, selon lui, de rendre vérifiable, auditable, le fait que le modèle n’utilise pas des données personnelles sans autorisation et qu’il respecte les réglementations en la matière.


À lire aussi : Intelligence artificielle : « Il y a un risque de décrochage important pour l’ESS » (Thomas Edesa, Social Good Accelerator)


 

Enfin, autorisant la création de travaux dérivés, l’open source « permet aux gens qui le souhaitent d’utiliser ces données pour entraîner d’autres modèles et ainsi de ne pas repartir de zéro. Il y a un effet mutualisation qui me paraît intéressant », considère-t-il. « Le fait que des modèles soient mis à disposition gratuitement, de manière ouverte, entraîne une biodiversité des modèles qui serait impossible avec un modèle fermé tel que celui proposé par OpenAI », abonde Joël Gombin.

 

L’open source, un danger pour notre sécurité ?

 

Mais alors, sur quel modèle économique l’intelligence artificielle en open source peut-elle reposer ? « Si le modèle est basé sur un usage gratuit, que les données sont ouvertes, il ne peut s’agir d’une économie de rente basée sur le paiement des droits d’usage », prévient Michel-Marie Maudet. Il est possible d’imaginer des revenus tirés de l'hébergement des systèmes ou d’une offre de services, notamment en apportant de l’expertise pour maîtriser le modèle. Lucie, le modèle développé par le consortium, pourrait servir à concevoir un assistant pédagogique pour l’Éducation nationale basé sur des données référencées par le ministère.

En revanche, les opposants à l'intelligence artificielle en open source estiment qu’elle peut représenter une menace pour la sécurité. Le modèle, accessible à tous, pourrait être placé entre de mauvaises mains, par exemple de pays ennemis, et ainsi devenir dangereux. Ce fut la raison évoquée par Open AI, la maison mère de ChatGPT, en 2019 pour justifier de la fermeture de ses modèles. « J’entends ce discours depuis 30 ans pour les logiciels libres, mais je n’ai toujours pas à ma connaissance un fait journalistique le démontrant », tempère Michel-Marie Maudet.

 

Théo Nepipvoda

Fermer

Cliquez pour vous inscrire à nos Newsletters

La quotidienne
L'hebdo entreprise, fondation, partenaire
L'hebdo association
L'hebdo grand public

Fermer