Le rôle émergent des systèmes à code source ouvert pour l’adoption de l’IA Le rôle émergent des systèmes à code source ouvert pour l’adoption de l’IA

21 mars 2025 8 MIN DE LECTURE

L’IA à code source ouvert est devenue un moteur de l’avancement et de l’adoption de l’intelligence artificielle, alliant transparence, accessibilité et innovation collaborative. Des modèles comme Llama, Gemma et Phi-2 permettent aux entreprises en démarrage, aux chercheurs et aux entreprises de tirer parti de la technologie de pointe de l’IA, stimulant l’innovation dans tous les secteurs.

Ce bulletin d’actualités explore les caractéristiques de l’IA à code source ouvert et son rôle pour stimuler l’innovation, définir les exigences réglementaires et influencer la gouvernance de l’IA.

Définition de l’IA à code source ouvert : définition 1.0 de l’OSI

À la fin de 2024, l’organisme Open Source Initiative (OSI) a publié sa définition officielle de l’intelligence artificielle « à code source ouvert » (en anglais Open Source AI definition ou « OSAID »), une étape importante pour la communauté d’utilisateurs. Auteur de la définition de « code source ouvert », l’OSI, acteur influent du domaine du code source ouvert mondialement reconnu, a élaboré la définition afin de déterminer ce qui devrait être considéré comme un code source ouvert dans le contexte de l’IA.

La version 1.0 de l’OSAID est l’aboutissement de plusieurs années de recherche et de collaboration, ainsi que d’un processus mondial de conception conjointe multipartite (étalé sur un an) visant à rédiger une définition ralliant les différents experts, organisations et acteurs de la communauté. L’OSAID devra servir de norme pour les évaluations ouvertes et publiques des systèmes d’IA à code source ouvert menées par la communauté d’utilisateurs.

Essentiellement, l’OSAID reflète les quatre libertés fondamentales du code source ouvert, soit la liberté :

  • d’utiliser le système à n’importe quelle fin et sans avoir à demander d’autorisation;
  • d’étudier le fonctionnement du système et d’inspecter ses éléments;
  • de modifier le système à n’importe quelle fin, y compris pour modifier ses résultats;
  • de partager le système pour que d’autres l’utilisent avec ou sans modifications, à n’importe quelle fin.

Bien que la définition continue d’évoluer, elle a déjà été approuvée par plusieurs organisations influentes, dont Mozilla, SUSE et la fondation Eclipse.

Rôle du code source ouvert pour l’innovation

Les modèles d’IA à code source ouvert jouent un rôle transformateur pour de nombreux secteurs de l’économie, notamment pour les entreprises émergentes et en forte croissance et les grandes entreprises. En réduisant les obstacles à l’entrée, ces modèles permettent aux chercheurs et aux entreprises d’avoir accès à des capacités d’IA de pointe.

Notre expérience de travail avec les entreprises d’IA en démarrage et les jeunes entreprises en croissance nous a permis d’être des témoins directs des avantages de l’IA à code source ouvert :

  • les coûts initiaux étant réduits, l’IA à code source ouvert peut rendre l’accès au développement de l’IA plus abordable et évolutif;
  • l’IA à code source ouvert favorise une culture de collaboration, ce qui ouvre la voie au partage des connaissances et aux améliorations itératives.

En élargissant l’accès aux outils d’IA et en favorisant l’innovation, l’IA à code source ouvert rend le développement de l’IA plus inclusif en permettant à un plus grand nombre de secteurs et de personnes de contribuer à son avancement et à son adoption.

Rôle de l’IA à code source ouvert pour la conformité réglementaire

Les caractéristiques fondamentales de nombreuses nouvelles lois et lignes directrices reflètent les principes de transparence, d’explicabilité et d’atténuation des risques – des principes qui s’accordent avec la nature « ouverte » de l’IA à code source ouvert. Un bon exemple est le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés d’ISDE, qui met l’accent sur la surveillance, la transparence de l’atténuation des risques et d’autres éléments de responsabilisation qui sont plus faciles à satisfaire au moyen des modèles d’IA dont le code source est libre d’accès. La loi sur l’intelligence artificielle de l’Union européenne va encore plus loin en reconnaissant expressément le code source ouvert comme un moteur d’innovation. Le préambule de la loi sur l’IA dit que :

[…] les modèles, publiés dans le cadre d’une licence libre et ouverte […] peuvent contribuer à la recherche et à l’innovation sur le marché et offrir d’importantes possibilités de croissance pour l’économie de l’Union. Les modèles d’IA à usage général publiés sous licence libre et ouverte devraient être considérés comme garantissant des niveaux élevés de transparence et d’ouverture […] (préambule, alinéa 102).

De plus, les modèles d’IA à code source ouvert qui divulguent publiquement les poids et l’architecture des modèles peuvent même répondre à certaines exigences réglementaires, ce qui réduit les fardeaux de conformité.

Il convient également de noter que l’OSI a été choisie comme l’une des parties prenantes chargées de rédiger le Code de pratique général sur l’IA – des lignes directrices pour aider à se conformer à la loi sur l’IA de l’UE. Le choix de l’OSI témoigne de l’importance croissante de l’IA à code source ouvert dans l’élaboration des nouveaux cadres réglementaires mondiaux.

Rôle de l’IA à code source ouvert pour la gouvernance responsable de l’IA

La gouvernance responsable de l’IA repose sur la responsabilité, la gestion des risques, l’utilisation éthique des données, la transparence et l’équité. Comme le montrent les exemples suivants, les modèles d’IA à code source ouvert peuvent procurer des avantages tangibles aux organisations qui s’engagent à utiliser l’IA de façon responsable :

  • Transparence et auditabilité – Les modèles d’IA à code source ouvert qui donnent accès aux codes, à l’architecture et aux méthodes d’entraînement permettent aux parties concernées d’inspecter les algorithmes et les processus décisionnels, ce qui assure une surveillance et augmente la confiance.
  • Responsabilité – En rendant le code source accessible au public, les développeurs peuvent être tenus responsables des résultats de leurs systèmes. Les utilisateurs et les organismes de réglementation peuvent retracer les décisions qui ont été prises jusqu’à des éléments précis du code, ce qui facilite les audits.
  • Atténuation des risques de partialité et d’iniquité – Les projets à code source ouvert profitent des examens des utilisateurs dans la mesure où une communauté de chercheurs et de spécialiste externes peut aider à cerner les biais ou les erreurs qui, autrement, pourraient passer inaperçus, et améliorer ainsi l’équité et la fiabilité du système.
  • Sécurité et fiabilité – Le code source ouvert suit le principe utilisé dans le domaine du développement de logiciels selon lequel plus il y aura de développeurs sur un programme, moins il y aura de bogues; autrement dit, la plus grande visibilité augmente la probabilité de déceler et de corriger les erreurs ou les vulnérabilités, ce qui rend le système d’IA plus fiable.

Facteurs de risque

L’IA à code source ouvert n’est pas sans risque et ne fournit pas un cadre complet pour promouvoir les principes de l’IA responsable. Les principaux facteurs de risque comprennent les suivants :

  • La protection des renseignements personnels et la propriété intellectuelle, en partie parce que les modèles d’IA à code source ouvert divulguent rarement tous les détails sur l’origine des données d’entraînement ou fournissent rarement des garanties contractuelles que tous les droits nécessaires ont été obtenus pour permettre l’utilisation légale du modèle ou de ses résultats.
  • La transparence de l’IA à code source ouvert peut être une arme à double tranchant. Bien que l’accès au fonctionnement interne du système puisse augmenter la confiance, il peut également exposer des vulnérabilités potentielles que des acteurs malveillants peuvent exploiter, augmentant ainsi les risques pour la sécurité.
  • De nombreux projets d’IA à code source ouvert reposent sur les contributions volontaires de la communauté d’utilisateurs, ce qui peut se traduire par un soutien limité, des mises à jour irrégulières, des correctifs de sécurité retardés ou une documentation incomplète. Les organisations pourraient devoir combler ces lacunes, ce qui peut être difficile, surtout si elles n’ont pas participé au développement du modèle.
  • Les modèles d’IA à code source ouvert sont habituellement offerts tels quels, sans déclarations, garanties ou indemnités. S’ils génèrent des résultats inexacts, partiaux ou préjudiciables, les organisations ont des recours limités et assument à la fois le risque juridique et le risque réputationnel qui en découlent.

Ces risques et les stratégies d’atténuation des risques connexes doivent être soigneusement évalués et pris en compte dans la décision de développer, de distribuer ou d’utiliser l’IA à code source ouvert.

Conclusion

Les systèmes à code source ouvert jouent un rôle déterminant pour l’avenir de l’IA en favorisant une innovation à peu de frais, une conformité réglementaire et une gouvernance accrue qui permettent de promouvoir les principes d’ouverture, de transparence, de collaboration et de surveillance par la communauté. À mesure que le développement et l’utilisation de l’IA à code source ouvert s’accélèrent, il sera essentiel pour tous les intervenants – développeurs, chercheurs, décideurs et utilisateurs – de comprendre à la fois les avantages et les risques de l’IA à code source ouvert et de veiller à ce qu’ils soient pris en compte dans les nouveaux modèles de gouvernance et les exigences réglementaires connexes.