L’OSI publie une première définition de l’« IA à code source ouvert » et sollicite les derniers commentaires

16 Oct 2024 7 MIN DE LECTURE

À l’heure où l’intelligence artificielle (IA) continue de transformer de nombreux secteurs, les systèmes d’IA à code source ouvert jouent un rôle de plus en plus pertinent. En effet, l’IA à code source ouvert constitue une plateforme collective et transparente qui favorise la collaboration et la transparence, stimule l’innovation, réduit les obstacles à l’entrée et à l’apprentissage, tout en soutenant un développement éthique. Alors que l’IA à code source ouvert gagne en popularité, le besoin de clarifier la signification de l’expression « code source ouvert » dans le contexte de l’IA se fait de plus en plus ressentir.

L’organisme Open Source Initiative (OSI), acteur majeur et influent dans le domaine du code source ouvert, chargé de la « définition du code source ouvert » (en anglais Open Source Definition (OSD)), a pris l’engagement de s’occuper de la situation. Pour s’assurer que les principes du code source ouvert s’appliquent efficacement à l’IA, l’OSI travaille depuis 2022 à la rédaction d’une nouvelle définition de l’IA à code source ouvert en consultation avec des experts mondiaux et le public. Ces efforts ont abouti à la très attendue première définition d’« IA à code source ouvert» (en anglais l’OSAID). L’équipe d’Osler a suivi de près ce processus, notamment en assistant aux rencontres de discussion ouverte tenues par l’OSI.

La publication de la première définition de l’OSAID survient à un moment crucial, alors que les organismes de normalisation, institutions et gouvernements dans le monde, y compris ceux du Canada, mettent en place des réglementations sur l’IA qui intègrent souvent l’importance de l’IA à code source ouvert. Jusqu’à présent, la première définition a reçu le soutien de plusieurs organisations influentes, comme Mozilla, SUSE et la Fondation Eclipse.

Principales caractéristiques de la définition de l’IA à code source ouvert proposée par l’OSI

La définition de l’IA à code source ouvert proposée par l’OSI comprend les caractéristiques suivantes :

  1. Qu’est-ce que l’IA à code source ouvert? Une IA à code source ouvert est un système d’intelligence artificielle qui permet aux utilisateurs d’utiliser, d’étudier, de modifier et de partager librement le système ainsi que ses éléments discrets. Pour pouvoir exercer ces libertés et apporter des modifications à ces systèmes, les utilisateurs doivent avoir un accès à leur forme privilégiée.
  2. Forme privilégiée pour pouvoir apporter des modifications aux systèmes d’apprentissage automatique. La définition exige qu’une IA à code source ouvert soit mise à disposition sous une forme privilégiée comprenant : i) des informations détaillées sur les données utilisées pour entraîner le système; ii) le code source complet utilisé pour entraîner et faire fonctionner le système; iii) les paramètres du modèle, y compris les poids et autres options de configuration.
  3. Modèles de code source ouvert et poids. La définition précise que les conditions permettant à un système d’IA d’être considéré à code source ouvert s’appliquent également au modèle d’IA lui-même, au code utilisé pour exécuter le modèle, à l’architecture du modèle, aux paramètres du modèle et aux poids de l’IA (définis comme l’ensemble des paramètres appris qui s’intègre à l’architecture du modèle afin de produire des résultats).
  4. Définitions. Les définitions des expressions « système d’IA » et « apprentissage automatique » reposent sur celles du document d’orientation de l’OCDE sur l’intelligence artificielle, ce qui permet de mieux comprendre leur étendue dans le contexte de la définition.

Réactions à cette définition

Même si la définition peut encore faire l’objet de commentaires, deux préoccupations majeures se dégagent : la disponibilité des données et l’interopérabilité.

Le dilemme des données

Les données sont le pilier central de l’apprentissage automatique et il est crucial de veiller à un niveau de divulgation adéquat pour bâtir une IA à code source ouvert. La proposition actuelle prévoit uniquement la divulgation des métadonnées et non des données d’apprentissage, ce qui, selon certains, pourrait compromettre la capacité à reproduire les systèmes d’IA. Concrètement, cela signifie qu’un modèle entraîné avec des données exclusives non ouvertes peut tout de même satisfaire aux critères du code source ouvert, ce qui soulève des interrogations quant à la cohérence avec l’esprit et la philosophie du code source ouvert.

Toutefois, l’obligation de divulguer les données de formation pourrait limiter l’adoption, en raison de sensibilités concurrentielles ou du risque de non-conformité avec la réglementation (droits d’auteur, protection des données, etc.). L’OSI propose que la quantité d’informations requises sur un ensemble de données pour se conformer à la norme dépende de la sensibilité des données. Il sera nécessaire d’engager d’autres discussions avec les parties prenantes pour déterminer si ce compromis est clair et réalisable.

L’interopérabilité avec les normes et règlements

La réussite de l’adoption de l’IA à code source ouvert dépend également de l’uniformité et de la cohérence des multiples normes et réglementations à l’échelle mondiale, qui sont en constante évolution. L’OSAID définit largement le « système d’IA » en concordance avec les Principes sur l’IA de l’OCDE et la Loi sur l’IA de l’UE. Ces définitions sont également très proches de la définition proposée dans la Loi du Canada sur l’intelligence artificielle et les données (partie 3 du projet de loi C-27), même s’il reste à voir si cette définition sera effectivement adoptée. Il est important de souligner que la Loi sur l’IA de l’UE accorde des exemptions qui ne sont pas reprises dans l’OSAID, notamment l’exemption de certains systèmes d’IA à code source ouvert ou systèmes d’IA réservés uniquement à des fins de recherche et de développement scientifiques. Toutefois, l’absence de ces exemptions n’aura probablement pas d’incidence sur la définition aux fins d’une licence de source ouverte.

De son côté, l’ISO adopte une approche plus personnalisée, en définissant l’« IA » dans le contexte d’un « système technique » afin de placer l’implication humaine au centre, ce qui pourrait occasionner des défis d’interopérabilité aux organisations qui fondent leur stratégie de gouvernance de l’IA sur les normes ISO largement acceptées.

Perspectives

En définissant les bases d’une IA à code source ouvert, l’organisme Open Source Initiative pave la voie à un développement plus inclusif, transparent et éthique de l’IA. Dans le contexte en constante évolution de l’IA, les principes du code source ouvert s’imposent comme un levier essentiel pour maximiser son potentiel tout en respectant les normes éthiques.

Dans la continuité de son objectif ultime de proposer une définition rédigée en collaboration avec des experts et les parties prenantes, l’OSI cherche à obtenir l’approbation de la définition et à recueillir d’autres commentaires de la part des parties prenantes par l’entremise de forums, de lettres et de futures rencontres de discussion ouverte, avant de publier la définition officielle 1.0 le 28 octobre. L’OSI poursuit également ses efforts pour enrichir la documentation d’accompagnement, notamment une liste de contrôle et une FAQ. Compte tenu de l’effet probable attendu de la définition de l’IA à code source ouvert, il est essentiel que tous les acteurs – développeurs, chercheurs, décideurs politiques et utilisateurs – s’unissent autour de ces principes et travaillent de concert pour construire l’avenir de l’IA qu’ils souhaitent, tout en poursuivant le dialogue.