Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Italy

Down Icon

GPT-OSS : à quoi ressemble le modèle Open Weight (mais pas Open Source) d'OpenAI

GPT-OSS : à quoi ressemble le modèle Open Weight (mais pas Open Source) d'OpenAI

Le 5 août 2025, OpenAI a publié deux versions de GPT-OSS , décrites sur le blog OpenAI comme offrant des performances véritablement compétitives par rapport à la concurrence, à faible coût et avec des résultats presque conformes à ceux de certains des modèles précédents.

« Disponibles sous la licence flexible Apache 2.0 », indique le billet de blog, « ces modèles surpassent les modèles ouverts de taille similaire sur les tâches de raisonnement, démontrent de solides capacités d'outillage et sont optimisés pour un déploiement efficace sur du matériel grand public. »

Jusqu'à présent, le marketing d'OpenAi, et à partir de là, une analyse plus détaillée de ce qu'est réellement GPT-OSS.

Open source ou open weight ?

Malgré l'affirmation qui vient d'être citée, celle selon laquelle les modèles seraient « Disponibles sous la licence flexible Apache 2.0… », GPT-OSS n'est pas du tout, comme on pourrait le croire, open source mais seulement « open weight » ce qui est une toute autre chose.

OpenAI a en fait appliqué la licence Apache 2.0 de GPT-OSS uniquement aux pondérations, et pas à tout le reste. Autrement dit, OpenAI a décidé de rendre publics et réutilisables les paramètres qui définissent la réaction d'un réseau neuronal après l'entraînement (les pondérations, précisément) , mais n'a pas fait de même avec les composants logiciels utilisés, par exemple, pour l'entraînement.

Ce choix est tout à fait légitime et compréhensible d'un point de vue commercial, mais il ne permet pas d'élargir le sens des mots en laissant entendre que les utilisateurs ont accès à l'intégralité du modèle. Il aurait donc été plus juste d'écrire « Avec les pondérations disponibles sous la licence flexible Apache 2.0, ces modèles… » — trois mots qui modifient radicalement la forme de la phrase et son sens.

Que signifie que GPT-OSS n'est pas open source ?

GPT-OSS dans son ensemble n'est ni « open source » ni « libre » au sens juridique du terme défini par la Free Software Foundation , ce qui signifie qu'il est entièrement gratuit, même dans ses composants logiciels. En revanche, en ce qui concerne le logiciel, GPT-OSS est un modèle « propriétaire » dans le sens où OpenAI conserve le contrôle et la confidentialité de sa conception et de sa gestion.

En réalité, une plateforme d'IA est composée de plusieurs éléments, tels que, de manière très grossière et extrêmement (voire excessive) simplifiée : les données brutes organisées en un ensemble de données , le logiciel utilisé pour créer et gérer l'ensemble de données sur lequel opère le modèle et, plus précisément, les « pondérations ». Seules ces dernières, comme mentionné, sont publiées sous la licence Apache 2.0 , qui autorise la reproduction, la création d'œuvres dérivées , l'affichage public, l'exécution publique, la sous-licence et la distribution de l'œuvre et de ces œuvres dérivées, sous forme source ou objet.

Le fait que la « flexibilité » ne concerne que la réutilisation des pondérations est crucial : si seules celles-ci sont réutilisables et modifiables, chacun peut « personnaliser », mais seulement partiellement , le fonctionnement du modèle. Cela pose un problème sérieux qui pourrait nous inciter à réfléchir à deux fois avant de créer des modèles GPT-OSS « affinés » et de les utiliser pour proposer des produits et services.

Poids ouvert, contrôle de sécurité et jailbreak

En plus de créer des versions (partiellement) spécialisées de GPT-OSS, travailler sur les poids permettrait, en théorie, d’éliminer ou au moins de réduire l’efficacité des contrôles de sécurité intégrés au modèle, censés empêcher la génération de réponses que les concepteurs jugent inacceptables – de surcroît, selon des normes subjectives et pas nécessairement imposées par la loi.

L' introduction à la fiche modèle GPT-OSS , puis cette dernière plus en détail, soulignent une attention particulière au filtrage, par exemple, des données relatives aux domaines chimique, biologique, radiologique et nucléaire . Ceci vise à empêcher le modèle d'atteindre une capacité élevée à fournir des réponses dangereuses dans ces secteurs, même en effectuant un raffinement « malveillant ».

De là, deux conséquences hypothétiques et une certaine semblent pouvoir être déduites.

La première est qu’il semblerait dans tous les cas (extrêmement difficile mais) possible de rendre GPT-OSS plus précis à des fins illicites (à moins, par exemple, que des systèmes ne soient mis en œuvre qui « cassent » le modèle en cas de dépassements indésirables de la précision).

La deuxième, basée sur l’hypothèse précédente, est qu’il n’est pas précisé quel mal pourrait être fait avec ces modèles illicites moins efficaces et moins performants, qui fonctionnent toujours du « côté obscur ».

Quelles que soient les réponses à ces deux questions, en l'absence de preuves expérimentales, toute affirmation serait purement spéculative ; au contraire, il est certain que, pour les mêmes raisons, toutes les précisions GPT-OSS ne seraient pas possibles. Par conséquent, la qualification juridique du modèle nécessiterait des précisions supplémentaires, précisant que les pondérations peuvent être modifiées dans les limites étroites fixées indépendamment par OpenAI et que, par conséquent, le modèle est « à pondération partiellement ouverte » ou que la licence Apache 2.0 n'est pas pleinement applicable.

(Presque) tout le monde le fait de cette façon

En conclusion, il est clair (et par certains côtés évident) que GPT-OSS, comme ses versions propriétaires et celles de (presque) tous ses concurrents, permet une utilisation très large mais en tout cas restreinte par les choix de conception de ceux qui l'ont créé, ce qui est inacceptable.

Peu importe que cela soit fait pour éviter des poursuites judiciaires , pour limiter la diffusion d’informations indésirables pour les dirigeants ( comme dans le cas de DeepSeek ), ou pour éviter d’être submergé par les inévitables vagues d’indignation sociale qui surgissent chaque fois que quelqu’un blâme l’outil (et non la personne qui l’utilise) pour avoir été utilisé de manière illégale ou dérangeante .

Restreindre – censurer – l’utilisation d’un LLM à l’avance parce que quelqu’un pourrait l’utiliser à mauvais escient pour commettre des actes illégaux revient à traiter tous les utilisateurs comme des dangers potentiels qui doivent donc être surveillés quoi qu’il en soit, et de plus par une entité privée selon ses propres règles.

À juste titre, cette approche a suscité une controverse et des protestations lorsque Apple et la Commission européenne ont commencé à parler d’ analyse côté client (la recherche préventive et automatique de contenu illégal sur tous les appareils des utilisateurs avant qu’il ne puisse être envoyé).

Si tel est le cas, il n’est pas clair pourquoi OpenAI et toutes les autres sociétés d’IA devraient être autorisées à faire ce que nous demandons aux autres d’interdire.

D’un autre côté, s’il existe une crainte légitime qu’un modèle sans contrôles de sécurité soit trop dangereux, alors les États devraient prendre la responsabilité de définir la portée de ces contrôles, plutôt que de la déléguer à des entités privées dont les agendas ne coïncident pas nécessairement avec la protection de l’intérêt public (des citoyens qui ne sont pas nécessairement des citoyens américains).

repubblica

repubblica

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow