Sélectionner la langue

French

Down Icon

Sélectionnez un pays

England

Down Icon

Mistral, soutenu par Microsoft, lance un cloud d'IA européen pour concurrencer AWS et Azure

Mistral, soutenu par Microsoft, lance un cloud d'IA européen pour concurrencer AWS et Azure

Participez à l'événement auquel les chefs d'entreprise font confiance depuis près de deux décennies. VB Transform rassemble les personnes qui élaborent de véritables stratégies d'IA pour les entreprises. En savoir plus

Mistral AI , la startup française d'intelligence artificielle, a annoncé mercredi une expansion radicale dans l'infrastructure d'IA qui positionne l'entreprise comme la réponse européenne aux géants américains du cloud computing, tout en dévoilant simultanément de nouveaux modèles de raisonnement qui rivalisent avec les systèmes les plus avancés d'OpenAI.

L'entreprise parisienne a dévoilé Mistral Compute , une plateforme complète d'infrastructure d'IA développée en partenariat avec Nvidia . Elle vise à offrir aux entreprises et aux gouvernements européens une alternative aux fournisseurs de cloud américains comme Amazon Web Services , Microsoft Azure et Google Cloud . Cette initiative représente un changement stratégique majeur pour Mistral, passant du simple développement de modèles d'IA à la maîtrise de l'ensemble de la pile technologique.

« Cette transition vers l'infrastructure d'IA marque une étape décisive pour Mistral AI, car elle nous permet d'aborder un segment vertical crucial de la chaîne de valeur de l'IA », a déclaré Arthur Mensch, PDG et cofondateur de Mistral AI. « Cette évolution implique la responsabilité de garantir que nos solutions stimulent non seulement l'innovation et l'adoption de l'IA, mais aussi l'autonomie technologique de l'Europe et contribuent à son leadership en matière de développement durable. »

Parallèlement à l'annonce de l'infrastructure, Mistral a dévoilé sa série de modèles de raisonnement Magistral , des systèmes d'IA capables de raisonner logiquement étape par étape, similaires au modèle o1 d'OpenAI et au DeepSeek R1 chinois. Mais Guillaume Lample, directeur scientifique de Mistral, affirme que l'approche de l'entreprise se distingue de celle de ses concurrents sur des points cruciaux.

« Nous avons tout fait de zéro, essentiellement parce que nous voulions acquérir notre expertise et notre flexibilité », m'a confié Lample lors d'une interview exclusive. « Nous avons réussi à être très efficaces sur le pipeline d'apprentissage par renforcement en ligne. »

Contrairement à ses concurrents qui dissimulent souvent leurs processus de raisonnement, les modèles de Mistral présentent l'intégralité de leur chaîne de pensée aux utilisateurs, et surtout, dans leur langue maternelle plutôt qu'en anglais par défaut. « Ici, l'utilisateur a accès à l'intégralité de la chaîne de pensée, mais dans sa propre langue, afin qu'il puisse la lire et voir si elle est cohérente », explique Lample.

La société a publié deux versions : Magistral Small , un modèle open source de 24 milliards de paramètres, et Magistral Medium , un système propriétaire plus puissant disponible via l'API de Mistral.

Les modèles ont démontré des capacités surprenantes apparues lors de l'entraînement. Plus particulièrement, Magistral Medium a conservé ses capacités de raisonnement multimodal (la capacité d'analyser des images), même si l'entraînement était uniquement axé sur des problèmes mathématiques et de codage textuels.

« Nous avons réalisé, pas exactement par erreur, mais quelque chose à laquelle nous ne nous attendions absolument pas, que si à la fin de l'apprentissage par renforcement, vous rebranchez l'encodeur de vision initial, alors soudainement, comme sorti de nulle part, vous voyez le modèle capable de raisonner sur des images », a déclaré Lample.

Les modèles ont également acquis des capacités sophistiquées d'appel de fonctions, effectuant automatiquement des recherches Internet en plusieurs étapes et exécutant du code pour répondre à des requêtes complexes. « Vous verrez un modèle faire cela, réfléchir, puis réaliser : « OK, ces informations pourraient être mises à jour. » Je vais faire une recherche sur le Web, explique Lample. « Il recherchera sur Internet, puis transmettra les résultats, les analysera et dira : « Peut-être que la réponse ne se trouve pas dans ces résultats. Je vais relancer la recherche. »

Ce comportement est apparu naturellement, sans formation spécifique. « C'est une chose que l'on peut faire ou non, mais nous avons constaté que cela se produisait plutôt naturellement. C'était donc une très belle surprise pour nous », a noté Lample.

L'équipe technique de Mistral a surmonté d'importants défis d'ingénierie pour créer ce que Lample décrit comme une avancée majeure en matière d'infrastructure de formation. L'entreprise a développé un système d'« apprentissage par renforcement en ligne » qui permet aux modèles d'IA de s'améliorer en continu tout en générant des réponses, plutôt que de s'appuyer sur des données d'entraînement préexistantes.

L'innovation clé consistait à synchroniser les mises à jour des modèles sur des centaines de processeurs graphiques (GPU) en temps réel. « Nous avons trouvé un moyen de décompresser le modèle via les GPU. D'un GPU à l'autre », explique Lample. Cela permet au système de mettre à jour les pondérations des modèles sur différents clusters de GPU en quelques secondes, au lieu des heures habituellement nécessaires.

« Aucune infrastructure open source comparable ne permet de réaliser cela correctement », a souligné Lample. « En général, de nombreuses tentatives open source sont menées dans ce sens, mais elles sont extrêmement lentes. Ici, nous avons mis l'accent sur l'efficacité. »

Le processus de formation s'est avéré beaucoup plus rapide et moins coûteux qu'une préformation traditionnelle. « C'était bien moins cher qu'une préformation classique. Sur d'autres GPU, la préformation prendrait des semaines, voire des mois. Ici, on est loin de ce résultat. Ça dépendait du nombre de personnes que l'on mettait sur le projet. Mais ça a duré bien moins d'une semaine », a déclaré Lample.

La plateforme Mistral Compute fonctionnera sur 18 000 puces Grace Blackwell de Nvidia, initialement hébergées dans un centre de données de l'Essonne, en France, avec des projets d'expansion à travers l'Europe. Jensen Huang, PDG de Nvidia, a qualifié ce partenariat de crucial pour l'indépendance technologique européenne.

« Chaque pays devrait développer l'IA pour son propre pays, dans son pays », a déclaré Huang lors d'une annonce conjointe à Paris. « Avec Mistral AI, nous développons des modèles et des usines d'IA qui servent de plateformes souveraines aux entreprises européennes pour déployer l'intelligence dans tous les secteurs. »

Huang prévoit que la capacité de calcul de l'IA en Europe sera multipliée par dix au cours des deux prochaines années, avec plus de 20 « usines à IA » prévues sur le continent. Plusieurs de ces installations disposeront d'une capacité supérieure à un gigawatt, ce qui pourrait les classer parmi les plus grands centres de données du monde.

Le partenariat s'étend au-delà de l'infrastructure pour inclure le travail de Nvidia avec d'autres sociétés européennes d'IA et Perplexity, la société de recherche, pour développer des modèles de raisonnement dans diverses langues européennes où les données de formation sont souvent limitées.

Mistral Compute répond à deux préoccupations majeures liées au développement de l'IA : l'impact environnemental et la souveraineté des données. La plateforme garantit aux clients européens la conservation de leurs informations au sein de l'UE et sous la juridiction européenne.

L'entreprise s'est associée à l'Agence nationale pour la transition écologique et à Carbone 4, cabinet de conseil climatique de premier plan, pour évaluer et minimiser l'empreinte carbone de ses modèles d'IA tout au long de leur cycle de vie. Mistral prévoit d'alimenter ses centres de données avec des sources d'énergie décarbonées.

« En choisissant l’Europe pour l’implantation de nos sites, nous nous donnons la possibilité de bénéficier de sources d’énergie largement décarbonées », a déclaré l’entreprise dans son communiqué.

Les premiers tests suggèrent que les modèles de raisonnement de Mistral offrent des performances compétitives tout en répondant à une critique fréquente des systèmes existants : la rapidité. Les modèles de raisonnement actuels d'OpenAI et d'autres entreprises peuvent prendre quelques minutes pour répondre à des requêtes complexes, ce qui limite leur utilité pratique.

« Ce que les gens n'apprécient généralement pas dans ce modèle de raisonnement, c'est que, même s'il est intelligent, il prend parfois beaucoup de temps », a noté Lample. « Ici, on voit vraiment le résultat en quelques secondes seulement, parfois en moins de cinq secondes, parfois même moins. Et cela change l'expérience. »

L’avantage de la vitesse pourrait s’avérer crucial pour l’adoption par les entreprises, où attendre des minutes pour obtenir des réponses de l’IA crée des goulots d’étranglement dans le flux de travail.

L'arrivée de Mistral dans le secteur des infrastructures le place en concurrence directe avec les géants technologiques qui dominent le marché du cloud computing. Amazon Web Services , Microsoft Azure et Google Cloud contrôlent actuellement la majorité des infrastructures cloud mondiales, tandis que de nouveaux acteurs comme CoreWeave ont gagné du terrain, notamment dans les applications d'IA.

L'approche de l'entreprise se distingue de ses concurrents en proposant une solution complète et intégrée verticalement, de l'infrastructure matérielle aux modèles d'IA en passant par les services logiciels. Elle inclut Mistral AI Studio pour les développeurs, Le Chat pour la productivité en entreprise et Mistral Code pour l'assistance à la programmation.

Les analystes du secteur considèrent la stratégie de Mistral comme s'inscrivant dans une tendance plus large de développement régional de l'IA. « L'Europe doit de toute urgence développer son infrastructure d'IA si elle veut rester compétitive à l'échelle mondiale », a observé Huang, faisant écho aux inquiétudes exprimées par les décideurs politiques européens.

Cette annonce intervient alors que les gouvernements européens s'inquiètent de plus en plus de leur dépendance aux entreprises technologiques américaines pour leurs infrastructures d'IA essentielles. L'Union européenne a engagé 20 milliards d'euros pour la construction de « gigafactories » d'IA sur tout le continent, et le partenariat de Mistral avec Nvidia pourrait contribuer à accélérer ces projets.

La double annonce de Mistral, portant sur ses capacités en matière d'infrastructure et de modélisation, témoigne de son ambition de devenir une plateforme d'IA complète plutôt qu'un simple fournisseur de modèles. Avec le soutien de Microsoft et d'autres investisseurs, l'entreprise a levé plus d'un milliard de dollars et continue de rechercher des financements supplémentaires pour soutenir son expansion.

Mais Lample entrevoit des perspectives encore plus vastes pour les modèles de raisonnement. « Si j'observe les progrès en interne, et selon certains benchmarks, le modèle a obtenu une précision de plus de 5 % chaque semaine pendant environ six semaines au total », a-t-il déclaré. « L'amélioration est donc très rapide, et il existe une multitude de petites idées qui amélioreront les performances. »

Le succès de cette contestation européenne de la domination américaine en matière d'IA pourrait dépendre, en fin de compte, de la mesure dans laquelle les clients accordent suffisamment d'importance à la souveraineté et à la durabilité pour se détourner des fournisseurs traditionnels. Pour l'instant, du moins, ils ont le choix.

Informations quotidiennes sur les cas d'utilisation métier avec VB Daily

Si vous souhaitez impressionner votre patron, VB Daily a tout prévu. Nous vous présentons en avant-première les avancées des entreprises en matière d'IA générative, des évolutions réglementaires aux déploiements pratiques, afin que vous puissiez partager vos idées pour un retour sur investissement maximal.

Lisez notre politique de confidentialité

Merci de votre abonnement. Découvrez d'autres newsletters VB ici .

Une erreur s'est produite.

venturebeat

venturebeat

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow