Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Italy

Down Icon

Sciences, accessibilité, emplois. L’IA est donc déjà en train de changer notre présent

Sciences, accessibilité, emplois. L’IA est donc déjà en train de changer notre présent

Microsoft, Google et bientôt Apple et Meta. Les grandes entreprises technologiques consacrent désormais leurs conférences de développeurs à des projets de valeur mondiale. Autrefois dédiés uniquement aux « développeurs », les différents Builds, I/Os, Connects, WWDCs sont des moments clés pour découvrir les nouvelles fonctionnalités que la technologie nous offre aujourd’hui, immédiatement, pas dans quelques années. C'est un autre point en faveur des kermesses mentionnées ci-dessus. Le secteur technologique a souvent été évoqué pour les solutions avancées et futuristes que nous verrons un jour. Et au contraire, ces dernières années, et ce n’est pas un hasard depuis la fin de la pandémie, les choses sont devenues beaucoup plus concrètes : les gens, qu’ils soient experts dans le domaine ou non, veulent expérimenter immédiatement et de première main ce que l’innovation a à offrir, laissant le reste à n’importe quel livre de Philip K. Dick ou à une série en streaming. Et il y a déjà des choses intéressantes sur la table, grâce à l’intelligence artificielle.

La conférence Build de Microsoft s’est concentrée, comme prévu, sur Copilot. Discovery est une plateforme qui vise à simplifier et accélérer la recherche scientifique grâce à l'intelligence artificielle et à la gestion avancée des données. Le système est basé sur une structure « agentique », composée de plusieurs modules d’IA spécialisés qui collaborent entre eux, et sur Azure. Un moteur de connaissances graphiques cartographie les interconnexions entre les théories, les expériences et les données, facilitant le passage de l'intuition à la vérification expérimentale. Copilot agit comme une interface utilisateur, orchestrant les opérations et intégrant des fonctionnalités visuelles. Discovery est conçu comme un écosystème flexible, capable d'intégrer des outils externes, des modèles et différents ensembles de données, s'adaptant à divers domaines scientifiques, de la chimie aux semi-conducteurs. À titre d’exemple concret, Microsoft a cité la découverte d’un nouveau réfrigérant pour centre de données en moins de dix jours, une réalisation plus rapide que les méthodes traditionnelles, qui auraient pris des mois, voire des années.

Il s'agit de l'évolution du projet Starline (introduit en 2021) et a été annoncé à l'I/O 2025 comme une plate-forme de communication vidéo 3D alimentée par l'IA. L’objectif est de transformer la visioconférence en expériences quasi holographiques et « d’hyper-téléprésence », allant au-delà des capacités de son prédécesseur. Beam utilise un modèle vidéo volumétrique sophistiqué alimenté par l'IA, la puissance de Google Cloud et un affichage de champ lumineux. Au total, six caméras capturent des images sous plusieurs angles tandis que l'IA combine ces flux vidéo pour restituer les participants en 3D sur l'écran du champ lumineux, le tout à 60 images par seconde et en suivant les mouvements de la tête pour garantir une visualisation correcte sous n'importe quelle perspective. Les premiers appareils Google Beam seront disponibles plus tard cette année, mais les prix n'ont pas encore été annoncés. À titre de comparaison, Logitech a développé un système appelé Project Ghost, qui offre une vidéo 2D grandeur nature sur un grand écran, avec un coût estimé entre 15 000 et 20 000 dollars.

Après plusieurs rumeurs, Xreal et Google ont présenté Project Aura, un prototype de lunettes intelligentes basé sur la plateforme Android XR. Successeurs idéaux des Google Glass, ils embarquent deux micro-écrans qui projettent du contenu en réalité étendue avec la possibilité d'ajuster l'opacité des verres pour rester en contact avec l'environnement environnant. Le prototype comprend des caméras, des microphones et des boutons intégrés. Le cœur est bien sûr Gemini AI qui pourra également réaliser des activités localement, grâce à la puce Qualcomm optimisée pour les applications de « réalité étendue ». Xreal s'occupera de la partie hardware, un peu à la manière de ce qui se passe avec Samsung pour la Galaxy Watch, Google développant le système d'exploitation Wear OS. De plus amples détails, notamment la date de lancement et le prix, sont attendus à l'Augmented World Expo en juin aux États-Unis.

En prévision du Meta Connect du 17 septembre, la création de Mark Zuckerberg a annoncé quelques mises à jour pour les lunettes Ray-Ban, produites en collaboration avec EssilorLuxottica. Ces derniers intégreront davantage de fonctionnalités d’IA pour fournir des descriptions environnementales détaillées aux personnes aveugles et malvoyantes (même si tout le monde pourra en faire l’expérience). Grâce à la caméra et à l'assistant Meta AI, les lunettes pourront décrire avec précision l'environnement de l'utilisateur, comme le montre une vidéo dans laquelle l'IA identifie des éléments d'un parc ou localise des objets sur une table tout en fournissant des indications directionnelles. Cette fonctionnalité sera initialement disponible aux États-Unis et au Canada, et sera ensuite étendue à d’autres pays. Une autre introduction importante est « appeler un bénévole », qui connectera les utilisateurs aveugles ou malvoyants à un réseau de bénévoles de la fondation Be My Eyes en temps réel pour les aider dans leurs activités quotidiennes.

ilsole24ore

ilsole24ore

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow