Alles, was Google auf der I/O 2025 angekündigt hat

Google hat heute in Kalifornien seine große I/O -Entwickler-Party und Produktankündigungsveranstaltung abgehalten. Wie schon in den letzten Jahren setzt Google weiterhin voll auf KI. In einer I/O-Keynote kündigten Google-Führungskräfte neue KI-Funktionen an, die in praktisch allen Bereichen verfügbar sein werden. Sie sind in Android, der Google-Suche, Gemini und – früher oder später – in einer Smart Glasses von Google zu finden.
Wir haben bereits live über das Event gebloggt . Hier finden Sie alles, was Google auf der I/O angekündigt hat.
Gemini holt Saft herausGoogle Assistant, der gelegentlich nützliche digitale Diener unten auf Ihrem Telefon, wird mehr oder weniger überall durch Googles KI-Usurpator Gemini ersetzt.
Google hat eine Reihe von Updates für Gemini angekündigt, das beeindruckendste davon ist Gemini Live . Diese neue Funktion kombiniert Eingaben von der Handykamera, Sprachbefehle und die agentenähnliche Fähigkeit, im Internet zu suchen, Anrufe zu tätigen und Informationen für Sie zu sammeln. Es handelt sich um eine Erweiterung der Experimente aus dem letzten Jahr mit dem Codenamen „Project Astra“. Dabei kann Googles maschinelle Intelligenz beschreiben, was sie durch eine angeschlossene Kamera sieht, sich wichtige Informationen über Ihre Umgebung merken und freihändig Aufgaben ausführen, die Sie ihr im natürlichen Chat befehlen.
Gemini hält auch Einzug in Googles Produktivitäts-App-Suite. Am eindrucksvollsten ist die neue Funktion „Personalisierte intelligente Antworten“ in Gmail. Mithilfe künstlicher Intelligenz erkennt die App Ihren persönlichen Schreibstil und Ihre bevorzugte Syntax – aus all Ihren Notizen, E-Mails, Dokumenten und Tabellenkalkulationen – und generiert daraus lange Antworten auf E-Mails, die Ihrem persönlichen Stil entsprechen.
„Mit persönlichen, intelligenten Antworten kann ich ein besserer Freund sein“, sagte Alphabet-CEO Sundar Pichai während seiner Keynote auf der Bühne und erklärte, wie er die Funktion nutzt, um E-Mails auf Fragen von Freunden zu verfassen, die er sonst überspringen würde, weil er zu beschäftigt mit seiner Aufgabe als CEO ist.
Um noch mehr über die neuen Gemini-Funktionen von Google zu erfahren, lesen Sie Will Knights WIRED-Interview mit Demis Hassabis, dem CEO von Google DeepMind .
Es gibt eine neue Abonnementstufe für Gemini-Poweruser.
Mit freundlicher Genehmigung von GoogleEinige dieser Gemini-Funktionen stehen Nutzern von Android und Googles Web-Apps kostenlos zur Verfügung, andere (und die leistungsstärkeren Funktionen) werden jedoch über ein kostenpflichtiges Abonnement verfügbar sein. Googles AI Premium-Dienst für 20 US-Dollar pro Monat wurde in Google AI Pro umbenannt. Die Kosten bleiben unverändert, allerdings sind die Funktionen nun eingeschränkter. Google AI Ultra , das umfassende KI-Paket des Unternehmens, ist auf 250 US-Dollar pro Monat gestiegen. Das sind 50 US-Dollar mehr pro Monat als OpenAIs ähnlicher Komplettplan, ChatGPT Pro.
Zwillinge sind eigentlich KünstlerKreative Profis und Programmierer aufgepasst: Die Verbesserungen der Kreativtools von Google werden Ihre Arbeit entweder einfacher und produktiver machen oder Sie überflüssig machen.
Jules ist ein „asynchroner Codieragent“, mit dem Sie einen groben, auf eine Serviette gekritzelten Entwurf in eine vollwertige Illustration oder einen Code umwandeln und gleichzeitig die dabei geleistete Arbeit sehen können.
Es gibt auch eine neue Version des KI-Bildgenerators von Google namens Imagen 4, die laut Google viel mehr Details in Bildern erzeugen kann, wie etwa Texturen in KI-generierten Gemälden oder benutzerdefinierten Text in Musikplakaten.
Google bietet auch neue generative KI-Videotools an, darunter Flow , ein Tool speziell für die Erstellung von KI-Filmen. Damit lassen sich Fotos oder Illustrationen von Figuren, Requisiten oder Kulissen hochladen und anschließend mithilfe von Textanweisungen zu einem kurzen Film animieren. Sollten keine Fotos vorhanden sein, kann man einfach eine generative Anweisung eingeben, um die visuellen Elemente direkt in Flow zu erstellen. Anschließend erstellt man Szene für Szene ein narratives Video, indem man die Handlung in einem Textfeld beschreibt. Das Unternehmen illustrierte Flow anhand eines generierten Videos eines alten Mannes, der sein Auto mithilfe eines riesigen Huhns auf dem Rücksitz fliegen lässt. Das Video sah zwar nicht besonders toll und seltsam künstlich aus, brachte aber die Botschaft rüber.
Das Update enthält außerdem einen verbesserten Videogenerator namens Veo 3, der laut Google über ein besseres Verständnis der Materialphysik verfügt und so flüssigere und lebensechtere Animationen ermöglicht.
Die Suche wird vollständig im KI-Modus durchgeführtLetztes Jahr stellte Google auf der I/O seine KI-Übersichten für Suchergebnisse vor. Diese Funktion fasst Ergebnisse aus dem gesamten Web für einige Suchanfragen oben auf dem Bildschirm zusammen. Die Ergebnisse waren bekanntermaßen unterschiedlich und reichten von schlichtweg falsch über urkomische Halluzinationen bis hin zu echtem Plagiat . Dennoch verleiht Google seinem Sucherlebnis jetzt einen noch glänzenderen KI-Glanz.
Zu diesem Zweck gestaltet Google die Suche mit dem neuen KI-Modus deutlich chatbot-orientierter. Diese Suchfunktion wurde erstmals im März 2025 als Experiment angekündigt und ist nun in den USA in der Standard-Google-Suche verfügbar. Der KI-Modus wird in einem Tab in den Suchergebnissen angezeigt, sodass Sie bei Verfügbarkeit per Klick dorthin wechseln können.
Laut Google ist der KI-Modus darauf ausgelegt, kompliziertere Suchanfragen zu beantworten, die eine Vielzahl von Fragen berücksichtigen können. Er wird nicht für alle Suchanfragen bessere Ergebnisse liefern, aber kniffligere Abfragen sollten zufriedenstellendere Ergebnisse liefern.
Der neue KI-Modus dient auch als Einkaufsassistent. Die Suchfunktion unterstützt Sie beim Kleiderkauf und zeigt Ihnen anschließend, nachdem Sie ein Foto von sich hochgeladen haben, in einem virtuellen Anprobebild, wie die Kleidung aussehen würde, wenn Sie sie tragen würden. Dieses Erlebnis wird als Labs-Funktion eingeführt, ist also noch ein Experiment. Google kündigt jedoch an, die Technologie weiterzuentwickeln. Sie eignet sich nicht nur für Kleidung. Wenn Sie beispielsweise einen Teppich kaufen, können Sie nach einem Teppich fragen, der für Kinder oder Haustiere geeignet ist, und mithilfe von Augmented Reality sehen, wie er in Ihrem Zimmer aussehen könnte.
Lesen Sie in der WIRED-Story von Reece Rogers mehr über alle Neuerungen im KI-Modus.
Android XR blickt in die ZukunftWie fast jedes Technologieunternehmen investiert Google derzeit massiv in sein Brillengeschäft. Im Rahmen seiner Android XR-Bemühungen arbeitet Google gleichzeitig an vollformatigen Mixed-Reality-Headsets und schlankeren Brillen, die wie normale Brillen aussehen.
Das Unternehmen präsentierte die Funktionen seiner Android XR-Brille in einer Live-Demo. Auf der Bühne trugen zwei Google-Mitarbeiter Prototypen der Brille und streamten ein Augmented-Reality-Display mit Texten, Karten und Bildern, die alle genau im Zentrum ihres Blickfelds erschienen. Abgesehen von einigen Problemen beim Streaming und einer etwas gestelzten Demo der Live-Sprachübersetzungsfunktionen der Plattform schienen die restlichen Funktionen recht gut zu funktionieren. Wie sperrig die Brille sein wird, ist noch nicht klar, aber die Prototypen waren kaum von normalen Brillen zu unterscheiden, wenn auch etwas klobig.
Die Live-Demo des Android XR-Prototyps in Aktion.
Foto: Julian ChokkattuIm Zuge der Umstellung auf (hoffentlich) ergonomischere Brillen kündigte Google Partnerschaften mit Gentle Monster und Warby Parker an, um die Entwicklung der kommenden Brillen zu unterstützen. Das Unternehmen gibt außerdem an, dass es mittlerweile Hunderte von Softwareentwicklern für die Android XR-Plattform beschäftigt.
Google kündigt außerdem an, dass das im letzten Jahr angekündigte Mixed-Reality-Headset Project Moohan seines Partners Samsung noch in diesem Jahr erhältlich sein wird. Zu Preisen und Verfügbarkeit gibt es noch keine Informationen.
Katastrophe abgewendetGanz am Ende der Präsentation kündigte der Google-CEO verschiedene Maßnahmen zur Bekämpfung klimabedingter Katastrophen an. (Vielleicht ist dies eine Möglichkeit, die Energie, die die KI-Bemühungen des Unternehmens verschlingen, zumindest teilweise wiedergutzumachen.)
Fire Sat ist eine geplante Satellitenkonstellation, die Google in den nächsten Jahren starten will. Ziel ist es, mithilfe künstlicher Intelligenz Waldbrände frühzeitig zu erkennen. Google gibt an, dass das System Brände in einer Entfernung von nur 82 Metern erkennen kann. Derzeit befindet sich jedoch nur ein Satellit im Orbit.
Pichai lobte auch Wing, einen Drohnen-Lieferdienst, der während des Hurrikans Helen Medikamente und Hilfsgüter lieferte. Pichai sagte, er hoffe, diese Bemühungen in Zukunft ausweiten zu können.
wired