Die Google I/O 2025 wird mit einer bisher nicht erreichten Spannung erwartet. Hier erfahrt Ihr die wichtigsten Erkenntnise der Google I/O 2025 zu den News rund um Google KI und die Suche im Liveticker.
Die diesjährige Google I/O könnte einen wirklichen Umbruch bedeuten (der Begriff "Zeitenwende" wurde in der Vergangenheit überstrapaziert). Dennoch geht es nicht nicht weniger als die Zukunft der Google Suche und damit der Suchmaschinen insgesamt. Nicht umsonst hatte Sundar Pichai zu Beginn des Jahres erklärt, 2025 werde kritisch.
Sie benötigen SEO-Beratung für Ihre Website?
Dass umgreifende Änderungen bevorstehen, zeigt auch die Aussage von Pandu Nayak, Vice President Search von Google, vor dem US-Justizministerium. Er hatte erklärt, man prüfe grundlegende Anpassungen am Search Stack. Damit bezog er sich auf die Rankingsysteme, aber auch auf die Präsentation der Suchergebnisse.
Natürlich werden auch die Google AI Overviews und der AI Mode eine wichtige Rolle auf der Google I/O spielen. Hier könnte zum Beispiel angekündigt werden, dass Google den AI Mode bald für alle Nutzerinnen und Nutzer bereitstellen wird.
Und nicht zuletzt könnte Google neue Versionen seiner Large Language Models (LLMs) wie Gemini sowie darauf basierende Anwendungen vorstellen.
Es bleibt also spannend. Die Keynote beginnt am 20. Mai um 19 Uhr mitteleuropäischer Sommerzeit. Die wichtigsten Infos gibt es auf dieser Seite im Liveticker.
Liveticker
18:33 Uhr: Wir warten auf den Beginn der Keynote.
18.48 Uhr: Bühne und DJ-Pult sehen schon mal nicht schlecht aus :-)
19.00 Uhr: Es geht los. Zum Start wird ein KI-Video erstellt, das mit VEO erstellt wurde.
19.04 Uhr: Laut Sundar Pichai ist Gemini 2.5 Pro führend in den wichtigsten Benchmarks.
19.07 Uhr: Die Zahl der von Google KI verarbeiteten Token hat sich binnen eines Jahres um den Faktor 50 erhöht.
19.08 Uhr: AI Overviews haben inzwischen 1,5 Milliarden Nutzer pro Monat.
19.10 Uhr: Google Beam ist eine neue KI-Video-Plattform, die Videos mit verschiedenen Kameras erstellt, um die Darstellung deutlich realistischer und plastischer zu gestalten.
19.11 Uhr: Echtzeitübersetzungen in Google Meet kommen - zunächst für Englisch und Spanisch, später für weitere Sprachen.
19.13 Uhr: Gemini Live kommt ab sofort für alle Nutzer mit Android und iOS.
19.15 Uhr: Gemini SDK ist jetzt kompatibel mit MCP-Tools. Das ermöglicht die Zusammenarbeit mit KI-Agenten.
19.18 Uhr: Gemini erhält Personalisierung. Auf Wunsch können persönliche Dokumente einbezogen werden, um zum Beispiel den persönlichen Stil nachzuahmen, beispielsweise für E-Mails.
19.20 Uhr Demis Hassabis von DeepMind betritt die Bühne.
19.22 Uhr: Gemini 2.5 Flash kommt Anfang Juni.
19.23 Uhr Tulsee Doshi betritt die Bühne.
19.25 Uhr Gemini 2.5 Flash und Pro Preview: Sprachausgabe in einer noch natürlicheren Sprache. Dies wird in mehr als 20 Sprachen zur Verfügung gestellt.
19.30 Uhr: In einem recht beeindruckenden Beispiel wird gezeigt, wie Gemini 2.5 aus einer Handskizze eine komplexe Software-Applikation erstellt. Mit jules bringt Google eine neue Entwicklungsumgebung, die in einer öffentlichen Betaversion verfügbar ist.
19.34 Uhr: Google Diffusion ist in der Lage, Mathematikprobleme in kurzer Zeit zu lösen.
19.35 Uhr: Gemini 2.,5 Pro erhält mit "Deep Think" einen neuen Modus.
19.42 Uhr: Inzwischen ist Demis Hassabis wieder auf der Bühne.
19.47 Uhr: Jetzt wird es spannend, es geht um die Google Suche.
19.48 Uhr: Die Nutzung von Google Lens ist im Jahresvergleich um 65 Prozent gewachsen.
19.49 Uhr: Google AI Mode ist ab heute für jeden Nutzer in den USA verfügbar.
19.49 Uhr: Liz Reid betritt die Bühne.
19.51 Uhr: Google AI Mode ist powered by Gemini 2.5.
19.54 Uhr: AI Mode erhält personalisierte Antworten und einen persönlichen Kontext. Dies steht ab Sommer zur Verfügung. Auch Deep Research wird im AI Mode verfügbar sein. Der Name: Deep Search. Es können Dutzende oder sogar Hunderte von Suchen parallel ausgeführt werden. Ebenfalls in diesem Sommer wird es die Möglichkeit zum Analysieren komplexer Daten im AI Mode geben.
19.59 Uhr: AI Mode kann bald komplexe Aufgaben übernehmen wie den Kauf von Tickets oder das Reservieren eines Tischs im Restaurant. Multimodalität: Die Fähigkeiten von Project Astra werden in den AI Mode integriert. Der Name: Search Live.
20.02 Uhr: AI Mode wird auch beim Shopping unterstützen. Dazu wird der Shopping Graph mit über 50 Milliarden Produkten genutzt. Damit kann man sehr präzise und differenzierte Produktsuchen durchführen. Bei Kleidung gibt es eine Anprobehilfe, die zeigt, wie ein Kleidungsstück angezogen an einer bestimmten Person aussieht. Dazu muss man einfach ein Bild mit der Kamera erstellen. Google berechnet daraus die Körpermaße. Möglich ist es außerdem, die Preisentwicklung eines gewünschten Produkts zu verfolgen. Zudem kann man das Produkt dann automatisch von der KI kaufen und bestellen lassen. In Google Labs kann man die Funktion ab heute testen.
20.09 Uhr: Im Lauf der Woche werden die Google AI Overviews auf Gemini 2.5 umgestellt.
20.11 Uhr: Der Google AI Mode könnte tatsächlich der große Umbruch sein, von dem zuletzt immer wieder gesprochen wurde. Damit lässt sich fast alles direkt in der Suche erledigen. Was allerdings nicht erwähnt wird: Wie wirkt sich all das auf die Websites aus, von denen Google die Inhalte bezieht?
20.13 Uhr: Google Gemini: Die App wird proaktiv. Sie kann zum Beispiel an Termine in Kalender erinnern.
20.17 Uhr: Deep Research in Google Gemini erhält die Möglichkeit, eigene Dateien hochzuladen und Google Drive zu nutzen.
20.19 Uhr: Gemini in Chrome kommt in dieser Woche für Gemini-Nutzer in den USA.
20.19 Uhr: Imagen 4 erzeugt Bilder in noch besserer Qualität. Man kann auch Text hinzufügen. Zudem ist es 10mal schneller als sein Vorgänger.
20.23 Uhr: Veo 3 kommt und ist ab heute verfügbar. Damit lassen sich noch bessere Videos erstellen. Teil ist native Audioerzeugung, mit denen man Gespräche und Geräusche zu Videos hinzufügen kann.
20.26 Uhr: Mit Lyria kann man ab heute Musik per KI erzeugen und diese beispielsweise für YouTube-Videos nutzen.
20.32 Uhr: Flow ist ein neues Tool, das die Möglichkeiten von Imagen, Veo und Gemini zusammenfasst. Damit lassen sich komplexe Szenerien erstellen.
20.37 Uhr: Google bietet zwei KI-Pakete an: Google AI Pro (19,99 USD / Monat) und Google AI Ultra (249,99 USD / Monat) mit Zugriff auf alle wichtigen Tools und den aktuellsten Entwicklungsstand.
20.40 Uhr: Android XR wurde speziell für KI entwickelt und bringt Android auf verschiedene Geräte wie Smart Glasses. Das erste Gerät mit Android XR ist Project Moohan, eine VR-Brille. Sie soll später im Jahr zu erwerben sein.
20.57 Uhr: Ende der Keynote