Irgendwie kam diese Google I/O plötzlich. Die Hardware hat mich nicht interessiert, aber aus der Software-Ecke waren spannende Dinge dabei. Hier meine persönlichen Highlights:
-
Google Workspace kriegt mehr AI. Damit können wir Dokumente zusammenfassen lassen und das Ringlight ausmustern.
-
Google Glass kommt zurück als Echtzeit-Übersetzer.
-
Scene Exploration klingt fancy: Google möchte Google Lens als AR-Applikation etablieren. Beispielsweise Dir helfen, das für Dich richtige Produkt im Supermarkt zu finden. Damit das klappt, muss die Lens-Erkennung deutlich besser werden. Aber vielleicht helfen dabei die sich ändernden Blickwinkel der Kamera in dem AR-Use Case?
-
Google zeigt noch mal Multisearch. Jetzt mit einem local Use Case. Bei Multisearch geht es darum, mehrere Faktoren zu kombinieren. Beispielsweise ein Bild von einem Gericht mit der Frage, in welchem Restaurant in der Nähe man dieses Essen bestellen kann. ![Multisearch near me] (https://storage.googleapis.com/gweb-uniblog-publish-prod/original_images/Multisearch_near_me.gif)
-
Google Wallet kommt zurück und Chrome kriegt virtuelle Kreditkarten.
-
Zu Privacy gab es einige Announcements, von denen vieles schon aus den letzten Wochen bekannt war, wie etwa die Search Result Removals. Neu ist das My Ad Center, in dem User Einfluss nehmen können, welche Werbung ihnen angezeigt werden soll. Dazu gibt es aber direkt umfangreiche Kritik (auf einer Seite, die mit der ganzen Werbung ganz schön auf den Akku geht.).
Auf jeden Fall gilt weiter: Regelmäßig einen Blick auf https://adssettings.google.com/ zu haben, ist sicher sinnvoll (und interessant. Angeblich interessiere ich mich gerade für Acapulco, Katzen und Celebrities. Das ist schwer nachzuvollziehen. Dafür bin ich (laut Google Ads) zwischen 25 und 54 Jahren alt. 🎉).
-
Machine Learning für Hautfarbe wird jetzt mit 10 statt 6 Hauttönen trainiert. Bildersuche soll Hautfarbe stärker berücksichtigen. Bilder weniger häufiger Hauttöne könnten also Rankingfaktor für die Bildersuche werden.
"One of the things we're doing is taking a set of [image] results, understanding when those results are particularly homogenous across a few set of tones, and improving the diversity of the results," Google's head of product for responsible AI, Tulsee Doshi, told The Verge. Doshi stressed, though, that these updates were in a "very early" stage of development and hadn't yet been rolled out across the company's services.
-
Für Language Models gibt es jetzt ein Test-Umfeld, um Biases und Probleme früher zu identifizieren. Solltest Du zu den ausgewählten Köchen der AI Test Kitchen gehören, gib mir bitte unbedingt Bescheid. Zum Einfluss der AI Test Kitchen und LAMDA2 hat theverge ein paar lesenswerte Sätze geschrieben.
-
Google Maps bekommt jetzt Unterstützung von Satellitenbildern: Von Google Live StreetView 3D sind wir aber noch ein Stückchen entfernt.
Spannend sind ja nicht nur die Announcements nach dem Motto „Wir sind die dollsten Developers im Silicon Valley", sondern auch die Talks über die vielen Spezialthemen. Viele sind schöne Zusammenfassungen und immer mal gibt es auch ein paar spannende Neuigkeiten. Beispielsweise in der Keynote zum Web: Laut Google erfüllen 65% aller URLs und 50% aller Domains die Core Web Vitals (Minute 25). Uff.
Ansonsten hat das Programm der Google I/O noch andere spannende Talks bereit:
-
Eine Overview mit John Müller über die Änderungen der Google Suche. Für Dich vermutlich nichts Neues dabei, aber eine sehr schöne Zusammenfassung. Natürlich bis auf den "Video-Indexing-Report".
-
DevTools: State of the Union 2022 (Neu: Eine Art Accessibility-DOM. Spannend; CORS Errors werden jetzt besser dargestellt; Neben Performance gibt es jetzt auch Performance Insights, das soll mehr actionable sein)
Auch ganz interessant klangen:
Neben Google LAMDA2 als Marshmallow-Vulkan fand ich aber die Google Translate Ankündigung am spannendsten:
Google Translate kann 24 neue Sprachen. Vermutlich MUM in Action:
"Sanskrit, used by about 20,000 people in India"
Genug Material, um Translates für 20k Menschen anzubieten. 💥
Wahrscheinlich historische Trainingsdaten, aber: WOW!
"This is also a technical milestone for Google Translate. These are the first languages we've added using Zero-Shot Machine Translation, where a machine learning model only sees monolingual text --- meaning, it learns to translate into another language without ever seeing an example."
Natürlich gab es auch unterhaltsames. Beispielsweise die Pinball Flutter-Demo. Jetzt ist so eine Google I/O immer ein ganz schön dickes Brett. Was sollte ich mir Deiner Meinung nach auf jeden Fall nochmal im Detail ansehen?