Sprache wählen

Sprache wählen

Die Website wurde übersetzt in Deutsch mit Hilfe von Menschen und KI

Dismiss

Google I/O legt den Schwerpunkt auf schnelle, zugängliche neue Benutzeroberflächen

6 min Lesezeit
Profile picture for user mediamonks

Written by
Monks

Google I/O Puts Focus on Speedy, Accessible New Interfaces

Auf der diesjährigen I/O-Konferenz hat Google mehrere neue Funktionen im Zusammenhang mit seiner kommenden Android-Version und seinen Geräten vorgestellt. Zu den aufregendsten dieser Funktionen gehören jene, die darauf abzielen, die vorherrschende Schnittstelle zu ändern, über die Nutzer mit ihren Geräten arbeiten: das Tippen auf einer Tastatur. Während der Touchscreen vor etwa einem Jahrzehnt die Medienwelt revolutioniert hat, sieht es so aus, als ob die Kamera und das Mikrofon bereit sind, den Staffelstab zu übernehmen, zumindest wenn es um den Zugriff auf Informationen für unterwegs geht.

Die Keynote von Google-CEO Sundar Pichai strotzte nur so vor neuen Funktionen und Produkten, die die Art und Weise, wie wir im Alltag mit Geräten und untereinander interagieren, verändern werden. Wir haben diesen Geist des Fortschritts mit einem animierten Countdown-Video gewürdigt, das die Keynote einleitete und die Zuschauer auf eine Reise durch die technologischen Fortschritte der letzten Jahrzehnte mitnahm.

Viele der interessantesten Ankündigungen von Google konzentrierten sich auf die Sprachsuche und die visuelle Suche, da diese neuen Funktionen den Nutzern Informationen viel schneller liefern können, als wenn sie sie eintippen müssten. Das war schon immer die Idee bei Sprachschnittstellen, aber die diesjährige I/O-Veranstaltung löst das Versprechen ein, indem sie die sofortige Spracherkennung mit dem Assistant vorstellt und durch Augmented Reality umsetzbare Informationen aufzeigt. Hier sind die Funktionen, auf die wir am meisten gespannt sind - und wo der Wert für Nutzer und Marken gleichermaßen liegt.

Der Google Assistant wird menschlicher

Google hat mehrere Verbesserungen an seinem Assistant angekündigt, von denen sich viele auf die Spracherkennung auf dem Gerät konzentrieren. Zuvor war das Spracherkennungsmodell von Google 100 GB groß und erforderte, dass Anfragen mit der Cloud verbunden werden mussten, bevor man eine Antwort erhielt. Jetzt ist es Google gelungen, dieses Modell auf ein beeindruckendes halbes Gigabyte zu schrumpfen, das klein genug ist, um auf Geräte für eine schnelle Offline-Spracherkennung zu passen.

"Jetzt, da Google die Erkennung auf dem Gerät selbst durchführen kann, kann das Gerät aktiv zuhören und antworten, ohne dass man die Schleife durchlaufen muss, in der man 'Hey Google' sagt, gefolgt von einem Befehl", sagt Michiel Brinkers, Technical Director bei MediaMonks. "Man kann einfach weiter mit dem Assistant sprechen und ihm Folgefragen stellen." Er ermöglicht auch kontextbezogene Befehle, wie z. B. "Stop", um die Medienwiedergabe auf dem Gerät zu stoppen, ohne dass ein "Ok Google" erforderlich ist.

Googles neu vorgestelltes Gerät Nest Hub Max - eine Mischung aus Home Hub und Nest-Kamera - erweitert die Schnittstelle sogar um physische Gesten. Dank der Gesichtserkennung kann der Nest Hub Max den Benutzer warnen, wenn er jemanden im Haus bemerkt, den er nicht kennt, oder ihn mit personalisierten Inhalten begrüßen, wenn er in Sichtweite ist. Letzteres löst ein entscheidendes Problem, mit dem Internet-of-Things-Geräte konfrontiert sind: Wenn mehrere Nutzer in einem Haus ein einziges Gerät nutzen, wie kann man sie dann individuell mit personalisierten Inhalten ansprechen? Wir sind gespannt darauf, wie Google dieses Problem löst und gleichzeitig die Bedenken hinsichtlich des Datenschutzes durch die Gesichtserkennung auf dem Gerät ausräumt.

Schnelle Spracherkennung wird das Leben der Nutzer verändern

Die stark verbesserte Geschwindigkeit, die durch Offline-Interaktionen mit dem Assistenten erreicht wird, ist ein entscheidender Faktor für mobile Geräte, bei denen Wartezeiten oder fehlende Verbindungen ein großer Schmerzpunkt sein können. "Wenn ein Sprachassistent nicht sofort das tut, was man will, oder wenn er etwas falsch macht, dann ist es mühsamer, das System zu benutzen, als die Aufgabe durch Tippen oder Antippen zu erledigen", sagt Brinkers. "Aber das, was Google gezeigt hat, ist eine enorme Verbesserung

Monk Thoughts Mit den Initiativen zur Barrierefreiheit zeigt Google seinen Wert für das Allgemeinwohl.

Die Spracherkennung auf dem Gerät kann zwar viele unserer Leben erleichtern, aber für einige wird sie lebensverändernd sein: Dank der sofortigen Transkription werden Android-Geräte in der Lage sein, den Nutzern automatisch generierte Untertitel für jedes Video oder Audio (einschließlich Live-Inhalten) zu liefern, ein offensichtlicher Vorteil für Hörgeschädigte. Darüber hinaus kündigte Google sein Projekt Euphonia an, das größere Datensätze bereitstellen wird, um den Assistenten so zu trainieren, dass er Menschen mit Sprachbehinderungen besser versteht. "Diese Initiativen sind es, mit denen ein Unternehmen wie Google seinen Wert für das Allgemeinwohl unter Beweis stellt", sagt Brinkers.

Als Technischer Direktor bringt die schnellere, verbesserte Spracherkennung die kreativen Räder in Brinkers' Kopf zum Drehen. "Wenn die Sprache zu einer dominierenden Eingabemethode wird, können wirvielleicht auf den Tonfall der Stimme hören -nicht nur auf das, was gesagt wird, sondern auch darauf, wie es gesagt wird", überlegt er. "Dann könnten wir ihre Emotionen erkennen und darauf abgestimmte Erlebnisse entwickeln."

Google Lens bringt gedruckte und digitale Inhalte zusammen

Sprache ist nicht die einzige Schnittstelle, auf die Google in diesem Jahr setzt: Das Unternehmen hat auch mehrere neue AR-Funktionen vorgestellt. Während sich die Erfahrungen der meisten Verbraucher mit AR explizit auf die Unterhaltung konzentriert haben, zeigte die I/O, wie sehr die Technologie im letzten Jahr gereift ist, um den Nutzern umsetzbare, kontextbezogene Informationen zu liefern, die sie in ihrem täglichen Leben verwenden können.

Monk Thoughts Wir fragen uns immer, was der Nutzen von AR ist. Das ist es.

Ein Beispiel, das in Googles Keynote gezeigt wurde, ist die Möglichkeit, eine Restaurantkarte mit einem Telefon mit Google Lens zu scannen. Auf diese Weise erhalten die Nutzer eine Liste der beliebtesten Gerichte, Bewertungen und Fotos eines Restaurants. Wir haben schon lange gesagt, dass die Kamera der neue Browser ist, und die neuen Lens-Funktionen sind ein Musterbeispiel dafür, wie diese Zukunft wirklich aussehen könnte. "Wenn ich in einem fremden Land die Speisekarte eines beliebigen Restaurants lesen und auf meinem Handy sehen könnte, wie das Essen aussieht, wäre das fantastisch", sagt Brinkers. "Wir stellen uns immer die Frage, was der nützliche Anwendungsfall für AR ist. This is it."

Neben der Bereitstellung von mehr kontextbezogenen Informationen präsentierte Google die Fähigkeit von Lens, herkömmliche, statische Medien zu animieren - eine der coolsten Funktionen für all diejenigen, die sich schon immer gewünscht haben, eine animierte Zeitung wie in der Harry-Potter-Welt lesen zu können. Ein Beispiel, das auf der Veranstaltung gezeigt wurde, ist ein Poster, das den Eiffelturm zeigt. Wenn es mit Google Lens gescannt wird, beginnen sich die Wolken am Himmel zu bewegen und erwecken das Bild zum Leben.

Bei der Technologie geht es aber nicht nur um coole visuelle Effekte, sondern auch um den Nutzen, insbesondere bei Anleitungen. Scannen Sie ein Rezept in einer Zeitschrift mit Lens, und ein Video-Tutorial kann darüber gelegt werden, um zu zeigen, wie das Gericht zubereitet wird. Was Lens wirklich an die Spitze von AR stellt, ist die Tatsache, dass die gescannten Medien keine abstrakten, ablenkenden Markierungen oder QR-Codes benötigen, um aktiviert zu werden; der Inhalt selbst ist der Schlüssel und ermöglicht eine elegantere Art, gedruckte Medien zu ergänzen.

Google-Suchergebnisse mit AR hautnah und persönlich erleben

Später in diesem Jahr werden Nutzer 3D-Modelle in den Google-Suchergebnissen finden, die es ihnen ermöglichen, das gesuchte Objekt oder die gesuchte Sache aus jedem beliebigen Winkel zu betrachten. Als ob das nicht schon cool genug wäre, setzt Google noch einen drauf, indem es den Nutzern ermöglicht, das Objekt mithilfe von AR vor sich zu platzieren. Diese Funktion bietet den Nutzern eine einfache, intuitive Möglichkeit, etwas über reale Objekte zu erfahren und eine Vorschau von Produkten zu sehen.

Monk Thoughts Es gibt eine Menge Synergien zwischen AR und maschinellem Lernen; Google kombiniert all diese Tools.

"Wenn man bei Google nach einem Stuhl sucht, wäre es doch toll, ihn in den Raum zu stellen und zu sehen, wie er aussieht", sagt Brinkers. "Es wird interessant sein zu sehen, wie das mit proprietären Apps konkurriert, mit denen man bereits etwas Ähnliches machen kann Ein Vorteil, den durchsuchbare AR-Objekte gegenüber diesen nativen Apps haben, ist, dass die Nutzer sie betrachten können, ohne etwas herunterladen und installieren zu müssen. Google prüft Markenpartnerschaften für die Entwicklung dieser Modelle in der Suche, was auf den potenziellen Wert für das Marketing hinweist.

Das wirklich Spannende an diesen Entwicklungen ist ihr Potenzial, in einem einheitlichen Erlebnis zusammenzukommen. Scannen Sie zum Beispiel ein Schild in einer Fremdsprache mit Lens, und Google kann es Ihnen in Ihrer eigenen Sprache mittels fortschrittlicher Text-to-Speech-Funktion vorlesen. Kombinieren Sie visuelle und sprachliche Funktionen mit einer Augmented-Reality-Ebene, und die Art und Weise, wie wir mit alltäglichen Geräten interagieren - wenn nicht sogar die Umgebung um uns herum - könnte sich in den nächsten Jahren radikal verändern. "Das Interessante an dieser Veranstaltung ist, dass es eine Menge Synergien zwischen AR und maschinellem Lernen gibt", sagt Brinkers. "Google kombiniert all diese Tools, an denen sie separat gearbeitet haben, und wir sehen, dass sie auf eine Weise zusammenkommen, die niemand erwartet hat." Ok Google, was kommt als nächstes?

Verwandte
Themen

Schärfen Sie Ihre Kanten in einer Welt, die nicht warten will

Melden Sie sich an, um E-Mail-Updates mit umsetzbaren Erkenntnissen, aktuellen Forschungsergebnissen und bewährten Strategien zu erhalten.

Danke, dass Sie sich angemeldet haben!

Weitere Informationen finden Sie in Ihrer E-Mail.

Weiter erkunden

Monks benötigt die Kontaktinformationen, die Sie uns zur Verfügung stellen, um Sie über unsere Produkte und Dienstleistungen zu informieren. Sie können sich jederzeit von diesen Mitteilungen abmelden. Informationen darüber, wie Sie sich abmelden können, sowie über unsere Datenschutzpraktiken und unsere Verpflichtung zum Schutz Ihrer Daten finden Sie in unserer Datenschutzrichtlinie.

Sprache wählen

Sprache wählen

Die Website wurde übersetzt in Deutsch mit Hilfe von Menschen und KI

Dismiss