Google Assistant macht Smartphones superschlau

Geniale Funktionen

Google Assistant macht Smartphones superschlau

Google hat bei der Keynote zum Auftakt seiner jährlichen Entwickler-Konferenz ein großes Neuheiten-Feuerwerk gezündet. Doch während Hardware-Neuheiten wie das Smartphone Pixel 3a (XL) und die Smart-Home-Steuerzentrale Nest Hub Max nicht nach Österreich kommen, profitieren von den Software-Neuheiten auch heimische Smartphone-Nutzer. Da einige der neuen Funktionen auch für iOS verfügbar sind, dürfen sich auch iPhone-Besitzer über die Goolge-Neuheiten freuen. Unsere Smartphones werden quasi so schlau wie nie. Datenschutzbedenken räumte der Konzern mit einem starken Bekenntnis zur Privatsphäre aus. Bleibt nur zu hoffen, dass diese Versprechen halten, denn dann sind die neuen Technologien tatsächlich ein Segen. Wir haben einige Highlights zusammengefasst.

>>>Nachlesen:  Google trumpft mit Assistant, Andriod 10 & Pixel 3a auf

Assistant schnell wie nie

Star der Keynote war der GoogleAssistant. Beim Beim Alexa-, Siri- und Cortana-Konkurrenten gelang dem Internet-Konzern ein wichtiger Durchbruch. Google kann Spracherkennung jetzt auch lokal auf dem Smartphone laufen lassen. Bisher müssen Sprachassistenten (auch der  Assistant) Aufnahmen zur Spracherkennung ins Netz schicken. Mit der lokalen Datenverarbeitung sichert sich Google einen Vorsprung gegenüber der Konkurrenz und kann auch einen Vorteil beim Datenschutz für sich reklamieren. Darüber hinaus wird der Assistant dadurch viel schneller.In einer Demonstration auf der Bühne reagierte die Assistenzsoftware ohne erkennbare Wartezeit auf viele, direkt hintereinander getätigte Sprachbefehle. Auch war es nicht nötig, vor jedem Kommando die Aktivierungsworte "Hey, Google" zu sagen. Das macht die neue Funktion „Durchgängige Unterhaltung" möglich.

Anfragen werden also quasi in Echtzeit verarbeitet - die Antworten werden bis zu 10-mal schneller geliefert. Um die neue lokale Funktionsweise umzusetzen, sei die nötige Softwarebasis von 100 Gigabyte auf 500 Megabyte geschrumpft worden, erklärte Google-Chef Sundar Pichai. Insgesamt arbeite die Software zum maschinellen Lernen bei Google verstärkt direkt auf den Geräten der Nutzer, statt Rohdaten dafür auf Server des Konzerns zu schicken. Die Funktion werde bereits im Herbst 2019 eingeführt, sagte der zuständige Manager Scott Huffman. Hier gibt es aber eine Einschränkung. Beim Start ist sie nämlich nur auf den hauseigenen Pixel-Smartphones verfügbar.

Duplex jetzt auch im Web

Auf der I/O 2018 sorgte Google mit der Software Duplex, die beim Sprechen von einem Menschen nicht zu unterscheiden ist, für Aufsehen. Das Programm reservierte u.a. einen Tisch in einem Restaurant, ohne dass der Gesprächspartner merkte, mit einer Software zu sprechen.  In den USA wurde Duplex für Android- und iOS-Geräte noch im Vorjahr freigeschaltet. Nun hat Google die auf Künstlicher Intelligenz basierende Funktion noch einmal aufgerüstet. Noch in diesem Jahr startet Duplex auch im Web. Dann kann man den Google Assistant auch nutzen, wenn man online etwas erledigen muss. Beispiel Online-Buchungen: Häufig muss man zuerst durch eine Reihe von Seiten navigieren, in verschiedenste Kästchen zoomen oder Ansichten vergrößern. Mit dem Sprachassistenten, angetrieben durch Duplex, können solche solche Aufgaben viel schneller erledigt werden, da die Formulare für die User automatisch ausgefüllt werden. Sagt man zum Beispiel einfach „Buch mir einen Mietwagen bei National für meinen nächsten Trip“, kann man den Rest dem Google Assistant überlassen. Er navigiert beispielsweise durch die Website und gibt Informationen basierend auf den persönichen Präferenzen ein, wie zum Beispiel Buchungsinformationen aus dem Gmail-Konto oder Zahlungsinformationen aus Chrome. Hier ist natürlich ein großes Vertrauen in Technik eine Grundvoraussetzung. Vorsichtige User werden die Buchung wohl lieber nach wie vor manuell durchführen.

Persönliche Präferenzen

Damit ein digitaler Assistant wirklich hilfreich ist, muss er seinen Nutzer verstehen und nachvollziehen können, welche Orte und Termine für ihn wirklich wichtig sind. In den kommenden Monaten startet Google deshalb eine neue Funktion mit der der Assistant den jeweiligen User immer besser verstehen soll. Dadurch soll man nicht nur natürlicher mit der Software sprechen können, sie hilft den Nutzern dann auch bei Anfragen wie „Ok Google, wie ist das Wetter bei Mama an diesem Wochenende?“ oder „Erinnere mich daran, eine Woche vor dem Geburtstag meiner Schwester Blumen zu bestellen“. Google versichert, dass man die persönlichen Daten auf dem aktualisierten Tab „Ich“ in den Einstellungen des Assistant jederzeit bearbeiten oder löschen kann.

google assi gif praef.gif

Mit dem besseren Verständnis, kann der intelligente Helfer auch nützlichere Vorschläge machen. Im Sommer erscheint eine neue Funktion, die personalisierte Vorschläge für zum Beispiel Rezepte, Events und Podcasts liefert. Wenn der Nutzer also in der Vergangenheit nach mediterranen Rezepten gesucht hat, zeigt der Google Assistant in Anlehnung daran ebenfalls mediterrane Gerichte an, wenn man nach Ideen für das Abendessen fragt. Die Software agiert dabei kontextabhängig und bezieht zum Beispiel die Tageszeit für die Rezeptvorschläge mit ein, gibt also am Morgen Frühstücksrezepte und am Abend Vorschläge für das Abendessen.

Neuer Fahrmodus

Auch beim Autofahren soll der Google Assistant künftig noch nützlicher werden. Anfang des Jahres wurde er bereits in Google Maps integriert. In den nächsten Wochen wird er auch in die beliebte Navi-App Waze kommen. Auf der Keynote wurde nun ein völlig neuer Fahrmodus direkt im Google Assistant vorgestellt. Ziel ist es, dass Autofahrer alle wichtigen Dinge während der Fahrt mit ihrer Stimme erledigen können. Google hat nun ein neues Dashboard entwickelt, das es ermöglicht, die wichtigsten Funktionen wie Navigation, Nachrichten und Anrufe ausschließlich mit der Stimme zu bedienen. Der Fahrmodus liefert auch auf den jeweiligen Nutzer zugeschnittene Vorschläge. Wenn man also eine Reservierung für ein Abendessen im Kalender hat, erhält man einen Hinweis für den Weg zum Restaurant. Hat man zu Hause einen Podcast angefangen, kann man diesen im Auto genau dort weiterhören, wo er vorher aufgehört hat. Wenn man einen Anruf bekommt, teilt der Assistant dem Autofahrer mit, wer anruft und fragt nach, ob er rangehen will.

Um den Fahrmodus zu starten, reicht es, einfach zu sagen „Ok Google, lass uns fahren“. Der neue Modus wird diesen Sommer auf Android-Smartphones mit Google Assistant verfügbar sein.

Augmented Reality (AR)

Google-Suche

Neben dem Assistant hat Google auch die Suche und Google Lens ordentlich aufgerüstet. Mithilfe der Smartphone-Kamera, maschinellen Sehens und Augmented Reality (AR) können bestimmte Inhalte in der realen Umgebung abgebildet werden, was das Leben ebenfalls erleichtern kann.

Mit den neuen Funktionen der Google-Suche kann der Nutzer in Zukunft 3D-Objekte direkt aus der Suche in seinem Umfeld platzieren. So ist es nicht nur möglich, gewisse Dinge genauer zu betrachten – man bekommt außerdem ein besseres Gefühl für die eigentliche Form und Größe. Es ist zum Beispiel eine Sache, zu lesen, dass ein Weißer Hai bis zu fünfeinhalb Meter lang werden kann. Einen wirklichen Eindruck davon bekommt man aber erst, wenn man ihn dann in seiner tatsächlichen Größe vor sich sieht. Sucht man künftig in der Suche nach bestimmten Tieren, kann man einige direkt im Knowledge Panel in 3D und AR ansehen.

google ar-search-shark.gif

Google arbeitet in diesem Bereich mit Partnern zusammen, um auch deren Inhalte künftig in 3D in der Google-Suche darstellen zu können. Das Spektrum ist riesig. So kann es sich dabei um anatomische Modelle des menschlichen Körpers oder um ein neues Paar Sneaker handeln.

Google Lens

Google Lens zählt zu einer der beliebtesten Kamera-Funktionen überhaupt. Sie wurde bereits von einer Milliarde Menschen genutzt. Mit der Funktion kann man mehr über die Dinge in ihrer Umgebung zu erfahren. Hält man das Smartphone vor ein historisches Gebäude und aktiviert Lens, werden etwa Infos wie das Baujahr, die Größe, etc. eingeblendet.  Nun wird Google Lens weiter aufgerüstet und so im Alltag noch praktischer.

google lens_Menu.gif

Sitzt man etwa in einem Restaurant, und kann sich nicht entscheiden. Dann hebt Google Lens die besonders beliebten Gerichte auf der Speisekarte automatisch hervor. Wenn der User dann auf ein Gericht tippt, kann er anhand von Fotos und Rezensionen auf Google Maps sofort sehen, wie es tatsächlich aussieht – und wie es den anderen Gästen bisher geschmeckt hat.

google_TrainTicket.gif

Google Lens ist vor allem dann besonders hilfreich, wenn man im Urlaub ist und die Landessprache nicht versteht. In diesem Fall können die User einfach die Kamera auf den zu übersetzenden Text halten. Google Lens zeigt dann die Übersetzung direkt über dem Ausgangstext an – und das in mehr als 100 Sprachen. In Zukunft kann der angezeigte Text dann auch noch in der eigenen Sprache vorgelesen werden.

Automatische Transkription

Abschließend wollen wir noch eine besonders Lobenswerte Neuheit von Android 10 Q zeigen, die einmal mehr Googles großes Engagement für Menschen mit Beeinträchtigung untermauert. Dabei handelt es sich um die automatische Transkription. Weltweit gibt es über 466 Millionen gehörlose und hörbehinderte Menschen. Für sie sind Untertitel mehr als nur eine Annehmlichkeit – sie ermöglichen ihnen erst den Zugriff auf viele Inhalte. Google hat in den letzten Monaten sehr eng mit gehörlosen Menschen zusammengearbeitet, um eine Funktion zu entwickeln, die ihnen den Zugang zu digitalen Medien erleichtert: Einmal tippen genügt und die Automatische Transkription erstellt Untertitel für die Audiowiedergabe des eigenen Smartphones, ohne dabei WLAN oder Datenvolumen zu nutzen. Die Automatische Transkription funktioniert in Videos, Podcasts und Sprachnachrichten, in allen Apps und sogar bei eigenen Sprachaufnahmen. Sobald gesprochenes Wort erkannt wird, werden die Untertitel erstellt – alles direkt auf dem Gerät, die Texte bleiben dabei auf dem Smartphone.

Fazit

Wer sich auf die neuen Google-Funktionen, die noch fast alle in diesem Jahr starten einlässt, kann seinen Alltag deutlich erleichtern. Viele Aufgaben werden von Assistant & Co. fast automatisch erledigt. Für Personen mit Vorbehalten gegenüber „US-Datenkraken“ und großem Schutzbedürfnis der eigenen Privatsphäre dürften die Neuerungen aber dennoch keine Option sein. Hier muss jeder selbst entscheiden, ob er die Technik nutzen will oder nicht.

Diesen Artikel teilen:

Posten Sie Ihre Meinung

Kommentare ausblenden

Anzeigen

Werbung

Jetzt Live
Diese Videos könnten Sie auch interessieren
Wiederholen
Jetzt NEU

oe24.TV im Livestream: 24 Stunden News!

Live auf oe24.TV 1 / 11

Top Gelesen 1 / 5

Diese Website verwendet Cookies
Cookies dienen der Benutzerführung und der Webanalyse und helfen dabei, die Funktionalität der Website zu verbessern, um Ihnen den bestmöglichen Service zu bieten. Nähere Informationen finden Sie in unserer Datenschutzerklärung.
Impressum  
Es gibt neue Nachrichten