Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Überlass es Googles KI: Lens Filter wählen von der Speisekarte und übersetzen für dich

Überlass es Googles KI: Lens Filter wählen von der Speisekarte und übersetzen für dich

Aniko Milz | 29.05.19

Auf der I/O angekündigt und jetzt schon auf den Smartphones einiger Nutzer: Die neuen Filter sind bald für jeden unter iOS und Android verfügbar.

Nur wenige Wochen nach der Entwicklerkonferenz I/O von Google sollen diese Woche die angekündigten Features ausgerollt werden. Wir berichteten über die Neuerungen, die uns die Konferenz versprach, und zwei davon sind für die ersten Nutzer bereits verfügbar. Die neuen Filter (Translate, Text, Auto, Shopping, Dining) können in der Google Lens aufgerufen werden, die Nutzer via Google Assistant, Google Photos oder Google Search App nutzen. Pixel User haben Google Lens direkt in ihre Kamera integriert.

Diese Filter wurden jetzt ausgerollt

Der Dining-Filter in der Google Lens. © Google

Der Dining sowie der Translate-Filter der Google Lens sind für die ersten Nutzer unter Android und iOS bereits verfügbar. Der Dining-Filter ist etwas für alle Foodies und Menschen, die gern essen gehen: er greift auf die Daten von Google Maps zurück und kann auf besonders beliebte Gerichte eines Menüs hinweisen. Dabei werden dem Nutzer sogar Fotos und das Feedback anderer Kunden angezeigt, die bereits in dem Restaurant gegessen haben. Die neue Funktion errechnet auch die Kosten pro Person bei einer geteilten Rechnung und das Trinkgeld für die Kellner.

Der Translate-Filter übersetzt das, was vor der Kamera ist. © Google

 

Der Translate-Filter kann besonders für Reisende interessant werden. Richtet der Nutzer die Kamera auf einen Text einer fremden Sprache, überlagert Lens diesen mit der Übersetzung in der Wunschsprache. Über 100 Sprachen sind laut Google schon für die Funktion verfügbar. Das Interessante dabei ist, dass die Ausgangssprache laut Google eigenständig vom System erkannt wird und nicht von den Nutzern angegeben werden muss.

So wird die Google Lens genutzt

Um die Filter zu nutzen, richten Nutzer ihre Kamera auf das gewünschte Objekt und tippen den Center Button, um das Bild festzulegen, bzw. einzufrieren. Das Karussell an Filter-Auswahlmöglichkeiten verschwindet in die linke untere Ecke, so dass Nutzer sich komplett auf den Bildinhalt konzentrieren können. Diese können mit Hilfe einer weiteren neu eingeführten Funktion auch zugeschnitten werden, um ein präziseres Ergebnis zu erhalten.

Googles KI ist bereits tief in unserem Leben verwurzelt und generiert mit den neuen Funktionen noch mehr Daten, die Google viel über die Nutzer verraten und sich aus Werbesicht gut nutzen lassen. Wie sehr sich die neuen Filter in den Alltag integrieren lassen, bleibt offen, denn besonders die vorgestellten, jetzt eingeführten Filter sind erstmal für nicht ganz alltägliche Situationen wie Essen gehen und in den Urlaub fahren gedacht.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*