Suchmaschinenmarketing

Blick in die Zukunft: Bildersuchfunktion Google Lens entschlüsselt in Echtzeit, was du siehst

Google führt mit Google Lens ein AI-basiertes Search Tool ein, das direkt Informationen zu Bildern liefert. Dabei erinnert das Feature an Pinterests Modell.

Google Lens, Screenshot YouTube, © Google

Google stellte am Mittwoch in einer Keynote auf der I/O Google Lens vor, ein visuelles Search Tool, das fähig ist, dem User direkt Informationen zu Fotos aus dem Real Life zu liefern. Doch Google ist nicht das erste Unternehmen, das eine solche Funktion einführt.

Google Lens macht mehr aus Bildern

Das Tool mutet wie ein weiterer Schritt hin zu einst fernen Science Fiction Visionen an. Lens ist eine logische Weiterführung der Funktion Google Goggles. Mit diesem längst überholten Tool war es möglich, Suchergebnisse auf Basis eines Smartphone-Fotos zu erzielen. Im Blogpost hieß es 2009:

In a nutshell, Goggles lets users search for objects using images rather than words.

Doch Google Lens geht acht Jahre später weiter. Demnach wird im Google Watch Blog dargelegt:

Die neue Plattform / App / Technologie nennt sich Google Lens und soll die Erkennung von Bildern aus der Kamera ermöglichen. Sowohl der Google Assistant als auch Google Photos sollen Zugriff darauf haben und dem Nutzer so genauestens erklären können, was auf dem Bild zu sehen ist.

Das heißt, Lens sagt dem User nicht nur, was er da sieht, sondern gibt darüber hinaus Informationen und Kontexte preis. So kann bei einem Bild von einem Restaurant vielerlei erfahren werden. Etwa die Rahmendaten – wie Adresse, Telefonnummer etc. –, wie man sie auch über Google Maps herausfinden könnte, oder auch Bewertungen dafür.

Hierzu Googles Tweet.

Zudem nannte Googles CEO Sundar Pichai ein Beispiel, bei dem eine fotografierte Blume über Lens für den User direkt mit Zusatzinformationen versehen wird. Dazu gab er an, dass Lens für den Google Assistant und auch Google Fotos verfügbar sein wird, berichtet Search Engine Land.

Google Lens als Kopie?

Wer dieses Tool näher betrachtet, wird sich fragen: gibt es nicht was Ähnliches? Ja, denn bereits im Februar führte Pinterest sein ganz eigenes Tool Pinterest Lens ein. Dieses Tool ermöglicht Usern, beim Einscannen von Bildern weitere kontextuelle Bilder auf Pinterest zu betrachten. Bei einer Küchenuhr etwa ähnliche Uhren in verschiedenen Einrichtungen.

Dieses Feature basiert auf der Vorliebe des Menschen für visuelle Eindrücke. Dabei ist diese kein Zufall. Stephanie Geise und Frank Brettschneider konstatieren in Die Wahrnehmung und Bewertung von Wahlplakaten: Ergebnisse einer Eyetracking-Studie (VS Verlag für Sozialwissenschaften, 2010), dass Menschen bereits nach einer „Hundertstelsekunde in der Lage sind, visuelle Inhalte thematisch zu erkennen, grob zu erinnern und grundsätzlich zu beschreiben“. Dagegen könnten in kurzer Zeit nur wenige einfache Worte decodiert werden.

Daher wird eine visuell basierte Suchfunktion die User ansprechen. Denn auch die Vorliebe dieser für Medien mit Bild Content, wie eben Pinterest oder Instagram, spricht Bände.

Mit Google Lens, das funktional über Pinterests Modell hinausgeht, lassen sich nun die Real Life-Eindrücke umgehend in digitale Informationen verarbeiten. Eine weitere Digitalisierung der Lebenswelt ist also – im wahrsten Sinne des Wortes – vorprogrammiert. Doch für User bildet das Feature eine, wenn nicht Erleichterung, dann zumindest Beschleunigung in der Suche. Und auch für Marketer bietet Google Lens sicher eine Vielzahl von Anknüpfungspunkten.

Wer die Präsentation des Tools nachvollziehen möchte, kann sich den Auftritt Pichais in der I/O 2017 Google Keynote hier ansehen:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.