Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
SEO - Suchmaschinenoptimierung
Google Multisearch kommt: Gleichzeitig mit Text und Bildern suchen

Google Multisearch kommt: Gleichzeitig mit Text und Bildern suchen

Niklas Lewanczik | 08.04.22

Bei Google kannst du künftig mehr als die Search Box zum Suchen nutzen und mit Multisearch via Lens mit Bildern und Wörtern zugleich genau das suchen und entdecken, was du mit Sprache allein vielleicht nicht gefunden hättest.

Im vergangenen Jahr stellte Google die Technologie Multitask Unified Model (MUM) vor, um multimodale Suchen zu ermöglichen. Jetzt wird diese Form der Suchanfragen aus Basis verschiedener Elemente eingeführt. User können fortan eine Bildersuche starten und diese mit einer Search Box um die Texteingabe erweitern. Auf diese Weise lässt sich die Suche immens verfeinern. Und Suchende finden womöglich Kleidungsstücke, Einrichtungsgegenstände, Pflanzen oder architektonische Besonderheiten, die sie allein mit Wörtern nicht oder nicht so schnell finden würden.

So funktioniert die Google Multisearch via Lens

Googles Technologie MUM basiert – wie Googles BERT – auf der sogenannten Transformer Architecture. Laut dem Suchmaschinenunternehmen ist MUM allerdings „1.000 Mal kraftvoller“. Das Multitask Unified Model ist für 75 Sprachen trainiert und kann verschiedene Aufgaben parallel bewältigen. Dazu kann es Informationen auf verschiedenen Leveln verstehen, zum Beispiel auf Text- oder Bildebene.

Auf dem Google Blog The Keyword erklärt Belinda Zeng, Product Manager für Search, wie die neue Suchfunktion funktioniert. User können in der Google App bei Android und iOS auf die Suche zugreifen und das Lens Icon mit der Kamera antippen. Dann haben sie die Option, einen Screenshot zur Suche einzusetzen oder ein Bild aus der Umgebung zu machen. Zum Beispiel lasssen sich so ein hübsches paar Schuhe oder eine Lampe, die gefällt, einfangen. Mit einem Swipe-up können die User dann den neuen „+ Add to your search“ Button nutzen, um Textelemente zur Bildersuche hinzuzufügen. Dann ist es möglich, Fragen zum für die Suche gewählten Bild zu stellen. Außerdem haben User die Option, die Suche nach Farbe oder einem anderen visuellen Attribut einzugrenzen. Findet man also das passende Paar Schuhe, aber in der falschen Farbe, ist eine Anpassung über das Textfeld schnell möglich. So kann das Ganze dann aussehen:

Zahlreiche Möglichkeiten für die Suche, auch im Videokontext

Belinda Zeng erklärt, dass du nicht nur Kleidung und passende Möbel oder Accessoires finden kannst, sondern beispielsweise auch Pflegehinweise zu einer Pflanze, die du Google via Bildersuche zeigst. Die Möglichkeiten sind umfassend. Ein weiteres Beispiel hatte Google bereits im vergangenen Jahr bei Twitter gezeigt:

Diese neue Suchfunktion ist vorerst nur für Betatester:innen und für englischsprachige Suchergebnisse in den USA verfügbar. Außerdem bezieht sie sich zunächst vor allem auf Shopping-Suchen. Ein erweiterter Roll-out könnte dann aber noch 2022 folgen. Darüber hinaus hat Google im Kontext von MUM den Usern ebenfalls angekündigt, ein kontextuell besseres Verständnis von Videos in der Suche zu integrieren. Bisher konnten schon Kernelemente wie ein Siegtor in einem Fußballspiel oder die Schritte in einem Rezept für Suchende hervorgehoben werden. Künftig erlaubt MUM bei Google allerdings auch, dass verwandte Themen, die im Video gar nicht explizit erwähnt werden, bei der Suchmaschine im Rahmen von Videos angezeigt werden.

Das lokale Google Ranking zu verbessern, sollte auf der Prioritätenliste jedes Unternehmens stehen. Das Salesurance E-Book zeigt auf, wie das Google Ranking funktioniert und welche Faktoren entscheiden, welches Unternehmen von Google auf den obersten Plätzen gerankt wird.

Jetzt herunterladen!

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*
*