Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
E-Commerce
Amazon launcht KI-basierte Suchmaschine StyleSnap für Kleidung

Amazon launcht KI-basierte Suchmaschine StyleSnap für Kleidung

Niklas Lewanczik | 06.06.19

Mit StyleSnap können Nutzer über Machine Learning Kleidung bei Amazon finden, die den Look auf einem Bild matchen. So soll die Suche schneller gehen.

Wie oft überlegt man, welcher Suchbegriff, welche Phrase das Kleidungsstück am besten beschreibt, das man sucht? Dieser Hürde will Amazon in seiner App ein Ende machen. StyleSnap ist ein KI-basiertes Tool, das es erlaubt, auf Grundlage von Screenshots und Bildern direkt genau den Look zu finden, den man sucht. Das hat auch für Influencer Vorteile, soll vor allem aber die Sales fördern.

StyleSnap als visuelle Suchmaschine

Wenn man annimmt, dass Bilder mehr als tausend Worte sagen, dann ist die visuelle Suche gerade im E-Commerce-Kontext eine effektive Verbesserung. Daher setzt nun auch Amazon darauf. Für die Amazon App wurde StyleSnap gelauncht, ein Tool, dessen KI-Hintergrund den Namen zum Programm macht. Über das Kamera-Icon der Amazon App kann nun auf die Funktion zugegriffen werden. Dann lässt sich ein Foto oder Screenshot des Looks, der einem gefällt, hochladen und es werden dazu passende Kleidungsstücke angezeigt. Consumer Worldwide CEO Jeff Wilke kommentiert:

The simplicity of the customer experience belies the complexity of the technology behind it.

Dabei ist allerdings noch abzuwarten, wie gut das Tool den gesuchten und gewünschten Look in den Angeboten wirklich widerspiegeln kann. Unklar ist auch, welche Marken oder Verkäufer angezeigt werden; man darf hoffen, dass die KI hier unvoreingenommen selektiert. Bei Amazon heißt es hierzu:

When providing recommendations, StyleSnap considers a variety of factors such as brand, price range, and customer reviews.

Deep Learning macht das Tool effizienter

Gerade bei komplexeren Bildkompositionen, also etwa einem Foto von Influencern am Strand, kann StyleSnap dank Deep Learning-Prozessen die Kleidung als Bildelement extrahieren. Außerdem wird dann eingeordnet, ob es sich um bestimmte Materialien oder Kleidungsmuster handelt. Die Layer, die Amazon für das Learning im Neural Network konzipiert hat, zeigen zunächst die Unterschiede bei Konzepten wie Farben und Formen. Dann werden etwa Muster (wie florale) und Stoffe identifiziert. Auch die Passform oder ein Outfit Style sollen erkennbar sein. Als besonderes Feature für StyleSnap wird angegeben, dass nicht nur gelernte Muster miteinbezogen, sondern auch neue und komplexe Konzepte wahrgenommen und in die Entscheidung integriert werden.

Das kommt auch Influencern zugute. Oft werden sie danach gefragt, wo sie ihre Kleidung kaufen, was ihnen häufig zu Marketing Deals verhilft. Jetzt können Nutzer aber auch mithilfe eines Bildes der Influencer über die Amazon App versuchen, den Style derselben zu rekreieren. Für Fashion Influencer ermöglicht das neue Möglichkeiten der Interaktion mit den Nutzern. Sind sie Teil des Amazon Influencer-Programms, können sie sogar Komission für bei Amazon verkaufte Artikel fordern, wenn sie nachweislich die Inspiration gegeben haben.

Letztlich kommentiert Wilke:

We are highly innovative and customer-obsessed, and we will continue to create new experiences for customers to discover the products they want and love. We are incredibly excited about StyleSnap and how it enables our customers to shop visually for Fashion on Amazon.

Und mit dieser visuellen Shopping-Suchfunktion dürfte Amazon im Fashion-Bereich, in dem man nicht zwingend als erste Anlaufstelle gilt, aufholen. Wenn denn das Tool hält, was es verspricht. Doch je mehr Nutzer darauf zurückgreifen, desto besser dürfte es langfristig funktionieren. Einen Versuch ist es wert, wenn man einen ganz bestimmten Style rekreieren möchte – oder einfach nur dieses eine Kleidungsstück sucht, das einem bisher verwehrt blieb.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*