Wie Sprache und Bilder die User-Experience verändern

Sprache und Bilder werden in unserem Alltag relevanter und beliebter. Artificial Intelligence ermöglicht präzisere Ergebnisse, was zur Folge hat, dass führende Marken auf den Trend aufspringen und diesen vorantreiben. Für den Nutzer bedeutet dies eine neue Form der User-Experience.

Die Art und Weise, wie Menschen mit Produkten und Dienstleistungen umgehen, wandelt sich fortlaufend. So war es in den 1990er-Jahren üblich für uns, Suchanfragen als Text in die Suchleiste einzutippen. Dabei haben wir gelernt, unsere Fragen auf ein paar Keywords zu reduzieren, etwa «iPhone XS».

Heute verdrängt die Sprachsteuerung- und Suche zusehends die Textsuche. So stellte Apple im Oktober 2011 «Siri» vor, eine persönliche digitale Assistentin. «Siri» erkennt seither nicht nur die Sprache, sondern teilweise auch die Bedeutung dessen, was der Benutzer ihr mitteilt. Im April 2013 konterte Microsoft mit der Präsentation «Cortanas», und im November 2014 brachte Amazon «Alexa» auf den Markt. Die Nutzer können digitale Sprachassistenten nach Empfehlungen und Informationen fragen, und die Antworten werden direkt in der App oder verbal geliefert. Mit «Siri», «Alexa» und Co. scheint es also nur eine Frage der Zeit zu sein, bis unsere gegenwärtige Textsuche der Vergangenheit angehört. Laut Andrew Ng, Chief Scientist von Baidu, wird im Jahr 2020 rund die Hälfte des Suchvolumens über die Sprachsteuerung generiert.

Werbetreibende auf der anderen Seite können erfahren, an welcher Stelle in der Customer Journey sich ihre Nutzer befinden. Fragt ein Nutzer etwa, «Was ist der Unterschied zwischen iPhone XS und iPhone7?», benötigt er weitere Informationen zu den Produkten, während die Suchanfrage «Wie viel kostet das iPhone XS?» suggeriert, dass der Nutzer bereits eine konkrete Kaufabsicht hat.

Werbetreibende müssen sich überlegen, wie ihr Unternehmen von den neuen Technologien profitieren kann. Sei es im Hinblick auf Website-Optimierung oder in Bezug auf Dienstleistungen über Sprachassistenten. Ein zukunftweisendes Beispiel ist der Case von «Monoprix», einer französischen Discounter-Warenhauskette. Die App von «Monoprix» ermöglicht den Nutzern, über Sprachsteuerung ihre Einkaufsliste zu erstellen und empfiehlt Produkte, die auf den Nutzer abgestimmt sind. Der Case-Film ist unter folgenden Link zu finden: http://hoy.onl/ch7kD

Bevor Werbetreibende sich allerdings an die Umsetzung machen, gilt es, klare Ziele zu definieren: Der Bot eines Brands sollte eine Markenwelt z.B. bestmöglich repräsentieren und relevante Informationen liefern. Hierfür müssen Entwickler, Kreative sowie Berater eng und datengetrieben zusammenarbeiten. Schliesslich soll der Bot auf verschiedenen Kanälen technisch einwandfrei funktionieren.

Neben der Sprachsteuerung ist die Bildersuche stark im Kommen. Pinterest-Nutzer etwa können über das Feature «Lens» ihre Kamera auf ein Objekt richten und erhalten daraufhin dazu passende Pins oder Pinboards. Die Möglichkeit ist ein wichtiger Verkaufsantrieb. Viele Pinterest-Nutzer teilen die Bilder von Produkten. «Image Recognition» nennt sich dies zu Deutsch und bietet neue Möglichkeiten beim Content Management, der Optimierung des Point of Sales, aber auch bei der Markenüberwachung und der Sammlung von 1st Party Data. So kann zum Beispiel der Videoinhalt eines Werbespots auf die Bildersuche der Nutzer abgestimmt und Kundentypen und deren Verhalten ermittelt werden.

Gut möglich also, dass wir in weiteren 20 Jahren über die Suche mittels Sprachsteuerung schmunzeln werden, weil diese bereits wieder veraltet ist. Vielleicht werden Suchmaschinen unsere Fragen sogar antizipieren, ohne dass wir diese aussprechen müssen.

Text: Stefanie Mayr und Céline Zemp

 

von