Wie sollten digitale Helfer heißen und aussehen?

Quelle: pexels
Quelle: pexels
Smarte Helfer umgeben uns. Bis zu drei Stunden schauen wir täglich auf den Screen unseres Smartphones. Auge-Daumen- bzw. Auge-Finger-Display-Koordination beherrschen wir. Kommunikation, Informationssuche und Unterhaltung funktioniert problemlos. Noch! Denn, auch wenn Google Now und Siri nicht mehr taufrisch sind, beginnt gerade erst der Siegeszug der Sprachsteuerung.
 
Fraglich ist, ob wir überhaupt bereit sind mit Geräten natürlich zu sprechen, ist doch der Sprechakt etwas, was Menschen dazu bringt sich grundlegend verschieden von Tieren, Pflanzen und Maschinen wahrzunehmen. Müssen Maschinen also in Zukunft menschlicher werden oder müssen wir Mensch-Maschine-Kommunikation neu denken?

Hi, my name is…

„OK, Google!“, „Hey, Siri!“ oder „Alexa!“ sind die Buzzworte der Stunde, wenn es darum geht Maschinen direkt anzusprechen. Wir bestimmen, wann sie beginnen sollen uns zu helfen. Das ist ein gewaltiger Unterschied zu bisheriger Sprachsteuerung, wo der Nutzer im Befehlston aufgefordert wird bestimmte Informationen zu nennen. Egal, ob das Navigationssystem „Nennen Sie jetzt die Adresse!“ oder der Call-Center-Automat „Nennen Sie Ihre Versicherungsnummer!“ fordert, wir dienen dem System. Es fühlt sich an, als würde uns die Höhlenwand zurufen: „Nimm den Stein und zeichne einen Büffel!“

Die alten Systeme können Nichts dafür. Sie sind klassisch mit festen if-then-Schleifen verdrahtet und dazu designt möglichst wenig Fehler zu begehen. Ihre Bauweise macht es Ihnen unmöglich eine Frage der Art: „Wie kann ich Ihnen helfen?“ zu stellen. Die Antwort würde sie schlicht überfordern.

Moderne Sprachsysteme sind bedeutend intelligenter. Sie analysieren die Worte Sprache auf Wortkombinationen, Trigger-Begriffe und können die Stimmung, das sogenannte „Sentiment“, des Sprechers ermitteln. Zusätzlich lernen sie mit jeder Eingabe, da sie das Ergebnis mit der Anfrage verknüpfen. Soll heißen: Wenn Alexa, Siri oder Google nicht befriedigend Antworten, der Nutzer also die Eingabe wiederholt, korrigiert oder abbricht, bewerten die Systeme ihre eigene Antwort und geben das nächste Mal eine bessere.

Im aktuellen Mobilbetriebssystem von Apple iOS10 hat man Siri endlich auch für Drittanbieter-Apps freigeben. Einfach gesagt: Siri kann jetzt auch WhatsApp. Cool, doch will man wirklich „Hey, Siri! Schreibe eine WhatsApp an Marc!“ sagen? Fühlt sich immer noch an, als müsste man für die Maschine mitdenken und die Anfrage möglichst konkret formulieren. Die weitere Frage: Wie spricht man Drittanbieter Apps an? Runtastic, Spotify, Netflix, YouTube und so weiter. „Hey, Siri! Sag runtastic, dass ich jetzt eine Stunde Basketball spielen gehe!“ – klingt irgendwie schizophren.

Digitale Charaktere

Chat-Kundenservice war ist ein Trend. Man befindet sich im Shop eines Händlers und kann bei Fragen direkt mit „Steven“, „Mary“ oder „James“ sprechen. Man versucht Kunden mit Menschlichkeit abzuholen. Natürlich personalisiert! Steven heißt in Zentraleuropa „Thomas“ und hat hellere Haut. Auf keinen Fall darf „Sanjay“, der indische Charakter ausgespielt werden. Ja, Conversion und Rassismus, doch das ist ein anderes Thema.

Wichtig ist: Menschliche Nähe zählt. Doch am Ende weiß man, das man weder mit Steven, Mary oder James spricht. Das Chatfenster ist ein hübsches Front-End für das Ticketsystem im customer-care Center. Die Antwort wird von Menschen gegeben. Fake-Automaten, so könnte man sagen. Und weil es so offensichtlich ist, agiert der Nutzer schlussendlich auch, als hätte er direkten Kontakt. Er lässt sowohl seinem Ärger freien Lauf und traut sich nicht „dumme Fragen“ zu stellen. Die Servicequalität sinkt, der Ressourcenaufwand bleibt stabil. Effizienzsteigerung durch Automatisierung? Pustekuchen!

ChatBots sind die Lösung der Effizienz. Sprachlich agil und wirklich sofort verfügbar. Der menschliche Kundenservice hat so mehr Zeit sich mit Spezialanfragen zu beschäftigen und jene befriedigend zu beantworten. Doch, wie spricht man einen Bot an? Braucht er einen menschlichen Avatar? Austrian, die österreichische Fluggesellschaft verzichtet auf den Avatar. Der Bot ist die Marke! Das ergibt Sinn, denn Fragen nach Reisegepäckbegrenzungen und Flugdaten stellt man am Ende bisher nur an einen Menschen, weil er oder sie der Gate-Keeper zwischen Frage und Antwort ist.

Form follows function?

Wie sollen Bots nun aussehen? Im Messenger sieht Bot-Kommunikation identisch aus, wie die Chats mit der Familie. Einziger Unterschied: Das Profilfoto ist das Markenlogo.

Amazon Echo als Fisch. Ist das die Lösung?
Amazon Echo als Fisch. Ist das die Lösung?
Aber wie sollen Systeme aussehen, wenn der Empfänger unsichtbar ist? Stichwort Sprachsteuerung mit Siri, Cortana, Alexa oder Google. Hier gibt es kein Logo zu sehen. Was man jedoch sieht, sind die Lautsprecher und Mikros. Die Lösung könnte sein, die smarten sprachgesteuerten Helfer unsichtbar zu machen oder in bestehende Geräte zu integrieren. So, wie es ein Bastler tat, der Amazon Echo in einem singenden Fisch einbaute.
 
Die Frage nach der Form der neuen Helfer ist essentiell. Google Glass scheiterte nicht an der Idee, sondern der Nutzererfahrung. Sprache erfordert ein anderes UX als Klickpfade! Schließlich handelt es sich um ein „No-Interface“-Interface. Die Mensch-Maschine-Kommunikation muss eigenständig gedacht und getestet werden. Denn die Bereitschaft der Kunden Roboter in der Beratung zu akzeptieren ist hoch, so lang der Service stimmt.
 

Handelskraft 2017

adword_250_250 Trendthemen, wie ChatBots im E-Commerce und viele mehr gibt es am 23. März im Porsche Werk Leipzig. Sichert euch jetzt Tickets und nutzt die Gelegenheit euch mit Kollegen und Branchenkennern zu Entwicklungen und Best-Practices des digitalen Handels auszutauschen! Namhafte Unternehmen, wie Bauerfeind, Hagebau und Würth sind bereits dabei. Alle Informationen zu Themen, Speakern und Programmablauf findet ihr unter: https://www.dotsource.de/agentur/handelskraft-2017/

(1 Bewertung(en), Schnitt: 5,00 von 5)
Loading...