E-Government
Vom:
27.3.2020

Wie man Erwartungshaltungen von Nutzern mithilfe von Conversation Design erfüllt

Autor:in
Meike Plath
Conversation Design umfasst den Konversationsaufbau eines Sprachassistenten bzw. Chatbots, damit dieser möglichst effizient auf die Anfragen von Nutzern reagieren kann. Dabei sollte er auf die verschiedenen Erwartungshaltungen eingehen.

Bei einer Umfrage gaben 63 Prozent der Nutzer:innen an, nicht mit einer Maschine kommunizieren zu wollen, obwohl sie ihr Zuhause via Sprache steuern möchten. Dieser Widerspruch macht deutlich, dass Menschen zielorientiert denken und sich gerne ihr Leben erleichtern, aber es dennoch bevorzugen, mit anderen Menschen zu kommunizieren. Das drückt sich auch in Gewohnheiten aus. Wir benutzen beispielsweise aus Gewohnheit eine Computermaus, obwohl es viel intuitiver ist, zu sprechen oder einen Bildschirm direkt zu berühren. Das zeigt, wie wichtig Erwartungshaltungen von Nutzer:innen sind, doch wie kann man auf sie bestmöglich eingehen?

Herzstück ist die Einbindung natürlicher Sprache durch Conversational AI. Sprachassistenten sind im Gegensatz zu angestellten Mitarbeitern jederzeit erreichbar. Sie antworten freundlich und sind nie schlecht gelaunt. Dementsprechend verfolgt ihr Einsatz das Ziel, Menschen zu entlasten, indem sie die Nutzer:nnen unterstützen. Trotzdem sollen sie keinesfalls einen Menschen ersetzen, sondern lediglich wie in einer Symbiose mit diesem zusammenarbeiten. Hierbei gilt es, Schwächen weitesgehend zu kaschieren und Stärken hervorzuheben.

Einsatzgebiete und Anwendungsbereiche der Dialogassistenten

Zum Einsatz kommt die Conversational AI in zahlreichen Abteilungen eines Unternehmens, sei es im Customer Service bei einer Adressänderung oder beim IT-Helpdesk, falls der Computer eines Mitarbeitenden nicht funktioniert. Statt eines Anrufs können Nutzer:innen auf das intelligente System zurückgreifen.

Welche Art zur Kommunikation mit der AI gewählt wird, ist meist abhängig von der jeweiligen Situation. Daraus entwickeln sich wiederum die Erwartungshaltungen der Nutzer:innen. In der Bahn entscheidet man sich eher für textbasierte Chatbots, damit die Mitfahrer nichts von dem Dialog mitbekommen, im Auto und zu Hause bevorzugt man wiederum den sprachbasierten Assistenten. Die vier häufigsten Anliegen der Nutzer:innen sind:

  • Wissensmomente, in denen sie sich neues Wissen aneignen möchten;
  • Informationen, z. B. Öffnungszeiten vor einem Besuch erfragen;
  • Erledigungen, wie einen neuen Personausweis beantragen;
  • Käufe.

Funktionsweise der Conversational AI Plattform

Es gibt für die AI zwei Umsetzungsmöglichkeiten, die abhängig von den Erwartungshaltungen der Zielgruppe sind. Die Point Solution ist eine spezialisierte Lösung für ein bestimmtes Problem und basiert auf Code. Die Platform Solution stellt eine Sammlung an Werkzeugen zur Lösung dar, sie beinhaltet Knotenpunkte zu Drittsystemen sowie grafische Elemente für die Konversation.

Die Conversational AI Plattform funktioniert wie folgt: Die Nutzer:innen stellen eine Anfrage (Intent) textlich oder sprachlich, die dann an den Erklärbereich NLU (Natural Language Understanding) der Artificial Intelligence (AI) zur Analyse und Verarbeitung weitergeleitet wird. Um den Intent nach den Prozessen abrufen zu können, wird er gespeichert.
Es folgt eine Wissensverknüpfung aus dem Wissen über eine charmante Kommunikaton mithilfe der Conversation Logic sowie aus dem Wissen über die Nutzer:innen. Schließlich wird die Antwort an den Nutzer ausgegeben.

In eine Plattform sind sowohl verschiedene NLUs als auch andere Systeme Dritter einbindbar. Ist die Erwartungshaltung der Nutzer:innen durch die ausgegebene Antwort nicht erfüllt, übergibt die „Maschine“ an den Menschen. Durch den Analytics Bereich lässt sich unter anderem die Zufriedenheit der User ablesen.

Machen die Nutzer:innen einen Fehler im Satz, würde der Mensch ihn mithilfe seines Weltwissens, also seiner Erfahrung über Grammatik und Semantik, erkennen. Maschinen müssen dies erlernen. Dafür ist die NLU bzw. NLP (Natural Language Processing) zuständig. Wie viel Satzzeichen zum Verständnis beitragen, zeigen die Beispiele „Wir essen jetzt Opa“ und „Wir essen jetzt, Opa“.

Conversation Stack ist eine Hilfestellung für eher introvertrerte Personen zur Kontakaufnahme, indem sie Fragen an das Gegenüber stellt. Wenn uns im Internet jemand allerdings andauernd ausschließlich etwas fragt, ohne Informationen über sich preiszugeben, wirkt das schnell mehr als nur interessiert. Daran orientiert sich auch eine AI: Sie wechselt zwischen Fragen und der Bereitstellung von Informationen für den Nutzenden.

Die Umsetzung einer komplexen AI teilt sich also in die Bereiche Technik, Psychologie, Linguistik, Aussehen, Farben, Videos sowie Bilder.

Mit Conversation Design Chatbots gestalten: Praxistipps für erfüllte Erwartungshaltungen

Conversation Design bietet vielfältige Möglichkeiten, einen Kanal zu gestalten. So erhält der Dialogassistent eine Art „Gesicht“ und eine bestimmte individuelle Wirkung auf Nutzer:innen. Er sollte dabei die Erwartungshaltungen der Zielgruppe im Auge behalten: Benutzt sie den Assistenten nur, um Informationen zu erhalten oder muss er noch weitere Anforderungen erfüllen? Folgende Beispiele verdeutlichen das unerwartete Nutzerverhalten und zeigen, wie sich die AI dieser Herausforderung am besten stellt:

  • Die Nutzer:innen geben für ihre Postleitzahl sechs Stellen anstatt der üblichen fünf ein. Der Chatbot könnte ihn auf seinen Fehler aufmerksam machen, indem er sie auffordert, etwas neues einzugeben. Besser ist eine Antwort mit Feedback, wie z. B. „Das ist länger als erwartet, wie lautet die 5-stellige PLZ?“.
  • Im zweiten Szenario möchten die Nutzer:innen Schuhe kaufen. Auf die Frage vom Chatbot, welche Schuhe sie sich wünschen, Antwort der Nutzer:innen: „Sneaker in Größe 38“. In diesem Fall habem die User schon mehr Informationen genannt als erwartet, denn die Größe hätte der Chatbot erst im nächsten Schritt erfragt. Hier ist es wichtig, dass der Chatbot die zusätzliche Information in seinen Speicher aufnimmt, um nicht erneut danach zu fragen.
  • Im dritten Fallbeispiel geht es darum, den Nutzer:innen Korrekturen zu erlauben. Sie fordern beim Chatbot einen Espresso an, auf Nachfrage entscheiden sie sich dann aber doch für einen doppelten Espresso. Diese Änderung sollte nun auch beim Dialogassistenten angekommen sein.

Generell gilt für den ausgegebenen Text des Chatbots die Ein-Atemzug-Regel. Sie besagt, dass man die Antwort in einem Atemzug aussprechen können sollte. Nutzer:innen, die etwas Wissenswertes erfahren möchten, bilden hier die Ausnahme.

Heutzutage denken wir oft, wenn ein Bildschirm nicht auf unsere Berührung reagiert, er sei nicht mehr funktionsfähig. Wir erwarten einen Touchscreen, mit dem wir vor einem Jahrzehnt noch nicht gerechnet hätten. Das zeigt, dass Erwartungshaltungen sich ändern. Dem tritt man am besten mit Systempflege entgegen. Dazu gehören ein Nachtraining der bereits vorhandenen Intents sowie das regelmäßige Einpflegen neuer Fragen und Antwortmöglichkeiten.  

Informieren Sie sich auf unserem Blog zum Thema Chatbot und anderen interessanten Bereichen der Digitalisierung. Hier berichten wir unter anderem auch über unsere Meetups zu relevanten Chatbot-Themen.

Sie interessieren sich für Chatbot-Lösungen für die öffentliche Verwaltung? Kontaktieren Sie uns.

Autor:in
Meike Plath
Meike Plath ist Junior Marketing Managerin bei der publicplan GmbH. Sie startete als Dualstudentin und ist bereits seit mehreren Jahren Teil des Unternehmens. Zu ihren Aufgaben gehören hauptsächlich die Contenterstellung für die Social-Media-Auftritte und die Website inklusive Videobearbeitung und Vertonung.
Alle Artikel ansehen
Beitrag teilen

Ähnliche Artikel

Schreiben Sie uns
publicplan verpflichtet sich, Ihre Privatsphäre zu schützen und zu respektieren. Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Indem Sie unten auf "Einsenden" klicken, stimmen Sie zu, dass publicplan die oben angegebenen persönlichen Daten speichert und verarbeitet, um Ihnen die angeforderten Inhalte bereitzustellen.
Jetzt senden
Your information has been saved.
Looks like we're having trouble