Expertenbeitrag: B2B Marketing Days 2022 Marketing Automation mit menschlichem Touch – Wann macht es Sinn?

Anbieter zum Thema

Wann bringt die Beteiligung „echter“ Menschen Mehrwert und sollte unbedingt in automatisierte Kommunikationsumgebungen integriert werden? Wann hat diese keinen Einfluss beziehungsweise wirkt sogar kontraproduktiv? Die Forschung liefert hier interessante Erkenntnisse.

Marketer sind sich einig, dass Automatisierung zukünftig nicht mehr wegzudenken sein wird. Doch wo macht der menschliche Touch trotzdem doch Sinn und wo nicht?
Marketer sind sich einig, dass Automatisierung zukünftig nicht mehr wegzudenken sein wird. Doch wo macht der menschliche Touch trotzdem doch Sinn und wo nicht?
(Bild: gemeinfrei / Unsplash)

Erinnern Sie sich noch an einen der vielen Newsletter, die Sie vergangene Woche erhalten haben? Oder die letzte Kaufabschluss-Bestätigungsmail? Den Chatbot auf einer der Websites, auf denen sie heute unterwegs waren? Wenn nein, dann geht es Ihnen wie mir. Die meisten dieser E-Mails lösche ich ungeöffnet. Die Chatbots nehme ich nicht wahr beziehungsweise klicke sie weg, wenn sie stören.

Allerdings erinnere ich mich noch sehr gut an eine E-Mail, die ich vor rund einem Jahr nach Registrierung auf einem Portal erhalten habe. In dieser sehr persönlich geschriebenen Mail wies mich der Betreiber des Portals darauf hin, dass dies eine handgeschriebene Mail sei und er sich in den nächsten Stunden persönlich darum kümmern würde, mir den Account einzurichten und sich dann mit weiteren Infos bei mir melden würde. Bei Fragen solle ich ihm doch bitte jederzeit schreiben oder unter der angegebenen Telefonnummer anrufen. Auch wenn ich mir sicher bin, dass dies eine automatisierte E-Mail war – gut gemacht, anders, bemerkenswert. Blieb mir positiv im Gedächtnis.

Mensch vs. Maschine

Oder das Live-Chat-Popup auf einem Webshop für Musikinstrumente: „Guten Tag, mein Name ist Carla Müller. Benötigen Sie Hilfe? Gerne berate ich Sie in einem Live-Chat.“ Name und Bild der Inhaberin. Schließlich lese ich aktuell immer wieder auf LinkedIn von A/B-Tests, bei welchen die Performance rein textbasierter, persönlicher E-Mails von echten Menschen (zumindest wird versucht diesen Eindruck zu erwecken) mit durchgestylten Emails verglichen wird. Meist mit dem Ergebnis, dass die rein textbasierten Mails deutlich besser abschneiden.

Dies alles sind Beispiele, bei denen durch die Beteiligung echter Menschen oder zumindest durch Hinweise auf die Beteiligung echter Menschen in der Kommunikation mit Kunden eine positive Wirkung erzielt wurde. Dies ist zunächst nicht verwunderlich – Menschen sind soziale Wesen. Auf der anderen Seite geht der Trend im B2B Marketing aber klar in Richtung Digitalisierung und Automatisierung. Insbesondere Marketing Automation findet bei B2B Unternehmen immer größere Verbreitung. Der „menschliche Touch“ – um genau zu sein, die sogenannte soziale Präsenz – wird hierbei natürlicherweise reduziert und häufig nur unbewusst in Kampagnen und Kanäle integriert. Unter sozialer Präsenz wird dabei vereinfacht gesagt das Ausmaß verstanden, in dem eine andere Person – insbesondere in virtuellen Kommunikationsumgebungen – als anwesend wahrgenommen wird. Soziale Präsenz steht dabei in engem Zusammenhang mit Gefühlen der persönlichen Verbindung, menschlicher Wärme und Sensibilität.

Wann aber bringt die Beteiligung „echter“ Menschen Mehrwert und sollte unbedingt in automatisierte Kommunikationsumgebungen integriert werden? Wann hat diese keinen Einfluss bzw. wirkt sogar kontraproduktiv? Muss tatsächlich ein „echter Mensch“ dahinterstehen oder reicht auch nur die Simulation menschlichen Verhaltens?

Die Forschung beschäftigt sich bereits seit einiger Zeit mit diesem Thema – insbesondere mit Bezug auf Chatbots. Ich möchte Ihnen im Folgenden ausgewählte Ergebnisse vorstellen.

Reaktionen auf algorithmenbasierte vs. menschliche Entscheidungen

Starten wir mit einer ganz aktuellen Studie von Yalcin et al. (2022). Diese kommt zu dem interessanten Ergebnis, dass Menschen weniger positiv reagieren, wenn eine für die betroffene Person erfreuliche Entscheidung von einem algorithmen-basierten Entscheider (vs. einem menschlichen Entscheider) getroffen wird. Bei negativen Nachrichten ist dieser Effekt hingegen abgeschwächt. Dies lässt sich mit unterschiedlichen Attributionsprozessen erklären: Es ist für Menschen einfacher, ein von anderen Menschen übermitteltes positives Entscheidungsergebnis zu internalisieren (das heißt den Grund für diese positive Entscheidung bei sich selbst zu suchen), als wenn dieses von einem Algorithmus getroffen wird. Eine negative Entscheidung wird generell einfacher externalisiert (das heißt die negative Entscheidung wird mit Faktoren außerhalb des eigenen Einflussbereichs begründet), unabhängig, ob es sich um einen menschlichen oder algorithmen-basierten Entscheidungsträger handelt. Das bedeutet: Positive Entscheidungen sollten besser von echten Menschen getroffen und übermittelt werden, wohingegen negative Entscheidungen auch von Algorithmen getroffen und übermittelt werden können. Hier ist allerdings ein weiteres Ergebnis der Studie interessant: Indem der Algorithmus durch einfache Hinweise auf „echte“ Menschen menschenähnlicher gestaltet wurde, konnte der negative Effekt eliminiert werden. Das heißt, es muss nicht immer ein echter Mensch dahinterstehen – Hinweise auf echte Menschen können schon viel Positives bewirken.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Hinweise auf echte Menschen erhöhen Handlungswahrscheinlichkeit

Eine Studie von Adam, Wessel, & Benlian (2021) zeigt, dass Hinweise auf echte Menschen die Wahrscheinlichkeit erhöhen, dass Nutzer der Bitte eines Chatbots (beispielsweise um Feedback) nachkommen. Dieser Effekt wird durch soziale Präsenz mediiert, das heißt, die Hinweise auf echte Menschen führen zu einer höheren sozialen Präsenz, was sich wiederum positiv auf das Befolgen von Anweisungen beziehungsweise dem Nachkommen von Bitten auswirkt.

Hierzu passt das Ergebnis von Shi et al. (2020), die zeigen, dass sich Kunden eher von einem Chatbot überzeugen lassen, wenn dieser nicht als solcher benannt wird.

Auch die Erkenntnisse von Luo et al. (2020) gehen in eine ähnliche Richtung: In einer telefonischen Interaktion mit einem explizit als solcher benannten Chatbot legen Nutzer mit größerer Wahrscheinlichkeit auf und tätigen seltener einen Kauf als in Interaktionen mit einem Chatbot, der nicht explizit als solcher identifiziert wird. Allerdings zeigen die Ergebnisse auch, – und das ist sehr interessant – dass nicht explizit als solche offengelegte Chatbots genauso effektiv wie erfahrene und viermal effektiver als unerfahrene Mitarbeiter sind, wenn es darum geht, Nutzer zum Kauf zu bewegen.

Hinweise auf echte Menschen führen zu weniger Beschwerden

Mit Blick auf Kommunikation von Corporate Accounts in sozialen Medien (insbesondere als Servicekanal) haben Chen & Pan (2021) herausgefunden, dass Nutzer eher positive Emotionen äußern und sich seltener beschweren, wenn sie mit einem „menschlichen“ Profil (das heißt Foto, Name und einige Informationen zu dem diesen Account betreuenden Service-Mitarbeiter) interagieren. Dabei spielt es keine Rolle, ob sie tatsächlich mit einer echten Person oder einem Bot kommunizieren.

Soziale Präsenz ist nicht immer vorteilhaft – Kontextfaktoren spielen eine wichtige Rolle

Grundsätzlich haben verschiedene Studien gezeigt, dass Chatbots eher genutzt werden, wenn die Nutzer eine soziale Präsenz wahrnehmen. Aber wirkt sich die Beteiligung echter Menschen oder das Glauben machen, es handle sich um echte Menschen und nicht um eine algorithmen-basierte Kommunikation tatsächlich immer positiv aus? Oder gibt es Situationen, in denen sich Hinweise auf echte Menschen und in der Folge soziale Präsenz negativ auswirken?

Hier zeigt eine Studie von Mozafari, Weiger, & Hammerschmidt (2021), dass ein „menschenähnlicher“ Chatbot (bei dem verschwiegen wird, dass es sich um einen Chatbot und keine reale Person handelt) zwar die Nutzung in nicht-peinlichen Kontexten erhöht, in als peinlich empfundenen Kontexten aber nach hinten losgeht. Soziale Präsenz in peinlichen Situationen wirkt sich negativ aus.

Dies steht in Einklang mit Ergebnissen früherer Studien, die ebenfalls festgestellt haben, dass Menschen bei sensiblen beziehungsweise peinlichen Inhalten lieber Bots als echte Menschen anvertrauen. Dies kann sich sowohl auf als peinlich erachtete Fragen beziehen als auch auf den Kauf eines als peinlich empfundenes Produkt (Zamora 2017). Passend hierzu haben Pitardi et al. (2022) herausgefunden, dass Gefühle der Verlegenheit eher bei Interaktionen mit echten Menschen auftreten als mit Bots beziehungsweise sogenannter Service-Robotern.

Interessant ist in diesem Zusammenhang auch, dass Nutzer eher bereit sind, sensible Informationen Computern zu offenbaren als menschlichen Interviewern (Lind et al., 2013). Außerdem ruft ein menschenähnlicher Chatbot sozial erwünschtere Antworten auf sensible Fragen hervor als ein weniger menschenähnlicher Chatbot (Schuetzler et al. 2018).

Wann ist eine Kommunikation mit „menschlichem Touch" sinnvoll?

Aus den dargestellten Ergebnissen lassen sich zahlreiche Handlungsempfehlungen ableiten. Hier lediglich einige wenige Punkte:

  • Positive Nachrichten sollten mit möglichst viel „menschlichem Touch“ kommuniziert werden – es reichen häufig aber Hinweise auf echte Menschen. Negative Nachrichten können meist auch automatisiert und ohne Hinweise auf „echte“ Menschen erfolgen.
  • Für peinliche beziehungsweise im B2B Kontext unangenehme Situationen sollten Kanäle mit möglichst niedriger sozialer Präsenz angeboten werden.
  • Ansonsten gilt in den meisten Fällen: Menschlicher Touch hat positive Effekte und sollte bewusst auch in eigentlich automatisierten Kommunikationsumgebungen eingesetzt werden.

Zu praxisfern? Zu wenig konkret? Und was bedeutet das für B2B Marketing Automation? Freuen Sie sich auf die B2B Marketing Days 2022. In meinem Vortrag „Marketing Automation mit menschlichem Touch: Wie beeinflusst die Integration von Hinweisen auf die Beteiligung "echter" Menschen den Erfolg von B2B-Kampagnen?“ werden wir uns dem Thema annehmen – kurzweilig, konkret und mit direkt umsetzbaren Key Takeaways.

Mehr zum Thema

Vortrag auf den B2B Marketing Days 2022

Mehr zum Thema „Marketing Automation mit menschlichem Touch“ hat Prof. Dr. Hannes Huttelmaier auf den marconomy B2B Marketing Days 2022 erzählt. Im Nachbericht haben wir alle relevanten Erkenntnisse zusammengefasst.
SAVE THE DATE: Die nächsten B2B Marketing Days finden vom 10. – 11. Oktober 2023 wieder live in Würzburg statt.

Literatur:

Adam, M., Wessel, M., & Benlian, A. (2021). AI-based chatbots in customer service and their effects on user compliance. Electronic Markets, 31(2), 427–445.

Cheng, H.-T., & Pan, Y. (2021). I’m Not a Chatbot: An Empirical Investigation of Humanized Profiles of Social Media Customer Service Representatives. Hawaii International Conference on System Sciences.

Gunawardena, C. N. (1995). Social Presence Theory and Implications for Interaction and Collaborative Learning in Computer Conferences. International Journal of Educational Telecommunications (1:2/3), pp. 147-166.

Ishowo-Oloko, F., Bonnefon, J.-F., Soroye, Z., Crandall, J., Rahwan, I., & Rahwan, T. (2019). Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nature Machine Intelligence (1:11), pp. 517-521.

Kumar, N., & Benbasat, I. (2006). Research Note: The Influence of Recommendations and Consumer Reviews on Evaluations of Websites. Information Systems Research (17:4), pp. 425-439.

Lind, L. H., Schober, M. F., Conrad, F. G., & Reichert, H. (2013). Why Do Survey Respondents Disclose More When Computers Ask the Question? Public Opinions Quarterly (77:4), pp. 888-935.

Luo, X., Tong, S., Fang, Z., & Qu, Z. 2020. Machines versus Humans: The Impact of AI Chatbot Disclosure on Customer Purchases. Marketing Science (38:6).

Mozafari, N., Weiger, W. H., & Hammerschmidt, M. (2021). That’s so Embarrassing! When not to Design for Social Presence in Human–Chatbot Interactions. Forty-Second International Conference on Information Systems, Austin.

Pitardi, V., Wirtz, J., Paluch, S., & Kunz, W.H. (2022). Service robots, agency and embarrassing service encounters. Journal of Service Management, Vol. 33 No. 2, pp. 389-414.

Schuetzler, R. M., Grimes, G. M., Giboney, J. S., & Rosser, H. K. (2021). Deciding Whether and How to Deploy Chatbots, MIS Quarterly Executive (20:1), pp. 1-15.

Shi, W., Wang, X., Oh, Y. J., Zhang, J., Sahay, S., & Yu, Z. 2020. Effects of Persuasive Dialogues: Testing Bot Identities and Inquiry Strategies. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Hawaii, USA.

Short, J., Williams, E., & Christie, B. (1976). The social psychology of telecommunications, London: Wiley.

Yalcin, G., Lim, S., Puntoni, S., & van Osselaer, S. M. J. (2022). Thumbs Up or Down: Consumer Reactions to Decisions by Algorithms Versus Humans. Journal of Marketing Research, 002224372110700.

Zamora, J. (2017). I’m Sorry, Dave, I’m Afraid I Can’t Do That. In: Proceedings of the 5th International Conference on Human Agent Interaction - HAI ‘17, Bielefeld, Germany, pp. 253-260.

(ID:48456392)