Der Hype um AI scheint vorerst nicht zu stoppen: Laut einer Studie von Bitkom Research ist der Anteil der Bundesbürger*innen, die zumindest hin und wieder Tools wie z.B. ChatGPT, Microsoft Copilot oder Gemini nutzen, von 40% im Jahr 2024 auf 67% im Jahr 2025 gestiegen [1] Immer mehr Firmen integrieren Conversational AI in ihre Produkte. Dadurch wird es für UX Professionals immer wichtiger zu verstehen, wie Nutzende mit Conversational AI interagieren und was eine gute Nutzererfahrung ausmacht. In diesem Artikel möchte ich aufzeigen, welche Faktoren die User Experience von Conversational AI beeinflussen und welche Unterschiede es dabei zu anderen interaktiven Produkten gibt.
Was ist Conversational AI?
Conversational AI (zu Deutsch: dialogorientierte KI) „[…] bezieht sich auf Technologien wie Chatbots oder virtuelle Agenten, mit denen Benutzer sprechen können. Sie nutzen große Datenmengen, maschinelles Lernen und die Verarbeitung natürlicher Sprache, um menschliche Interaktionen zu imitieren, indem sie Sprach- und Texteingaben erkennen und deren Bedeutungen in verschiedene Sprachen übersetzen.“[2]
Das Zwei-Komponenten-Modell der User Experience
Um die Frage zu beantworten, was die User Experience von Conversational AI genau ausmacht, ist es hilfreich zu verstehen, was die User Experience interaktiver Produkten im Allgemeinen ausmacht. Die Qualität der User Experience lässt sich in die sogenannte pragmatische und hedonische Qualität aufteilen[3].
Die pragmatische Qualität bezieht sich auf die aufgabenbezogene Qualität eines Produkts. Kann ich mit diesem Produkt meine Aufgaben erledigen? Wie effektiv und effizient erledige ich meine Aufgaben damit? Die pragmatische Qualität setzt sich aus Usability und wahrgenommenem Nutzen zusammen. Im Gegensatz dazu bezieht sich die hedonische Qualität auf die nicht-aufgabenbezogenen Aspekte eines Produkts. Eine hohe hedonische Qualität liegt dann vor, wenn das Produkt die Neugier der Nutzer*innen weckt, als attraktiv wahrgenommen wird oder wenn es Spaß macht, es zu benutzen[4].
In einer Studie zur User Experience von ChatGPT[5] zeigte sich, dass Nutzer*innen die pragmatische Qualität als hoch einschätzten, wenn sie das Gefühl hatten, durch ChatGPT effizienter zu arbeiten und bessere Arbeitsergebnisse zu erzielen. Die pragmatische Qualität wurde auch dann als hoch bewertet, wenn Nutzer*innen den Output als besonders relevant, nützlich, akkurat und detailliert empfanden.
Die Nutzer*innen nahmen die hedonische Qualität als hoch wahr, wenn sie die Outputs als überraschend oder beeindruckend empfanden. Auch das Gefühl, von ChatGPT bei kreativen Tätigkeiten unterstützt oder von den Outputs unterhalten zu werden, wirkte sich positiv auf die hedonische Qualität aus.
Ein spannender Faktor für die hedonische Qualität von Conversational AI ist, dass wir uns mit ihr „unterhalten“ können, beispielsweise in Form von schriftlichen Chats oder gesprochenen Dialogen mit Voice-Assistenten. Da Conversational AI dabei oft wie ein menschlicher Gesprächspartner wirkt, neigen wir dazu, ihr darüber hinaus weitere menschliche Eigenschaften zuzuschreiben. Genau dieses Phänomen, den sogenannten Anthropomorphismus, möchte ich im Folgenden näher beleuchten und erklären, welche Rolle dieser für die User Experience spielt.
Was ist Anthropomorphismus?
Anthropomorphismus lässt sich als „das Hineininterpretieren von menschlichem Erleben oder menschlichen Zügen in nichtmenschliche Wesen“ definieren[6]. Wir neigen dazu, Tiere, Objekte und Systeme zu vermenschlichen, um ihr Verhalten besser zu verstehen und sie in unsere eigene, menschliche Erfahrungswelt einzuordnen. Zum Beispiel wenn wir Tieren menschliche Gefühle attestieren („Meine Katze ist beleidigt“) oder technischen Geräten einen Willen unterstellen („Mein Laptop will mich heute ärgern“).
Menschen neigen dazu, Conversational AI sehr schnell zu anthropomorphisieren, da diese Systeme gezielt menschliche Kommunikationsmuster nachahmen. Sie reagieren kontinuierlich und wirken aufmerksam und simulieren Gesprächsdynamiken wie das abwechselnde Reden und Zuhören. Außerdem setzen sie soziale Hinweise ein: Sie sprechen von sich mit „Ich“ und reagieren positiv auf die Anfragen der Nutzer*innen. Ein Beispiel: ChatGPT antwortet auf die Frage: „Wie geht es dir?“ prompt mit der Antwort „Danke der Nachfrage! Mir geht’s gut – bereit, dir zu helfen. Und wie geht’s dir?“.
In einer Studie zeigte sich, dass Nutzer*innen AI-Chatbots eher vertrauen, wenn diese menschliche Merkmale aufweisen[7]. Neben der Nachahmung von Gesprächsführung und natürlicher Sprache werden Chatbots häufig auch bewusst menschlich gestaltet, beispielsweise durch einen eigenen Namen, ein Icon oder eine zugeschriebene Persönlichkeit. Dies erhöht das emotionale Vertrauen in die Technologie zusätzlich[8]. Je mehr solcher menschlicher Merkmale vorhanden sind, desto eher empfinden Nutzer*innen die Antworten der Chatbots als genauer und weniger riskant [9].
Dieses zusätzliche Vertrauen kann problematisch werden, wenn die AI halluziniert, also falsche oder stark vereinfachte Informationen ausgibt. UX Professionals sollten sich daher bewusst machen, welchen Einfluss anthropomorphe Hinweise auf die Nutzer*innen haben. Gleichzeitig sollten Produktteams auf eine transparente Kommunikation hinsichtlich der Schwächen und Grenzen von Conversational AI setzen, denn auch dies kann das Vertrauen von Nutzer*innen in Conversational AI zusätzlich erhöhen[10].
Menschen unterscheiden sich in ihrer Neigung, Dinge zu anthropomorphisieren. Während manche schnell menschliche Eigenschaften auf Tiere und Objekte übertragen, tun es andere eher selten[11]. In ihrer Masterarbeit hat sich meine Kollegin Carla damit beschäftigt, wie sich diese Neigung zu anthropomorphisieren darauf auswirkt, wie glaubwürdig wir AI Personas einschätzen und wie viel Empathie wir diesen gegenüber entwickeln. Falls ihr mehr darüber erfahren möchtet, schaut euch gerne ihren Blogartikel zu diesem Thema an.
Da wir dazu neigen, Conversational AI zu vermenschlichen und mit ihr zu interagieren, wird der Kommunikationsstil zu einem entscheidenden Faktor für eine gelungene User Experience. Er bestimmt maßgeblich, wie angenehm, verständlich und ansprechend die Interaktion wahrgenommen wird.
Kommunikationsstil
In einer Studie[12] wurde untersucht, wie Nutzer*innen auf verschiedene Kommunikationsstile von Chatbots reagieren, wenn es Probleme oder Fehler im Service gibt. Die Ergebnisse zeigten: Chatbots, die einen sozial orientierten Stil verwendeten – statt nur rein aufgabenorientiert zu kommunizieren – steigerten die Zufriedenheit, das Vertrauen und die Loyalität der Nutzer*innen gegenüber dem Unternehmen. Dabei war die wahrgenommene Wärme im Gespräch besonders wichtig, da sie negative Emotionen aufgrund des Fehlers abschwächte.
Eine andere Untersuchung hat sich damit beschäftigt, wie empathisches Verhalten von Chatbots wahrgenommen wird. In den durchgeführten Experimenten lösten empathische Chatbots häufig das Gefühl sozialer Präsenz aus und steigerten die wahrgenommene Qualität der bereitgestellten Informationen. Dies führte insgesamt zu einer höheren Zufriedenheit mit dem Chatbot. Gleichzeitig wurde deutlich, dass Empathie nicht in jeder Situation von Vorteil war. Unter Zeitdruck empfanden die Teilnehmer*innen der Studie empathische Reaktionen als störend, was die Erfahrung mit dem Chatbot verschlechterte. Die Studie macht deutlich, dass kommunikative Elemente wie Empathie gezielt und kontextabhängig eingesetzt werden sollten, um positive Effekte auf die Nutzerzufriedenheit zu erzielen[13].
Es lohnt sich also für UX Professionals, bei der Gestaltung von Interaktionen mit Conversational AI nicht nur auf Effizienz, sondern auch auf die emotionale Wirkung des Kommunikationsstils zu achten. Wie genau dieser gestaltet werden sollte, hängt jedoch vom Nutzungskontext ab. Deswegen ist es sinnvoll, vor der Gestaltungsphase UX Research durchzuführen, um herauszufinden, wer die Nutzer*innen sind, welche Ziele sie in der Interaktion mit der Conversational AI erreichen möchten und in welchem Kontext sie dies tun. Genau damit beschäftigt sich meine Kollegin Carla in ihrem demnächst hier im Blog erscheinenden Blogartikel „Chatbot Research 101“.
Fazit
Wie positiv die Nutzererfahrung mit Conversational AI wahrgenommen wird, hängt von verschiedenen Faktoren ab. Einerseits muss eine hohe pragmatische Qualität gegeben sein, das heißt, Nutzer*innen müssen das Gefühl haben, ihre Aufgaben mit Conversational AI effizient erledigen zu können, und sie müssen die Ergebnisse als relevant und nützlich wahrnehmen. Gleichzeitig spielt auch die hedonische Qualität eine Rolle: Die Nutzererfahrung ist besonders gut, wenn die Interaktion Spaß macht oder unterhaltsam ist. Die hedonische Qualität wird insbesondere dadurch beeinflusst, dass Conversational AI menschliche Interaktion nachahmt, wodurch wir sie leicht vermenschlichen. Deshalb müssen sich UX Professionals bei der Gestaltung von Conversational AI auch darüber Gedanken machen, wie sich anthropomorphe Merkmale und der Kommunikationsstil auf die Nutzererfahrung auswirken.
Quellen
[1] Wintergerst, R. (2025). Künstliche Intelligenz: Der Blick der Deutschen auf die neue Technologie. Bitkom Research. https://bitkom-research.de/node/1192
[2] Was ist dialogorientierte KI? (2021, September 28). IBM. https://www.ibm.com/de-de/think/topics/conversational-ai
[3] Hassenzahl, M. (2007). The hedonic/pragmatic model of user experience. Towards a UX Manifesto, 10–14.
[4] Burmester, M., Hassenzahl, M., & Koller, F. (2002). Usability ist nicht alles – Wege zu attraktiven Produkten (Beyond Usability – Appeal of interactive Products). I-Com, 1(1), 32–40. https://doi.org/10.1524/icom.2002.1.1.032
[5] Skjuve, M., Følstad, A., & Brandtzaeg, P. B. (2023). The User Experience of ChatGPT: Findings from a Questionnaire Study of Early Users. Proceedings of the 5th International Conference on Conversational User Interfaces, 1–10. https://doi.org/10.1145/3571884.3597144
[6] Anthropomorphismus. (2000). In Spektrum.de (Hrsg.), Lexikon der Psychologie. Spektrum Akademischer Verlag. https://www.spektrum.de/lexikon/psychologie/anthropomorphismus/1097
[7] Li, J., Wu, L., Qi, J., Zhang, Y., Wu, Z., & Hu, S. (2023). Determinants Affecting Consumer Trust in Communication With AI Chatbots: The Moderating Effect of Privacy Concerns. Journal of Organizational and End User Computing, 35(1), 1–24. https://doi.org/10.4018/JOEUC.328089
[8] Gkinko, L., & Elbanna, A. (2023). Designing trust: The formation of employees’ trust in conversational AI in the digital workplace. Journal of Business Research, 158, 113707. https://doi.org/10.1016/j.jbusres.2023.113707
[9] Cohn, M., Pushkarna, M., Olanubi, G. O., Moran, J. M., Padgett, D., Mengesha, Z., & Heldreth, C. (2024). Believing Anthropomorphism: Examining the Role of Anthropomorphic Cues on Trust in Large Language Models (Version 1). arXiv. https://doi.org/10.48550/ARXIV.2405.06079
[10] Glassberg, I., Ilan, Y. B., & Zwilling, M. (2025). The key role of design and transparency in enhancing trust in AI-powered digital agents. Journal of Innovation & Knowledge, 10(5), 100770. https://doi.org/10.1016/j.jik.2025.100770
[11] Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
[12] Cai, N., Gao, S., & Yan, J. (2024). How the communication style of chatbots influences consumers’ satisfaction, trust, and engagement in the context of service failure. Humanities and Social Sciences Communications, 11(1), 687. https://doi.org/10.1057/s41599-024-03212-0
[13] Juquelier, A., Poncin, I., & Hazée, S. (2025). Empathic chatbots: A double-edged sword in customer experiences. Journal of Business Research, 188, 115074. https://doi.org/10.1016/j.jbusres.2024.115074