ChatGPT ist im Gegensatz zu Amazon Echo und Meta hochgradig disruptiv. Aber woran liegt das? ChatGPT hat am schnellsten 100 Millionen Nutzer erreicht und hat keine Abhängigkeiten zu anderen Technologien. Zudem bot ChatGPT bisher überraschend wenig „ethisches Glatteis“. Doch der Hauptgrund, geht es nach Sam Altman selbst, scheint die fantastische UX von ChatGPT zu sein. Gute Nachrichten also für alle UX Professionals.
„Wenn ich einen Zeitpunkt wählen müsste, an dem KI wirklich disruptiv wurde, dann würde ich das Release von ChatGPT wählen. Dabei waren es aber nicht die zugrundeliegende KI-Modelle, die den Unterschied machten, sondern die hohe Benutzerfreundlichkeit der Anwendung!“ – Sam Altman, CEO OpenAI, Lex Fridman Podcast
Altes hinterfragen
Wir leben also in disruptiven Zeiten und müssen konsequenterweise auch Bestehendes neu überdenken. Dies betrifft natürlich auch bewährte UX-Methoden, die uns bereits seit Jahren zuverlässig durch den Dschungel der Produktentwicklung geführt haben. Eine dieser Methoden ist die Persona-Technik. Die zugrundeliegende Hypothese besagt, dass ein fiktiver Charakter die Perspektivübernahme für die Nutzenden erleichtert. Es handelt sich in erster Linie um ein Kommunikationsartefakt, das das Team auf eine gemeinsame Basis hebt – wenn die Persona es schafft, dass alle Teammitglieder die Perspektive dieser Figur übernehmen, dann teilen alle automatisch die gleiche Sichtweise. Das mag trivial klingen, ist aber ein wichtiger Begleiteffekt: Diskussionen werden fokussiert und es entsteht ein stärkeres gemeinsames Bestreben nach dem Ziel.
Kritik an der Persona Methode
Ob die Persona-Methode bislang gut funktionierte oder nicht, überlasse ich jedem einzelnen, denn ich denke nicht, dass man das pauschal beantworten kann. Es gab aber auch schon immer eine gewisse Skepsis der Methode gegenüber. Insbesondere algorithmisch denkende Software Engineers bevorzugen in der Regel quantitative Analysen auf Basis von „harten Daten“ statt scheinbar willkürlich ausgewählte Eigenschaften von Menschen, die am Ende des Tages nicht einmal wirklich existieren. Bleibt meiner Ansicht zu klären und zu erforschen, ob so mancher Software Engineer gegenüber Daten ja vielleicht per se mehr Empathie aufbringen kann als gegenüber Menschen.
Ich gehe davon aus, dass die Abneigung vielleicht weniger aus einem generellen Empathie-Defizit herrührt, sondern mehr aus dem diffusen und auch berechtigten Gefühl, immer nur einen Teil der Wahrheit präsentiert zu bekommen. Wenn eine Persona als 32 Jahre alt und weiblich definiert ist, dann könnte sich eine Softwareentwickler*in zu Recht fragen: „Würde ein 28-jähriger männlicher Nutzer bei der Bedienung der Software scheitern, nur weil er ein Y-Chromosom besitzt? Muss der Nutzer vielleicht nur vier Jahre älter werden, damit er die Software versteht?“
Deutungshoheit und Fehlbarkeit des UX Research
Natürlich können solche Fragen einen holistisch und systemisch denkenden Menschen zweifeln lassen, denn es geht ja bei der Perspektivübernahme nicht um funktionale Eindeutigkeit und algorithmische Automatisierbarkeit. Das unbehagliche Gefühl bleibt dennoch: Schließlich hat ein UX-Research-Professional oder ein Team davon irgendwann die Entscheidung getroffen, aus vielen Fragebögen gerade dieses Alter und dieses Geschlecht auszuwählen und auf eine einzige Persona zu reduzieren. Wir stoßen hier auf eine ganz andere, tiefgreifende Problematik: Alle auf dieser Persona basierenden Designentscheidungen stützen sich letztendlich auf die nicht kalkulierbare Deutungshoheit weniger UX-Research-Professionals. Sicherlich sind dies Psycholog*innen mit Fachkenntnis, aber auch diese sind, wenn mich nicht alles täuscht, nicht unfehlbar.
Die KI ist auch fehlbar
Zum Thema Large Language Models: Eigentlich benötigen wir nicht länger User Researcher, die aus einem Pool von Daten „händisch“ Personas generieren und dabei womöglich Fehler machen. Mit Hilfe generativer KI können wir aus diesen Daten auch ohne den Umweg über UX Research Professionals zu einer Persona kommen. Wie ich in meinem Artikel, der letztes Jahr im Bitkom Digital Design Jahrbuch erschienen ist, nüchtern festgestellt habe: Der Mensch ist fehlbar, die KI auch. Aber: Bei der KI resultiert diese Fehlbarkeit wohl weniger aus einer eigenen Meinung, sondern eher aus der mangelnden Qualität der Daten.
Ein UX Researcher, der implizit den Wunsch hegt, für eine nachhaltigere digitale Welt einzutreten, wird wahrscheinlich unbewusst jene Persona-Eigenschaften betonen, die er oder sie für eine nachhaltige Designentscheidung als besonders wichtig erachtet. Die Persona ist dann also ‚meinungsbehaftet‘ und wir leben leider in Zeiten, in denen bereits eine individuelle Meinung ‚an sich‘ so manchem Anlass zur Sorge gibt.
Doch wer garantiert einem, dass nicht auch KI-generierte Personas ‚meinungsbehaftet‘ sind? Letztendlich gilt vereinfacht: ‚Der Prompt macht die Musik.‘ Ein Prompt, der bereits bei der Generierung von Personas das Thema Nachhaltigkeit einfließen lässt, wird dieses Thema natürlich auch im Output berücksichtigen oder sogar verstärken.
Das BOSCH Experiment
Mit Centigrade durften wir im letzten Jahr ein hochspannendes Experiment durchführen. Wir wurden von Bosch eingeladen, einen ganzen Nachmittag lang deren großes Inhouse-Designerteam mit einem Workshop zu generativer KI und Design zu leiten und zu moderieren. Dazu haben wir eine Software genutzt, die in der Lage ist, mithilfe von KI brauchbare Personas zu erstellen – nämlich LeanScope AI. Zusammen mit Centigrade haben wir diese zu einem Kioskmodus umgebaut und mit Unterstützung unseres Einrichtungspartners NUILAND in eine Art Fahrkartenautomaten integriert. Statt Tickets spuckte dieser Automat dann Persona-Poster aus. Anschließend haben wir die Designer*innen in sechs Gruppen zu je zehn Teilnehmenden aufgeteilt. Jede Gruppe durfte sich eine eigene Persona generieren, um ein Bosch-Produkt ihrer Wahl vor dem Hintergrund der GenAI-Welle neu zu denken.
Und nun zum Twist: Was die Teilnehmenden nicht wussten, war, dass wir LeanScope nicht nur optisch in einen Kioskmodus verwandelt hatten, sondern dass wir auch die Prompts, die für die Generierung der Personas zuständig sind, ordentlich modifiziert haben. Wir setzten quasi einen Masterprompt darüber, welcher festlegte, dass jede Persona, unabhängig von ihrer Rolle, eine nachhaltige Prägung erhielt. Gab man „Elektriker“ ein, so wurde eine Persona generiert, die es frustrierend fand, alte, noch funktionsfähige Kabel wegzuwerfen. Ging es um „Vampir“, dann entstand eine Persona, die davon gefrustet war, dass sie eigentlich in Frieden mit allen Kreaturen der Welt koexistieren möchte, dabei jedoch ihr Verlangen nach Blut nicht ignorieren kann. Immerhin trinkt ein nachhaltiger Vampir nicht mehr Blut, als er zum Überleben benötigt. Beruhigend, nicht wahr?
Aber zurück zu BOSCH: eine Gruppe hatte die Idee, einen BOSCH Toaster ins moderne KI Zeitalter zu überführen. Als Rolle gaben Sie ein „Familienvater mit … Kindern“. Daraus resultierte folgende Persona:
Die Persona macht das Design
Aufgrund des modifizierten Masterprompts war der Familienvater natürlich frustriert darüber, morgens viel Toast wegwerfen zu müssen, weil er vor dem Hintergrund der vielen anderen Aufgaben beim Frühstückmachen öfter mal abgelenkt ist. Durch die verschiedenen Bedürfnisse seiner Kinder (von labberig bis superkross) kommt es vor, dass er sich mit den Einstellungen vertut und in der Eile der eine oder andere Toast als Brikett aus dem Toaster kommt, den er dann kaum übers Herz bringt, in den Müll zu werfen.
Ihr könnt euch vorstellen, wie sich diese Gruppen von jungen Designer*innen dem Problem genähert haben. Weder wurde ein schnellerer noch ein größerer Toaster beim Brainstorming in Betracht gezogen. Es lag auf der Hand: Der Toaster musste mit allen gestalterischen Mitteln davon abgehalten werden, schwarzen Toast zu produzieren. Die Idee eines eingebauten Helligkeitssensors, verbunden mit einer Abschaltautomatik, war also schon fast ein „No-brainer“.
Das, was wir damals bei Bosch gemacht haben, war vielleicht alles andere als Mainstream und hat natürlich einiges an Überraschung und Verwunderung hervorgerufen. Aber jetzt, nur wenige Monate später, ist die Idee, Personas mit Hilfe von KI zu erzeugen und mit diesen zu interagieren, greifbarer denn je.
Die Rolle des „guten User Research“
Mit unserem Experiment kamen auch ethische Fragen auf: Ist es in Ordnung, KI-generierte Personas durch „meinungsbehaftete“ Master-Prompts zu beeinflussen, die lediglich mit „gutem Willen“ und dem ultimativen Ziel, den Planeten zu retten, begründet werden? Meiner Meinung nach war das, was wir taten, reines „Storytelling“ mit Proto-Personas, um Inspiration für Design-Thinking-Workshops zu fördern. Dieser Ansatz kam nicht einmal annähernd an eine valide Persona-Erstellung heran, die von einer angemessenen Nutzerforschung begleitet wird. Und das haben wir den Workshop-Teilnehmenden natürlich auch so mitgeteilt, um volle Transparenz zu schaffen.
Ich bin der Überzeugung, dass jetzt, wo KI in der Lage ist, empathiefördernde und dialogfähige Personas zu erstellen, Nutzerforschung wichtiger denn je ist. Alles, was von der KI generiert wird, muss mit tatsächlichen Erkenntnissen aus Interviews oder Feldstudien mit echten Nutzenden untermauert werden. Auf diese Weise können falsche KI-Annahmen falsifiziert und richtige KI-Annahmen gestärkt werden.
Nun könnte man einwenden, dass die Erkenntnisse aus der Nutzerforschung so umfangreich und komplex sind, dass sie nicht in einer einzigen Eingabeaufforderung verarbeitet werden können. Das ist teilweise wahr. Es gibt jedoch Hoffnung, dank einer Technik namens „Retrieval Augmented Generation“.
Retrieval Augmented Generation
Für diejenigen, die noch nicht von RAG gehört haben: Es handelt sich um einen Ansatz, bei dem das zugrundeliegende Large Language Model (LLM) nicht verändert wird, um es mit eigenem Wissen anzureichern. Stattdessen lädt man beispielsweise eine Wissensbibliothek in Form von PDF-Dokumenten hoch, aus denen dann Embeddings berechnet werden. Anschließend schaut man in den berechneten Embeddings nach, welcher Textanteil die passende Antwort auf den gegebenen Prompt liefern könnte.
Der Playground für die GPTs bietet daher genau das: Neben den Instructions, in denen man beschreibt, wie der eigene Assistent agieren soll, kann man beliebige Dokumente in der Sektion „Retrieval“ hochladen. Auf diese Weise kann das eigene Wissen angereichert werden, das über das 8.000 Zeichenlimit des Instruction-Textfeldes hinausgeht.
Sobald ich beispielsweise unseren PFUX frage, in welcher Folge des Podcasts Catharina und ich am lautesten gelacht haben, dauert die Antwort etwas länger. Denn die Dokumente werden erst hinsichtlich ihrer Embeddings überprüft, und das dauert eben seine Zeit.
User Research Erkenntnisse nutzen
Halten wir fest: UX-Research-Ergebnisse und Sentiments können wir über Retrievals einpflegen und analysieren, aber das „Act as“ muss in den Instructions initiiert werden. Dazu schulde ich noch ein Beispiel. Lassen wir das Beispiel des Familienvaters, der es hasst, verbrannten Toast wegschmeißen zu müssen, nicht außer Acht.
Unsere Persona hatte auf ihrem Steckbrief stehen: „Mag es nicht, verbrannten Toast wegzuwerfen.“ Unabhängig davon, ob dies auf Tatsachen und gründlichem User Research beruht, ist dieser Satz für eine Verstärkung der Empathie in meinen Augen zu schwach. Ein Design-Professional mag es zwar gewohnt sein, sich in einen solchen Satz hineinzudenken und hat vielleicht sogar bereits innere Bilder im Kopf, die ihm vorführen, wie der arme Familienvater morgens gestresst in der Küche steht und verzweifelt versucht, die brikettartigen Toasts von ihrem schwarzen Mantel zu befreien. Vielleicht hört er sogar das kratzende Schaben im inneren Ohr.
Um diese starke Form der Perspektivübernahme auch Menschen ohne Routine in diesem Bereich zu ermöglichen, betreten wir das Feld des „Storytellings“ – und damit auch der Übertreibung und der Antizipation.
Disney’s Illusion of Life
Mein allererster Vortrag in der UX-Branche beschäftigte sich mit dem Thema Motion Design und seiner Bedeutung für die Steigerung von Engagement und Joy of Use. Schon damals begegnete mir Disneys „Illusion of Life“, ein Buch, das sich mit der Frage beschäftigt, wie man Menschen dazu befähigen kann, möglichst große Empathie mit fiktionalen Charakteren zu entwickeln. Wenn ich „Bambi“ sage, treibt es manchen Zuhörenden heute noch, fast 20 Jahre später, die Tränen in die Augen.
Auch hier könnte man argumentieren: Einen fiktionalen Charakter zu erschaffen, um dann echte Gefühle beim Publikum zu provozieren, ist eine Vortäuschung falscher Tatsachen, bei der der Zweck – also mehr Einnahmen an der Kinokasse – die Mittel – professionelle Empathieverstärkung – heiligt. Der große Unterschied ist jedoch, dass von vornherein klar ist, es handelt sich um eine fiktive Figur. Keiner muss Bambi schauen; es handelt sich also um einen selbstbestimmten Akt des Zuschauenden – man schaut quasi auf eigenes Empathie-Risiko hin.
Kritischer wäre es, wenn behauptet würde, die dargestellte Person sei nach einem authentischen Vorbild erschaffen worden, dem dann aber gar nicht so ist, oder wenn die Storytelling-Mittel so übertrieben eingesetzt werden, dass es sich um eine grotesk verzerrte Karikatur der authentischen Figur handelt.
Das “Show, don’t tell” Prinzip
Übertragen auf die Welt der Sprache ist ein Prinzip aus „Illusion of Life“ das „Show, don’t tell“-Prinzip. Statt die Frustrationen und Motivationen der dargestellten Figur bis ins Detail aufzulisten, beschreibt man besser die Auswirkungen dieser Gefühle. Visuell kann man sich hier natürlich der Übertreibung in Mimik und Gestik bedienen. Auf rein sprachlicher Ebene lohnt es sich mehr, die innere Stimme der Persona niederzuschreiben und ChatGPT in den Instructions explizit mitzugeben, dass es das „Show, don’t tell“-Prinzip anwenden soll.
Mit dieser Änderung in den Anweisungen wird unser Vater, der nach seinem größten Frust gefragt wird, nicht mehr einfach antworten …
„Ich bin frustriert, wenn mein Toast verbrennt.“
sondern, erstaunlicherweise, mit einer ganzen Geschichte, die man nachempfinden kann:
„Ich stand in der Küche und starrte auf den Toast, der schwarz geworden war und aus dem Toaster sprang. Der Geruch von verbranntem Brot erfüllte den Raum, ein Geruch, der sich wie eine Niederlage anfühlte. Nicht schon wieder, dachte ich, als ich den Toast aus dem Toaster zog. Meine Finger zitterten leicht vor Erschöpfung – Sie wissen ja, die Nächte sind kurz und die Tage lang, wenn man sieben Kinder im Haus hat.“
Fazit
Ja, KI eignet sich sehr gut als Empathieverstärker und kann optimal mit der Persona-Methode kombiniert werden. Ob es sich bei der Anwendung um die Vortäuschung falscher Tatsachen handelt, hängt stark davon ab, welche ‚Source of Truth‘ herangezogen wird. Viel wichtiger ist es, die Quelle und die Einstufung der Wahrhaftigkeit transparent zu benennen – so, wie es ein Film tunlichst nicht vorzugeben sollte, auf einer wahren Geschichte zu basieren, wenn dies nicht zutrifft. Zudem muss durch gute Nutzerforschung jederzeit herausgefunden werden, welche Annahmen über die tatsächlichen Nutzenden falsch und welche richtig sind, damit aus riskanten Proto-Personas valide Personas werden.
Für weitere psychologische Details und Forschungserkenntnisse zu diesem faszinierenden Thema empfehle ich den Blogbeitrag „Kann KI unsere Empathie gegenüber Nutzern erhöhen“ meiner Kollegin Carla. Cheers!
Wir haben Dein Interesse geweckt? Schau Dir unsere Leistungen an!