Warum zeigen wir euch das?
Im vorherigen Artikel haben wir drei mögliche strategische Ausrichtungen für das Wealth Management beleuchtet: Wachstum durch M&A, das Hybridmodell und den Aufbau von WealthTech. Im Feedback wurde um konkrete Beispiele zur Veranschaulichung gebeten. Natürlich können wir nicht vollständig ins Detail gehen, aber ein kleiner Teil des Projekts bzw. eine Ausprägung, lässt sich hier präsentieren.
Doch was war das Ausgangsproblem in unserem Beispiel?
Täglich erreichen einen Anbieter viele Supporttickets mit demselben Zweck: Kunden wünschen eine Auskunft darüber, warum eine Kauforder zu einem höheren Kurs oder eine Verkaufsorder zu einem geringeren Kurswert, als in der App angezeigt, ausgeführt wurde.
Die häufigste Antwort in fünf Wörtern: „Sie haben den Spread übersehen.“
Eine solche Antwort kann man seinen Kunden so selbstverständlich geben – sie ist schließlich nicht falsch. Doch da der Anbieter Wert auf eine Stärkung der Kundenbeziehung bei jedem direkten Kontakt legt, sollte die Antwort vielleicht ein wenig ausführlich sein.
Welche Punkte gibt es zu beachten?
Den wichtigsten Punkt, die Kundenzufriedenheit und -bindung zu fokussieren, haben wir bereits genannt. Doch würde eine ausführliche und qualitativ hochwertige Antwort, die gleichzeitig ein wenig Edukation enthält, die Supportmitarbeiter zeitlich stark binden. Doch – bei aller Fairness – bei Depotführungsgebühren von 0 EUR pro Monat und minimalen Transaktionskosten ist dies für das Unternehmen schlichtweg leider nicht möglich.
Klassisches Outsourcing würde aufgrund von Bedenken bezüglich Datensicherheit sowie der Qualität von Antworten nur höchst ungerne durchgeführt werden. Daher wurden die üblichen Maßnahmen wie Ticketsysteme, Vorfilterung der Zuständigkeit und Textbausteine bereits umgesetzt.
Wie ging es weiter?
Es wurde also nach einer Möglichkeit gesucht, die Effizienz zu steigern und gleichzeitig die Qualität der Antworten – falls möglich – zu verbessern. Man versuchte zudem, dies nicht durch Mehrbelastung der Mitarbeiter zu erreichen, da kein Budget für zusätzliches Personal vorhanden war.
Somit setzte sich der Gedanke „Irgendwie muss das technisch doch lösbar sein“ schließlich durch und „ob das nicht irgendwie mit KI geht“ wurde projektiert.
Wie sieht die Lösung aus?
Man hat sich durch die starken Verbesserungen von LLM-Modellen zugetraut, neben einer ersten und einfachen Aufbereitung von Tickets für kleinere Usecases, auch eine automatische Datenbeschaffung aus dem eigenen Bestand anzubinden und eine Antwort vorformulieren zu lassen. Mitarbeiter sehen bei der Ticketbearbeitung die ursprüngliche Anfrage, wie das LLM die Anfrage verstanden hat, welche Daten es beschafft hat und eben die vorformulierte Antwort.
Beschließen die Mitarbeiter, dass die Anfrage vom LLM richtig verstanden wurde, korrekte Daten aus dem System gezogen wurden und dass die vom LLM vorgeschlagene Antwort gut ist, wird diese bestätigt und automatisch an den Kunden verschickt. Alternativ können einzelne Schritte wiederholt oder manuell angepasst werden.
Die Zeitersparnis lag in den besten Fällen bei etwa 95 % und die Rückmeldungen der Kunden fielen mit 4,67 von 5,0 deutlich besser aus als der vorherige Durchschnitt.
Welche Auswirkungen hat ein solches Vorgehen?
Neben der offensichtlichen Effizienzsteigerung waren auch die Rückmeldungen der Mitarbeitenden äußerst positiv. Simple und repetitive Anfragen werden Schritt für Schritt vom LLM verarbeitet, wodurch deutlich mehr Zeit für Tickets bleibt, die qualitativ zu anspruchsvoll für das LLM sind. Der Fokus auf qualitativ hochwertige Kundenanfragen führt auf lange Sicht vermutlich auch zu steigender Mitarbeiterzufriedenheit, da sich die Mitarbeiter mit ihrem Knowhow gefordert und gleichzeitig wertgeschätzte fühlen. Daten hierzu, die über die Pilotphase hinausgehen, liegen (noch) nicht vor.
Und wie sahen die nötigen Schritte aus?
Das gewählte Modell wurde für den vorgestellten Zweck keinem Finetuning unterzogen; stattdessen entschied man sich für eine Vektordatenbank mit vergangenen Tickets und deren Antworten als Grundlage. Außerdem wurden Schnittstellen (Agents) entwickelt, die per API dem LLM ermöglichen, auf Datenbanken zuzugreifen, um die nötigen Daten aus dem System zur Beantwortung zu erhalten.
Die Auswertung und Weiterverarbeitung der gewonnen Erkenntnisse laufen aktuell noch.