Wachstumsstrategien im Wealth Management: Der hybride Ansatz mit LLM

camunda llm agent
Im folgenden Artikel schauen wir uns eine – natürlich stark vereinfachte und anonymisierte – konkrete Anwendung von LLM-Modellen mit Reasoning an, die bei der Beantwortung von Kundenanfragen zu (in unserem Beispiel) Orderausführungen unterstützen. Ziel ist es, den Level-1 Support stark zu entlasten, bei gleichzeitig steigender Kundenzufriedenheit und -bindung.

Warum zeigen wir euch das?

Im vorherigen Artikel haben wir drei mögliche strategische Ausrichtungen für das Wealth Management beleuchtet: Wachstum durch M&A, das Hybridmodell und den Aufbau von WealthTech. Im Feedback wurde um konkrete Beispiele zur Veranschaulichung gebeten. Natürlich können wir nicht vollständig ins Detail gehen, aber ein kleiner Teil des Projekts bzw. eine Ausprägung, lässt sich hier präsentieren.

Doch was war das Ausgangsproblem in unserem Beispiel?

Täglich erreichen einen Anbieter viele Supporttickets mit demselben Zweck: Kunden wünschen eine Auskunft darüber, warum eine Kauforder zu einem höheren Kurs oder eine Verkaufsorder zu einem geringeren Kurswert, als in der App angezeigt, ausgeführt wurde.

Die häufigste Antwort in fünf Wörtern: „Sie haben den Spread übersehen.“

Eine solche Antwort kann man seinen Kunden so selbstverständlich geben – sie ist schließlich nicht falsch. Doch da der Anbieter Wert auf eine Stärkung der Kundenbeziehung bei jedem direkten Kontakt legt, sollte die Antwort vielleicht ein wenig ausführlich sein.

Welche Punkte gibt es zu beachten?

Den wichtigsten Punkt, die Kundenzufriedenheit und -bindung zu fokussieren, haben wir bereits genannt. Doch würde eine ausführliche und qualitativ hochwertige Antwort, die gleichzeitig ein wenig Edukation enthält, die Supportmitarbeiter zeitlich stark binden. Doch – bei aller Fairness – bei Depotführungsgebühren von 0 EUR pro Monat und minimalen Transaktionskosten ist dies für das Unternehmen schlichtweg leider nicht möglich.

Klassisches Outsourcing würde aufgrund von Bedenken bezüglich Datensicherheit sowie der Qualität von Antworten nur höchst ungerne durchgeführt werden. Daher wurden die üblichen Maßnahmen wie Ticketsysteme, Vorfilterung der Zuständigkeit und Textbausteine bereits umgesetzt.

Wie ging es weiter?

Es wurde also nach einer Möglichkeit gesucht, die Effizienz zu steigern und gleichzeitig die Qualität der Antworten – falls möglich – zu verbessern. Man versuchte zudem, dies nicht durch Mehrbelastung der Mitarbeiter zu erreichen, da kein Budget für zusätzliches Personal vorhanden war.

Somit setzte sich der Gedanke „Irgendwie muss das technisch doch lösbar sein“ schließlich durch und „ob das nicht irgendwie mit KI geht“ wurde projektiert.

Wie sieht die Lösung aus?

Man hat sich durch die starken Verbesserungen von LLM-Modellen zugetraut, neben einer ersten und einfachen Aufbereitung von Tickets für kleinere Usecases, auch eine automatische Datenbeschaffung aus dem eigenen Bestand anzubinden und eine Antwort vorformulieren zu lassen. Mitarbeiter sehen bei der Ticketbearbeitung die ursprüngliche Anfrage, wie das LLM die Anfrage verstanden hat, welche Daten es beschafft hat und eben die vorformulierte Antwort.

Beschließen die Mitarbeiter, dass die Anfrage vom LLM richtig verstanden wurde, korrekte Daten aus dem System gezogen wurden und dass die vom LLM vorgeschlagene Antwort gut ist, wird diese bestätigt und automatisch an den Kunden verschickt. Alternativ können einzelne Schritte wiederholt oder manuell angepasst werden.

Die Zeitersparnis lag in den besten Fällen bei etwa 95 % und die Rückmeldungen der Kunden fielen mit 4,67 von 5,0 deutlich besser aus als der vorherige Durchschnitt.

Welche Auswirkungen hat ein solches Vorgehen?

Neben der offensichtlichen Effizienzsteigerung waren auch die Rückmeldungen der Mitarbeitenden äußerst positiv. Simple und repetitive Anfragen werden Schritt für Schritt vom LLM verarbeitet, wodurch deutlich mehr Zeit für Tickets bleibt, die qualitativ zu anspruchsvoll für das LLM sind. Der Fokus auf qualitativ hochwertige Kundenanfragen führt auf lange Sicht vermutlich auch zu steigender Mitarbeiterzufriedenheit, da sich die Mitarbeiter mit ihrem Knowhow gefordert und gleichzeitig wertgeschätzte fühlen. Daten hierzu, die über die Pilotphase hinausgehen, liegen (noch) nicht vor.

Und wie sahen die nötigen Schritte aus?

Das gewählte Modell wurde für den vorgestellten Zweck keinem Finetuning unterzogen; stattdessen entschied man sich für eine Vektordatenbank mit vergangenen Tickets und deren Antworten als Grundlage. Außerdem wurden Schnittstellen (Agents) entwickelt, die per API dem LLM ermöglichen, auf Datenbanken zuzugreifen, um die nötigen Daten aus dem System zur Beantwortung zu erhalten.

Die Auswertung und Weiterverarbeitung der gewonnen Erkenntnisse laufen aktuell noch.

Wachstumsstrategien im Wealth Management: Der hybride Ansatz mit LLM

Inhaltsverzeichnis

Über den Autor
Nichts mehr verpassen
Mehr lesen
Fachbeitrag
Crypto Trading AI Agent für Kucoin - Version 2
AI
Crypto Trading AI Agent für KuCoin – MCP Version
Ich erkläre Schritt für Schritt, wie mehrere n8n-Workflows mit AI Agents – von Sentiment- und Chartanalyse über Analyst- bis Trader-Agent...
Fachbeitrag
GEO für Banken
AI
GEO für Banken: Sichtbar werden in AI Overviews
AI Overviews verändern die Suche: Mit GEO machen Banken Inhalte zitierfähig – für Sichtbarkeit vor dem Klick und mehr qualifizierte...
Fachbeitrag
Banking
Filialsterben beschleunigt sich weiter – 2/3 aller Filialen von Kreditbanken seit 2013 geschlossen
Filialsterben vor allem bei Kreditbanken, knapp 30% der verbliebenen Filialen alleine im letzten Jahr geschlossen....
Wie haben wir getestet?
Über den fw-Score

Mit dem fw-Score wollen wir einen objektiven und nachvollziehbaren Erfüllungsgrad für die Qualität digitaler Lösungen einführen.

Der fw-Score wird auf einer Skala von 0 (schlecht) bis 100 (perfekt) abgetragen und soll so für eine Vergleichbarkeit von digitalen Lösungen stehen.

Nachdem wir in den letzten Jahren eine Vielzahl von Benchmarkings beauftragt und im Kundenauftrag begleitet haben, missfiel uns immer wieder, dass entweder eine Bewertung des Geschäftsmodells oder aber eine UX/UI-Bewertung erfolgte. Nie wurde versucht, die berechtigten wirtschaftlichen Interessen der Bank und die Kundenerwartungen in einem Benchmarking zu untersuchen.

Unser Anspruch und Antritt ist genau das sicherzustellen: Eine ausgewogene Betrachtung der wirtschaftlichen Wirkung für die Bank (Optimierung der Vertriebs- und Prozesskosten, Margenausweitung, usw.) und der Nutzererwartungen. Die wirtschaftliche Wirkung für die Bank bemessen wir im Digitalisierungsgrad und gewichten ihn mit 70%, während wir die Kundenerwartungen mit dem Bedienkomfort bewerten und mit 30% gewichten. Die beiden Kriterien schließen sich selbstverständlich nicht aus und sind auch nicht überschneidungsfrei.

Aus digit.cologne wird finwyz

AI
Banking
Crypto

2018 starteten wir als digit.cologne in Köln und mit branchen-übergreifenden Beratungsangeboten.

finwyz konzentriert sich auf Financial Services und entwickelt digitale Geschäftsmodelle. Wir greifen die Chancen neuer Technologien wie AI oder DLT und geänderte Kundenerwartungen auf und erreichen Erlössteigerungen und Kostenreduzierungen.

finwyz – banking beyond the hype

Unsere finwyz-Experts brennen für digitale Finanzthemen, denken und handeln digital1st!

Aktuelle Themen wie AI-Agents, Tokenisierung von Vermögenswerten oder Embedded Finance zeigen deutlich, dass sich die Art und Weise, wie Kunden mit Finanzen interagieren immer schneller ändert.

finwyz erarbeitet weise Entscheidungen (wyz = wise) für die Financial Services Branche.

Julian Bauer
Julian Bauer
Consultant
Franz-Philipp Westphal
Franz-Philipp Westphal
Consultant
Tobias Ehret
Geschäftsführer
Moritz Braun
Consultant
Joshua Olbrich
Consultant
pascal schade
Pascal Schade
Consultant
alexander stankoswki
Alexander Stankowski
Consultant