Wachstumsstrategien im Wealth Management: Der hybride Ansatz mit LLM

camunda llm agent
Im folgenden Artikel schauen wir uns eine – natürlich stark vereinfachte und anonymisierte – konkrete Anwendung von LLM-Modellen mit Reasoning an, die bei der Beantwortung von Kundenanfragen zu (in unserem Beispiel) Orderausführungen unterstützen. Ziel ist es, den Level-1 Support stark zu entlasten, bei gleichzeitig steigender Kundenzufriedenheit und -bindung.

Warum zeigen wir euch das?

Im vorherigen Artikel haben wir drei mögliche strategische Ausrichtungen für das Wealth Management beleuchtet: Wachstum durch M&A, das Hybridmodell und den Aufbau von WealthTech. Im Feedback wurde um konkrete Beispiele zur Veranschaulichung gebeten. Natürlich können wir nicht vollständig ins Detail gehen, aber ein kleiner Teil des Projekts bzw. eine Ausprägung, lässt sich hier präsentieren.

Doch was war das Ausgangsproblem in unserem Beispiel?

Täglich erreichen einen Anbieter viele Supporttickets mit demselben Zweck: Kunden wünschen eine Auskunft darüber, warum eine Kauforder zu einem höheren Kurs oder eine Verkaufsorder zu einem geringeren Kurswert, als in der App angezeigt, ausgeführt wurde.

Die häufigste Antwort in fünf Wörtern: „Sie haben den Spread übersehen.“

Eine solche Antwort kann man seinen Kunden so selbstverständlich geben – sie ist schließlich nicht falsch. Doch da der Anbieter Wert auf eine Stärkung der Kundenbeziehung bei jedem direkten Kontakt legt, sollte die Antwort vielleicht ein wenig ausführlich sein.

Welche Punkte gibt es zu beachten?

Den wichtigsten Punkt, die Kundenzufriedenheit und -bindung zu fokussieren, haben wir bereits genannt. Doch würde eine ausführliche und qualitativ hochwertige Antwort, die gleichzeitig ein wenig Edukation enthält, die Supportmitarbeiter zeitlich stark binden. Doch – bei aller Fairness – bei Depotführungsgebühren von 0 EUR pro Monat und minimalen Transaktionskosten ist dies für das Unternehmen schlichtweg leider nicht möglich.

Klassisches Outsourcing würde aufgrund von Bedenken bezüglich Datensicherheit sowie der Qualität von Antworten nur höchst ungerne durchgeführt werden. Daher wurden die üblichen Maßnahmen wie Ticketsysteme, Vorfilterung der Zuständigkeit und Textbausteine bereits umgesetzt.

Wie ging es weiter?

Es wurde also nach einer Möglichkeit gesucht, die Effizienz zu steigern und gleichzeitig die Qualität der Antworten – falls möglich – zu verbessern. Man versuchte zudem, dies nicht durch Mehrbelastung der Mitarbeiter zu erreichen, da kein Budget für zusätzliches Personal vorhanden war.

Somit setzte sich der Gedanke „Irgendwie muss das technisch doch lösbar sein“ schließlich durch und „ob das nicht irgendwie mit KI geht“ wurde projektiert.

Wie sieht die Lösung aus?

Man hat sich durch die starken Verbesserungen von LLM-Modellen zugetraut, neben einer ersten und einfachen Aufbereitung von Tickets für kleinere Usecases, auch eine automatische Datenbeschaffung aus dem eigenen Bestand anzubinden und eine Antwort vorformulieren zu lassen. Mitarbeiter sehen bei der Ticketbearbeitung die ursprüngliche Anfrage, wie das LLM die Anfrage verstanden hat, welche Daten es beschafft hat und eben die vorformulierte Antwort.

Beschließen die Mitarbeiter, dass die Anfrage vom LLM richtig verstanden wurde, korrekte Daten aus dem System gezogen wurden und dass die vom LLM vorgeschlagene Antwort gut ist, wird diese bestätigt und automatisch an den Kunden verschickt. Alternativ können einzelne Schritte wiederholt oder manuell angepasst werden.

Die Zeitersparnis lag in den besten Fällen bei etwa 95 % und die Rückmeldungen der Kunden fielen mit 4,67 von 5,0 deutlich besser aus als der vorherige Durchschnitt.

Welche Auswirkungen hat ein solches Vorgehen?

Neben der offensichtlichen Effizienzsteigerung waren auch die Rückmeldungen der Mitarbeitenden äußerst positiv. Simple und repetitive Anfragen werden Schritt für Schritt vom LLM verarbeitet, wodurch deutlich mehr Zeit für Tickets bleibt, die qualitativ zu anspruchsvoll für das LLM sind. Der Fokus auf qualitativ hochwertige Kundenanfragen führt auf lange Sicht vermutlich auch zu steigender Mitarbeiterzufriedenheit, da sich die Mitarbeiter mit ihrem Knowhow gefordert und gleichzeitig wertgeschätzte fühlen. Daten hierzu, die über die Pilotphase hinausgehen, liegen (noch) nicht vor.

Und wie sahen die nötigen Schritte aus?

Das gewählte Modell wurde für den vorgestellten Zweck keinem Finetuning unterzogen; stattdessen entschied man sich für eine Vektordatenbank mit vergangenen Tickets und deren Antworten als Grundlage. Außerdem wurden Schnittstellen (Agents) entwickelt, die per API dem LLM ermöglichen, auf Datenbanken zuzugreifen, um die nötigen Daten aus dem System zur Beantwortung zu erhalten.

Die Auswertung und Weiterverarbeitung der gewonnen Erkenntnisse laufen aktuell noch.

Wachstumsstrategien im Wealth Management: Der hybride Ansatz mit LLM

Inhaltsverzeichnis

Über den Autor
alexander stankoswki
Alexander Stankowski
Consultant

Alexander Stankowski ist ein erfahrener Consultant mit ausgeprägter Expertise in Wealth Management, Künstlicher Intelligenz, Large Language Model Operations und Digitalisierung. Mit einem tiefen technischen Verständnis kombiniert er agile Projektmanagement-Methoden und strategische Beratung, um zukunftsweisende digitale Lösungen zu entwickeln. Sein breites Know-how in IT und Finanzen ermöglicht es ihm, innovative Ansätze zu verfolgen und Unternehmen bei der Optimierung ihrer digitalen Prozesse nachhaltig zu unterstützen.

Nichts mehr verpassen
Mehr lesen
Fachbeitrag
Automobilfinanzierung durch Save Now, Buy Later
Banking
In einer Zeit, in der digitale Innovationen traditionelle Finanzierungsmodelle herausfordern, könnte ein neues Konzept aus dem Embedded Finance Bereich die...
Fachbeitrag
Bausparen goes Embedded Investing mit Save Now, Buy Later
Banking
Von der klassischen Bausparkasse zum hybrides Modell für die Immobilienfinanzierung....
Fachbeitrag
Wie baut man den nächsten Trade Republic Attacker? - Erfahrungen aus unseren Workshops.
Banking
Wie baut man den nächsten Trade Republic Attacker? - Erfahrungen aus unseren Workshops....

Aus digit.cologne wird finwyz

AI
Banking
Crypto

2018 starteten wir als digit.cologne in Köln und mit branchen-übergreifenden Beratungsangeboten.

finwyz konzentriert sich auf Financial Services und entwickelt digitale Geschäftsmodelle. Wir greifen die Chancen neuer Technologien wie AI oder DLT und geänderte Kundenerwartungen auf und erreichen Erlössteigerungen und Kostenreduzierungen.

finwyz – banking beyond the hype

Unsere finwyz-Experts brennen für digitale Finanzthemen, denken und handeln digital1st!

Aktuelle Themen wie AI-Agents, Tokenisierung von Vermögenswerten oder Embedded Finance zeigen deutlich, dass sich die Art und Weise, wie Kunden mit Finanzen interagieren immer schneller ändert.

finwyz erarbeitet weise Entscheidungen (wyz = wise) für die Financial Services Branche.

Moritz Braun
Moritz Braun
Consultant
alexander stankoswki
Alexander Stankowski
Consultant
Joshua Olbrich
Consultant
Tobias Ehret
Geschäftsführer
pascal schade
Pascal Schade
Consultant