Aus dem Unterricht des CAS Digital Finance mit Herbert Bucheli (Aduno) und Gian Reto à Porta (Contovista) berichtet Stefan Lutziger. In der gemeinsamen Session gehen die Co-Dozenten auf Data Analytics ein und zeigen unter anderem anhand einer Personal Finance Management Lösung konkrete Anwendungsbeispiele im Banking auf.

In a Nutshell:Data

Daten lassen sich nutzen, um Probleme systematisch zu lösen. Die Fähigkeit, den Rohstoff Daten korrekt auswerten und wirkungsvoll nutzen zu können, ist ein strategisches Asset. Why now in Banking? Sinkende Margen, verfügbare Processing Power, Banken besitzen wertvolle Daten und geniessen das Vertrauen der Kunden. Zudem steigt die Erwartung von Kundinnen bezüglich relevanter Ansprache. Der Tipping Point scheint erreicht zu sein.

Datafication ist ein allgegenwärtiges Phänomen. Es werden stetig mehr Daten gesammelt und verarbeitet. Dabei ist die Analyse von Huge Data, Big Data, Smart Data oder einfach Daten nichts Neues. Bereits die Karte von Dr. John Snow mit den Anhäufungen der Todesfälle bei der Cholera-Epidemie in London 1854 half, faktenbasiert Zusammenhänge zu verstehen. Dennoch sind verschiedene Teilbereiche von Data und Analytics 2015 auf dem Hype Cycle for Emerging Technologies von Gartner prominent vertreten. Hintergrund sind einmal mehr die sich bietenden Möglichkeiten aus exponentieller Entwicklung der Rechenleistung (Moore’s Law), die explodierende Zahl verfügbarer Sensoren (IoT) und der Zerfall der Kosten für Speicherkapazität.

Alsbayes Ansatzpunkt für Data Analytics dient das Bayes-Theorem. Beschrieben wird darin das Rechnen mit bedingten Wahrscheinlichkeiten und besonders die Umkehrung von Schlussfolgerungen. Das Konzept basiert vereinfacht darauf, dass unsere Welt zwar chaotisch ist, aber doch Regelmässigkeiten bestehen. Dies erlaubt, exemplarisch aus vergangenen Werten die Zukunft zu prognostizieren. Werden Daten verschiedener Quellen miteinander verknüpft und angereichert, können daraus Profile erstellt oder Markttrends abgelesen werden. Die wichtigsten Fragen, welche in diesem Zusammenhang gestellt werden müssen, sind:

  • What is the business case?
  • Do we have all data accessible today?
  • Is an implementation feasible?
  • Are there legal issues or reputation risks?
  • Value of business case for client and bank?

Die Dozenten legen dar, dass dies nicht einfach eine Toolbeschaffung ist, sondern dafür ein ganzheitliches Framework aus drei Teilen notwendig ist. What it takes to be successful in Data Analytics: Management, Organisation und systematisches Lernen.

Management (Culture, People Management, Partners & Tools)

Es beginnt mit einem klaren Mindset «know that it is important» und einer Kultur, welche anstrebt, Entscheide auf faktenbasierten Grundlagen zu treffen. Das heisst auch, bereit zu sein, in der Folge entsprechend zu handeln. Analytics braucht besondere Skills, und die richtigen Talente zu finden ist nicht einfach. Daher gilt es, attraktive Rahmenbedingungen zu schaffen und/oder mit Partnern zusammenzuarbeiten. Und nebst geeigneten Tools und Infrastrukturen ist es wichtig, das Rohmaterial, also die Daten, zu besitzen und für eine hohe Datensicherheit zu sorgen. Es ist sicherzustellen, dass damit vertrauensvoll und transparent umgegangen wird. Dazu gehört die Einholung der Einwilligung durch den Kunden. Er soll auch steuern können, inwiefern die Daten über ihn bearbeitet werden oder nicht.

Organisation (Embedding)

Analytics benötigt zwar IT, ist aber kein Thema für die IT-Abteilung. Data Analytics gehört künftig zum Kernbusiness. Dies zeigt sich auch darin, dass ein Team nebst Data Analytic Skills immer auch Domain Expert Knowledge benötigt. Es gilt, diese beiden Kompetenzen sinnvoll für die jeweiligen Unternehmen zu verknüpfen und an geeigneter Stelle einzugliedern.

Systematisches Lernen (Learning from Data)

Spannende Resultate ergeben sich oft aus der Kombination von verschiedenen Informationen. Eine Übersicht über die offensichtlich den Banken zur Verfügung stehenden Datenvektoren zeigt die nachfolgende 360-Grad-Darstellung sehr schön auf:

datainspirationbyaduno

Oft ist es mit heutiger Technologie möglich, Daten direkt zu verwenden und auf ein Sampling zu verzichten. Vorsicht: Daten sind grundsätzlich biased, aber die gute Nachricht ist, dass bei genügender Grösse des Datasets dieses Problem lösbar ist. Beispiel zur Veranschaulichung: Je mehr Sensoren, desto besser wird das Resultat. Denn damit können Ausfälle oder Störungen einzelner Sensoren erkannt und vom Algorithmus besser herausgerechnet werden, als wenn nur Daten von wenigen Sensoren vorliegen.

Im Grundkonzept eines lernenden Systems geht es darum, anhand von Dateninput eine Vorhersage zu machen, also Zusammenhänge (Korrelationen) zu erkennen. Diese Vorhersagen werden anschliessend mit beobachteten Entwicklungen verglichen. Zur Verbesserung des Systems kann das Fehlersignal des lernenden System gespiegelt werden, damit der Algorithmus des Systems sich im Zeitverlauf verbessern kann. Die wichtigsten Techniken für das Modellieren von Daten lassen sich in supervised Learning (Klassifikation und Regression) und unsupervised Learning (Clustering und Anomalien) unterteilen.

Wichtig ist, zu verstehen, dass wir so zwar Korrelationen erkennen können, diese aber noch keinen direkten Rückschluss auf die Kausalität ermöglichen.

Betty Bossy für den guten Dateneintopf

Damit sich zufällige Effekte erkennen lassen, ist es wichtig, das Design von Experimenten korrekt aufzusetzen. Es wird nahegelegt, innerhalb des Zielsegments jeweils die drei Gruppen «Scoreoptimiert», «Best Practice» und «Random» zu definieren sowie eine «Null Gruppe». Mit diesem Setup kann später der Erfolg, also die Validität des Modells überprüft werden. Startpunkt ist dann stets das Laden von Daten aus verschiedenen Datenquellen. Anschliessend werden diese reduziert, transformiert und bereinigt. Im nächsten Schritt werden Modelle gebaut, optimiert, evaluiert und schliesslich ausgerollt. Der schlagende Vorteil eines systematischen Approachs gegenüber dem traditionellen «Best Practice»-Ansatz ist, dass ein lernendes System sich aufgrund der Erkenntnisse stetig verbessern kann.

Was hat die Kundin davon?

Ein schönes Praxisbeispiel ist die vorgestellte Personal Finance Management Lösung von Contavista. Grundidee hierzu war es, den altbewährten Kontoauszug samt Kreditkartenrechnung mit Insights zu erweitern. Dabei werden die Transaktionen mit Metadaten wie Merchants, Ausgabenkategorie, Geo-Infomationen, einmalige/wiederkehrende Position oder Infos der Bank angereichert und dem Kunden zur Nachbearbeitung und Auswertung zur Verfügung gestellt. Die dargelegten Zahlen legen nahe, dass Kunden dies schätzen und nutzen. Doch nicht alle Kunden möchten gläsern sein. Daher ist es wichtig, die Zustimmung für die Datennutzung vom Kundinnen vorgängig einzuholen und auch alternative Varianten zur Datenverarbeitung anzubieten: Datensicherheit und Privatsphäre werden in Zukunft bestimmt noch an Gewicht zulegen.

Und was die Bank?

Der Satz «Ist das Produkt kostenlos, ist der Nutzer das Produkt» bringt es auf den Punkt. Durch die Anreicherung und clevere Verknüpfung von Daten aus verschiedenen Quellen erhalten diese eine ganz neue Qualität. Dieser Schatz kann mit Data Analytics genutzt werden. Wie sieht das Kundenprofil aus: Wo ist er wann unterwegs, wie sehen seine Ausgabepräferenzen aus, wie preissensitiv ist der Kunde, wie wichtig sind ihm Prestige, Genuss, Sport, Familie oder Convenience? Wie regelmässig kauft er online ein? Und so weiter. Die Möglichkeiten sind immens. Naheliegende Anwendungsbereiche im Banking sind eine noch bessere Klassifikation des Risikos für die Kreditvergabe, die Prognose einer Kundenabwanderung oder das Potenzial für Up-Cross-Selling, die Erkennung von Anomalien aus Fraud, Abweichungen zum Anlageadvice, aber auch relevante Fehler (internes Kontrollsystem) oder auch die individuelle Segmentierung der Kundin für eine gezielte Ansprache im Marketing.

Die Big 5 (Apple, Microsoft, Facebook, Amazon, Google) haben es verstanden, durch Nutzung von Daten die Unternehmenswerte von Grossbanken, Industrie- oder Pharmariesen zu überflügeln. Es ist die Zeit gekommen, dass auch Banken diesem Rohstoff den gebührenden Stellenwert einräumen und ein geeignetes Framework aufsetzen, und innovative FinTechs können sie dabei unterstützen. Also, lesen Sie noch oder analysieren Sie Ihre Daten schon?