Datenvermögen sinnvoll nutzen: Worum geht es?
Die Verarbeitung von Daten zu Informationen macht einen wesentlichen Anteil der Wertschöpfung für Versicherungen aus. In der Versicherungstechnik hat man darin jahrhundertelange Erfahrung und Methodik. Bereits im 18. Jahrhundert wurden Sterbetafeln durch Vordenker wie Robert Wallace und Alexander Webster für ihren Scottish Ministers' Widows' Fund analysiert. Außerhalb des versicherungstechnischen Kerngeschäfts ist die Nutzung von Daten jedoch noch wenig etabliert.
Aufgrund dieses Rückstands haben die Versicherer im DACH-Raum in den letzten Jahren massiv in die Generierung und Erfassung von Prozessdaten investiert, vor allem mit der Methodik des Process Mining. Process Mining ist der „missing link” zwischen modellbasierter Prozessanalyse und datenorientierter Analysetechnik. Jede Verarbeitung in der Systemlandschaft einer Versicherung hinterlässt digitale Spuren, welche die tatsächliche – nicht die modellierte – Prozessbearbeitung abbilden. Für eine, nach Datenvorbereitung, automatisierte Analyse liegen Versicherern eine Vielzahl von strukturierten Daten über die gesamte End-to-End-Prozesskette vor. Nach der logischen Verknüpfung operativer Daten aus unterschiedlichen Quellsystemen werden die tatsächlich gelebten Geschäftsprozesse ausgewertet und mit den relevanten KPIs visualisiert. Erst jetzt erkennt man die Menge der vom Standard abweichenden Prozessvarianten und kann Optimierungsmaßnahmen ableiten.
Nun die schlechte Nachricht: Viele Versicherer ziehen bisher deutlich zu wenig echten Mehrwert aus ihrem Schatz an verfügbaren Daten. Nur manche Versicherer generieren aus den gesammelten Daten echte Transparenz über ihre Prozesse, aus der dann konkrete Maßnahmen abgeleitet, umgesetzt und gesteuert werden könnten. Wir sind überzeugt, dass ein Entscheider, der sich eine fakten- statt eine meinungsbasierte Grundlage für seine Entscheidungen aufbauen will, toolgestütztes Process Mining nutzen muss.
The Tool is a Fool: Woran liegt das?
Oft war die initiale Umsetzung von Process Mining das Resultat eines strategischen Kurzschlusses, wie er schon vor über 20 Jahren beim ersten Einsatz von CRM-Tools passiert ist. Nachdem Verantwortliche im Versicherungsunternehmen von den Möglichkeiten und dem potenziellen Nutzen einer Software erfahren haben, wird ein entsprechendes Produkt erworben, kurzfristig installiert und in Betrieb genommen. Oft ist dies getrieben von Wettbewerbsdruck und der Angst, etwas Wesentliches zu verpassen. Das Tool fängt auch bald an, ein ansehnliches Datenvermögen anzusammeln – allerdings relativ isoliert vom Rest der Organisation. Denn es wurden weder ein gesamtheitliches Zielbild noch ein konkret durchdachtes und spezifiziertes Operating Model oder eine umfassende Verankerung im Gesamtunternehmen definiert. Anders formuliert: Es werden nicht die richtigen Fragen gestellt, damit ein Tool brauchbare Ergebnisse liefert.
Immer wieder laufen Initiativen im Bereich Process Mining ins Leere, weil zwar Tools installiert und Metriken aufgesetzt, Daten ausgewertet und an zentraler Stelle berichtet werden – aber nicht die richtigen Maßnahmen abgeleitet und umgesetzt werden können. Oft sitzen auch nicht alle relevanten Bereiche (wie Schadenbearbeitung oder Policierung) mit am „Data-Mining-Tisch“ und die Analysten sind die Prediger in der Wüste. Die Entscheider aus den betroffenen Bereichen führen weiterhin ihre Planung und Steuerung nach bekannten Metriken und Logiken durch und sind nicht empfänglich für Input aus den Analysen. Damit bleibt großes Potenzial – etwa in Form einer besseren Auslastungssteuerung in der Policierung oder der Identifizierung von Flaschenhälsen in der Schadenbearbeitung – weitgehend ungenutzt.
End-to-End-Prozesse optimieren: Was tun?
Zur Optimierung ihrer End-to-End-Prozesse sollten Versicherer:
- Entscheider der untersuchten Organisationsbereiche mit Process-Mining-Experten zu einem Team zusammenbringen. Dieses optimiert die Prozesse gemeinsam. Unterstützt wird das Team durch ausgewählte Daten- und Systemexperten der Versicherung. Gegebenenfalls sollte das Management Vorgaben für die Teamkoordination machen.
- Ziele in Form von konkreten Ambitionsniveaus im Bereich Operations vorgeben (X Minuten Durchlaufzeit, Y % Dunkelverarbeitung, etc.). Diese Ziele bilden nicht nur den Ausgangspunkt der Analyse, sondern sind vielmehr die Grundlage für die Umsetzung und das Nachhalten der abgeleiteten Maßnahmen. Eine Treiberbaumlogik der Ursache-Wirkungsbeziehungen und die Visualisierung in einem Dashboard ist bei der Steuerung sehr hilfreich. Ebenso hat sich die Verankerung in den Zielsystemen der Entscheider verschiedener Hierarchieebenen bewährt.
- Ein Zielbild bezüglich Datensammlung, Aufbereitung und Nutzung definieren, das
- in das übergreifende Target Operating Model integriert ist und
- es erlaubt, auf das gesetzte Ambitionsniveau hinzuarbeiten. - Konkrete Schritte zur Implementierung des Zielbilds ableiten.
- Das Zielbild Schritt für Schritt nicht nur prozessual, sondern insbesondere auch kulturell im Unternehmen verankern.
- Bei der Umsetzung der Optimierungsmaßnahmen besonderes Augenmerk auf die Auswirkungen auf die Mitarbeiter legen und diese entsprechend sensibilisieren, motivieren und schulen.
Nach unserer Erfahrung sollte in den meisten Fällen mit einem ausgewählten Fachbereich als Pilot gestartet werden, um ein zügiges Erfolgserlebnis zu haben und die Vorteile einer integrierten Lösung klar und quantifiziert aufzuzeigen. Dabei muss der entsprechende Fachbereich früh in die Planung und Ausarbeitung integriert werden, um Kommunikationsprobleme sowie Widerstand in Belegschaft oder Betriebsrat vorzubeugen.
Warum Horváth?
Wir kennen die Versicherungsbranche in all ihren Nuancen und Besonderheiten und haben zudem weitreichende, branchenübergreifende Expertise in allen Bereichen des Prozessmanagements – von Target Operating Model über Process Mining bis hin zur Begleitung von Change-Projekten. Gern unterstützen wir auch Sie auf dem Weg, volle Transparenz zu schaffen sowie konkreten Mehrwert aus den gewonnenen Prozess-Einsichten zu gewinnen.
Krob, B. / Leitzmann, C. / Nuske, T.