Process Mining in Kommunen (ProM-Analysen)

Christoph Heck • 26. März 2025

Digitale Prozessanalysen mit Process Mining (Download)



Was ist Process Mining?



Digitale Prozessanalysen mit Spezialsoftware - Process Mining in Kommunen (ProM-Analysen)  

               

Unter Process Mining (Process Mining in Kommunen (ProM-Analysen)) versteht man eine Data Mining-Methodik, die Elemente des Geschäftsprozessmanagements (Busines Process Management) und Data Mining Techniken miteinander verknüpft ("bridging the gap"-Ansatz). )


Mit Hilfe von Process Mining Techniken werden vorhandene Eventlog-Daten aus IT-Systemen extrahiert und analysiert, um Abläufe und Zusammenhänge aufzudecken (discover, deshalb "Process Discovery"), die bei einer herkömmlichen Betrachtung des Verwaltungshandelns nur mit hohem Aufwand oder gar nicht erkannt werden können.


Übergreifend betrachtet kann Process Mining in Kommunen (ProM-Analysen) das Geschäftsprozessverständnis einer Verwaltung bzw. einer Einrichtung auf drei Arten unterstützen:

1. Es hilft, Abläufe (Prozesse) zu identifizieren und dadurch besser zu verstehen (=Process Discovery),
2. Es hilft, Abäufe (Prozesse) zu überprüfen und an Vorschriften oder Änderungen anzupassen (=Process Conformance   
    Checking und Process Compliance) sowie
3. Es hilft, Prozessmängel zu identifizieen und Abläufe (Prozesse) zu verbessern (=Process Enhancement).       


Wie funktioniert Process Mining in Kommunen (ProM-Analysen)?


Auf dem Weg hin zur Erstellung von Bescheiden oder Bearbeitung von Anträgen und Genehmigungsverfahren, die für gewöhnlich als Arbeitsergebnisse aus den Verfahren einer Verwaltung resultieren, entstehen in den nahezu flächendeckend eingesetzten IT-Systemen eine Vielzahl von Daten, darunter auch die sogenannten Log-Dateien (Protokolldateien). Sie verzeichnen, wer, wann, was im IT-System geändert hat.

So berechnet bspw. ein Fachverfahren für die Gewährung von Sozialhilfe nicht nur den Leistungsanspruch der Antragssteller/innen, sondern erzeugt auch die zur Bearbeitung gehörenden Transaktions- und Vorgangsdaten über den Zeitpunkt des Eingangs eines Antrages und den aktuellen Stand der Sachbearbeitung. Diese Informationen werden  von der Software in sogenannten Ereignisprotokollen („Event Logs“) als Log-Dateien gespeichert.
         
Aufgrund solcher Ereignisprotokolle hinterlässt jeder Verwaltungsvorgang im eingesetzten IT-System eine versteckte Spur aus „digitalen Brotkrumen“ in der Datenbank der Software. Diese im Laufe der Zeit aus einer Vielzahl an Verwaltungsvorgängen entstehenden Daten werden im Rahmen des Process Mining aufgegriffen, technisch aufbereitet und mithilfe von leistungsfähigen Algorithmen ausgewertet. Dies ermöglicht eine Analyse der Ereignisprotokolle, aus denen letztlich der tatsächliche Verlauf der Vorgangsbearbeitung rekonstruiert werden kann – man erhält den objektiven Geschäftsprozess zu einer Verwaltungsdienstleistung, der durch Process Mining-Software grafisch dargestellt werden kann (siehe die Abbildung oben).


Process Mining Techniken (Process Mining in Kommunen - ProM-Analysen) extrahieren und transformieren also Log-Dateien, um sie mit Spezialsoftware auf Basis hochentwickelter Algorithmen des Data Mining Umfeldes in nachvollziebare Prozessmodelle umzuwandeln und zu visualisieren. Auf Basis dieser Prozessmodelle werden dann die verschiedenen Prozessanalysen durchgeführt, beispielweise Durchlaufzeitenanalysen, Engpassanalysen und/oder Wartezeitenanalysen. Darauf aufbauend können dann wiederum Kosten- bzw. Kosten-Nutzen-Analysen prozessorientiert durchgeführt und Verbesserungsvorschläge getestet werden (z.B. durch Simulationen).)



Welche Vorteile bietet/-n Process Mining in Kommunen (ProM-Analysen)          

Process Mining in Kommunen (ProM-Analysen) dienen immer der Aufdeckung und Beseitigung von Verstößen, Unwirtschaftlichkeiten und sonstigen Störungen im Geschäftsablauf. Dafür ist es in der Regel erforderlich, Prozesse zu erfassen und visuell und/oder analytisch darzustellen, z.B. durch BPMN-Modelle und Prozess-KPIs (Ermittlung von Durchlaufzeiten, Rework-Quoten, Aktivitätskosten, Varianten, Fehlentscheidungen etc.).


Process Mining in Kommunen (ProM-Analysen) bietet/n in diesem Sinne für Kommunen die Chance, ihr Geschäftsprozessmanagement aufwandsminimal auf- oder auszubauen. Neben der effektiven Nutzung von vorhandenen Prozessdaten ermöglicht Process Mining eine noch faktenbasiertere und damit objektivere Diskussion über das Verwaltungsgeschehen im Zusammenhang mit der aktuellen Aufgabenerledigung.

Process Mining in Kommunen (ProM-Analysen) kann dazu verwendet werden, bestehende Geschäftsprozesse anhand der unterstützend eingesetzten IT-Systeme zu identifizieren und für das menschliche Auge zu visualisieren, soweit bspw. keine Dokumentation der Geschäftsprozesse vorliegt. Wenn und soweit bereits eine Prozessbeschreibung vorliegt, kann mit Process Mining geprüft werden, ob die realen Vorgänge dem Prozessmodell entsprechen oder nicht. Aufwandstreibende Einzelfälle können identifiziert und deren Ursachen noch besser eingeordnet werden.

Der Vorteil ist, dass hierfür keine aufwändigen Prozesserhebungen und -messungen unter Einbindung zahlreicher Organisationseinheiten (die sich zudem untereinander selten einig sind) gebraucht werden. Vielmehr können die notwendigen Untersuchungen im Hintergrund von kleinen Projektteams und auf Grundlage einer retrospektiven Analyse der bestehenden Ist-Datenlage erfolgen (durch Auswertung  der verfügbaren Log-Dateien). 


Sollte es bereits eine Dokumentation der Soll-Prozesse geben, kann diese mit den durch das Process Mining festgestellten tatsächlichen Abläufen abgeglichen werden, die sich aus der Auswertung von Daten aus der eingesetzten Fachanwendung ergeben. Die Einhaltung von gesetzlichen oder internen Vorgaben kann visualisiert werden, Engpässe und Wartezeiten werden identifiziert und bewertet.

So können bspw. auch Compliance-Verstöße (z.B. bewusste Kontrollumgehungen um Dritten Vorteile zu gewähren, sog. Deviation-Analyse), verbotene Netzwerke (SNA-Analysen) oder erfundene Geschäftsvorfälle auf Basis tatsächlicher Prozessdaten schneller aufgedeckt werden (Alignment-Analysen) . Dieser Aspekt ist insbesondere für Rechnungsprüfer:innen von Vorteil. 



Welche Voraussetzungen gelten für das Process Mining?


Jede Datenanalyse benötigt hochwertige nützliche Daten. So auch das Process Mining. Da die Daten in den Kommunen bekanntlich stark verteilt vorgehalten werden, z.B. in Dokumentenmanagmentsystemen, in Vorsystemen bzw. Fachanwendungen und schließlich in den zentralen ERP-Systemen für das Haushalts-, Kassen- und Rechnungswesen und dort in Haupt- und Nebenbüchern, sind die relevanten Datenquellen und der verfügbare Datenbestand vorab zu klären.


Es ist in der Regel eine Voruntersuchung oder eine förmliche Dateninventur erforderlich, um die vorhandenen relevanten Datenbestände und deren tatsächliche Verfügbarkeit zu klären. Für das Process Management werden drei Arten von Daten besonders dringend benötigt:


  • Fallidentifikationsnummern (sog. "case-identifiers") zur eindeutigen Identifikation des einzelnen "Falles" im Sinne der ProM-Analyse
  • Aktivitätenlisten (activities) zur eindeutigen Zuordnung einer Aktivität (=Inhalt des Änderungseintrags im IT-System) zum Fall sowie
  • einheitliche Zeitstempel in einem bestimmten Format, idealerweise <tt.mm.yyyy hh:mm:ss>.


Hinzu kommen weitere Attribute wie Bearbeiter (user), Organisationseinheit, Vorgangsdatenbank, Sach- oder Personenkonten u.Ä.


Zu den Gelingensfaktoren des Projektmanagements zählen in jedem Falle eine hinreichende zeitliche Verfügbarkeit sachkundiger Personen auf den unterschiedlichen Perspektivebenen, z.B. Verwaltungsleitung und ggf. Ratsgremien (als Adressaten), Finanzen, Fachbereich und Rechenzentrum sowie ganz generell und immer die Einbindung der Personalvertretung und der/des Datenschutzbeauftragten im Vorfeld der Untersuchung. Hinsichtlich der Beschaffung oder Genehmigung einer Spezialsoftware kann eine frühzeitige Anfrage beim zuständigen Rechenzentrum sehr empfohlen werden.     


Praxisbeispiele für ProM-Projekte


Stadt Leipzig (Beschaffungswesen 2021)

Stadt/Land Wien (Stadtwerke Wien Beschaffungen, übersetz aus EN von CHE-Kommunalberatung)

Stadt Lausanne (Baugenehmigungen, 2020)

5 Städte der Niederlande (Baugenehmigungen, 2015 ff.)

Kreisverwaltung NRW (Vollstreckung, 2024)

Fallstudie Stadt Granada/Spanien (Beschwerdeverfahren, 2020)
Stadt NN (Kommunalsteuern, 2025)

ProM in Amsterdam (Zusammenfassung in DE, übers. von CHE-Kommunalberatung)

Textauszüge aus dem Koalitionsvertrag zwischen CDU/CSU/SPD vom April 2025 zu ausgewählten Themen
von Christoph Heck 9. April 2025
Im Beitrag finden sich ausgewählte Textstellen zu wesentlichen Themenkreisen des Koalitionsvertrags mit kommunalem Bezug, beispielsweise zur Altschuldenproblematik, Digitalisierung und Änderungen in der Zusammenarbeit von Bund-Ländern und Kommunen, insbesondee bei der sogenannten Konnexitätsproblematik.
von Christoph Heck 31. März 2025
Wesentliche Themenfelder mit Auswirkungen auf das Management in Kommunalverwaltungen
von Christoph Heck 28. März 2025
Digitale Kassenprüfungen als continuous auditing Aufgabe der örtlichen Rechnungsprüfung in Kommunen
von Christoph Heck 13. März 2025
Was sind "JET-Analysen" ? Suche nach Auffälligkeiten Zur Feststellung von Auffälligkeiten (z.B. Ausreißer oder Doubletten) werden gemäß IDW PH 9.330.3, Tz. 72 in der Praxis Analysen durchgeführt, die oft unter dem Begriff „Journal Entry Testing (JET-Analysen)“ zusammengefasst werden. Journal Entry Testing bzw. JET-Analysen eignen sich sowohl zur Analyse des Kontrollumfelds als auch zur Feststellung von ungewöhnlichen Buchungen bzw. Merkmalen aus der Abbildung von Transaktionen. Bei festgestellten Auffälligkeiten sind weitere Prüfungshandlungen (insb. vertiefende Belegprüfungen) einzuleiten, um deren Ursachen anhand der zugrundeliegenden Geschäftsvorfälle zu untersuchen. Journal Entry Testing bzw. JET-Analysen liegt die Vorstellung zugrunde, dass die in einem Grund- oder Zeitbuch strukturierten Buchungssätze mittels digitaler Analysen zuverlässige Signale zu Fehlern oder Unregelmäßigkeiten (=Auffälligkeiten) eines computergestützten Buchführungsverfahrens vermitteln. Typische Journal Entry Testing bzw. JET-Analysen sind Schichten-, Gegenkonten-, Wochentags-, Belegverarbeitungs- oder Ziffernanalysen. Zur Veranschaulichung der Vorgehensweise einer JET-Analyse wird gerne auch die „7-W-Regel“ herangezogen. Demnach sind die folgenden sieben „W-Fragen“ zu beantworten : Warum wurde gebucht (Verursachung, Rechtsgrundlage) Was wurde gebucht (Art des Geschäftsvorfalles)? Wer hat gebucht (User)? Wann wurde gebucht (zeitgerecht/Zeitpunkt/periodengerecht)? Wie wurde gebucht (Sammel-/Einzelbuchung, automatisch/manuell)? Wohin wurde gebucht (sachlich zutreffende Konten-Zuordnung)? Welcher Betrag wurde gebucht (Betragshöhe abstimmbar?)? Journal Entry Testing bzw. JET-Analysen folgen grundsätzlich den allgemeinen Grundsätzen ordnungsmäßiger Datenanalysen. Demnach sind auch bei JET-Analysen die Hauptschritte Festlegung, welche Fehlerrisiken mittels Datenanalysen identifiziert bzw. in welchen Bereichen Datenanalysen eingesetzt werden sollen (=Analyseplanung) Definition der erwarteten Analyseergebnisse i.S.v. Vergleichs- und Erwartungswerten oder von Schwellen- und Toleranzwerten (Ergebniserwartung(en)) Aufgabendefinition und Auswahl der Analysemethode (=Projektmodell) Auswahl der für die Prüfungsdurchführung geeigneten Datenanalysewerkzeuge oder einer Kombination unterschiedlicher Analysewerkzeuge (IDEA/ACL, Excel, ActiveData Python, R, KNIME, ChatGPT, usw.) Bestimmung der für die Datenanalyse erforderlichen Datenquellen und Ansprechpartner Anforderung oder Bereitstellung der für die Datenanalyse benötigten Daten (Datenselektion) Abstimmung der erhaltenen Daten auf Richtigkeit, Vollständigkeit, Abdeckung des erforderlichen Zeitraums etc. (Validierung, Sichtprüfung) Aufbereitung der Daten für die Datenanalyse (z.B. durch Harmonisierung von Datenfeldlängen oder -formaten oder Erzeugung von Berechnungsfeldern) Durchführung und Dokumentation der eigentlichen Datenanalyse (Berechnungen) Interpretation des Ergebnisses der durchgeführten Datenanalyse in Bezug auf die zu treffenden Prüfungsaussag Zusammenfassung und Berichterstattung Qualitätssicherung und Dokumentation der Prüfungsdurchführung und der Prüfungsergebnisse in den Arbeitspapieren Der (erhoffte) Nutzen von Journal Entry Testing bzw. JET-Analysen Das Potential der Massendatenanalyse in Form einer Journal Entry Testing bzw. JET-Analyse insbesondere auch für eine wirtschaftliche Prüfung zeigt das folgende Beispiel (vgl. Zeis,A.:, Kommunale Rechnungsprüfung, 6.A., 2023, S. 227): Geprüft werden soll, ob Gehaltszahlungen nur an Beschäftigte mit laufendem Beschäftigungsverhältnis geleistet werden. Die Aufnahme des Geschäftsprozesses hat ergeben, dass alle Beschäftigten in einer Stammdatenliste geführt werden. Jedem Beschäftigten wird vom System bei der erstmaligen Erfassung eine eindeutige, fortlaufende Personalnummer und eine Kreditorennummer zugewiesen. Zum Zeitpunkt des Ausscheidens wird der Datensatz des Ausscheidenden vom Personalsachbearbeiter als "inaktiv" gekennzeichnet, dadurch wird automatisch die Kreditorennummer gelöscht. Die örtliche Prüfung beabsichtigt nun, u.A. durch den Abgleich aller Gehaltsüberweisungen im Prüfungszeitraum mit der Stammdatenliste zu Beginn und zum Ende des Prüfungszeitraumes Aussagesicherheit über 100 % der Grundgesamtheit zu schaffen oder im Falle von Abweichungen Ansatzpunkte für gezielte Einzelfallprüfungen zu generieren. Der Vorteil der Strategie sei, dass diese Prüfungshandlungen mit den Funktionen der Massendatenanalyse sehr schnell durchzuführen sind. Einzelfragen beim Einsatz von Journal Entry Testing bzw. JET-Analysen Massendatenanalysen (Journal Entry Testing bzw. JET-Analysen) verfolgen nach Zeis, A. (2023, S. 226) drei Grundfunktionen: • die Prüfung eines Datenbestandes im Hinblick auf Einhaltung bestimmter Kriterien und Vorgaben, • den Nachvollzug mathematischer Operationen und • den Abgleich unterschiedlicher Datenbestände. Massendatenanalysen ((Journal Entry Testing bzw. JET-Analysen) umfassen demnach im Einzelnen (Zeis, a.a.O, S. 230 ff.) Export und Import von Daten aus und in verschiedene Datenformate; Abgleich zweier Datenbestände bezüglich definierter Felder mit Ausgabe entweder nur der Übereinstimmungen in beiden Dateien oder der Datensätze in Datei 1 ohne Übereinstimmung in zweiter Datei bzw. der Datensätze in Datei 2 ohne Übereinstimmung in erster Datei. Dies erlaubt z.B. die Mehrfachbelegungsanalyse von Stammdatennummern oder eine Lückenanalyse; Zusammenführen von Datenbeständen, die identisch aufgebaut sind, also z. B. Zeiterfassungen eines Jahres mit denen anderer Jahre, um eine Analyse über mehrere Jahre durchführen zu können; Verknüpfen von unterschiedlich aufgebauten Datenbeständen mit Hilfe eines gemeinsamen Feldes, z. B. das Kreditorenkonto aus dem Journal mit den Informationen zum Kreditor aus der Kreditorenstammdatenliste; Extraktion von Daten, die bestimmte Kriterien aufweisen (Beträge, Daten, auch Spannen); Sortieren und Indizieren z. B. erst nach Buchungsmonat, dann nach Kreditor und schließlich nach Betrag; Gruppieren nach identischen Merkmalen und Zwischensummen bilden; Feldstatistik: welche Werte enthält das Feld, Maximum, Minimum, Mittel; Schichtung: Einteilung von Daten in Schichten und Bandbreiten mittels Ober- und Untergrenzen und Schrittgrößen; Berechnungen mittels Formeln auch aus mehreren Feldinhalten vornehmen und berechnete Felder mit Datensatzelementen vergleichen; Mit Hilfe von Pivot-Tabellen können Funktionalitäten wie Extraktion, Sortieren und Gruppieren und Berechnen kombiniert werden; das macht die Darstellung großer Datenvolumina in überschaubarer Form und komplexere Abfragen möglich (Umsätze mit einem Debitor nur im Mai und über der Schwelle von 1.000 Euro); Die Drill-Down-Funktion ermöglicht den Sprung von der Gruppe zum einzelnen Datensatz.
von Christoph Heck 13. März 2025
Aufbau individueller Fähigkeiten rund um das Datenmanagement
von Christoph Heck 10. März 2025
Gefährdung der stetigen Aufgabenerfüllung einer Kommune durch Verlustvorträge?
von Christoph Heck 27. Februar 2025
Das Land NRW beabsichtigt Kommunen mit besonders hohen Liquiditätskrediten teilweise zu entschulden. Ziel ist es, dass nach der Entschuldung keine Kommune mehr als 1.500€ Kassenkredite pro Einwohner hat. Dafür werden über die nächsten 30 Jahre jeweils 250 Mio Euro Bereitgestellt.
Mehr anzeigen