Digitale Kassenprüfungen in Kommunen

Christoph Heck • 28. März 2025

Digitale Kassenprüfungen als continuous auditing Aufgabe der örtlichen Rechnungsprüfung in Kommunen

Mit neueren datengetriebenen Tools und Techniken kann die traditionelle Fibu- und Kassenprüfung wesentlich beschleunigt und vertieft werden. Beispielsweise durch elektronische Journalauszüge oder digitale Prozessanalysen (siehe Abb. oben) können Auffälligkeiten und Anomalien schneller identifiziert bzw. deren Nichtvorhandensein transparent dargestellt werden. Besonders wirksam werden die datenanalytischen Ansätze, wenn sie als permanente ("dauernde") Prüfungshandlung (Digitale Kassenprüfungen) ausgestaltet sind. Zur Verringerung des erforderlichen Aufwands werden Automationstechniken eingesetzt, die schon mit einfachen Windows-Routinen möglich und individuell ausgestaltbar sind. Diese Technik ist auch für regelmäßige Visakontrollen und Vergabeprüfungen einsetzbar und kann den Arbeitsaufwand möglicherweise wesentlich reduzieren.


Zugleich bietet die Einrichtung von andauernden (Routine-) Prüfungen die Chance


 

  1. kürzlich entstandene Fehler schnell zu entdecken und zu korrigieren
  2. gesetzlich vorgeschriebene Prüfungen automatisch zu erledigen und
  3. weitere gesetzliche Prüfungen (z.B. Verwaltungs- oder Jahresabschlussprüfungen)
    wesentlich zu entlasten oder zu beschleunigen.

 

Für den Einstieg in Continuous Auditing Lösungen (Digitale Kassenprüfungen) empfehlen sich die Verwendung von MS-EXCEL und der Windows-Automation. WINDOWS wird in solchen Konstellationen als Bindeglied zwischen ERP-Systemen (z.B. SAP oder INFOMA usw.) und einem individuellen Analysemodell mit Excel-Automationstechniken (Makros etc.) eingesetzt. Die Möglichkeiten sind erstaunlich. 


Sobald die Verknüfung von WINDOWS mit einem automatischen Datenabruf in SAP eingerichtet wurde, kann WINDOWS die bereitgestellten Daten mit dem Query-Editor automatisch abrufen und nach EXCEL laden bzw. die entsprechenden Excel-Datenabrufe automatisch starten. Diese Abrufdatei erfasst dann wiederum die ERP-Daten automatisch und verarbeitet sie gemäß den eingerichteten Makros, beispielsweise für einen Abgleich von Zahlungsanordnungen des Vortags mit den Zahlstapeln des Ausführungstages. Als Ergebnis erhalten Sie regelmäßig (z.B. wöchentlich) ein Abgleichprotokoll als Prüfungsnachweis. Sollten Unregelmäßigkeiten festgestellt worden sein, können umgehend Klärungen herbeigeführt werden.


Sicherlich gibt es auch hier  - wie  immer - technische Stolperfallen, insbesondere bei den Excel-Makros und der Anbindung von WINDOWS an örtliche ERP-Systeme. Hierfür müssen die Systemberteuer:innen kontaktiert und um Unterstützung gebeten werden. Allerdings ist dies eine Einmal-Arbeit zu Beginn des automatisierten Verfahrens, die sich u.E. lohnt.


Sofern vor Ort Tools wie IDEA (von audicon) oder ACL (von Galvanize) eingesetzt werden, können die Automationen auch über diese Tools gesteuert werden. In der Excel-Welt gibt es zudem Add On - Produkte wie <ActiveData> oder XLSTAT usw., die zusätzlich eingebunden werden können.


CHE unterstützt innovative Prüfungsteams bei der Konzeptionierung und Einführung von (teil-)automatisierten Prüfverfahren (Digitale Kassenprüfungen) mit individuellen Schulungen und Modell-Templates (Blanko-Modelle als Grundlage örtlicher Lösungen). Für nähere Informationen kontkatieren Sie uns gerne hier .

Textauszüge aus dem Koalitionsvertrag zwischen CDU/CSU/SPD vom April 2025 zu ausgewählten Themen
von Christoph Heck 9. April 2025
Im Beitrag finden sich ausgewählte Textstellen zu wesentlichen Themenkreisen des Koalitionsvertrags mit kommunalem Bezug, beispielsweise zur Altschuldenproblematik, Digitalisierung und Änderungen in der Zusammenarbeit von Bund-Ländern und Kommunen, insbesondee bei der sogenannten Konnexitätsproblematik.
von Christoph Heck 31. März 2025
Wesentliche Themenfelder mit Auswirkungen auf das Management in Kommunalverwaltungen
Praisberichte zu ProM-Projekten in Kommunalverwaltungen (Process Mining in Kommunen)
von Christoph Heck 26. März 2025
ProM-Projekte mit Process Mining in Kommunen (ProM-Analysen)
von Christoph Heck 13. März 2025
Was sind "JET-Analysen" ? Suche nach Auffälligkeiten Zur Feststellung von Auffälligkeiten (z.B. Ausreißer oder Doubletten) werden gemäß IDW PH 9.330.3, Tz. 72 in der Praxis Analysen durchgeführt, die oft unter dem Begriff „Journal Entry Testing (JET-Analysen)“ zusammengefasst werden. Journal Entry Testing bzw. JET-Analysen eignen sich sowohl zur Analyse des Kontrollumfelds als auch zur Feststellung von ungewöhnlichen Buchungen bzw. Merkmalen aus der Abbildung von Transaktionen. Bei festgestellten Auffälligkeiten sind weitere Prüfungshandlungen (insb. vertiefende Belegprüfungen) einzuleiten, um deren Ursachen anhand der zugrundeliegenden Geschäftsvorfälle zu untersuchen. Journal Entry Testing bzw. JET-Analysen liegt die Vorstellung zugrunde, dass die in einem Grund- oder Zeitbuch strukturierten Buchungssätze mittels digitaler Analysen zuverlässige Signale zu Fehlern oder Unregelmäßigkeiten (=Auffälligkeiten) eines computergestützten Buchführungsverfahrens vermitteln. Typische Journal Entry Testing bzw. JET-Analysen sind Schichten-, Gegenkonten-, Wochentags-, Belegverarbeitungs- oder Ziffernanalysen. Zur Veranschaulichung der Vorgehensweise einer JET-Analyse wird gerne auch die „7-W-Regel“ herangezogen. Demnach sind die folgenden sieben „W-Fragen“ zu beantworten : Warum wurde gebucht (Verursachung, Rechtsgrundlage) Was wurde gebucht (Art des Geschäftsvorfalles)? Wer hat gebucht (User)? Wann wurde gebucht (zeitgerecht/Zeitpunkt/periodengerecht)? Wie wurde gebucht (Sammel-/Einzelbuchung, automatisch/manuell)? Wohin wurde gebucht (sachlich zutreffende Konten-Zuordnung)? Welcher Betrag wurde gebucht (Betragshöhe abstimmbar?)? Journal Entry Testing bzw. JET-Analysen folgen grundsätzlich den allgemeinen Grundsätzen ordnungsmäßiger Datenanalysen. Demnach sind auch bei JET-Analysen die Hauptschritte Festlegung, welche Fehlerrisiken mittels Datenanalysen identifiziert bzw. in welchen Bereichen Datenanalysen eingesetzt werden sollen (=Analyseplanung) Definition der erwarteten Analyseergebnisse i.S.v. Vergleichs- und Erwartungswerten oder von Schwellen- und Toleranzwerten (Ergebniserwartung(en)) Aufgabendefinition und Auswahl der Analysemethode (=Projektmodell) Auswahl der für die Prüfungsdurchführung geeigneten Datenanalysewerkzeuge oder einer Kombination unterschiedlicher Analysewerkzeuge (IDEA/ACL, Excel, ActiveData Python, R, KNIME, ChatGPT, usw.) Bestimmung der für die Datenanalyse erforderlichen Datenquellen und Ansprechpartner Anforderung oder Bereitstellung der für die Datenanalyse benötigten Daten (Datenselektion) Abstimmung der erhaltenen Daten auf Richtigkeit, Vollständigkeit, Abdeckung des erforderlichen Zeitraums etc. (Validierung, Sichtprüfung) Aufbereitung der Daten für die Datenanalyse (z.B. durch Harmonisierung von Datenfeldlängen oder -formaten oder Erzeugung von Berechnungsfeldern) Durchführung und Dokumentation der eigentlichen Datenanalyse (Berechnungen) Interpretation des Ergebnisses der durchgeführten Datenanalyse in Bezug auf die zu treffenden Prüfungsaussag Zusammenfassung und Berichterstattung Qualitätssicherung und Dokumentation der Prüfungsdurchführung und der Prüfungsergebnisse in den Arbeitspapieren Der (erhoffte) Nutzen von Journal Entry Testing bzw. JET-Analysen Das Potential der Massendatenanalyse in Form einer Journal Entry Testing bzw. JET-Analyse insbesondere auch für eine wirtschaftliche Prüfung zeigt das folgende Beispiel (vgl. Zeis,A.:, Kommunale Rechnungsprüfung, 6.A., 2023, S. 227): Geprüft werden soll, ob Gehaltszahlungen nur an Beschäftigte mit laufendem Beschäftigungsverhältnis geleistet werden. Die Aufnahme des Geschäftsprozesses hat ergeben, dass alle Beschäftigten in einer Stammdatenliste geführt werden. Jedem Beschäftigten wird vom System bei der erstmaligen Erfassung eine eindeutige, fortlaufende Personalnummer und eine Kreditorennummer zugewiesen. Zum Zeitpunkt des Ausscheidens wird der Datensatz des Ausscheidenden vom Personalsachbearbeiter als "inaktiv" gekennzeichnet, dadurch wird automatisch die Kreditorennummer gelöscht. Die örtliche Prüfung beabsichtigt nun, u.A. durch den Abgleich aller Gehaltsüberweisungen im Prüfungszeitraum mit der Stammdatenliste zu Beginn und zum Ende des Prüfungszeitraumes Aussagesicherheit über 100 % der Grundgesamtheit zu schaffen oder im Falle von Abweichungen Ansatzpunkte für gezielte Einzelfallprüfungen zu generieren. Der Vorteil der Strategie sei, dass diese Prüfungshandlungen mit den Funktionen der Massendatenanalyse sehr schnell durchzuführen sind. Einzelfragen beim Einsatz von Journal Entry Testing bzw. JET-Analysen Massendatenanalysen (Journal Entry Testing bzw. JET-Analysen) verfolgen nach Zeis, A. (2023, S. 226) drei Grundfunktionen: • die Prüfung eines Datenbestandes im Hinblick auf Einhaltung bestimmter Kriterien und Vorgaben, • den Nachvollzug mathematischer Operationen und • den Abgleich unterschiedlicher Datenbestände. Massendatenanalysen ((Journal Entry Testing bzw. JET-Analysen) umfassen demnach im Einzelnen (Zeis, a.a.O, S. 230 ff.) Export und Import von Daten aus und in verschiedene Datenformate; Abgleich zweier Datenbestände bezüglich definierter Felder mit Ausgabe entweder nur der Übereinstimmungen in beiden Dateien oder der Datensätze in Datei 1 ohne Übereinstimmung in zweiter Datei bzw. der Datensätze in Datei 2 ohne Übereinstimmung in erster Datei. Dies erlaubt z.B. die Mehrfachbelegungsanalyse von Stammdatennummern oder eine Lückenanalyse; Zusammenführen von Datenbeständen, die identisch aufgebaut sind, also z. B. Zeiterfassungen eines Jahres mit denen anderer Jahre, um eine Analyse über mehrere Jahre durchführen zu können; Verknüpfen von unterschiedlich aufgebauten Datenbeständen mit Hilfe eines gemeinsamen Feldes, z. B. das Kreditorenkonto aus dem Journal mit den Informationen zum Kreditor aus der Kreditorenstammdatenliste; Extraktion von Daten, die bestimmte Kriterien aufweisen (Beträge, Daten, auch Spannen); Sortieren und Indizieren z. B. erst nach Buchungsmonat, dann nach Kreditor und schließlich nach Betrag; Gruppieren nach identischen Merkmalen und Zwischensummen bilden; Feldstatistik: welche Werte enthält das Feld, Maximum, Minimum, Mittel; Schichtung: Einteilung von Daten in Schichten und Bandbreiten mittels Ober- und Untergrenzen und Schrittgrößen; Berechnungen mittels Formeln auch aus mehreren Feldinhalten vornehmen und berechnete Felder mit Datensatzelementen vergleichen; Mit Hilfe von Pivot-Tabellen können Funktionalitäten wie Extraktion, Sortieren und Gruppieren und Berechnen kombiniert werden; das macht die Darstellung großer Datenvolumina in überschaubarer Form und komplexere Abfragen möglich (Umsätze mit einem Debitor nur im Mai und über der Schwelle von 1.000 Euro); Die Drill-Down-Funktion ermöglicht den Sprung von der Gruppe zum einzelnen Datensatz.
von Christoph Heck 13. März 2025
Aufbau individueller Fähigkeiten rund um das Datenmanagement
von Christoph Heck 10. März 2025
Gefährdung der stetigen Aufgabenerfüllung einer Kommune durch Verlustvorträge?
von Christoph Heck 27. Februar 2025
Das Land NRW beabsichtigt Kommunen mit besonders hohen Liquiditätskrediten teilweise zu entschulden. Ziel ist es, dass nach der Entschuldung keine Kommune mehr als 1.500€ Kassenkredite pro Einwohner hat. Dafür werden über die nächsten 30 Jahre jeweils 250 Mio Euro Bereitgestellt.
Mehr anzeigen