Das 1x1 der Datenqualität

November 25, 2020

Fehlerhafte Daten oder ein schlechtes Datenmanagement führen in der Baubranche immer wieder zu Fehlplanungen und enormen Schäden. Das wissen alle. Doch was bedeutet Datenqualität genau?

Damit ich aus grossen Datenmengen zu jedem Zeitpunkt sinnvolle Erkenntnisse ziehen kann, brauche ich mehr als korrekte Messwerte. Datenqualität beinhaltet auch, dass meine Daten relevant, immer aktuell und einheitlich erfasst sind. Mit diesen vier Schritten gelange ich von der Hoffnung, dass am Ende alles stimmt, zur Sicherheit, dass Daten und die Schlüsse aus ihnen korrekt sind:

Daten müssen haargenau stimmen: Das mag banal klingen. Doch in der Baubranche wird durchaus mit Daten gearbeitet, die nicht der Realität entsprechen. Ein gängiges Beispiel: Um die Fläche der Aussenwände zu erheben, werden in der Praxis immer noch analoge Modelle oder Pläne vermessen. Kleinste Messfehler führen jedoch zu grossen Abweichungen in der Berechnung. Mit digitalen Modellen ist die Gefahr geringer, dass die ursprünglichen Messwerte nicht korrekt sind. Doch auch hier können sich Fehler einschleichen. So kann es schnell einmal passieren, dass man Bauteile wie eine Wand im copy&paste-Modus zweimal einfügt oder vergisst, eine verworfene Variante zu löschen. Die ausgewertete Fläche ist dann doppelt so gross und die Auswertung aufgrund einer fehlerhaften Dateneingabe verfälscht.

Daten müssten relevant sein: Datenqualität ist immer mit den spezifischen Anforderungen an ein Projekt verbunden. So sind für eine Kostenplanerin andere Daten relevant als für einen Facility Manager, auch sind je nach Region und gesetzlichen Vorgaben wieder andere Daten gefragt. Vor dem Erheben und Auswerten von Daten muss ich also stets fragen, welche Daten ich in welcher Phase wirklich brauche – und wie diese aufbereitet sein müssen. Damit die Daten auch komplett sind, erstelle ich Prüfregeln für meine Datensätze.

Daten müssen aktuell sein: Das Problem ist uralt: Person A ändert etwas in der Planung, Person B arbeitet noch mit der alten Version des Plans. Im besten Fall bleibt es bei einem Zeitverlust, doch nicht aktualisierte Daten führen auch immer wieder zu Fehlplanungen. Digitale Modelle, die automatisch aktualisiert werden, bieten hier enorme Vorteil. Sie bringen mehr Transparenz und damit auch die Möglichkeit, schneller auf Fehler zu reagieren.

Daten müssen konsistent sein: Daten müssen immer gleich aufgebaut sein, damit sie für die Maschine überhaupt lesbar sind und in jeder Phase eines Projekts lesbar bleiben. Am Beispiel der Aussenwände: Wird die Klassifikation für Aussenwände nicht sorgfältig aufgebaut, kann es passieren, dass eine Aussenwand vom Computer nicht mehr als solche erkannt wird, wenn sie verändert wurde. Eine neu gezeichnete Fassade wird dann schlicht nicht in die Berechnung der Aussenfläche mit einbezogen. Auch wenn eine Person Dinge plötzlich anders klassifiziert, führt dies zu Falschberechnungen – und richtet letztlich den gleichen Schaden an wie fehlerhafte Daten.

Wer Datenqualität ernst nimmt und in diese investiert, kann längerfristig nicht nur seinen Aufwand reduzieren und Fehler vermeiden. Mit einer hohen Datenqualität schafft man auch Transparenz und Vertrauen. Denn Architekten und Architektinnen verkaufen nicht einfach Pläne. Sie verkaufen komplexe Datensätze.