Katalog
concept#Daten#Analyse#Architektur#Plattform

Dimensionales Modellieren

Ein pragmatischer Ansatz zur Modellierung von Data-Warehouse-Daten, der Fakten- und Dimensionstabellen zur effizienten Analyse und Abfrageoptimierung strukturiert.

Dimensionales Modellieren ist ein pragmatisches Modellierungsparadigma für analytische Datenbanken und Data Warehouses.
Etabliert
Mittel

Klassifikation

  • Mittel
  • Technisch
  • Architektur
  • Fortgeschritten

Technischer Kontext

ETL/ELT-Tools (z. B. dbt, Informatica, Azure Data Factory)BI- und Visualisierungstools (z. B. Power BI, Tableau)Data Catalog und MDM-Systeme

Prinzipien & Ziele

Grain zuerst definieren: jede Faktentabelle hat eine klar definierte Granularität.Konforme Dimensionen fördern Wiederverwendung und konsistente Analysen.Simplicity over normalization: Einfachheit für Analyseperformance priorisieren.
Umsetzung
Domäne, Team

Use Cases & Szenarien

Kompromisse

  • Falsche Festlegung des Grains führt zu inkonsistenten oder irreparablen Datenmodellen.
  • Unkoordinierte konforme Dimensionen verursachen Inkonsistenzen zwischen Datamarts.
  • Übermäßige Denormalisierung kann ETL-Komplexität und Fehleranfälligkeit erhöhen.
  • Definiere Grain früh und dokumentiere ihn eindeutig.
  • Nutze konforme Dimensionen für domänenübergreifende Konsistenz.
  • Behandle Slowly Changing Dimensions explizit und konsistent.

I/O & Ressourcen

  • Quellsystem-Tabellen und CSV/Log-Feeds
  • Fachliche Berichtsanfragen und Metrikdefinitionen
  • Datenkatalog und Domänenbegriffs-Glossar
  • Faktentabellen mit definiertem Grain
  • Dimensionstabellen (konform oder domänenspezifisch)
  • Dokumentation zu Grain, Keys und SCD-Strategien

Beschreibung

Dimensionales Modellieren ist ein pragmatisches Modellierungsparadigma für analytische Datenbanken und Data Warehouses. Es organisiert Daten in Fakten- und Dimensionstabellen (Stern- oder Schneeflockenschema) zur Optimierung von Abfragen, Analysefreundlichkeit und Verständlichkeit. Typische Themen sind Grain, konforme Dimensionen und Slowly Changing Dimensions. Es unterstützt schnelle Aggregationen und klare Berichtspfaddefinitionen.

  • Verbesserte Abfrageperformance durch einfache Joins und optimierte Aggregationen.
  • Bessere Verständlichkeit für Fachanwender und BI-Entwickler.
  • Erleichtert inkrementelle Ladeprozesse und Aggregationsstrategien.

  • Kann zu Redundanz führen und erhöhten Speicherverbrauch verursachen.
  • Nicht ideal für stark transaktionale OLTP-Szenarien.
  • Komplexe Slowly Changing Dimensions erfordern zusätzlichen Implementierungsaufwand.

  • Abfrage-Latenz (p95)

    95. Perzentil der Abfrageantwortzeit auf Analyseabfragen.

  • ETL-Dauer

    Gesamtdauer der täglichen/periodischen Ladeprozesse.

  • Storage pro Faktentabelle

    Speicherverbrauch einzelner Faktentabellen zur Kostenabschätzung.

Klassisches Sternschema für Retail

Faktentabelle Verkäufe mit Dimensionen Produkt, Zeit, Filiale und Kunde zur schnellen Aggregation von Umsätzen.

Schneeflockenschema zur Reduktion von Redundanz

Dimensionen in normierter Form, wenn Attribut-Hierarchien groß sind und Speicheroptimierung erforderlich ist.

Konforme Dimensionen für bereichsübergreifende Reports

Gemeinsame Kundendimension, die in Sales-, Marketing- und Finanzdatamarts wiederverwendet wird.

1

Stakeholder-Workshops zur Erfassung von Metriken und Analysefällen.

2

Definition des Grains für jede geplante Faktentabelle.

3

Entwurf der Dimensionen und Entscheidung über Konformität.

4

Implementierung von ETL/ELT-Prozessen inklusive SCD-Strategien.

5

Testen, Validieren mit Fachbereichen und Performance-Optimierung.

⚠️ Technische Schulden & Engpässe

  • Temporäre Denormalisierungen ohne spätere Refaktorisierung.
  • Fehlende Dokumentation zu Grain und Schlüsselbeziehungen.
  • Ad-hoc erstellte lokale Dimensionen ohne Konformitätsprüfung.
ETL-LeistungHohe Kardinalität in DimensionenGrain-Mismatch zwischen Faktentabellen
  • Verwendung dimensionaler Modelle für stark transaktionale Workloads ohne Anpassungen.
  • Erstellen vieler schmaler Fakten ohne klare Grain-Definition.
  • Fehlende Koordination bei gemeinsamen Dimensionen zwischen Teams.
  • Unter- oder Überspezifizierung des Grains, die spätere Korrekturen erschwert.
  • Unterschätzung des Aufwands für SCD-Implementierung.
  • Keine Governance für konforme Dimensionen etablieren.
Datenmodellierung und Schema-DesignETL/ELT-Entwicklung und Performance-TuningKenntnisse zu BI/Reporting-Anforderungen
Abfrageperformance und SkalierbarkeitDatenkonsistenz und Wiederverwendung (konforme Dimensionen)ETL-Komplexität und Ladefenster
  • Vorhandene Quellsysteme mit eingeschränkter Historie
  • Begrenzte Rechen- oder Speicherressourcen
  • Regulatorische Anforderungen an Datenaufbewahrung