Datenmodellierung
Konzept zur formalen Modellierung von Datenstrukturen, Beziehungen und Geschäftsregeln.
Klassifikation
- KomplexitätMittel
- AuswirkungTechnisch
- EntscheidungstypArchitektur
- OrganisationsreifeFortgeschritten
Technischer Kontext
Prinzipien & Ziele
Use Cases & Szenarien
Kompromisse
- Statische Modelle blockieren schnelle Produktänderungen
- Inkonsistente Interpretationen der Domäne in Teams
- Fehlerhafte Mappings verursachen Datenkorruption
- Beginne mit einem schlanken Kernmodell und erweitere iterativ
- Dokumentiere Semantik und Namenskonventionen eindeutig
- Automatisiere Validierung und Tests gegen Schemata
I/O & Ressourcen
- Fachliche Anforderungen und Glossar
- Bestehende Schemata und Datenproben
- Leistungs- und Skalierungsanforderungen
- Formale Schemas (ER/UML/JSON Schema/OpenAPI)
- Mapping- und Migrationspläne
- Validierungs- und Governance-Regeln
Beschreibung
Data Modeling beschreibt die strukturierte Abbildung von Informationsbedürfnissen in formale Schemata, Entitäten, Attribute und Beziehungen. Es hilft, Datenkonsistenz, Integrität und Analysefähigkeit zu sichern, und bildet die Grundlage für Datenbanken, Data Warehouses und APIs. Gute Modelle berücksichtigen Domäne, Performance und Änderbarkeit.
✔Vorteile
- Verbesserte Datenqualität und Konsistenz über Systeme hinweg
- Bessere Grundlage für Analytics und Reporting
- Klarere API- und Integrationsverträge
✖Limitationen
- Initialer Aufwand für Analyse und Modellierung
- Übermodellierung führt zu Komplexität und Wartungsaufwand
- Nicht alle Anforderungen lassen sich vollständig im Voraus abbilden
Trade-offs
Metriken
- Datenkonsistenzquote
Anteil der Datensätze, die validen Regeln und Referenzen entsprechen.
- Schema-Änderungsaufwand
Zeit und Aufwand, um Schemaänderungen zu planen und zu deployen.
- Durchschnittliche Abfrage-Latenz
Mittlere Antwortzeit für typische datenbezogene Abfragen.
Beispiele & Implementierungen
Produktkatalog für E‑Commerce
Modellierung von Produktvarianten, Attributen, Kategorien und Preisen zur Unterstützung von Suche und Personalisierung.
Kundenstammdaten im Bankenbereich
Konsolidiertes Kundenmodell zur Einhaltung regulatorischer Anforderungen und zur Vermeidung von Duplikaten.
Analytics-Event-Schema für Nutzungsmetriken
Ereignisbasierte Definitionen zur konsistenten Sammlung von Nutzungsdaten über verschiedene Plattformen hinweg.
Implementierungsschritte
Stakeholder-Workshops zur Erfassung von Anforderungen
Reverse-Engineering vorhandener Datenquellen
Entwurf eines Kernmodells und Validierung mit Fachbereichen
Definition von Migrations- und Governance-Prozessen
Iterative Implementierung, Tests und Monitoring
⚠️ Technische Schulden & Engpässe
Tech Debt
- Ad-hoc-Felder ohne Dokumentation in Produktionsschema
- Veraltete Mappings zu Altsystemen
- Fehlende Migrationspfade für kritische Attribute
Bekannte Engpässe
Beispiele für Missbrauch
- Vollständige Normalisierung eines Reporting-Data-Warehouses führt zu langsamen Reports
- Schemaänderungen ohne Rücksicht auf API-Konsumenten brechen Integrationen
- Verzicht auf Domänenmodell zugunsten technischer Details erzeugt semantische Inkonsistenzen
Typische Fallen
- Zu frühe Detailmodellierung bevor Domänenwissen stabil ist
- Unzureichende Tests für Grenzfälle und Inkonsistenzen
- Fehlende Governance für Schema-Evolution
Erforderliche Fähigkeiten
Drivers (Architectural Drivers)
Constraints
- • Kompatibilität zu Altsystem-Schemata
- • Regulatorische Anforderungen an Datenhaltung
- • Technische Grenzen von Speichersystemen