Apache Airflow
Apache Airflow ist eine Plattform zur Programmierung, Planung und Überwachung von Batch-Workflows und Data-Pipelines. Tasks werden als DAGs in Python definiert und zentral ausgeführt, überwacht und wiederholt. Airflow eignet sich für ETL, Datenintegration und wiederkehrende Automatisierung in verteilten Umgebungen. Es unterstützt Skalierung und Integrationen zu gängigen Datenplattformen.
Dieser Baustein bündelt Grundinformationen, Kontext und Beziehungen – als neutrale Referenz im Modell.
Referenzbaustein
Dieser Baustein dient als strukturierte Referenz im Wissensmodell – mit Kerndaten, Kontext und direkten Beziehungen.
Worum geht es hier?
Diese Seite bietet einen neutralen Einstieg mit Kerndaten, Strukturkontext und direkten Beziehungen – unabhängig von Lern- oder Entscheidungswegen.
Basisdaten
Kontext im Modell
Strukturelle Einordnung
Verortung in der Struktur.
Beziehungen
Verknüpfte Bausteine
Direkt verbundene Content-Elemente.