360°
Technologie#Daten#Plattform

Apache Airflow

Apache Airflow ist eine Plattform zur Programmierung, Planung und Überwachung von Batch-Workflows und Data-Pipelines. Tasks werden als DAGs in Python definiert und zentral ausgeführt, überwacht und wiederholt. Airflow eignet sich für ETL, Datenintegration und wiederkehrende Automatisierung in verteilten Umgebungen. Es unterstützt Skalierung und Integrationen zu gängigen Datenplattformen.

Dieser Baustein bündelt Grundinformationen, Kontext und Beziehungen – als neutrale Referenz im Modell.

Referenzbaustein

Dieser Baustein dient als strukturierte Referenz im Wissensmodell – mit Kerndaten, Kontext und direkten Beziehungen.

Worum geht es hier?

Diese Seite bietet einen neutralen Einstieg mit Kerndaten, Strukturkontext und direkten Beziehungen – unabhängig von Lern- oder Entscheidungswegen.

Basisdaten

Kontext
Organisationsebene
Team
Organisationsreife
Fortgeschritten
Auswirkung
Technisch
Entscheidung
Entscheidungstyp
Technisch
Value Stream
Umsetzung
Einschätzung
Komplexität
Hoch
Reifegrad
Etabliert
Cognitive Load
Hoch

Beziehungen

Verknüpfte Bausteine

Direkt verbundene Content-Elemente.