Katalog
concept#KI#Daten#Governance#Sicherheit

Künstliche Intelligenz (KI)

Ein übergreifendes Konzept zur Entwicklung von Systemen, die Aufgaben mit menschlicher Wahrnehmung, Lernen und Entscheidungsfindung ausführen.

Künstliche Intelligenz (KI) bezeichnet Forschung und Praxis zur Entwicklung von Systemen, die Wahrnehmung, Lernen, Schlussfolgern und autonome Entscheidungen ermöglichen.
Etabliert
Hoch

Klassifikation

  • Hoch
  • Technisch
  • Architektur
  • Reif

Technischer Kontext

Datenplattformen (Data Lake / Warehouse)CI/CD‑Pipelines für ML‑ModelleMonitoring‑ und Observability‑Systeme

Prinzipien & Ziele

Datenfundament zuerst: valide, repräsentative Daten bilden die Grundlage jeder Lösung.Transparenz und Erklärbarkeit: Modelle und Entscheidungen müssen nachvollziehbar sein.Iteratives Vorgehen: Prototypen, Messen, Verbessern in kurzen Zyklen.
Erkundung
Unternehmen, Domäne, Team

Use Cases & Szenarien

Kompromisse

  • Bias in Trainingsdaten führt zu unfairen oder diskriminierenden Vorhersagen.
  • Datenschutzverletzungen bei unsachgemäßer Datenverarbeitung.
  • Übermäßiges Vertrauen in automatisierte Entscheidungen ohne menschliche Kontrolle.
  • Versionierung von Daten, Features und Modellen sicherstellen.
  • Metriken für Fairness, Robustheit und Datenschutz einführen.
  • Menschliche Aufsicht in kritischen Entscheidungswegen einbeziehen.

I/O & Ressourcen

  • Historische Trainingsdaten und Labels
  • Feature‑Pipelines und Metadaten
  • Infrastruktur für Training und Deployment
  • Trainierte Modelle und Validierungsberichte
  • Produktive Vorhersageendpunkte
  • Monitoring‑ und Auditlogs

Beschreibung

Künstliche Intelligenz (KI) bezeichnet Forschung und Praxis zur Entwicklung von Systemen, die Wahrnehmung, Lernen, Schlussfolgern und autonome Entscheidungen ermöglichen. Sie umfasst symbolische Verfahren, statistisches Maschinelles Lernen und Deep Learning. KI unterstützt Automatisierung, prädiktive Analysen und neue Produktfähigkeiten in vielen Domänen.

  • Automatisierung sich wiederholender Aufgaben und Skalierung von Entscheidungen.
  • Verbesserte Vorhersagegenauigkeit durch datengetriebene Modelle.
  • Neue Geschäftsmöglichkeiten und Produktfunktionen durch intelligente Systeme.

  • Abhängigkeit von Datenqualität und -verfügbarkeit.
  • Begrenzte Erklärbarkeit komplexer Modelle wie tiefer neuronaler Netze.
  • Hoher Ressourcenaufwand für Training und Betrieb großer Modelle.

  • Vorhersagegenauigkeit (z. B. F1‑Score)

    Misst die Genauigkeit von Modellaussagen unter Berücksichtigung von Precision und Recall.

  • Inferenzlatenz

    Zeit zwischen Anfrage und verfügbarem Vorhersageergebnis in Produktion.

  • Modell‑Drift-Rate

    Häufigkeit und Ausmaß, in dem Modellleistung über die Zeit abnimmt.

Personalisierung bei Streaming‑Diensten

Empfehlungsalgorithmen nutzen Nutzerverhalten, um Inhalte zu individualisieren und Engagement zu steigern.

Prädiktive Wartung in der Industrie

Sensordaten und Modelle sagen Ausfälle voraus, reduzieren Stillstand und optimieren Wartungszyklen.

Betrugserkennung im Finanzsektor

Machine‑Learning‑Systeme identifizieren Anomalien in Transaktionen zur Reduktion finanzieller Risiken.

1

Problem und Erfolgskriterien definieren.

2

Daten erfassen, bereinigen und geeignete Features entwickeln.

3

Prototyp entwickeln, messen, validieren und schrittweise skalieren.

⚠️ Technische Schulden & Engpässe

  • Unstrukturierte Feature‑Pipelines erschweren Reproduzierbarkeit.
  • Fehlende Test‑ und Validierungs‑Automatisierung für Modelle.
  • Veraltete Abhängigkeiten in ML‑Toolchains erhöhen Wartungskosten.
Datenintegration über heterogene QuellenRechenkapazität für ModelltrainingFachliche Verfügbarkeit von ML‑Expertise
  • KI als alleinige Entscheidungsinstanz in sicherheitskritischen Fällen.
  • Modelltraining auf nicht repräsentativen historischen Daten.
  • Verwendung sensibler personenbezogener Daten ohne Anonymisierung.
  • Überschätzung der Modellstabilität über Zeit (Drift ignorieren).
  • Mangelnde Zusammenarbeit zwischen Domänenexpert:innen und Data Scientists.
  • Unzureichende Bewertung ethischer und rechtlicher Implikationen.
Dateningenieurwesen und Feature‑EngineeringMaschinelles Lernen und ModellbewertungProdukt‑ und Domänenverständnis zur Problemformulierung
Datenverfügbarkeit und -qualitätLatenzanforderungen für VorhersagenSkalierbarkeit von Trainings- und Inferenzinfrastruktur
  • Datenschutz- und Compliance‑Vorgaben
  • Budget- und Infrastrukturgrenzen
  • Mangel an repräsentativen Trainingsdaten