Katalog
concept#KI#Softwaretechnik#Governance#Produkt

Human-Centered AI

Ein Konzept zur Gestaltung von KI-Systemen, bei dem menschliche Bedürfnisse, Werte und Arbeitsabläufe im Mittelpunkt stehen.

Human-Centered AI fokussiert die Gestaltung und Entwicklung von KI-Systemen, die menschliche Bedürfnisse, Werte und Arbeitsabläufe in den Mittelpunkt stellen.
Aufstrebend
Mittel

Klassifikation

  • Mittel
  • Organisatorisch
  • Organisation
  • Fortgeschritten

Technischer Kontext

User-Research-Tools und UmfragesystemeML-Modelmonitoring- und Explainability-ToolchainsGovernance- und Compliance-Plattformen

Prinzipien & Ziele

Nutzerzentrierung: Bedürfnisse und Kontexte zuerst verstehen.Transparenz: Entscheidungen und Unsicherheiten nachvollziehbar machen.Verantwortlichkeit: Zuständigkeiten und Folgen klar regeln.
Erkundung
Unternehmen, Domäne, Team

Use Cases & Szenarien

Kompromisse

  • Scheinbare Nutzerzentrierung ohne echte Beteiligung (Tokenism).
  • Übermäßiges Vertrauen in erklärende Oberflächen trotz Modellunsicherheit.
  • Vernachlässigung systemischer Auswirkungen zugunsten individueller Nutzbarkeit.
  • Frühe und kontinuierliche Nutzerbeteiligung integrieren
  • Transparenz über Grenzen und Unsicherheiten bereitstellen
  • Interdisziplinäre Reviews und Pre-Release-Checks durchführen

I/O & Ressourcen

  • Nutzerforschung und Kontextanalysen
  • Modell- und Datenqualitätsevaluierungen
  • Rechtliche und ethische Rahmenbedingungen
  • Designs und Interfaces mit Erklärbarkeit
  • Governance-Richtlinien und Verantwortungszuteilung
  • Metriken zur Überwachung von Nutzen und Schaden

Beschreibung

Human-Centered AI fokussiert die Gestaltung und Entwicklung von KI-Systemen, die menschliche Bedürfnisse, Werte und Arbeitsabläufe in den Mittelpunkt stellen. Es verbindet nutzerzentriertes Design, ethische Prinzipien und technische Robustheit, um vertrauenswürdige, verständliche und verantwortungsvolle KI-Lösungen in Organisationen einzuführen. Es ist anwendbar auf Produktstrategie, Architektur und Governance.

  • Höheres Nutzervertrauen und bessere Akzeptanz von KI-Funktionen.
  • Reduzierte Risiken durch frühzeitige Identifikation von Schaden.
  • Bessere Produktentscheidungen durch Einbindung realer Nutzerbedürfnisse.

  • Erfordert zusätzlichen Aufwand für Forschung und Tests.
  • Nicht alle Qualitätsanforderungen lassen sich rein nutzerzentriert lösen.
  • Konflikte zwischen Nutzernutzen und regulatorischen Vorgaben möglich.

  • Vertrauensindex

    Messen von Nutzervertrauen durch Umfragen und Verhaltensdaten.

  • Nutzwert-KPI

    Auswirkung der KI-Funktion auf konkrete Nutzungsziele.

  • Bias- und Fairness-Messgrößen

    Quantitative Indikatoren zur Überwachung systematischer Verzerrungen.

Google People + AI Guidebook (Designbeispiel)

Praxisnahe Anleitung für nutzerzentrierte KI-Interaktion und Designentscheidungen.

Unternehmensrichtlinien gemäß OECD-Prinzipien

Implementierung von Prinzipien zur verantwortungsvollen KI-Nutzung in Governance-Prozessen.

Erklärbare Empfehlungsdienste mit Nutzertests

Pilotprojekt, das Erklärungen, Feedback-Loops und Akzeptanzmessung kombiniert.

1

Bedarfsanalyse durchführen und Stakeholder einbeziehen

2

Prototypen bauen und mit Nutzern testen

3

Governance-Richtlinien definieren und Monitoring einrichten

⚠️ Technische Schulden & Engpässe

  • Fehlende Instrumente zur laufenden Bias-Überwachung
  • Inkonsistente Erklärungs-APIs über Komponenten hinweg
  • Unzureichend dokumentierte Governance-Entscheidungen
NutzerforschungskapazitätErklärungsfähige ModelleGovernance-Prozesse
  • Deployment einer KI-Funktion ohne Nutzertests zur Vertrauensbildung
  • Irreführende Erklärungen, die Unsicherheiten verschleiern
  • Personalisierung ohne Prüfung auf diskriminierende Effekte
  • Verwechslung von Erklärbarkeit mit Korrektheit
  • Zu enge Nutzersegmente, die systemische Folgen übersehen
  • Überschätzung technischer Lösungen für soziale Probleme
Nutzerforschung und Usability-TestingGrundlegendes Verständnis von ML-ModellenKenntnisse zu Ethik, Recht und Governance
Transparenzanforderungen gegenüber Nutzern und PrüfernSkalierbarkeit von Feedback- und MonitoringprozessenInterdisziplinäre Integration von Design, Recht und ML
  • Datenschutz- und regulatorische Vorgaben
  • Begrenzte Ressourcen für Nutzerforschung
  • Technische Grenzen bei Erklärbarkeit und Robustheit