Human-Centered AI
Ein Konzept zur Gestaltung von KI-Systemen, bei dem menschliche Bedürfnisse, Werte und Arbeitsabläufe im Mittelpunkt stehen.
Klassifikation
- KomplexitätMittel
- AuswirkungOrganisatorisch
- EntscheidungstypOrganisation
- OrganisationsreifeFortgeschritten
Technischer Kontext
Prinzipien & Ziele
Use Cases & Szenarien
Kompromisse
- Scheinbare Nutzerzentrierung ohne echte Beteiligung (Tokenism).
- Übermäßiges Vertrauen in erklärende Oberflächen trotz Modellunsicherheit.
- Vernachlässigung systemischer Auswirkungen zugunsten individueller Nutzbarkeit.
- Frühe und kontinuierliche Nutzerbeteiligung integrieren
- Transparenz über Grenzen und Unsicherheiten bereitstellen
- Interdisziplinäre Reviews und Pre-Release-Checks durchführen
I/O & Ressourcen
- Nutzerforschung und Kontextanalysen
- Modell- und Datenqualitätsevaluierungen
- Rechtliche und ethische Rahmenbedingungen
- Designs und Interfaces mit Erklärbarkeit
- Governance-Richtlinien und Verantwortungszuteilung
- Metriken zur Überwachung von Nutzen und Schaden
Beschreibung
Human-Centered AI fokussiert die Gestaltung und Entwicklung von KI-Systemen, die menschliche Bedürfnisse, Werte und Arbeitsabläufe in den Mittelpunkt stellen. Es verbindet nutzerzentriertes Design, ethische Prinzipien und technische Robustheit, um vertrauenswürdige, verständliche und verantwortungsvolle KI-Lösungen in Organisationen einzuführen. Es ist anwendbar auf Produktstrategie, Architektur und Governance.
✔Vorteile
- Höheres Nutzervertrauen und bessere Akzeptanz von KI-Funktionen.
- Reduzierte Risiken durch frühzeitige Identifikation von Schaden.
- Bessere Produktentscheidungen durch Einbindung realer Nutzerbedürfnisse.
✖Limitationen
- Erfordert zusätzlichen Aufwand für Forschung und Tests.
- Nicht alle Qualitätsanforderungen lassen sich rein nutzerzentriert lösen.
- Konflikte zwischen Nutzernutzen und regulatorischen Vorgaben möglich.
Trade-offs
Metriken
- Vertrauensindex
Messen von Nutzervertrauen durch Umfragen und Verhaltensdaten.
- Nutzwert-KPI
Auswirkung der KI-Funktion auf konkrete Nutzungsziele.
- Bias- und Fairness-Messgrößen
Quantitative Indikatoren zur Überwachung systematischer Verzerrungen.
Beispiele & Implementierungen
Google People + AI Guidebook (Designbeispiel)
Praxisnahe Anleitung für nutzerzentrierte KI-Interaktion und Designentscheidungen.
Unternehmensrichtlinien gemäß OECD-Prinzipien
Implementierung von Prinzipien zur verantwortungsvollen KI-Nutzung in Governance-Prozessen.
Erklärbare Empfehlungsdienste mit Nutzertests
Pilotprojekt, das Erklärungen, Feedback-Loops und Akzeptanzmessung kombiniert.
Implementierungsschritte
Bedarfsanalyse durchführen und Stakeholder einbeziehen
Prototypen bauen und mit Nutzern testen
Governance-Richtlinien definieren und Monitoring einrichten
⚠️ Technische Schulden & Engpässe
Tech Debt
- Fehlende Instrumente zur laufenden Bias-Überwachung
- Inkonsistente Erklärungs-APIs über Komponenten hinweg
- Unzureichend dokumentierte Governance-Entscheidungen
Bekannte Engpässe
Beispiele für Missbrauch
- Deployment einer KI-Funktion ohne Nutzertests zur Vertrauensbildung
- Irreführende Erklärungen, die Unsicherheiten verschleiern
- Personalisierung ohne Prüfung auf diskriminierende Effekte
Typische Fallen
- Verwechslung von Erklärbarkeit mit Korrektheit
- Zu enge Nutzersegmente, die systemische Folgen übersehen
- Überschätzung technischer Lösungen für soziale Probleme
Erforderliche Fähigkeiten
Drivers (Architectural Drivers)
Constraints
- • Datenschutz- und regulatorische Vorgaben
- • Begrenzte Ressourcen für Nutzerforschung
- • Technische Grenzen bei Erklärbarkeit und Robustheit