Manuelles Testen
Praktische, nicht-automatisierte Testmethode zur Erkennung von Fehlern, Usability-Problemen und Abweichungen durch menschliche Überprüfung.
Klassifikation
- KomplexitätMittel
- AuswirkungOrganisatorisch
- EntscheidungstypOrganisation
- OrganisationsreifeFortgeschritten
Technischer Kontext
Prinzipien & Ziele
Use Cases & Szenarien
Kompromisse
- Fehlende Automatisierung führt zu verzögerten Regressionstests.
- Wenig strukturierte Sessions können zu unvollständiger Abdeckung führen.
- Wissen und Erfahrung einzelner Tester schaffen Abhängigkeiten.
- Kurze, zeitboxte Explorationssitzungen mit klaren Zielen.
- Checklisten und Session-Charters zur Wiederholbarkeit nutzen.
- Funde sofort in ein Issue-Tracker-System überführen.
I/O & Ressourcen
- Requirement- oder User-Story-Beschreibungen
- Build/Release-Instanz und Testumgebung
- Zugängliche Testdaten und ggf. Benutzerkonten
- Fehlerberichte mit Reproduktionsschritten
- Kurz- und Langberichte für Entscheidungsgremien
- Vorschläge für Testfall-Automatisierung
Beschreibung
Manuelles Testen ist eine strukturierte Methodik zur Qualitätsprüfung von Software durch menschliche Tester. Es umfasst explorative, funktionale und Regressionstests ohne Automatisierung und ist besonders effektiv bei Usability-, visuell auffindbaren und ad-hoc-Problemen. Es ergänzt automatisierte Tests und unterstützt Risikoerkennung und Testdesign.
✔Vorteile
- Findet usability- und UI-bezogene Probleme, die automatisiert schwer zu erkennen sind.
- Schnelle Risikoerkennung bei neuen oder unklaren Anforderungen.
- Flexibel bei ad-hoc-Untersuchungen und Explorationssitzungen.
✖Limitationen
- Skalierbarkeit begrenzt: hoher manueller Aufwand bei großen Testflächen.
- Schwer reproduzierbare Ergebnisse ohne klare Dokumentation.
- Subjektivität der Tester kann konsistente Bewertung erschweren.
Trade-offs
Metriken
- Defect Detection Rate
Anteil gefundener Defekte pro Testaufwandseinheit; zeigt Effektivität manueller Sitzungen.
- Testdurchlaufdauer
Zeit von Teststart bis Testabschluss für definierte Szenarien; misst Effizienz.
- Escaped Defects
Anzahl der in Produktion entdeckten Fehler, die vor Release nicht gefunden wurden.
Beispiele & Implementierungen
Exploratives Testing bei Feature-Launch
Ein Team führte vor dem Launch explorative Sessions durch und entdeckte mehrere Usability-Probleme, die vor dem Release behoben wurden.
Abnahmetest mit PO
Der Product Owner validierte interaktiv Akzeptanzkriterien; kleinere Anpassungen wurden sofort dokumentiert.
Regressionstest nach Hotfix
Nach einem dringenden Hotfix wurde ein manueller Smoke- und Regrssionstest ausgeführt, um Nebenwirkungen zu identifizieren.
Implementierungsschritte
Ziele und Fokusbereiche festlegen (Scope & Risiken).
Testumgebung vorbereiten und Zugang sicherstellen.
Explorative und strukturierte Sessions durchführen.
Ergebnisse dokumentieren, priorisieren und nachverfolgen.
⚠️ Technische Schulden & Engpässe
Tech Debt
- Fehlende Automatisierung für wiederkehrende Smoke-Tests.
- Keine zentralen Checklisten oder Session-Charters aufgebaut.
- Unvollständige Dokumentation explorativer Sessions.
Bekannte Engpässe
Beispiele für Missbrauch
- Vertrauen ausschließlich auf manuelle Tests bei hohem Release-Tempo.
- Manuelles Testen ohne Priorisierung führt zu verschwendetem Aufwand.
- Tester dokumentieren Findings nicht ausreichend für Reproduktion.
Typische Fallen
- Unterschätzung des Aufwands für Regressionstests.
- Verwechseln explorativer Befunde mit abgeschlossenen Tests.
- Mangelnde Kontextinformation erschwert Fehleranalyse.
Erforderliche Fähigkeiten
Drivers (Architectural Drivers)
Constraints
- • Zeitliche Beschränkungen vor Releases limitieren Umfang.
- • Nicht jede Plattform erlaubt vollständige manuelle Prüfungen.
- • Erfahrene Tester sind begrenzt verfügbar.