System Verification
Prüfkonzept zur Verifikation des Gesamtsystems gegen spezifizierte Anforderungen auf System- und Schnittstellenebene.
Klassifikation
- KomplexitätMittel
- AuswirkungTechnisch
- EntscheidungstypArchitektur
- OrganisationsreifeFortgeschritten
Technischer Kontext
Prinzipien & Ziele
Use Cases & Szenarien
Kompromisse
- Übermäßiges Vertrauen in Tests kann Spezifikationsmängel verschleiern.
- Unvollständige Testfälle führen zu falsch positivem Sicherheitsgefühl.
- Zeitdruck kann zu unzureichender Systemintegration und unentdeckten Schnittstellenfehlern führen.
- Frühe Planung von Verifikationstests bereits in der Spezifikationsphase
- Automatisierung wiederholbarer Systemprüfungen
- Sicherstellen von Traceability zwischen Anforderungen und Tests
I/O & Ressourcen
- Systemanforderungen und Akzeptanzkriterien
- Integrations- und Schnittstellendokumentation
- Testumgebung und Testdaten
- Testprotokolle und Abnahmeberichte
- Gefundene Fehler und Maßnahmenpläne
- Freigabestatus für Release
Beschreibung
System Verification stellt sicher, dass ein gesamtes System die spezifizierten Anforderungen korrekt und vollständig erfüllt. Sie umfasst Integrationstests, Abnahmeprüfungen und Nachweise auf Systemebene, um Fehler, Schnittstellenprobleme und Anforderungen nachzuweisen. Sie ergänzt die Validation, die fragt, ob das richtige System gebaut wurde.
✔Vorteile
- Frühzeitige Erkennung von Integrationsproblemen reduziert Kosten im Betrieb.
- Erhöht Systemzuverlässigkeit durch gezielte Systemtests.
- Verbessert Nachweisbarkeit gegenüber Stakeholdern und Auditoren.
✖Limitationen
- Verifikation beweist Korrektheit gegenüber Spezifikation, nicht Zweckmäßigkeit.
- Aufwendige Testumgebungen können hohen initialen Aufwand erfordern.
- Nicht alle Fehlerklassen (z. B. Spezifikationsfehler) werden allein durch Verifikation entdeckt.
Trade-offs
Metriken
- Fehlerdichte auf Systemebene
Anzahl der gefundenen Fehler pro getesteten Systemfunktionalität.
- Testabdeckungsgrad der Integrationsszenarien
Prozentsatz der definierten Integrationsszenarien, die ausgeführt wurden.
- Mean Time To Detect (MTTD) Integrationsfehler
Mittlere Zeit bis zur Entdeckung von Integrationsfehlern nach Build-Deployment.
Beispiele & Implementierungen
Automotive E/E-System Abnahme
Verifikation der Gesamtelektrik/Elektronik gegen Sicherheits- und Funktionsanforderungen.
Flugsteuerungssoftware Integrationstest
Systemtests mit Hardware-in-the-loop zur Nachweisung korrekter Flugreglungen.
Cloud-Plattform Release-Validierung
End-to-end Verifikation von API, Authentifizierung und Observability vor Go-Live.
Implementierungsschritte
Definition von Systemanforderungen und Akzeptanzkriterien
Aufbau einer reproduzierbaren Integrations- und Testumgebung
Entwicklung und Automatisierung systemweiter Testszenarien
Messen, Auswerten und Nachverfolgen von Abweichungen bis zur Freigabe
⚠️ Technische Schulden & Engpässe
Tech Debt
- Fehlende Automatisierung für kritische Systemtests
- Veraltete Testumgebungen, die nicht reproduzierbar sind
- Keine Traceability zwischen Anforderungen und Testfällen
Bekannte Engpässe
Beispiele für Missbrauch
- Verifikation zum Ersatz für unklare Anforderungen erklären
- Alle Prüfungen manuell durchführen, obwohl Automatisierung möglich wäre
- Verifikationsergebnisse nicht qualifizieren oder nachverfolgen
Typische Fallen
- Verwechslung von Verification und Validation
- Unvollständige Schnittstellendokumentation führt zu Fehltests
- Testdaten nicht repräsentativ für Produktionslast
Erforderliche Fähigkeiten
Drivers (Architectural Drivers)
Constraints
- • Vertraulichkeit und Zugriffsbeschränkungen auf Produktionsdaten
- • Hardwareverfügbarkeit für Integrationstests
- • Zeitliche Begrenzung vor Release-Fenstern