Transformer
Transformer sind eine Deep-Learning-Architektur, die auf Self-Attention basiert und effiziente Verarbeitung sequenzieller Daten ermöglicht. Sie lösten Rekurrenz in der NLP ab und treiben großskalige Modelle für Sprache, Vision und multimodale Aufgaben voran. Transformer erlauben Parallelisierung und Langkontextmodellierung, benötigen aber viel Rechenleistung und Daten.
Dieser Baustein bündelt Grundinformationen, Kontext und Beziehungen – als neutrale Referenz im Modell.
Definition · Einordnung · Trade-offs · Beispiele
Worum geht es hier?
Diese Seite bietet einen neutralen Einstieg mit Kerndaten, Strukturkontext und direkten Beziehungen – unabhängig von Lern- oder Entscheidungswegen.
Basisdaten
Kontext im Modell
Strukturelle Einordnung
Verortung in der Struktur.
Keine Strukturpfade verfügbar.
Beziehungen
Verknüpfte Bausteine
Direkt verbundene Content-Elemente.