Diese Seite gibt einen kompakten Überblick über alle Szenarien (Testfälle) im LLM Simulator und erläutert jeweils ihren Zweck und didaktischen Nutzen. Ein Testfall ist hier kein technischer Test, sondern ein didaktisch gestalteter Beobachtungsfall.
Was ist ein Testfall im LLM Simulator?
Ein Testfall zeigt gezielt einen Aspekt der Verarbeitung eines LLM, um:
- ein mentales Modell aufzubauen
- oder ein typisches Missverständnis zu korrigieren
Jeder Testfall verfolgt genau einen didaktischen Claim.
Überblick über alle Testfälle
| ID | Titel (Kurzform) | Sinn des Testfalls | Adressiertes Missverständnis |
|---|---|---|---|
baseline-hund | Text entsteht Schritt für Schritt | 🟦 Zeigt das Next-Token-Prinzip als Grundmechanik eines LLM | „Das Modell denkt erst und formuliert dann eine Antwort.“ |
kompositum-hundeleine | Subwords statt Wörter | 🟦 Erklärt, womit ein LLM tatsächlich arbeitet (Tokens) | „Das Modell verarbeitet ganze Wörter oder Begriffe.“ |
posenc-hund-hund-hund | Position ist Information | 🟩 Macht sichtbar, dass identische Tokens je nach Position unterschiedlich wirken | „Gleiche Wörter haben immer dieselbe Bedeutung.“ |
roles-mann-sieht-hund | Reihenfolge & Rollen (A) | 🟩 Zeigt, wie Reihenfolge Beziehungen und Rollen bestimmt | „Die Bedeutung bleibt gleich, wenn die Wörter gleich sind.“ |
roles-hund-sieht-mann | Reihenfolge & Rollen (B) | 🟩 Kontrastfall zum vorherigen Szenario | „Das Modell erkennt Rollen unabhängig von Wortstellung.“ |
embeddings-semantic-clusters | Nähe im Bedeutungsraum | 🟩 Veranschaulicht semantische Nähe als räumliche Repräsentation | „Bedeutung entsteht erst durch Regeln oder Attention.“ |
attention-hund-beisst-mann | Attention als Kontextgewichtung | 🟨 Zeigt, wie Tokens sich aufeinander beziehen | „Attention bedeutet Verstehen oder Denken.“ |
limits-bank-geschlossen | Mehrdeutigkeit ohne Kontext | 🟨 Macht Grenzen sichtbar, wenn Kontext fehlt | „Das Modell müsste wissen, was gemeint ist.“ |
decoding-der-hund-ist-ein | Auswahl plausibler Fortsetzungen | 🟥 Erklärt, warum Antworten variieren | „Das Modell kennt die richtige Antwort.“ |
attention-mlp-followup | MLP als Transformationsschritt | 🟪 Vervollständigt die Pipeline ohne Mystifizierung | „Im MLP passiert das eigentliche Denken.“ |
Einordnung nach didaktischer Funktion
Zur Orientierung lassen sich die Testfälle grob einteilen:
🟦 Fundament
baseline-hundkompositum-hundeleine
→ schaffen das Grundverständnis, wie ein LLM arbeitet
🟩 Struktur & Bedeutung
posenc-hund-hund-hundroles-*embeddings-semantic-clusters
→ zeigen, wie Bedeutung aus Struktur und Repräsentation entsteht
🟨 Kontext & Grenzen
attention-hund-beisst-mannlimits-bank-geschlossen
→ erklären Kontextbildung und deren Grenzen
🟥 Auswahl & Variation
decoding-der-hund-ist-ein
→ erklärt Antwortvariation und Unsicherheit
🟪 Epilog
attention-mlp-followup
→ ergänzt das Gesamtbild für technisch Interessierte
Wie diese Übersicht zu lesen ist
- Die Szenarien können einzeln genutzt werden
- Zusammen ergeben sie einen konsistenten Lernpfad
- Kein Szenario ist zufällig – jedes korrigiert ein konkretes Fehlbild
Diese Seite dient als Navigations- und Referenzpunkt
für die detaillierten Einzeldokumentationen der Testfälle.