Die 5 wichtigsten LLMO-Techniken
Überblick
LLM-Optimierung basiert auf fünf Kernbereichen. Jeder trägt dazu bei, dass KI-Systeme deine Inhalte besser verstehen und zitieren können.
1. Schema.org JSON-LD
Wichtigkeit: Kritisch
Strukturierte Daten im JSON-LD Format sagen LLMs exakt was deine Seite enthält: Bist du eine Person, Organisation, ein Service? Was sind deine Angebote, deine Expertise, dein Standort?
{
"@type": "Person",
"name": "Max Mustermann",
"jobTitle": "Business Coach",
"knowsAbout": ["Führung", "Kommunikation", "Teambuilding"]
}
Schema.org ist die Sprache der Maschinen. Ohne sie raten LLMs – und liegen oft falsch.
2. Semantisches HTML5
Wichtigkeit: Sehr hoch
Tags wie <article>, <section>, <nav> und <aside> geben LLMs Kontext.
Schlecht:
<div class="content">
<div class="text">...</div>
</div>
Gut:
<article>
<section>...</section>
</article>
Eine “div-Suppe” ohne semantische Struktur ist für KI schwer zu parsen. Semantisches HTML ist wie ein Inhaltsverzeichnis für Maschinen.
3. Server-Side Rendering
Wichtigkeit: Sehr hoch
LLMs können kein JavaScript ausführen. Was client-seitig gerendert wird (React SPAs ohne SSR), existiert für ChatGPT nicht.
| Rendering | LLM sieht |
|---|---|
| Server-Side (SSR) | ✅ Alles |
| Static Site Generation | ✅ Alles |
| Client-Side Only | ❌ Leere Shell |
Frameworks wie Astro, Next.js oder Nuxt lösen das Problem.
4. Zitierbare Content-Struktur
Wichtigkeit: Hoch
Formuliere Inhalte so, dass sie direkt als Antwort genutzt werden können:
- Definitionen am Anfang (“X ist…”)
- FAQ-Blöcke mit klaren Frage-Antwort-Paaren
- Listen mit konkreten Punkten
- Schritt-für-Schritt-Anleitungen
Die ersten 80 Tokens deiner Seite sind besonders wichtig – Perplexity nutzt sie oft für direkte Antworten.
5. llms.txt & AI-Crawler
Wichtigkeit: Ergänzend
Die llms.txt Datei gibt KI-Crawlern spezifische Informationen über deine Website:
# Über diese Website
Diese Website gehört Max Mustermann, Business Coach in Berlin.
# Expertise
- Führungskräfte-Coaching
- Team-Entwicklung
- Kommunikationstraining
Zusätzlich solltest du in robots.txt prüfen, ob GPTBot, ClaudeBot und PerplexityBot deine Seiten crawlen dürfen.
Prioritäten
| Technik | Aufwand | Impact |
|---|---|---|
| Schema.org | 2-4 Stunden | Sehr hoch |
| Semantisches HTML | 2-4 Stunden | Hoch |
| SSR/SSG | Variiert* | Kritisch |
| Content-Struktur | 1-2 Stunden | Mittel |
| llms.txt | 30 Minuten | Niedrig |
*SSR-Umstellung kann bei bestehenden SPAs mehrere Tage dauern.