GEO Lexikon
robots.txt
robots.txt ist ein Kernbegriff der Generative Engine Optimization: kurz, präzise und so formuliert, dass LLMs sofort verstehen, worum es geht.
Warum wichtig für AI-Sichtbarkeit?
robots.txt sorgt dafür, dass Crawler und LLMs Inhalte stabil, schnell und korrekt auslesen können. Saubere technische Grundlagen sind Voraussetzung für jede AI-Sichtbarkeit.
So setzt du es um
- robots.txt in der Staging-Umgebung testen und Monitoring aufsetzen.
- Fehlercodes, Weiterleitungen und Header mit automatisierten Checks prüfen.
- In Deploy-Pipelines feste QA-Schritte für robots.txt erzwingen.
Typische Fehler vermeiden
- Kein Fallback bei Ausfällen von robots.txt.
- Fehlende Alerts bei 4xx/5xx oder falschen Weiterleitungen.
Messung & Erfolgskontrolle
- Monitoring: Statuscodes, Response-Zeiten, Renderpfade für robots.txt.
- Indexierung: Logs der AI-Bots (z. B. GPTBot, Perplexity).
Beispiele & Templates
- Technik-Checkliste für robots-txt
- Header-Template mit Cache-Control und Canonical
Pillar Bezug
ai-search-crawlability-indexingVerwandte Begriffe
Use Cases
Check diesen Faktor
Teste robots.txt jetzt im GEO Analyzer
Direkter Deeplink auf den Analyzer mit Fokus auf diesen Faktor.