Pillar Page
AI Visibility Monitoring & KPIs
Messe, ob AI-Suchen euch zitieren und konvertieren.
Monitoring Playbook
Was du messen musst
AI Visibility braucht eigene KPIs: Citations in Answer-Engines, Brand Mentions, Traffic-Qualität, Conversion-Raten. Dieses Playbook definiert Events, Dashboards und Alerts.
KPIs definieren
AI Citations & Mentions: Wie oft nennen AI-Snippets eure Brand/Domain?
Engagement: Scrolltiefe, Zeit bis CTA, Formular-Abbrüche nach Locale/Device.
Technik: Fehlerquoten, Renderzeiten, Bot-Coverage pro Verzeichnis.
Business: Leads/SQLs pro Cluster, Assisted Conversions durch Answer-Content.
Dashboards & Instrumentation
Trenne AI-Traffic von klassischem Organic (Events, Source/Medium, Bot-Logs).
Build vs. Buy: Eigenes Warehouse + Looker/Metabase oder spezialisierte AI-Visibility-Tools.
Event-Taxonomie: Quelle (AI/Organic/Direct), Intent, Locale, Device, CTA-Typ.
Forecasting & Alerts
Base-Line setzen je Cluster/Locale, dann Frühwarn-Indikatoren für Sichtbarkeitsverluste.
Alerts bei Bot-Drops, 4xx/5xx-Spikes, Schema-Fehlern, CTR-Einbrüchen.
Predictive Signals: Veränderte Crawl-Frequenz, zurückgehende Snippet-Einblendungen, Rückgang bei Zero-Click-Anteilen.
Reporting & Ownership
Verantwortlichkeiten pro Cluster/Locale definieren. Weeklies mit klaren Actions.
Postmortems bei Ausfällen (Redirects, Schema, Tracking) dokumentieren.
Playbook für Incident-Response: Owner, Timeline, Fix, Learnings, Rollback.
Beispiele
KPI-Board: AI Citations, Bot-Coverage, CTR auf CTAs, Form Completion Rate.
Event-Taxonomie: Source (AI/Organic/Direct), Locale, Device, Intent.
Alert-Setup: 5xx-Rate, Crawl-Drops, Schema Errors, CTR-Drops, Bounce-Anomalien.
Nächster Schritt