Brand Mentions in KI-Antworten

Picture of Ferenc Collinet
Ferenc Collinet

Brand Mentions: Das Wichtigste in Kürze

  • Brand Mentions in KI-Antworten = Nennung einer Marke im Antworttext; AI Citations = verlinkte oder klar benannte Quelle. Beides sind getrennte Signale: Mention für Präsenz, Citation für nachvollziehbare Referenz.
  • Gemessen wird pro definiertem Prompt-Set: ob Ihre Marke genannt wird, ob Quellen zitiert werden, und wie Sie gegen Wettbewerber abschneiden. Basis-KPIs: Mention-Rate, Citation-Rate, AI Share of Voice, Sentiment.
  • Prompts müssen standardisiert sein: gleiche Sprache, Region, Format, keine Marken-Bias-Formulierungen. Dokumentieren: Prompt-ID, Datum, Modell, Antworttext, Quellen. Nur so sind Trends über Wochen vergleichbar, trotz Modell-Updates.
  • KI nennt Marken bevorzugt, wenn Informationen konsistent und wiederholt im Web vorkommen: gleiche Brand-Entity, klare Fakten, eindeutige Produktkategorien, Originaldaten und nachvollziehbare Methodik. Offsite-Erwähnungen, Reviews und Fachquellen verstärken den Konsens.
  • Optimierung folgt einer Reihenfolge: Baseline messen, Content auf zitierfähige Blöcke strukturieren (Definitionen, Kriterien, FAQs), Entity- und Source-Signale absichern, Offsite-Distribution planen, dann Re-Test. Externe Quellen am Artikelende listen.

Was sind Brand Mentions & AI Citations in KI-Antworten?

Eine Brand Mention liegt vor, wenn eine KI-Antwort Ihre Marke im Antworttext nennt – als Anbieterempfehlung, in einer Vergleichsliste oder als konkrete Option („Für X passt Marke Y“). Als Mention zählen auch eindeutig zuordenbare Varianten wie Produktlinien oder (wenn eindeutig) die Domain.

Eine AI Citation liegt vor, wenn die Antwort eine Quelle explizit nennt oder verlinkt, aus der Informationen stammen (z. B. Quellenbox, Fußnoten, „Sources“). In diesem Artikel behandeln wir Citations als nachvollziehbare Referenzen hinter einer Aussage; Details siehe Glossar zu AI Citations.

Warum die Abgrenzung wichtig ist:

Mentions beantworten, ob Sie überhaupt in Antworten auftauchen. Citations beantworten, ob Sie als Quelle/Referenz herangezogen werden. Für Reporting werden beide separat gezählt, weil sie unabhängig voneinander auftreten können.

Was zählt als Mention 

  • Exakte Nennung: Markenname im Text.
  • Eindeutige Variante: Produktname/Markenlinie, wenn klar zuordenbar.
  • Domain als Marke: wenn die Domain stellvertretend für die Marke verwendet wird.
  • Mehrfachnennungen: im Standard-Reporting meist als „Mention vorhanden: ja/nein“ pro Prompt; zusätzliche Nennungen optional separat.

Grenzfälle, damit Monitoring sauber bleibt:

  • Abkürzungen nur zählen, wenn sie eindeutig Ihrer Marke zugeordnet sind.
  • Homonyme nicht zählen, wenn der Begriff mehrere Bedeutungen/Marken haben kann.
  • Negativ-Kontext bleibt eine Mention; Sentiment wird separat erfasst.

Abgrenzung zu Backlinks: Backlinks sind Verweise zwischen Websites. Mentions/Citations sind Elemente innerhalb von KI-Antworten und werden über Prompt-Tests beobachtet – sie ersetzen keine Linkanalyse, sondern ergänzen sie als eigenes Messobjekt.

Wo Brand Mentions typischerweise auftauchen

Chatbots (z. B. ChatGPT, Gemini):

Mentions erscheinen häufig direkt im Fließtext, etwa als Empfehlungen, Vergleichslisten oder „Top‑Optionen“. Citations können vorkommen, sind aber je nach Modus/Antwortformat nicht verlässlich vorhanden. Fürs Monitoring heißt das: Mentions immer separat zählen und Citations nur dann erfassen, wenn das System sie tatsächlich ausgibt.

Answer Engines mit Quellenfokus (z. B. Perplexity):

Mentions treten hier oft gemeinsam mit Quellen auf. Das ist fürs Reporting praktisch, weil Sie nicht nur „ob genannt“, sondern auch „wodurch begründet“ dokumentieren können (Quellendomains, wiederkehrende Referenzen, Quellenvielfalt). Ein bewährter Standard ist ein Datensatz pro Prompt mit Feldern für Mention/Citation, Quellenliste, Wettbewerber‑Mentions und Sentiment.

Suchoberflächen mit generativen Modulen (z. B. Google AI Overviews):

Mentions erscheinen oft in kompakten Zusammenfassungen, Empfehlungen oder Best‑of‑Blöcken; Citations werden typischerweise als Quellen/Links neben oder unter dem Modul angezeigt. Für Messbarkeit müssen Sie das AI‑Modul strikt vom organischen Ranking trennen, weil Mentions im Modul auch ohne Top‑Rankings vorkommen können (und umgekehrt).

Minimalstandard fürs Tracking

  • Prompt/Query: exakte Formulierung + Variante (wenn A/B getestet).
  • Kontext: Sprache, Region, Zeitpunkt, Modell/Modus.
  • Output: Antworttext vollständig, Markenliste, Wettbewerberliste.
  • Quellen: alle Citations (falls vorhanden).
  • Qualität: Sentiment + „Fakten korrekt?“ (Brand‑Safety‑Check).

Wenn Sie diese Oberflächen systematisch gemeinsam betrachten wollen, orientieren Sie sich am Vorgehen aus unserem KI‑SEO Hub: erst Baseline, dann Maßnahmen, dann Re‑Test im gleichen Prompt‑Set.

Warum Brand Mentions jetzt ein KPI sind

Brand Mentions werden zum KPI, weil KI‑Oberflächen Marken aktiv empfehlen, vergleichen oder als Standardlösung nennen. Damit entsteht ein messbarer Sichtbarkeitseffekt im Antworttext – unabhängig davon, ob ein Klick stattfindet. Für Reporting heißt das: Neben Traffic‑KPIs brauchen Sie ein separates KPI‑Set für KI‑Antworten.

Was die Daten nahelegen (Priorisierung, keine Kausalität)

Ahrefs hat dafür große Brand‑Samples ausgewertet. In einer Analyse von 75.000 Brands zeigten Brand Web Mentions die stärkste Korrelation mit der Sichtbarkeit einer Marke in Google AI Overviews (0,664). Backlink‑Metriken korrelierten deutlich schwächer (z. B. Backlinks 0,218). Quelle: Ahrefs‑Studie.

In neueren Ahrefs‑Korrelationen über mehrere KI‑Oberflächen (ChatGPT, Google AI Mode, AI Overviews) korrelieren zudem YouTube‑Erwähnungen sehr stark mit AI‑Visibility (rund 0,737), während branded web mentions weiterhin hoch bleiben (ca. 0,66–0,71). Quelle: Ahrefs‑Multi‑Surface.

Warum klassische Rankings das nicht sauber abbilden

KI‑Sichtbarkeit ist nicht identisch mit organischer Sichtbarkeit. In einer SEMrush‑Auswertung (geteilt von Marcus Tober) lag die Überlappung der Brand Visibility zwischen organischen Google‑Ergebnissen und dem Google AI Mode bei etwa 15 %. Das ist ein Hinweis darauf, dass Ranking‑KPIs KI‑Nennungen nur begrenzt erklären und eigene Messreihen notwendig sind. Quelle: SEMrush‑/Tober‑Hinweis.

Praxis-Übersetzung

Sie definieren ein Prompt‑Set und messen über Zeit, wie häufig Ihre Marke genannt und wie häufig sie zitiert wird. Erst damit werden Maßnahmen bewertbar (Content‑Struktur, Entity‑Konsistenz, Offsite‑Erwähnungen). Die Quellen sind jeweils an der Stelle im Text verlinkt.

KPI‑Set 

Mention‑Rate: Anteil der Prompts, in denen Ihre Marke im Antworttext vorkommt.

  • Citation‑Rate: Anteil der Prompts, in denen eine Quelle zu Ihrer Marke/Website genannt wird (falls das System Quellen ausgibt).
  • AI Share of Voice: Anteil Ihrer Mentions im Vergleich zu Wettbewerbern pro Prompt‑Cluster
  • Sentiment: Einordnung der Mention (positiv/neutral/negativ) als separates Feld, nicht „gefühlt“ im Text.
  • Accuracy/Brand Safety: Flag, ob die KI falsche Aussagen über Produkt, Preise, Verfügbarkeit oder Leistungsversprechen macht.

Reporting‑Regeln (damit Stakeholder die Zahlen akzeptieren):

  • Gleicher Prompt‑Korpus: keine neuen Fragen „dazumischen“, sondern in Releases messen (z. B. monatlich).
  • Gleicher Kontext: Sprache, Region, Gerät/Modus und Zeitpunkt dokumentieren; sonst sind Trends nicht vergleichbar.
  • Wettbewerber‑Set fixieren: 3–10 direkte Alternativen; nicht pro Report wechseln.
  • Änderungen versionieren: Prompt‑Formulierungen und KPI‑Definitionen sind Teil der Messmethode und müssen stabil bleiben.

Wie KI entscheidet, welche Marken erwähnt oder zitiert werden

KI‑Oberflächen nennen Marken nicht „zufällig“. Sie erzeugen Antworten aus Informationen, die zum Prompt passen, und verknüpfen diese (je nach Oberfläche) mit Quellen. Für Google gilt aus Publisher‑Sicht: AI Overviews und AI Mode sind Suchfunktionen, die Inhalte aus dem Web in AI‑Erlebnissen verwenden; Google beschreibt dazu explizit „AI features and your website“ als Orientierung für Website‑Betreiber. Quelle: Google Search Central: AI features and your website.

1) Intent‑Fit und Passage‑Tauglichkeit

Wenn der Prompt eine konkrete Auswahlfrage ist („beste X für Y“), werden Marken bevorzugt genannt, die in vielen Quellen klar in genau diesem Kontext vorkommen (Kategorie, Use‑Case, Einschränkungen). In der Praxis entscheidet oft nicht die „beste Seite“, sondern die passende Passage: kurze, eindeutige Definitionen, Kriterienlisten und Vergleichsabsätze lassen sich leichter extrahieren und zusammenführen.

2) Konsens über mehrere Quellen (Source Authority)

Für Brand Mentions zählt, ob es im Web einen wiederholbaren Konsens gibt: gleiche Einordnung, ähnliche Begriffe, ähnliche Kategorien, wiederkehrende Belege. Je häufiger Ihre Marke in unabhängigen, thematisch passenden Quellen im gleichen Kontext auftaucht, desto leichter entsteht ein „Konsens‑Signal“. Das ist der Kern von Source‑Signalen und Quellenautorität.

3) Entity‑Klarheit: „Welche Marke ist gemeint?“

KI kann Marken nur zuverlässig nennen, wenn sie die Marke eindeutig zuordnen kann. Praktisch heißt das: konsistente Schreibweise, eindeutige Produkt-/Service‑Zuordnung und saubere Abgrenzung zu ähnlich benannten Begriffen oder Wettbewerbern. Genau diese „Eindeutigkeitsarbeit“ ist ein Teil von Entity‑Optimierung; siehe Entity SEO.

4) Aktualität (Recency) als Filter

Bei Themen mit starker Veränderung (Preise, Verfügbarkeit, Features, „aktuelle Anbieter“) kann Aktualität die Auswahl beeinflussen. Deshalb sollten Aussagen, die leicht veralten, auf der Website und in verweisenden Quellen regelmäßig aktualisiert werden – sonst wird die Marke zwar eventuell genannt, aber in älteren Kontexten.

5) Zitier‑Trigger: Originaldaten und prüfbare Methodik

Citations entstehen wahrscheinlicher, wenn Informationen prüfbar sind: Zahlen, Benchmarks, definierte Kriterien, klare Methodik (wie gemessen, Zeitraum, Scope). Das gilt besonders bei Vergleichsfragen. Wenn Sie Daten veröffentlichen, muss ersichtlich sein, wie die Daten zustande kommen, damit eine Quelle als Referenz taugt.

6) Antwort-Interface bestimmt, wie „Quellen“ sichtbar werden

Nicht jedes System zeigt Quellen gleich an.

Für Ihr Tracking ist das wichtig, weil Citation‑Rate nicht überall gleich messbar ist: In Interfaces ohne sichtbare Quellen bleibt die Mention‑Messung das stabilere Signal.

7) Qualitätsrisiko: Accuracy als Pflichtfeld

Generative Antworten können fehlerhaft sein. Für Google AI Overviews wurden wiederholt irreführende Inhalte dokumentiert; ein aktuelles Beispiel ist eine Untersuchung zu fehlerhaften Gesundheitsinformationen. Quelle: The Guardian: AI Overviews risk harm with misleading health advice.

Das ist kein Randthema für Marken: Wenn Ihre Marke genannt wird, müssen Sie im Monitoring zusätzlich prüfen, ob die Aussage korrekt ist. Genau deshalb gehört Accuracy/Brand Safety als eigenes Feld ins KPI‑Set.

Prompt Tracking & AI Visibility richtig aufsetzen

Wenn Sie Brand Mentions steigern wollen, brauchen Sie zuerst ein Messsystem, das wiederholbar ist. „Einmal prompten und schauen“ ist kein Tracking. Der Kern ist ein festes Prompt‑Set, ein konsistenter Test‑Kontext und eine Auswertung, die Mentions, Citations und Wettbewerber sauber trennt.

1) Prompt‑Set bauen (damit Ergebnisse vergleichbar sind)

Starten Sie nicht mit 200 Prompts, sondern mit einem Set, das Ihre wichtigsten Intents abdeckt und sich 1:1 wiederholen lässt. Bewährt hat sich eine Struktur aus wenigen Clustern: Informationsfragen (Definitionen/„Was ist…?“), Vergleichsfragen („X vs Y“, „beste Anbieter“), Problem‑Lösungsfragen („wie löse ich…?“) und Kaufnahe Fragen („welcher Anbieter für…?“). Wenn Sie das Set einmal definiert haben, wird es zur Messgrundlage.

Wichtig ist die Formulierung: Ein Prompt sollte nicht schon im Satz Ihre Marke bevorzugen („Ist Marke X die beste…?“), sondern neutral bleiben. Sonst messen Sie nicht Sichtbarkeit, sondern Prompt‑Bias.

KI‑Antworten ändern sich. Damit Sie Änderungen interpretieren können, muss der Kontext protokolliert werden. Im Tracking reichen ein paar Felder, aber die müssen immer gleich geführt werden:

  • Prompt/Query (exakt, inkl. Variante)
  • Sprache + Region (z. B. DE/Deutschland)
  • Modell/Modus (z. B. Search an/aus, AI‑Modul ja/nein)
  • Datum/Uhrzeit
  • Antworttext (vollständig)
  • Quellen/Citations (falls vorhanden)

Wenn Sie Prompt Tracking als Prozess dokumentieren wollen, finden Sie ein praxisnahes Vorgehen in der Übersicht zu Prompt Tracking.

3) Auswertung: So machen Sie Mentions messbar (ohne Overengineering)

Die wichtigste Entscheidung ist, ob Sie pro Prompt binär messen (Mention ja/nein) oder zusätzlich die Intensität (z. B. Anzahl Mentions, Platzierung in der Antwort, „Top‑3‑Liste ja/nein“). Für den Start reicht binär – sonst diskutiert man sich in Details fest.

Eine pragmatische Logik für den Start:

  • Pro Prompt genau ein Datensatz.
  • Mentions und Citations getrennt erfassen.
  • Wettbewerber‑Set fixieren (nicht pro Woche ändern).

Für Tools und Reporting‑Frameworks lohnt sich als Referenz eine AI‑Visibility‑Checkliste wie bei OMR oder das Brand‑Mentions‑Grundlagenstück von Semrush.

4) Tool‑Stack: Manuell starten, automatisiert skalieren

Manuell funktioniert, solange Sie die Stichprobe klein halten: 20–50 Prompts pro Monat, klar definierte Cluster, gleiche Messfelder. Sobald Sie mehr Modelle, mehr Länder oder mehr Wettbewerber abdecken, wird Automatisierung relevant – nicht wegen „nice to have“, sondern weil nur so Versionierung, Alerts und Wiederholbarkeit sauber bleiben.

Wichtig: Egal ob manuell oder automatisiert – behalten Sie stichprobenartig einen „Qualitätscheck“ im Prozess. Mentions sind wertlos, wenn die Aussage falsch ist oder Ihre Marke im falschen Kontext genannt wird.

12 Hebel für mehr Brand Mentions

Optimierung ist erst dann „real“, wenn sie messbar wird: Sie nehmen Ihr fixes Prompt‑Set, verbessern gezielt Signale, und prüfen danach wieder im gleichen Kontext. Die folgenden Hebel sind so formuliert, dass sie direkt an Mention‑ und Citation‑KPIs rückkoppelbar sind.

1) Antworten so schreiben, dass sie als Passage funktionieren

KI‑Antworten ziehen häufig kurze Textpassagen, nicht komplette Artikel. Deshalb sollten zentrale Aussagen als kompakte, eindeutige Blöcke existieren: Definition → Abgrenzung → Kriterien. Wenn Sie pro Thema eine „Kurzantwort“ und danach eine saubere Herleitung liefern, steigt die Chance, dass Ihre Aussagen in Antworten wiederverwendet werden.

2) Kriterien statt Marketing‑Sprache

Bei Auswahlfragen („bestes Tool“, „geeignet für…“) werden Marken häufiger genannt, wenn Inhalte messbare Kriterien abdecken: Preislogik, Einsatzgrenzen, Feature‑Set, Setup‑Aufwand, typische Fehlerfälle. Ein kurzer Kriterienabschnitt ist oft wertvoller als ein langer Fließtext ohne harte Unterscheidungsmerkmale.

3) Ein Canonical‑Faktenblatt für Ihre Marke pflegen

Mentions profitieren von Konsistenz. Legen Sie einen zentralen Ort fest (z. B. „Über uns“/„Produkt“) mit stabilen Fakten: exakter Markenname, Produktkategorien, Zielgruppen, Positionierung in 1–2 Sätzen, harte Proof‑Points (Zahlen/Benchmarks, wenn vorhanden). Wenn externe Quellen Ihre Marke widersprüchlich einordnen, wird der Konsens schwächer.

4) Organisations‑Daten für Maschinen eindeutig machen (Structured Data)

Für Google ist Structured Data ein Weg, Informationen klar zu labeln. Eine saubere Organisation‑Auszeichnung kann helfen, administrative Details zu verstehen und die Organisation zu disambiguieren. Quelle: Google Search Central: Organization structured data und Intro zu Structured Data.

5) Bewertungs- und Produktdaten nur korrekt auszeichnen

Wenn Reviews/Rating‑Signale eine Rolle spielen, gilt: Markup nur dann einsetzen, wenn es den Richtlinien entspricht, sonst verlieren Sie Eligibility oder riskieren manuelle Maßnahmen. Quelle: Review snippet structured data und General Structured Data Guidelines.

6) Autoren- und Qualitäts-Signale als Standard setzen

Wenn Inhalte fachlich erklären sollen, wer dahintersteht und wie gearbeitet wird, hilft das bei der Einordnung. Halten Sie Autorenprofile, redaktionelle Zuständigkeiten, Kontakt/Impressum und Aktualisierungslogik konsistent. Als praktische Selbstprüfung eignen sich Googles Leitlinien zu hilfreichem, zuverlässigem Content. Quelle: Creating helpful, reliable, people-first content.

7) Originaldaten als „Zitier‑Magnet“ nutzen

Citations entstehen leichter, wenn Aussagen prüfbar sind. Der schnellste Weg: kleine Benchmarks, Mini‑Studien, Datensätze oder Vergleichstabellen mit transparenter Methodik (Scope, Zeitraum, Definitionen). Entscheidend ist nicht „viel Data“, sondern „klar erklärtes Data“.

8) Distribution dorthin, wo Konsens entsteht

Mentions wachsen, wenn unabhängige Quellen Ihre Marke im richtigen Kontext nennen. Planen Sie Distribution wie ein Portfolio: 2–3 Fachmedien/Newsletter, 2–3 Branchenlisten/Vergleichsseiten, 1–2 Community‑Plattformen. Ziel ist Wiederholung im gleichen Kontext, nicht möglichst viele Erwähnungen ohne Bezug.

9) YouTube als eigener Mention‑Kanal

Ahrefs‑Daten zeigen starke Korrelationen zwischen YouTube‑Erwähnungen und AI‑Visibility. Wenn das zu Ihrer Zielgruppe passt, bauen Sie ein simples Format: „X erklärt“, „Vergleich“, „Fehler vermeiden“, „Setup in 10 Minuten“. Wichtig ist, dass Titel/Description und gesprochenes Wording Ihre Kernkategorien konsistent abbilden. Quelle: Ahrefs‑Multi‑Surface.

10) Reviews & UGC aktiv steuern (weil Sentiment messbar ist)

Mentions sind nicht automatisch positiv. Legen Sie Regeln fest: Antwortzeiten, Standard‑Responses, Eskalation bei kritischen Themen, und monatliche Auswertung (positiv/neutral/negativ). So wird Sentiment ein kontrollierbarer KPI statt „Bauchgefühl“.

11) Konkurrenz‑Prompts als Qualitätskontrolle nutzen

Optimierung ohne Wettbewerbsabgleich ist blind. Ergänzen Sie zum Prompt‑Set ein fixes Set an Vergleichsfragen („X vs Wettbewerber“, „Alternative zu…“). So sehen Sie, ob Mentions nur in generischen Fragen steigen oder auch dort, wo echte Kaufentscheidungen passieren.

12) Accuracy‑Loop: Fehler finden, korrigieren, neu testen

Wenn KI Ihre Marke falsch beschreibt, brauchen Sie einen Korrekturprozess: falsche Behauptung dokumentieren, eigene Inhalte präzisieren (Definitionen, Zahlen, Grenzen), externe Referenzen dort aufbauen, wo die Fehlinformation herkommt, dann Re‑Test im gleichen Prompt‑Set. Accuracy ist kein „Nice‑to‑have“, sondern ein Pflichtfeld, sobald Mentions steigen.

Häufige Fehler & Mythen

Mythos 1: „Wenn ich organisch gut ranke, werde ich auch in KI‑Antworten genannt.“

Organische Rankings und KI‑Nennungen sind getrennte Messwelten. Eine Marke kann in generativen Modulen genannt werden, ohne auf den sichtbaren organischen Top‑Positionen zu stehen – und umgekehrt. Deshalb braucht KI‑Sichtbarkeit ein eigenes Prompt‑Set und eigene KPIs.

Backlinks bleiben relevant, aber sie sind kein Ersatz für konsistenten Markenkontext im Web. Wenn Ihre Marke selten in passenden Kategorien/Use‑Cases erwähnt wird, fehlt der Konsens – selbst bei starken Linkprofilen. Mentions sind ein eigenes Offsite‑Signal, das separat aufgebaut und gemessen werden muss.

Mythos 3: „Mehr Content = automatisch mehr Mentions.“

Mehr Seiten helfen nur, wenn sie eindeutig strukturierte Antworten liefern: Definitionen, Kriterien, Grenzen, klare Beispiele. Viele ähnliche Seiten ohne klare Unterscheidung erhöhen eher Redundanz als Zitierfähigkeit.

Mythos 4: „Ein Prompt reicht, um die Lage zu bewerten.“

Einzelne Prompts sind Momentaufnahmen. Sie brauchen ein fixes Set aus Intent‑Clustern, sonst messen Sie Zufall und Modell‑Varianz. Wenn Sie Prompts ständig ändern, können Sie keine Trends oder Effekte von Maßnahmen belegen.

Mythos 5: „Mentions sind immer gut.“

Eine Mention kann positiv, neutral oder negativ sein. Ohne Sentiment‑Feld und Accuracy‑Check bleibt unklar, ob die Sichtbarkeit Ihrer Marke tatsächlich hilfreich ist oder ob Fehler/negativer Kontext verbreitet werden.

Mythos 6: „Citations kann ich überall gleich messen.“

Nicht jedes Antwort‑Interface zeigt Quellen an. In Oberflächen ohne sichtbare Quellen ist die Citation‑Rate nicht zuverlässig auswertbar; dort ist die Mention‑Rate das stabilere Signal. Sie müssen Ihr KPI‑Set an die jeweilige Oberfläche anpassen.

Fazit

Brand Mentions in KI‑Antworten sind ein eigenständiges Sichtbarkeitssignal und müssen getrennt von organischen Rankings gemessen werden. Der operative Standard ist ein fixes Prompt‑Set, ein protokollierter Test‑Kontext (Sprache, Region, Modus, Datum) und eine Auswertung pro Prompt als Datensatz.

Für Reporting reichen wenige, stabile KPIs: Mention‑Rate, Citation‑Rate (nur wo Quellen sichtbar sind), AI Share of Voice, Sentiment und ein Accuracy/Brand‑Safety‑Flag. Optimierung ist dann ein wiederholbarer Loop: Baseline → Änderungen (passage‑taugliche Antworten, Kriterien, Entity‑Konsistenz, richtlinienkonformes Markup, Offsite‑Konsens) → Re‑Test im identischen Prompt‑Korpus.

Wenn Sie nur eine Regel mitnehmen: Ändern Sie nicht Prompts und Methode gleichzeitig. Sonst sind Deltas nicht interpretierbar.