Guides

Customer Effort Score (CES): So gestaltet und betreibt man ihn richtig

Kompletter Leitfaden zum CES – von der Originalstudie von Dixon et al. (HBR, 2010) über Berechnungsmethoden und Branchen-Benchmarks bis zum Zusammenspiel mit NPS und CSAT.

„Begeistere deine Kunden." Dieser Slogan war ein Jahrzehnt lang CX-Doktrin – bis ein Artikel von 2010 in der Harvard Business Review, basierend auf 75.000 Kundeninteraktionen, ihn auf den Kopf stellte. „Versucht nicht, eure Kunden zu begeistern. Reduziert stattdessen ihren Aufwand." Diese kontraintuitive Aussage steht am Anfang dessen, was wir heute CES (Customer Effort Score) nennen.

Dieser Leitfaden erklärt, was der CES ist, woher er kommt, wie man ihn berechnet, wie er sich zu NPS und CSAT verhält, wie Benchmarks aussehen und welche operativen Fallstricke Teams im Einsatz antreffen. Der CES erfasst etwas, das CSAT und NPS übersehen – die stille Reibung, die Kunden mit sich tragen – und ist besonders wirkungsvoll im Support und im Customer Success.

1. Was der CES ist – Die HBR-Originalstudie

Der CES entstand im 2010 erschienenen HBR-Artikel von Matthew Dixon, Karen Freeman und Nicholas Toman: „Stop Trying to Delight Your Customers".

Was die 75.000-Interaktionen-Studie ergab

Dixon und Kolleg*innen analysierten über 75.000 Kundeninteraktionen über Support-Kanäle – sowohl agentenunterstützt als auch Self-Service. Ihre Ergebnisse:

  • Kunden zu „begeistern" bewegt die Loyalität kaum (Wiederkauf, Ausgaben, Weiterempfehlung)
  • Den Kundenaufwand zu reduzieren, sagt Loyalität besser voraus als CSAT oder NPS in Service-Kontexten
  • Im Support schlägt „die einfache Lösung" die „unvergessliche Erfahrung" deutlich

Diese Forschung stellte die damals dominierende „Wow-the-customer"-Schule direkt infrage.

Die Originalfrage

Die ursprüngliche CES-Frage bestand aus einem einzigen Item:

„Wie viel Aufwand mussten Sie persönlich betreiben, um Ihr Anliegen zu bearbeiten?" 1 (sehr wenig Aufwand) – 5 (sehr viel Aufwand)

Eine Frage. Eine Zahl. Starke Vorhersagekraft für Loyalitätsverhalten – das Versprechen des CES.

Die moderne Form – 7-stufige Zustimmungsskala

CEB (heute Gartner) überarbeitete 2013 die Formulierung zu dem, was heute Standard ist:

hat es mir leicht gemacht, mein Anliegen zu bearbeiten." 1 (starke Ablehnung) – 7 (starke Zustimmung)

Die Frage als Zustimmung zu einer positiven Aussage zu formulieren (statt direkt nach Aufwand zu fragen), reduziert die kognitive Belastung der Befragten und ist heute die Standardformulierung.

2. Berechnungsmethoden und Skalendesign

Die Anbieter-Dokumentation konvergiert auf drei gängige Berechnungsansätze.

Methode 1: Durchschnittswert

Die einfachste – Durchschnitt aller Antworten bilden:

CES=(Score jeder Antwort)Anzahl Antworten\text{CES} = \frac{\sum \text{(Score jeder Antwort)}}{\text{Anzahl Antworten}}

Auf einer 7-Punkte-Skala gilt 5,5+ als gut; auf einer 5-Punkte-Skala liegt die Schwelle bei 4,0+ (laut CustomerSure und anderen Anbietern). Als branchenweit geteilte Referenzwerte zu behandeln, nicht als rigoros validierte Benchmarks.

Methode 2: Prozentsatz „einfach"

Anteil der Befragten, die auf einer 7-Punkte-Skala 5, 6 oder 7 gewählt haben (analog zum Top 2 Box des CSAT):

CES (%)=# Antworten in 5–7Gesamtzahl Antworten×100\text{CES (\%)} = \frac{\text{\# Antworten in 5–7}}{\text{Gesamtzahl Antworten}} \times 100

Anbieter-Kommentare behandeln 85 %+ häufig als „exzellent".

Methode 3: Net CES

In Anlehnung an die NPS-Logik: „schwer" (1–3) von „einfach" (6–7) abziehen:

Net CES=%(Scores 6–7)%(Scores 1–3)\text{Net CES} = \%(\text{Scores 6–7}) - \%(\text{Scores 1–3})

Welche wählen?

Die häufigste Wahl ist Methode 1 (Durchschnitt) – einfach, leicht im Zeitverlauf zu tracken. Einschränkung: Durchschnitte verbergen die Verteilung, daher mit einer Zählung niedrig bewertender Antworten ergänzen („N Antworten unter 4"), um Hochaufwand-Ausreißer nicht zu übersehen.

3. Wie unterscheidet sich CES von NPS und CSAT — Das richtige Werkzeug wählen

Jede Metrik hat eine eigene Aufgabe:

MetrikWas sie misstWann fragenTypische Nutzung
CESAufwand zum Erledigen einer AufgabeDirekt nach der AufgabeSupport-Prozesse, Self-Service, Onboarding
CSATZufriedenheit mit einer spezifischen ErfahrungDirekt nach dem EreignisSupport-Qualität, Onboarding-Qualität
NPSLangfristige Loyalität/WeiterempfehlungPeriodischExecutive-KPI, Markengesundheit

Wo der CES glänzt

Der CES ist das stärkste Werkzeug, um Prozessreibung aufzudecken:

  • Nach einer Support-Interaktion – hatte der Lösungsprozess überflüssige Schritte?
  • Nach Self-Service-Nutzung (Help-Center/FAQ) – haben sie das Gesuchte ohne Mühe gefunden?
  • Nach jedem Onboarding-Meilenstein – hingen sie bei der Einrichtung fest?
  • Nach Kündigung/Offboarding – war der Ausstieg unnötig komplex?

Wo der CES nicht passt

Der CES ist ungeeignet für:

  • Gesamte Produktbewertung – CSAT oder NPS passen besser
  • Emotionale Zufriedenheit – der CES ist bewusst neutral
  • Langfristige Loyalitätsprognose – der NPS ist das etablierte Werkzeug

Der CES ist eine Metrik zur Prozessverbesserung, nicht zur Markengesundheit. Diese Unterscheidung zählt.

4. CES-Benchmarks

Absolute Branchenvergleiche sind heikel, weil Skalenformat, Branche und Interaktionstyp die Zahl erheblich beeinflussen. Anbieter sind sich bei dieser Einschränkung einig. Dennoch, häufig zitierte Referenzwerte:

Benchmarks nach Skalenformat

SkalaGutExzellent
5 Punkte (Durchschnitt)4,0+4,5+
7 Punkte (Durchschnitt)5,5+6,0+
% „Einfach"-Methode70 %+85 %+

Von Formbricks und Qualtrics unter anderem. Das sind Branchenreferenzpunkte, keine peer-reviewed validierten Zahlen, aber die Konvergenz mehrerer Anbieter macht sie für die Zielfestlegung nützlich.

Branchenvariation

  • E-Commerce/Retail – einfache Prozesse treiben den CES nach oben
  • B2B-SaaS-Support – technische Komplexität drückt den CES nach unten
  • Finanzen/Versicherungen – prozedurale Komplexität hält den Branchen-CES insgesamt niedriger

„Unser CES liegt bei 5,0, also passt alles" sagt ohne Intra-Branchenvergleich und eigene Zeitreihe wenig aus.

Gartners berühmte Zahl

Gartner-Forschung, häufig zitiert: 94 % der Kunden mit einem Low-Effort-Erlebnis geben Wiederkaufabsicht an, 88 % geben Absicht zu höheren Ausgaben an. Anbieter-veröffentlichte Zahlen – nicht peer-reviewed – aber weit referenziert, um CES-Programme zu rechtfertigen.

5. Häufige Fehler beim CES-Design

Fünf Muster, die in öffentlichen Fallstudien und Branchenkommentaren wiederkehren:

1. Zu spät fragen

Der CES muss direkt nach Abschluss der Aufgabe ankommen. Tage später lässt die Erinnerung nach und Emotionen normalisieren sich – eine wirklich frustrierende Erfahrung landet auf neutral. Ziel: 1 bis wenige Stunden nach Lösung.

2. Inkonsistente Skalenformate

Wenn unterschiedliche Touchpoints 5- und 7-Punkte-Skalen verwenden oder der Wortlaut zwischen „Aufwand" und „Einfachheit" wechselt, bricht der Zeitvergleich. Skala und Wortlaut organisationsweit standardisieren.

3. Offenes Follow-up weglassen

Der Score allein ist die Hälfte des Werts. Die freie Antwort, die erklärt, warum jemand niedrig bewertet hat, ist der Ort der umsetzbaren Diagnose. Standardmäßig niedrig Bewertende auf „Was war schwierig?" weiterleiten.

4. CES als einziges KPI nutzen

Der CES misst Prozessreibung, nicht Geschäftsgesundheit. Den CES zum alleinigen KPI zu machen, blendet das Team für Marken- und Produktprobleme. Sein Platz ist neben NPS und CSAT, jedes für seine Aufgabe.

5. Hoher CES = loyaler Kunde annehmen

Dixons Originalbefund zeigt: niedriger Aufwand sagt Loyalität voraus. Das ist Korrelation, nicht pauschale Kausalität. Niedriger Aufwand ist notwendig, aber nicht hinreichend – das Produkt muss weiterhin Wert liefern.

6. Redaktionelle Sicht – 4 Regeln, damit CES wirklich funktioniert

Aus der Beobachtung öffentlicher Fälle und Branchenkommentare über längere Zeit vier Prinzipien, die wir mit Nachdruck vertreten:

1. CES nach Touchpoint segmentieren – niemals einen globalen CES fahren. Support-CES, Onboarding-CES, Kündigungs-CES, Self-Service-CES – jeder erzählt eine andere Geschichte. Ein unternehmensweiter „CES = 5,2" sagt praktisch nichts. Nach Touchpoint aufschlüsseln oder die Übung sein lassen.

2. Wöchentlich jemanden auf die Low-Score-Freitext-Warteschlange setzen. Scores sammeln und dort stoppen verschwendet den wertvollsten Teil. Low-Score-Verbatims sind dort, wo die umsetzbaren Diagnosen leben. Legt wöchentlich fest, wer sie liest, sonst wird das Programm Theater.

3. Jede Metrik explizit einer Entscheidung zuweisen. Wenn ihr CES, CSAT und NPS parallel fahrt, notiert, welche Zahl welche Entscheidung treibt. „Support-KPI = CES, Produkt-KPI = NPS, Interaktionsqualität = CSAT." Ohne dieses Mapping treibt keine davon am Ende echte Entscheidungen.

4. In Trend und Segment reporten, nicht in Absolutwerten. „CES = 5,4" ohne Kontext sagt fast nichts. „+0,3 QoQ, Delta Werktags/Wochenende 0,5, Delta Neu/Bestand 1,2" – darauf können Führungskräfte handeln.

7. CES im Umfrage-Tool Kicue gestalten

Kicue bringt die Funktionen mit, die ein CES-Programm braucht:

  • 5- und 7-Punkte-Skalenfragen – unterstützt Original- und CEB-revidiertes Format (Skalen-Referenz)
  • Folgefrage bei niedriger Bewertung per Design – mit Anzeigebedingungen wird eine „Was war schwierig?"-Freitextfrage nur Befragten mit niedrigem Score angezeigt
  • Anbindung externer Systeme per URL-Parameter – wenn euer Zendesk / Intercom oder Support-Tool Ticket-IDs und Agent-IDs an die CES-Veröffentlichungs-URL anhängt, ordnet Kicue sie automatisch für Segmentanalysen zu (URL-Parameter-Doku)
  • GT- / Kreuztabellen-Auswertung – Anzahl und Prozent je Skalenstufe werden visualisiert. Der Prozent-einfach-Wert (Summe der oberen drei Optionen 5–7) lässt sich direkt aus der GT-Ansicht ablesen oder nach CSV- / Excel-Export berechnen

Lade eine Fragebogendatei hoch, und die Plattform generiert das CES-Design automatisch – Struktur, Verzweigungen und Follow-up-Logik.

Das richtige Tool wählen — Free-Plan-Grenzen, Verzweigungs-Support, KI-Fähigkeiten und CSV-Export variieren stark zwischen Tools. Siehe unseren Vergleich kostenloser Umfrage-Tools, um das passende für diesen Ansatz zu finden.

Zusammenfassung

Operative CES-Checkliste:

  1. Akademische Grundlage: Dixon 2010 HBR – Studie mit 75.000 Interaktionen
  2. Originalform: einzelne Aufwandsfrage; moderne Form: 7-Punkte-Zustimmungsskala
  3. Drei Berechnungsmethoden – Durchschnitt ist die häufigste
  4. CES misst Prozessreibung, nicht Markengesundheit
  5. Benchmarks variieren stark nach Skala, Branche und Interaktionstyp – in Trend und Segment vergleichen
  6. CES nie allein fahren – mit NPS und CSAT koppeln

Der CES macht etwas sichtbar, das CSAT und NPS übersehen: die stille Reibung, die Kunden gehen lässt. Pro Touchpoint mit erfassten Follow-up-Verbatims eingesetzt, ist er eine der hebelstärksten CX-Metriken, die ein Team fahren kann.


Referenzen

Akademisch und Originalquelle

Branchen-Benchmarks und Anbieterkommentare


Betreibt CES-, CSAT- und NPS-Programme gemeinsam auf einer einzigen kostenlosen Umfrage-Tool — Kicue, die den kompletten CX-Metrik-Stack abdeckt.

Verwandte Artikel

Möchten Sie selbst eine Umfrage mit Kicue erstellen?

Laden Sie Ihren Fragebogen hoch, und die AI generiert in 30 Sekunden ein Web-Umfrageformular.

Kostenlos starten