« Émerveillez vos clients. » Ce fut le mantra du CX pendant une décennie — jusqu'à ce qu'un article publié en 2010 dans la Harvard Business Review, basé sur 75 000 interactions clients, le renverse. « Arrêtez d'essayer d'émerveiller vos clients. Réduisez plutôt leur effort. » Cette affirmation contre-intuitive est à l'origine de ce que l'on appelle aujourd'hui le CES (Customer Effort Score).
Ce guide explique ce qu'est le CES, son origine, comment le calculer, comment il se compare au NPS et au CSAT, à quoi ressemblent les benchmarks, et les pièges opérationnels rencontrés lors du déploiement. Le CES capture quelque chose que le CSAT et le NPS manquent — la friction silencieuse que portent les clients — et il est particulièrement puissant dans le support et le customer success.
1. Qu'est-ce que le CES — La recherche originale HBR
Le CES trouve son origine dans l'article de Matthew Dixon, Karen Freeman et Nicholas Toman publié en 2010 dans la HBR : « Stop Trying to Delight Your Customers ».
Ce qu'a révélé l'étude sur 75 000 interactions
Dixon et ses collègues ont analysé plus de 75 000 interactions clients sur les canaux de support — assisté par agent et self-service. Leurs conclusions :
- « Émerveiller » les clients ne fait que peu bouger la fidélité (réachat, dépense, bouche-à-oreille)
- Réduire l'effort client prédit la fidélité mieux que le CSAT ou le NPS dans les contextes de service
- Dans les situations de support, « la solution facile » l'emporte largement sur « l'expérience mémorable »
Cette recherche a directement remis en cause l'école dominante du « wow the customer » de l'époque.
La question originale
La question originale du CES était un item unique :
« Quel effort avez-vous personnellement dû fournir pour traiter votre demande ? » 1 (très peu d'effort) — 5 (très gros effort)
Une question. Un chiffre. Forte capacité prédictive sur les comportements de fidélité — l'attrait du CES.
La forme moderne — échelle d'accord sur 7 points
CEB (devenu Gartner) l'a révisée en 2013 vers la formulation qui fait aujourd'hui référence :
« m'a facilité la résolution de mon problème. » 1 (pas du tout d'accord) — 7 (tout à fait d'accord)
Formuler la question comme un accord avec une affirmation positive (plutôt que de demander l'effort directement) réduit la charge cognitive du répondant et est devenu la formulation par défaut.
2. Méthodes de calcul et conception de l'échelle
La documentation des éditeurs converge sur trois approches de calcul.
Méthode 1 : Score moyen
La plus simple — moyenner toutes les réponses :
Sur une échelle de 7 points, 5,5+ est considéré comme bon ; sur une échelle de 5 points, le seuil est 4,0+ (selon CustomerSure et d'autres éditeurs). À traiter comme des valeurs de référence largement partagées dans l'industrie, pas des benchmarks rigoureusement validés.
Méthode 2 : Pourcentage de « facile »
Part des répondants ayant choisi 5, 6 ou 7 sur une échelle de 7 points (analogue au Top 2 Box du CSAT) :
Les éditeurs considèrent souvent 85%+ comme « excellent ».
Méthode 3 : Net CES
En empruntant la logique du NPS, soustraire « difficile » (1–3) de « facile » (6–7) :
Laquelle choisir ?
Le choix le plus répandu est la Méthode 1 (moyenne) — simple et facile à suivre dans le temps. Nuance : la moyenne masque la distribution, donc complétez-la par un comptage des répondants à bas score (« N répondants en dessous de 4 ») pour ne pas passer à côté des cas d'effort élevé.
3. En quoi le CES diffère-t-il du NPS et du CSAT — Choisir le bon outil
Chaque métrique a un rôle distinct :
| Métrique | Ce qu'elle mesure | Quand demander | Usage typique |
|---|---|---|---|
| CES | Effort pour accomplir une tâche | Juste après la tâche | Processus de support, self-service, onboarding |
| CSAT | Satisfaction d'une expérience précise | Juste après l'événement | Qualité de support, qualité d'onboarding |
| NPS | Fidélité/recommandation à long terme | Périodique | KPI exécutif, santé de marque |
Où le CES excelle
Le CES est l'outil le plus adapté pour repérer la friction dans les processus :
- Après une interaction de support — le processus de résolution a-t-il comporté des étapes inutiles ?
- Après l'usage du self-service (FAQ/centre d'aide) — ont-ils trouvé ce qu'il leur fallait sans lutter ?
- Après chaque étape d'onboarding — ont-ils buté à la configuration ?
- Après l'annulation/offboarding — la sortie était-elle inutilement complexe ?
Où le CES ne convient pas
Le CES est inadapté pour :
- Évaluation globale du produit — le CSAT ou le NPS est plus approprié
- Satisfaction émotionnelle — le CES est délibérément neutre
- Prédiction de fidélité à long terme — le NPS est l'outil établi
Le CES est une métrique d'amélioration de processus, pas de santé de marque. Cette distinction compte.
4. Benchmarks du CES
Les comparaisons absolues inter-secteurs sont délicates car le format d'échelle, le secteur et le type d'interaction affectent matériellement le chiffre. Les éditeurs s'accordent sur cette réserve. Cela dit, valeurs de référence fréquemment citées :
Benchmarks par format d'échelle
| Échelle | Bon | Excellent |
|---|---|---|
| 5 points (moyenne) | 4,0+ | 4,5+ |
| 7 points (moyenne) | 5,5+ | 6,0+ |
| % de Facile | 70%+ | 85%+ |
D'après Formbricks et Qualtrics entre autres. Ce sont des points de référence sectoriels, pas des chiffres validés, mais la convergence multi-éditeurs les rend utiles pour fixer des objectifs.
Variation par secteur
- E-commerce / retail — processus simples, CES plus haut
- Support B2B SaaS — complexité technique, CES plus bas
- Finance / assurance — complexité procédurale, CES sectoriel bas
« Notre CES est à 5,0, donc ça va » ne veut rien dire sans comparaison intra-secteur et votre propre tendance dans le temps.
Le chiffre célèbre de Gartner
Les recherches de Gartner fréquemment citées : 94 % des clients vivant une expérience à faible effort indiquent l'intention de racheter, et 88 % indiquent l'intention d'augmenter leurs dépenses. Chiffres publiés par l'éditeur — non revus par les pairs — mais largement référencés pour motiver les programmes CES.
5. Pièges courants dans la conception du CES
Cinq patterns qui reviennent dans les cas publics et les commentaires sectoriels :
1. Envoyer le questionnaire trop tard
Le CES doit atterrir juste après la fin de la tâche. Quelques jours plus tard, la mémoire s'estompe et les émotions se normalisent — une expérience réellement frustrante finit par scorer neutre. Cible : 1 à quelques heures après résolution.
2. Formats d'échelle incohérents
Si les différents touchpoints utilisent des échelles à 5 et 7 points, ou si la formulation alterne entre « effort » et « facilité », la comparaison temporelle ne tient plus. Standardisez l'échelle et la formulation dans toute l'organisation.
3. Omettre le suivi en texte libre
Le score seul représente la moitié de la valeur. La réponse libre expliquant pourquoi quelqu'un a scoré bas est là où vit le diagnostic actionnable. Par défaut, routez les bas scores vers une question « qu'est-ce qui a été difficile ? ».
4. Utiliser le CES comme KPI unique
Le CES mesure la friction de processus, pas la santé du business. Faire du CES le seul KPI aveugle l'équipe sur les problèmes de marque et de produit. Sa place est à côté du NPS et du CSAT, chacun faisant son travail.
5. Supposer que CES élevé = client fidèle
La découverte originale de Dixon montre que faible effort prédit la fidélité. C'est une corrélation, pas une causalité absolue. Faible effort est nécessaire mais pas suffisant — il faut toujours que le produit délivre de la valeur.
6. Point de vue éditorial — 4 règles pour que le CES fonctionne
En suivant les cas publics et les commentaires sectoriels sur la durée, quatre principes que nous défendons fermement :
1. Segmentez le CES par touchpoint — ne faites jamais tourner un CES global. CES de support, CES d'onboarding, CES d'annulation, CES de self-service — chacun raconte une histoire différente. Un « CES d'entreprise = 5,2 » unique ne dit effectivement rien. Éclatez par touchpoint ou passez à autre chose.
2. Mettez quelqu'un sur la file des textes libres à bas score toutes les semaines. Récolter des scores et s'arrêter là gaspille la partie la plus précieuse. Les verbatim à bas score sont là où vivent les diagnostics actionnables. Décidez qui les lit chaque semaine, sinon le programme devient du théâtre.
3. Attribuez explicitement chaque métrique à une décision. Si vous faites tourner CES, CSAT et NPS en parallèle, notez quel nombre pilote quelle décision. « KPI support = CES, KPI produit = NPS, qualité d'interaction = CSAT. » Sans ce mapping, aucun ne finit par piloter de vraies décisions.
4. Reportez en tendance et segment, pas en absolu. « CES = 5,4 » hors contexte ne dit presque rien. « +0,3 QoQ, delta semaine/weekend de 0,5, delta nouveaux/existants de 1,2 » — c'est le cadre sur lequel les dirigeants peuvent agir.
7. Concevoir le CES dans l'outil de sondage Kicue
Kicue intègre toutes les fonctions nécessaires à un programme CES :
- Questions à échelle 5 et 7 points — formats original et révisé CEB (référence types de question)
- Relance bas scores par design — utilisez les conditions d'affichage pour ne montrer un champ « qu'est-ce qui a été difficile ? » qu'aux répondants ayant scoré bas
- Intégration avec systèmes externes via paramètres URL — si votre Zendesk / Intercom ou outil de support ajoute des IDs de ticket et d'agent à l'URL publique du CES, Kicue les lie automatiquement pour l'analyse par segment (documentation paramètres URL)
- Analytics GT / tris croisés — comptages et pourcentages par échelon. Le % de Facile (somme des trois options supérieures 5–7) se lit directement depuis la vue GT ou se calcule après export CSV / Excel
Téléchargez un fichier de questionnaire et la plateforme auto-génère la conception du CES — structure, branchements et logique de suivi.
Choisir le bon outil — Les limites du plan gratuit, le support du branchement, les capacités IA et l'export CSV varient beaucoup entre outils. Consultez notre comparatif des outils de sondage gratuits pour trouver le bon pour cette approche.
Récapitulatif
Checklist opérationnelle CES :
- Fondement académique : Dixon 2010 HBR — étude sur 75 000 interactions
- Forme originale : question unique sur l'effort ; forme moderne : échelle d'accord sur 7 points
- Trois méthodes de calcul — la moyenne est la plus courante
- Le CES mesure la friction de processus, pas la santé de marque
- Les benchmarks varient largement selon échelle, secteur et type d'interaction — comparez en tendance et en segment
- Ne faites jamais tourner le CES seul — associez-le au NPS et au CSAT
Le CES fait remonter quelque chose que le CSAT et le NPS ratent : la friction silencieuse qui pousse les clients à partir. Déployé par touchpoint avec les verbatim de suivi capturés, c'est l'une des métriques CX à plus fort levier qu'une équipe puisse exploiter.
Références
Académique et source originale
- Dixon, M., Freeman, K., & Toman, N. (2010). Stop Trying to Delight Your Customers. Harvard Business Review.
- MeasuringU: 10 Things to Know about the Customer Effort Score.
Benchmarks sectoriels et commentaires d'éditeurs
- Qualtrics: Customer Effort Score (CES) & How to Measure It.
- CustomerSure: What is Customer Effort Score (CES)?
- Formbricks: Customer Effort Score (CES): Questions, Formula & Benchmarks (2026).
- SurveyMonkey: Customer Effort Score — What Is CES And How To Measure It.
- Giva: Customer Effort Score (CES): How to Calculate & Improve It.
- Balto: What is a Good Customer Effort Score (CES)?
Faites tourner des programmes CES, CSAT et NPS sur une seule outil de sondage en ligne gratuit — Kicue, qui couvre toute la pile de métriques CX.
