„Produkt A erzielte 4,2/5, Produkt B erzielte 4,1/5. Lassen wir A starten." Meeting beendet. Welches Produkt hat sich tatsächlich verkauft? B. Wer in der Marktforschung gearbeitet hat, kennt diese Fehlentscheidung. Der Grund ist einfach: Monadische Einzelfrage-Bewertungen messen Präferenz nicht. Konsumenten, die A und B beide als „okay" bewerten, treffen die echte Kaufentscheidung über Trade-offs zwischen Preis, Verpackung und Funktionen.
Die statistische Methode, die diese Trade-offs misst, ist die Conjoint-Analyse. Dieser Beitrag behandelt was Conjoint löst, die drei Hauptformate und wann was nutzen, Attribut-Level-Design, Stichprobengröße, wie man Ergebnisse interpretiert, redaktionelle Fallstricke und wie Conjoint in einem Umfrage-Tool implementiert wird. Eine Kernmethode der Marktforschung, doch praxisorientierte deutschsprachige Inhalte sind überraschend dünn.
1. Was die Conjoint-Analyse löst
Warum monadische Bewertung Präferenz nicht erfassen kann
Eine 5-Punkte-Frage wie „Wie sehr interessiert Sie Produkt A?" misst, wie sehr ein Item gefällt, wenn es allein gezeigt wird — monadische Bewertung. Das Problem ist, dass echte Käufe nicht isoliert getroffen werden, sondern über Trade-offs.
Beispiel: Laptop-Wahl
- A: hohe Leistung, schwer, teuer
- B: mittlere Leistung, leicht, mittlerer Preis
- C: geringe Leistung, leicht, günstig
In der monadischen Bewertung schneidet A typischerweise am besten ab (jeder „mag" hohe Leistung). Aber fügt Constraints wie „+50.000 Yen" oder „+500 g" hinzu, und Präferenzen verschieben sich dramatisch.
Warum Conjoint Industriestandard wurde
Green & Srinivasan (1990) Conjoint Analysis in Marketing systematisierte Conjoint als Methode, Trade-offs über mehrere Attribute statistisch zu messen. Weit verbreitet in Marketing, Wirtschaft und Public Policy, und sie prognostiziert tatsächliches Kaufverhalten genauer als monadische Bewertung in wiederholten empirischen Vergleichen.
Übliche praktische Anwendungen:
- Konzepttests neuer Produkte: welche Attributkombinationen gewählt werden
- Preisstrategie: Preiselastizität und optimale Preispunkte
- Verpackungsoptimierung: welche Verpackungselemente am wichtigsten sind
- Positionierung: relative Attraktivität vs. Wettbewerber
2. Drei Hauptformate — wann welches nutzen
Conjoint kommt in drei Hauptformaten. Wählt nach Zweck und Stichprobengröße.
Format 1: Full-Profile-Conjoint
Karten (Profile) mit allen Attributen zeigen; Befragte ranken oder bewerten. Die klassische Methode.
- Design: 8–16 Karten × alle Attribute
- Befragten-Last: mittel bis hoch
- N: 100–300
- Stärken: intuitiv, direkte Nutzwertschätzung
- Schwächen: kognitive Last wächst schnell mit Attributzahl (5–6 Attribute praktische Obergrenze)
Format 2: Choice-Based-Conjoint (CBC)
Mehrere Choice-Aufgaben, in denen Befragte „welches würden Sie wählen" aus 2–4 Alternativen wählen. Der dominante moderne Ansatz.
- Design: 8–15 Aufgaben × 2–4 Alternativen pro Aufgabe
- Befragten-Last: mittel
- N: 200–500 (aggregierte Nutzwerte), 500–1.000 (HB-Modelle)
- Stärken: näher am echten Kauf, unterstützt Share-of-Preference-Simulation
- Schwächen: Design und Analyse komplex (orthogonales Design + hierarchische Bayes)
Louviere, Hensher, & Swait (2000) Stated Choice Methods etablierte die theoretische Basis der Random-Utility-Theorie.
Format 3: MaxDiff (Maximum Difference Scaling)
„Am wichtigsten / am unwichtigsten" aus 4–5 Items pro Aufgabe wählen. Spezialisiert auf Wichtigkeitsmessung.
- Design: jede Aufgabe paart „best/worst" aus 4–5 Items
- Befragten-Last: niedrig
- N: 200–500
- Stärken: saubere Rang-Skalierung, handhabt viele Items (10–30)
- Schwächen: ungeeignet für Preis- oder numerische Attribut-Simulation
Wann was nutzen
| Ziel | Empfohlen | Typisches N |
|---|---|---|
| Preissensitivität / Kaufabsicht prognostizieren | CBC | 500 |
| Wichtigkeit über viele Items ranken | MaxDiff | 300 |
| Nutzwertmessung bei wenigen Attributen (4–5) | Full-Profile oder CBC | 200 |
| Share-Simulation | CBC + HB | 500–1.000 |
In der Praxis ist CBC 70–80 %, MaxDiff 20–30 %, Full-Profile selten in moderner Nutzung.
3. Attribute und Levels designen
Die Conjoint-Qualität wird durch das Design bestimmt. Vermurkst die Attribute und Levels, und kein N rettet die Ergebnisse.
Anzahl Attribute
- CBC: 4–7 Attribute Standard; 8+ degradiert Qualität durch kognitive Last
- Full-Profile: 4–5 Attribute Obergrenze
- MaxDiff: 10–30 „Items" funktioniert
Levels pro Attribut
2–5 Levels pro Attribut. 3–4 am häufigsten.
Beispiel: Smartwatch-Conjoint
| Attribut | Levels |
|---|---|
| Preis | 199 € / 299 € / 499 € / 799 € |
| Akku | 1 Tag / 3 Tage / 7 Tage |
| Gesundheit | Herzfrequenz / + Schlaf / + Schlaf + Stress |
| Marke | Marke A / Marke B / Marke C / Unsere Marke |
→ 4 × 3 × 3 × 4 = 144 theoretische Profile. Orthogonales Design komprimiert auf 12–16 Aufgaben.
Orthogonales Design
Statistische Methode zur Minimierung der Korrelation zwischen Attributen. R-Paket AlgDesign und Sawtooth Software sind Standard-Tools.
In der Praxis: Attribute und Levels definieren, Tool generiert das Aufgabenset automatisch. Detaillierte Orthogonalitätstheorie ist für den Betrieb nicht erforderlich, aber auf Tool-Warnungen zur Designintegrität achten schon.
Vorsichtsmaßnahmen beim Attribut-Design
- Unabhängigkeit: wenn „Marke" und „Preisstufe" im realen Markt korreliert sind, bricht die Conjoint-Annahme
- Realistische Bereiche: Preisniveaus weit außerhalb der Marktrealität liefern Unsinn
- Sweet Spot: 5–6 Attribute × 3–4 Levels balancieren kognitive Last und analytische Power
4. Leitfaden zur Stichprobengröße
Conjoint-Informationsgehalt ist Aufgaben × N, daher braucht es weniger Befragte als monadische Methoden.
CBC-Stichprobengröße
| Analysetiefe | Empfohlenes N |
|---|---|
| Aggregierte Nutzwerte | 200–300 |
| Segment-Nutzwerte (Attribut × Alter etc.) | 200/Zelle → 600–800 |
| Hierarchische Bayes (HB) für individuelle Nutzwerte | 500–1.000 |
| Share-Simulation (Marktprognose) | 500–1.500 |
Orme (2010) Getting Started with Conjoint Analysis und Sawtooth Softwares Branchenregel: N=300 ist die praktische Untergrenze für CBC.
Symptome unzureichender N
- Standardfehler der Nutzwerte zu groß für Attributvergleich
- HB-Modell konvergiert nicht
- Hohe Varianz in Segment-Share-Simulationen
Für Stichproben-Designgrundlagen siehe Stichprobengröße berechnen und Aggregation und Signifikanztest.
5. Interpretation — Nutzwerte, Wichtigkeit, Share-Simulation
Conjoint-Outputs übersetzen sich in der Praxis durch drei Schlüsselzahlen.
Teilnutzwerte (Part-worths)
Wie viel jedes Attributlevel zur Präferenz beiträgt, quantifiziert.
Beispiel (Smartwatch):
| Level | Teilnutzwert |
|---|---|
| Preis 199 € | +1,2 |
| Preis 299 € | +0,4 |
| Preis 499 € | −0,8 |
| Preis 799 € | −0,8 |
| Akku 1 Tag | −0,5 |
| Akku 3 Tage | +0,0 |
| Akku 7 Tage | +0,5 |
Summiert die Teilnutzwerte, um die Präferenzstärke jedes Profils zu berechnen.
Relative Wichtigkeit
Anteil jedes Attributs am Einfluss auf die Präferenz. Berechnet „max Nutzwert − min Nutzwert" pro Attribut, normalisiert auf 100 %.
Beispiel:
- Preis: 35 %
- Akku: 25 %
- Gesundheit: 20 %
- Marke: 20 %
Direkter Entscheidungs-Input: „Preis ist am wichtigsten; Gesundheit und Marke gleich gewichtet."
Share of Preference
Der Wahlanteil, den jedes Profil im Wettbewerb erhalten würde.
Beispiel: unser neues Produkt X vs. Wettbewerber A vs. Wettbewerber B
- Unser X (499 €, 5-Tage-Akku): 42 % Share
- Wettbewerber A: 31 %
- Wettbewerber B: 27 %
„X auf 399 € senken bringt Share auf 55 %" — solche Preis-Share-Simulationen sind Conjoints wertvollster Output.
Hierarchische Bayes (HB)
Schätzt Teilnutzwerte auf Individualebene statt aggregiert. Train (2009) Discrete Choice Methods with Simulation systematisierte die Methodik.
- Stärken: bessere Individual-Share-Prognose, präzisere Segmentierung
- Erforderliches N: 500–1.000
- Tools: Sawtooth Software CBC/HB, R
bayesm, PythonChoice-Models
6. Redaktionelle Sicht — fünf Conjoint-Fallen
Aus Literatur und Praxis die fünf, auf denen wir am stärksten bestehen würden.
1. „Mehr Attribute reinpacken" ist die größte Explosion. Die Attributzahl treibt die kognitive Last des Befragten exponentiell hoch und löst Satisficing aus — die mittlere Option in jeder Aufgabe wählen. 4–6 Attribute ist die realistische CBC-Obergrenze. Dem „lass uns auch noch ..." zu widerstehen, ist die wichtigste Disziplin, um die Glaubwürdigkeit des Ergebnisses zu wahren. Dasselbe Mechanismus ist in unseren Formulierungs-Fallen dokumentiert — hohe kognitive Last bricht Datenqualität.
2. Preislevels außerhalb der Marktrealität brechen das Ergebnis. Preise von 19 € vs. 999 € liefern nur die offensichtliche Antwort („Preis ist am wichtigsten"). Bleibt innerhalb ±20–30 % der echten Marktspanne und schaut auf segmentspezifische Preissensitivität.
3. Achtet auf Attributkorrelationen im echten Markt. In einem Markt, in dem „Marke" und „Preisstufe" korrelieren (Luxus = hoher Preis), generiert ein orthogonales Design Profile, die in der Realität nicht existieren (Luxus × niedriger Preis), und verwirrt Befragte. Schließt unrealistische Kombinationen zur Designzeit aus oder korrigiert via HB post-hoc.
4. Lest Share-Simulationen nicht als Absolutwerte. Share-Simulation glänzt im relativen Vergleich, nicht in absoluter Vorhersage. „42 % Conjoint-Share = 42 % Marktverkäufe" ist eine Fehllesung. Echte Käufe involvieren Kauffrequenz, Distribution und Werbebewusstsein. Lest Shares als „wie viel verschiebt sich vom aktuellen Stand", nicht als eigenständige Prognosen.
5. Nutzt MaxDiff nicht für Preissensitivität. MaxDiff ist das richtige Tool für Wichtigkeitsranking, aber falsch für Nutzwerte auf Preis oder numerischen Attributen. „Welche Funktion ist am wichtigsten?" → MaxDiff. „Wie ist die Preissensitivität?" → CBC. Sie zu mischen — MaxDiff zur Preismessung — bricht die Share-Simulation.
7. Conjoint im Umfrage-Tool Kicue implementieren
Ehrliche Einordnung: Kicue ist kein dediziertes Conjoint-Tool. Produktive Conjoint-Analyse läuft am besten in Sawtooth Software / Conjointly / Qualtrics CoreXM.
Trotzdem ist eine vereinfachte Conjoint-Implementierung in Kicue machbar.
Vereinfachtes CBC in Kicue
- Nutzt SCREEN-Fragen, um aufgabenweise „Wählen aus 2–4 Alternativen" umzusetzen
- Nutzt Skip-Logik und URL-Parameter für Aufgaben-Randomisierung
- Exportiert via Rohdaten-Export und analysiert mit
mlogit(R) oderxlogit(Python)
Was Kicue nicht nativ kann
- Generierung orthogonaler Designs: Aufgabensets in Sawtooth oder R
support.CEsvorab generieren, dann in Kicue importieren - Hierarchische-Bayes-Schätzung: läuft via
bayesmin R / Python nach Export - Share-Simulatoren: Dashboards in Tableau / Power BI bauen
Tool-Empfehlung nach Anwendungsfall
| Anwendungsfall | Empfohlenes Tool |
|---|---|
| Akademische Forschung / produktive Marktforschung | Sawtooth Software CBC/HB |
| Mittelgroße Unternehmensforschung | Conjointly / Qualtrics CoreXM |
| Leichtgewichtig / budget-beschränkt | Kicue + R/Python-Nachverarbeitung |
Kicue funktioniert gut für „Conjoint-Prototyp-Tests", „Vor-Conjoint-Attribut-Screening" und „MaxDiff-ähnliche Wichtigkeitsranking-Alternativen". Für vollständige Produktion zeigt auf spezialisierte Tools.
Das richtige Tool wählen — Free-Plan-Grenzen, Verzweigungs-Support, KI-Fähigkeiten und CSV-Export variieren stark zwischen Tools. Siehe unseren Vergleich kostenloser Umfrage-Tools, um das passende für diesen Ansatz zu finden.
Zusammenfassung
Conjoint-Analyse-Checkliste:
- Monadische Bewertung erfasst Präferenz nicht — Conjoint analysiert Trade-offs statistisch.
- Drei Formate: CBC (Mainstream) / MaxDiff (Wichtigkeitsranking) / Full-Profile (klassisch).
- 4–6 Attribute × 2–5 Levels ist der Sweet Spot kognitive Last / analytische Power.
- CBC-Stichprobengrößen: 200–300 (aggregiert) / 500–1.000 (HB) / 500–1.500 (Share-Vorhersage).
- Drei Zahlen lesen: Teilnutzwerte / relative Wichtigkeit / Share-Simulation.
- Fünf Fallen: zu viele Attribute / unrealistische Preise / Attributkorrelation / absolute Share-Lesung / MaxDiff-Fehlverwendung.
- Kicue eignet sich für vereinfachte Prototypen; Produktion läuft auf Sawtooth / Conjointly / Qualtrics.
Conjoint ist eine Methode mit „80 % Design, 20 % Analyse". Investiert Zeit ins Attribut-Level-Design und Stichprobenplan, und sogar N=300 produziert entscheidungsrelevante Zahlen. Als Kern-Skill der Marktforschung mit hoher Hebelwirkung über CX / EX / Produktentwicklung.
Literatur
Akademisch und methodisch
- Green, P. E., & Srinivasan, V. (1990). Conjoint-Analyse im Marketing: Neue Entwicklungen mit Implikationen für Forschung und Praxis. Journal of Marketing, 54(4), 3–19.
- Louviere, J. J., Hensher, D. A., & Swait, J. D. (2000). Stated Choice Methods: Analysis and Applications. Cambridge University Press.
- Train, K. E. (2009). Discrete Choice Methods with Simulation (2. Aufl.). Cambridge University Press.
- Orme, B. (2010). Getting Started with Conjoint Analysis: Strategies for Product Design and Pricing Research. Research Publishers LLC.
- Rao, V. R. (2014). Applied Conjoint Analysis. Springer.
Standardgremien und Methodikzentren
- Sawtooth Software: Methodology Papers and Conferences.
- AAPOR (American Association for Public Opinion Research): Standard Definitions.
Branchen-Leitfäden (als Praxisbeobachtung)
Wer Conjoint als Prototyp testen will, probiert Kicue — ein kostenloses Umfrage-Tool. SCREEN-Fragen, Skip-Logik, URL-Parameter und Rohdaten-Export sind Standardausstattung — die Anbindung an externe Tools (R / Python / Sawtooth) ist reibungslos.
