„Wir haben offene Fragen eingebaut und bekamen meist leere Felder oder ‚nichts Besonderes' zurück." Das ist eine der häufigsten Beschwerden im Umfragebetrieb. Offene Fragen (Freitext) sind die einzige Möglichkeit, die echten Worte der Kunden einzufangen, doch ein schlechtes Design produziert drei Schmerzen gleichzeitig: niemand schreibt / Antworten sind zu kurz / nichts ist später analysierbar.
Dieser Artikel führt durch, wofür offene Fragen wirklich da sind, warum sie übersprungen werden, wann sie statt geschlossener Fragen einsetzt, die Formulierungsregeln und die UX-Entscheidungen, die darüber bestimmen, ob Befragte schreiben. Die naive Annahme „mehr offene Fragen = tiefere Insights" ist nur halb wahr — der Fokus liegt darauf, was bewusst zu entscheiden ist, damit Menschen wirklich schreiben.
1. Was eine offene Frage ist
Eine offene Frage (auch OA / FA: Free Answer) gibt den Befragten keine Optionen und bittet sie, eine eigene Antwort in eigenen Worten einzutippen.
Wofür offene Items gut sind
- Unvorhergesehenes einfangen — bringt Optionen oder Framings ans Licht, die der/die Designer:in nicht erwogen hatte
- Das Warum hinter einer Note bekommen — ergänzt numerische Bewertungen mit Begründungen
- Die echten Worte der Kunden bewahren — nützlich für Marketing-Texte und internes Storytelling
- Lücken in geschlossener Abdeckung füllen — was Menschen mit „Sonstiges" eigentlich meinten
Typische Struktur
Q. Wie würden Sie unseren Service insgesamt bewerten? (10er-Skala)
→ Note = 6
Q. Bitte erläutern Sie den Grund für Ihre Bewertung. (Freitext)
→ „Teurer als die Konkurrenz, aber die Qualität des Supports gleicht das aus."
Schuman & Presser (1979) The Open and Closed Question rahmten offene Items als „den Weg, salient relevante Themen sichtbar zu machen, die geschlossene Items nicht sehen." Gleichzeitig hat dieselbe Forschungslinie über 40+ Jahre hinweg notiert, dass das Übergewicht offener Fragen die kognitive Last steigert, was Lücken und Ein-Wort-Antworten hochschnellen lässt.
2. Warum Menschen nicht schreiben — das Problem der kognitiven Last
Der größte Feind offener Fragen ist kognitive Last. Aus Optionen wählen heißt „nehmen, was da ist". Offene Fragen verlangen „von null verbalisieren", was kognitiv viel teurer ist.
Empirische Belege zu Antwortrate und -qualität
Smyth, Dillman, Christian & McBride (2009) „Open-Ended Questions in Web Surveys" ist die Referenzarbeit zum Verhalten offener Fragen in Web-Surveys. Wichtige Beobachtungen:
- Positionseffekte — offene Fragen am Anfang: deutlich höhere Nicht-Antwort; offene Fragen spät: kürzere Antworten.
- Längenverteilung — die meisten Antworten liegen bei 30–100 Zeichen; weniger als 10 % über 200.
- „Nichts" / „N/A"-Quote — 15–30 % aller offenen Antworten sind funktional Nicht-Antworten (ein Wort, Verneinung).
Die Last in vier Stufen
Was im Kopf der Befragten passiert, lässt sich in vier Stufen zerlegen:
- Frage verstehen — was wird von mir verlangt?
- Aus dem Gedächtnis abrufen — welche relevanten Erfahrungen kommen?
- Verbalisieren — Gedanke in Text umwandeln (die schwerste Stufe)
- Tippen — physische Eingabe der Zeichen
Auf das Modell von Tourangeau, Rips & Rasinski (2000) The Psychology of Survey Response — Verstehen → Abrufen → Urteilen → Berichten — bezogen: Geschlossene Items belasten vor allem das „Berichten"; offene Items belasten alle vier Stufen.
3. Offen vs. geschlossen — wann was
Der Reflex „mehr offene Fragen vertiefen unser Kundenverständnis" ist halb falsch. Beide Formate haben unterschiedliche Aufgaben.
Wie wählen
| Ziel | Bestes Format | Warum |
|---|---|---|
| Quantifizieren und vergleichen | Geschlossen (SA/MA) | Statistische Analyse setzt strukturierte Daten voraus |
| Unbekannte Optionen entdecken | Offen | Zeigt sich in der Hypothesenbildung |
| Gründe hinter einer Note | Note + offene Frage | Numerisch + qualitativ als Paar |
| Trends bei großem N | Geschlossen | 1.000 Freitexte zu lesen ist unpraktisch |
| Wenige, tiefe Stimmen | Offen (interview-ergänzend) | Bei kleinem N strahlen offene Fragen |
„Wenn eine geschlossene reicht, nimm geschlossene"
Geer (1991) „Do Open-Ended Questions Measure Salient Issues?" fand, dass etwa 80 % der Information aus einer offenen Frage durch eine gut gestaltete geschlossene erfasst werden können. Umgekehrt: die übrigen 20 % — die unerwarteten Entdeckungen — sind das, wofür offene Fragen sind. Lass die Annahme fallen, dass „alles offen = tieferes Verständnis".
4. Fünf Formulierungsregeln
Fünf Regeln auf der Frage-Seite, damit Menschen offene Items wirklich beantworten.
Regel 1: das konkrete Ziel in der Frage benennen
❌ „Haben Sie Feedback?" — zu abstrakt; Befragte wissen nicht, was sie schreiben sollen. ✅ „Falls es etwas am Support-Team zu verbessern gibt, beschreiben Sie es bitte konkret." — Ziel (Support) und Blickwinkel (Verbesserung) explizit.
Regel 2: Frage in 1–2 Sätzen halten
Lange Fragen zerstreuen Aufmerksamkeit, bevor Befragte zu Ende lesen. Ziel: 40–80 Zeichen wesentlicher Information. Holland & Christian (2009) „The Influence of Topic Interest and Interactive Probing" zeigt, dass wortreiche Frageformulierung die Nicht-Antwort direkt erhöht.
Regel 3: „warum" und „wie" trennen
„Warum haben Sie das gesagt?" zieht Gründe / Hintergrund. „Wie könnten wir das verbessern?" zieht Lösungen / Wünsche. Beides zu vermischen verwirrt Befragte darüber, was zu schreiben ist — und diese Verwirrung ist eine Hauptquelle für „nichts Besonderes."
Regel 4: Bezug zur vorherigen Frage herstellen
Verbinde die offene Frage mit der vorherigen Note oder Auswahl: „Bitte erläutern Sie, warum Sie diese Note gegeben haben..." / „Wenn Sie in Q3 'Unzufrieden' gewählt haben..." Gut gemacht kann das die Antwortrate ungefähr verdoppeln laut publizierten Fallstudien. Ohne Kontext wissen Befragte nicht, wem und wofür gefragt wird, und verlieren die Motivation zu schreiben.
Regel 5: Beispiele oder Platzhalter anbieten
Ein leeres Eingabefeld ist psychologisch einschüchternd. Platzhalter und Hilfslinien wie „z. B. die Lieferung kam zu spät, die Beschreibung wich vom gelieferten Produkt ab" erleichtern den Schreibstart. Aber starke Beispiele verzerren Antworten in Richtung dieser Beispiele, also gib mehrere Richtungen (positiv und negativ gleichzeitig) an, wenn du Beispiele nutzt.
5. UX-Regeln
Frageformulierung macht die halbe Arbeit; das Eingabefeld-Design entscheidet die andere Hälfte.
Die Textfeldgröße bestimmt die Antwortlänge
Israel (2010) „Effects of Answer Space Size on Responses to Open-Ended Questions in Mail Surveys" hat demonstriert, dass die Größe des Eingabefelds mit der Länge der Antworten skaliert. Derselbe Effekt gilt im Web.
| Eingabefeld | Wahrscheinliche Länge | Anwendungsfall |
|---|---|---|
| Einzeilige Eingabe (OA) | 5–20 Zeichen | Kurze Antworten: Produktname, Firmenname |
| 3–4 Zeilen | 30–80 Zeichen | Knappe Begründungen oder Wünsche |
| 5–8 Zeilen | 100–300 Zeichen | Detaillierte Erfahrungsberichte, Verbesserungsideen |
| Auto-erweiternd | unbegrenzt | UGC / Bewertungs-Style |
Ein perverses Muster: „Geben wir ihnen viel Platz" mit einer 10-Zeilen-Box geht nach hinten los — die leere Fläche wirkt einschüchternd und Nicht-Antwort steigt. Das Feld bewusst auf die gewünschte Länge dimensionieren ist die richtige Bewegung.
Pflicht vs. optional
- Pflicht → Antwortrate steigt, aber „nichts", „.", „n/a" rutschen durch und verbessern die Qualität nicht wirklich.
- Optional → nur wer etwas zu sagen hat, schreibt. Höhere Qualität, kleineres N.
Das vorherrschende Betriebsmuster: „offene Fragen standardmäßig optional, Pflicht nur für Ausreißer (z. B. sehr niedrige Bewerter)" — bedingte Pflicht.
Eingabe-Kosten auf Mobile
Soft-Keyboard-Tippen auf Mobile ist eine echte physische Belastung, und die Antwortlänge offener Fragen liegt mobil typischerweise 30–50 % unter der Desktop-Länge in Anbieterberichten. Bei stark mobiler Zielgruppe ist die Ausbeute deutlich geringer als Desktop-Tests vermuten lassen.
6. Designen für die nachgelagerte KI-Analyse
LLM-getriebene Analyse offener Antworten (Codierung, Sentiment, Zusammenfassung) ist Mainstream, und mit Blick auf nachgelagerte Analyse zu designen verändert die operative Effizienz drastisch.
Was gut zu KI-Analyse passt
- Klar abgegrenztes Ziel — Items wie „über unser Support-Team" klassifizieren sauber mit hoher Präzision.
- Ein Thema pro Item — „Preis + Qualität + Lieferung" in eine offene Frage zu mischen, zwingt das Modell, vermischte Themen zu entwirren.
- Note + Begründung als Paar — eine numerische Note mit Begründung zu paaren, macht Analysen wie „Gründe hinter hohen vs. niedrigen Noten" unkompliziert.
Was schlecht zu KI-Analyse passt
- Abstrakte Fragen — „haben Sie Feedback?" überfordert Modelle und Menschen gleichermaßen.
- Multi-Themen-Items — Tagging bricht zusammen.
- Items, die nur Ultra-Kurzes bekommen — unter 30 Zeichen ist meist Rauschen, sogar für LLMs.
Methodische Details siehe unseren Leitfaden zur KI-Analyse offener Antworten.
7. Redaktioneller Blick — fünf Regeln, die wirklich Wirkung zeigen
Aus dem Verfolgen von Branchenberichten und öffentlichen Cases — fünf Punkte, auf die wir mit Nachdruck pochen würden.
1. Begrenze offene Fragen auf 2–3 pro Umfrage. Teams, die „mehr Kundenstimme" wollen, schicken manchmal Umfragen mit 5 oder 6 offenen Fragen raus — ein Muster, das wir in Branchenartikeln immer wieder sehen. Praktisch gilt: Je mehr offene Fragen, desto steiler bricht die Qualität der späteren ein. Behalte die wichtigsten 1–2 und ersetze den Rest durch geschlossene. Das ist die realistische Balance aus Ertrag und Qualität.
2. Wenn „nichts Besonderes" über 30 % steigt, gestalte das Item neu. 30 %+ Nicht-Antwort ist ein Designsignal. Entweder ist die Frage zu abstrakt, schlecht platziert oder von der vorherigen entkoppelt. Nicht achselzuckend „die Leute interessieren sich halt nicht" sagen — 5+ Punkte allein durch Umformulierung sind normal zurückzugewinnen.
3. Vermeide Pflicht-offene-Fragen als Standard. Pflicht hebt die Antwortzahlen, aber auch die Quote von „." / „x" / „nichts"-Müll. Datenqualität wird typischerweise schlechter, nicht besser. 60 % hohe Qualität optional > 95 % gemischte Qualität pflichtig ist der Betriebskonsens.
4. Dimensioniere das Textfeld nicht auf Hoffnung. „Geben wir ihnen viel Platz, dann schreiben sie mehr" ist ein Wunsch, keine Regel. Israel (2010) zeigt, dass das Gegenteil passieren kann. Wähle eine Größe, die zur tatsächlich gewünschten Länge passt — zu viel Leere schüchtert ein und verkürzt Antworten.
5. In der KI-Analyse-Ära: Items von Anfang an klassifizierbar designen. „Wir werfen die Daten später in eine KI und finden's heraus" prallt auf eine harte Wahrheit: abstrakte Fragen erzeugen nicht-taggbare Antworten, sogar für LLMs. Schreib im Design 5–10 Tags auf, die du auf die Antworten anwenden möchtest und prüfe, ob die Frage Antworten produzieren kann, die zu diesen Tags passen. Allein diese Disziplin halbiert die nachgelagerten Analysekosten.
8. Offene Fragen im Umfrage-Tool Kicue
Kicue bringt die Komponenten für seriösen Betrieb offener Fragen standardmäßig mit.
OA / FA-Fragetypen
Offene Fragetypen gibt es in zwei Geschmacksrichtungen: OA (einzeilige Eingabe) und FA (mehrzeilig, Langform). OA ist auf eine Zeile fixiert und für kurze Antworten gedacht, während FA mehrzeilige Eingabe für detaillierte Texte unterstützt. Pflicht/optional und Mindest-/Höchstzeichenzahl lassen sich unabhängig konfigurieren.
Verwandte Designartikel
Das Design offener Fragen ist eng mit anderen Themen verzahnt. Siehe auch unser Matrixfragen-Design, Screening-Fragendesign, Frageordnungseffekte und KI-Analyse offener Antworten.
Das richtige Tool wählen — Free-Plan-Grenzen, Verzweigungs-Support, KI-Fähigkeiten und CSV-Export variieren stark zwischen Tools. Siehe unseren Vergleich kostenloser Umfrage-Tools, um das passende für diesen Ansatz zu finden.
Zusammenfassung
Checkliste für Design und Betrieb offener Fragen:
- Offene Fragen sind für „unerwartete Entdeckung". Numerische Analyse und Trends bei großem N gehören zu geschlossenen Items.
- 15–30 % Nicht-Antwort sind die Basis. Design verbessert das stark, aber kann es nicht auf null bringen.
- Fünf Formulierungsregeln: Ziel benennen / 1–2 Sätze / warum vs. wie unterscheiden / Bezug zur vorherigen Frage / Beispiele zum Starten
- Textfeldgröße bestimmt die Antwortlänge — zu große Boxen können durch Einschüchterung nach hinten losgehen
- 2–3 offene Fragen pro Umfrage ist die praktische Obergrenze — die Qualität späterer Items fällt steil
- In der KI-Ära von Beginn auf Klassifizierbarkeit designen — nachträgliche Korrektur in der Analyse ist teuer
Die naive Annahme „mehr offene Fragen = tiefere Kundenstimme" ist oft kontraproduktiv. Nimm geschlossen, wo geschlossen reicht, und konzentriere offene Fragen auf die 2–3 Items, die sie wirklich brauchen — das ist der Kern, um Quantität und Qualität aus Freitext gleichzeitig zu bekommen.
Literatur
Akademisch und methodisch
- Schuman, H., & Presser, S. (1979). The Open and Closed Question. American Sociological Review.
- Smyth, J. D., Dillman, D. A., Christian, L. M., & McBride, M. (2009). Open-Ended Questions in Web Surveys. Public Opinion Quarterly.
- Holland, J. L., & Christian, L. M. (2009). The Influence of Topic Interest and Interactive Probing on Responses to Open-Ended Questions in Web Surveys. Public Opinion Quarterly.
- Israel, G. D. (2010). Effects of Answer Space Size on Responses to Open-Ended Questions in Mail Surveys. Journal of Official Statistics.
- Geer, J. G. (1991). Do Open-Ended Questions Measure Salient Issues? Public Opinion Quarterly.
- Tourangeau, R., Rips, L. J., & Rasinski, K. (2000). The Psychology of Survey Response. Cambridge University Press.
Anbieter- und Praxis-Leitfäden
- Qualtrics: Open-Ended Question Best Practices.
- SurveyMonkey: Open-Ended Survey Questions.
- Forsta: Designing Effective Open-Ended Questions.
Wer offene Fragen end-to-end mit Erhebung und Aggregation unter einem Dach designen will, probiert das kostenlose Umfrage-Tool Kicue. OA (einzeilig) und FA (mehrzeilig) sind Standard, sodass die Feldgröße präzise zur gewünschten Antwortlänge passt — für maximale Qualität und Ausbeute.
