Handels

Die Qualitative Inhaltsanalyse

von Prof. Dr. Michel Mann
19.01.2026
Eine Orientierungshilfe für die Erstellung wissenschaftlicher Arbeiten

 

Viele Studierende nutzen für die Erstellung ihrer wissenschaftlichen Arbeiten Interviews als Methode zur Datenerhebung. Im dritten Teil dieser Serie wird explizit herausgearbeitet, was bei der Planung und Durchführung von (Experten-) Interviews zu beachten ist (Link). In diesem vierten Teil widmen wir uns nun der Auswertung der erhobenen (qualitativen) Daten, also der Datenanalyse.

An dieser Stelle sei zudem auf die beiden ersten Teile dieser Serie verwiesen: Während Teil 1 eine Einführung in die qualitative Forschung gibt (Link), behandelt Teil 2 wichtige Fragen zum Research Design, also wie man qualitative Forschungsarbeiten konzipiert (Link).

 

Grundsätzliche Überlegungen

Qualitative Interviews müssen in aller Regel erst in eine weiter verarbeitbare Form gebracht werden, um die erhobenen Daten einer Analyse zugänglich zu machen. Hierfür nutzen Forschende sogenannte Transkripte. Darunter versteht man die Verschriftlichung des Dialogs zwischen dem Interviewer und der befragten Person – Wort für Wort. Da sich die meisten Aussagen der Befragten einer quantitativen Auswertung entziehen, bemühen sich qualitative Forscher darum, Sinneinheiten aus transkribierten Interviewtexten herauszufiltern. [1]

Ein Beispiel soll das verdeutlichen:

In quantitativen Befragungen, sog. Surveys, werden den befragten Personen oftmals verschiedene Antwortmöglichkeiten auf gestellte Fragen vorgegeben. Wenn man Vorgesetzte zum Beispiel danach fragt, wie gut diese die Verhandlungsfertigkeiten ihrer Mitarbeiter beurteilen, könnte man dies auf einer Schulnoten-Skala von 1-6 machen. Die erhaltenen Daten lassen sich dann quantitativ auswerten. So können bspw. Mittelwerte und Standardabweichungen berechnet werden.

In einem qualitativen Interview stellt man den befragten Personen dagegen frei, wie diese eine Frage beantworten. Im Ergebnis erhält der Forscher daher einen Text, also interpretationsbedürftige Daten, die sich häufig nicht quantitativ auswerten lassen. Wenn man Vorgesetzte zum Beispiel danach fragt, welche Verhaltensweisen sie bei ihren Mitarbeitern in Verhandlungen für effektiv halten, dann stehen Forscher vor der Herausforderung, lange Textpassagen auf möglichst kurze Sinneinheiten einzukürzen und Beschreibungen ähnlicher Verhaltensweisen zwischen den interviewten Personen zu identifizieren. Dies erfordert eine intensive Auseinandersetzung mit dem Datenmaterial, damit ein gutes Verständnis dessen sichergestellt werden kann, was die interviewte Person mit einer Aussage (wirklich) gemeint hat. [1] [2]

 

Codierung

Ein erster Schritt in der Auswertung qualitativer Daten liegt in der Identifikation der relevanten Textpassagen für jedes geführte Interview. Am Ende der Codierung steht eine bestimmte Anzahl von Codes, die im weiteren Verlauf der Analyse verwendet werden. Dadurch wird das auszuwertende Datenmaterial erheblich reduziert. [3]

Dieser Prozess soll am Beispiel der Gioia Methodologie verdeutlicht werden. Mit ihrem systematischen Ansatz beabsichtigen Gioia und Kollegen die wissenschaftliche Strenge in der qualitativen Forschungsarbeit sicherzustellen, da sich qualitative Studien ansonsten von Außenstehenden nur schlecht methodisch beurteilen lassen. [2] Neben der Gioia Methodologie gibt es zahlreiche andere Ansätze der qualitativen Inhaltsanalyse, u.a. von Mayring oder Kuckartz. Eine Übersicht zu den verschiedenen Verfahren liefert Schreier. [4]

Für die Codierung hat sich die Verwendung einschlägiger Software als Standard in der qualitativen Forschung etabliert. Hierzu zählen insbesondere MaxQDA oder f4analyse. Viele Gutachter sehen in der Verwendung geeigneter Software eine wichtiges Qualitätsmerkmal wissenschaftlicher Forschungsarbeit. [5]

Gioia und Kollegen schlagen vor, das Interviewmaterial zunächst einer offenen Codierung zu unterziehen, einem sogenannten Open Coding. [6] Dazu wird das Transkript nach Antworten auf die Forschungsfrage(n) durchforstet und relevante Passagen, also einzelne Wörter, Teilsätze, Sätze oder Abschnitte, werden entsprechend markiert bzw. codiert. In dieser anfänglichen Phase der Auswertung entsteht bereits nach wenigen Interviews eine Vielzahl an Codes, welche schnell unübersichtlich werden kann und somit eine veränderte Vorgehensweise erforderlich macht. [2]

Daher empfehlen Gioia und Kollegen im Folgenden zu einer axialen Codierung überzugehen (Axial Coding), bei dem die verschiedenen Codes miteinander hinsichtlich ihrer Ähnlichkeit und Unterschiede verglichen werden. [6] Dadurch lassen sich Kategorien erster Ordnung bilden, deren Anzahl oftmals besser bewältigbar ist. Die Autoren sprechen von 25-30 verschiedenen Kategorien erster Ordnung, wobei die tatsächliche Zahl im Einzelfall sicher mehr oder weniger stark nach oben oder unten abweichen kann. [2]

Als hilfreiches Instrument im Rahmen der Codierung erweisen sich sogenannte Memos, also schriftliche Kommentare zu Codes oder Interviewpassagen, in denen Forscher Gedanken, Auffälligkeiten, Fragen und Ideen festhalten, auf die zu einem späteren Zeitpunkt zurückgegriffen werden kann.

 

Entwicklung eines Kategoriensystems

Die Gioia Methodologie zielt im zweiten Schritt der Auswertung darauf ab, eine tiefere Struktur im Datenmaterial zu identifizieren, ein Kategoriensystem. Hierbei geht es darum, eine hierarchische Struktur zu entwickeln, bei der man drei Ebenen unterscheidet. [2] [3]

Die erste bzw. unterste Ebene wird als „First-order Concepts“ beschrieben, als Kategorien erster Ordnung. Diese Konzepte oder Unterkategorien orientieren sich an den Wortlauten der befragten Personen und werden zunächst induktiv erhoben, also ohne intensiven Rückgriff auf die Literatur. Je weiter die Datenanalyse jedoch fortschreitet, desto mehr sollte auch bestehende Literatur herangezogen werden, um einen Bezug zwischen eigener Forschungsarbeit und dem Stand der Forschung herzustellen. [2]

Gioia und Kollegen bezeichnen die zweite bzw. mittlere Ebene als „Second-order Themes“, also Themen oder Oberkategorien, welche die verschiedenen Unterkategorien ordnen. Innerhalb einer Oberkategorie finden sich zueinander ähnliche Unterkategorien, die jedoch große Unterschiede zu Unterkategorien aufweisen sollten, die anderen Oberkategorien zugeordnet werden. [2]

Die dritte bzw. höchste Ebene ist schließlich die der „Aggregate Dimensions“. Diese übergeordneten und eher abstrakten Dimensionen sind in der Regel auf zwei bis fünf verschiedene Dimensionen begrenzt. Ihre Identifikation stellt den Abschluss des Kategorisierungsprozesses dar. [2]

Das Ergebnis dieses zweiten Schritts ist eine „Data Structure“, also eine grafische Darstellung des Kategoriensystems wie in Abbildung 1 skizziert. Diese Grafik soll die Erkenntnisse nicht nur visuell ordnen, sondern auch offenlegen, wie Forscher von den gewonnenen Daten zu Konzepten, Themen und Dimensionen gelangt sind. Dieser Schritt schafft Transparenz für Gutachter und Leser wissenschaftlicher Arbeiten und fördert die Glaubwürdigkeit der gewonnenen Erkenntnisse.[2]

Abbildung 1 zeigt den Ausschnitt aus einer Data Structure, die von Corley und Gioia im Rahmen einer qualitativen Studie zu Veränderung der Unternehmensidentität entwickelt wurde. Die Hierarchieebenen folgen der zuvor beschriebenen Logik: Dimensionen als höchste Ordnungsebene (rechts), Themen als mittlere und Konzepte als unterste Ebene (links). Gleichzeitig ist zu erkennen, dass der Abstraktionsgrad von links nach rechts zunimmt. [7]

Bild2
Abbildung 1: Beispiel einer Data Structure (Ausschnitt) [7] [8]

Dieser Schritt der Analyse gilt als „abgeschlossen“, sobald das Kriterium der theoretischen Sättigung erreicht wird. Theoretische Sättigung beschreibt den Zustand, in dem weitere Interviews zu keinen neuen Erkenntnissen, also neuen Konzepten mehr führen. [9] Studien zeigen, dass dieses Kriterium durchschnittlich bei zwölf geführten Interviews erfüllt ist, wenngleich dieser Wert nur als grobe Orientierungsgröße dienen und im Einzelfall mitunter deutlich abweichen kann. [10]

 

Gewinnung theoretischer Erkenntnisse (Modellbildung)

Im letzten Schritt der Analyse geht es darum, auf Basis des Kategoriensystems ein Modell oder eine Theorie abzuleiten. [2] Dies ist sicher der anspruchsvollste Schritt im Rahmen der Auswertung, zumal es für dieses Vorhaben keine wirkliche Anleitung gibt, die Orientierung für die eigene Forschungsarbeit stiftet.

Ein hilfreicher Grundgedanke kann darin gesehen werden, dass in der Modellbildung vor allem die Verbindungen zwischen den Konzepten im Fokus stehen und nicht die Konzepte selbst. [2] Zum Beispiel lassen sich Konzepte auf Ursache- und Wirkungs-Zusammenhänge hin analysieren.

Im Rahmen einer eigenen qualitativen Studie zu Referenzpunkten in Verhandlungen führte dagegen die Auseinandersetzung mit den Merkmalen der Konzepte zum in Abbildung 2 dargestellten Modell. Diese zweidimensionale Matrix strukturiert die in der Studie identifizierten Referenzpunkt-Konzepte nach den Merkmalen Ursprung (origin) und Zeit (time). Hier erwies sich die Data Structure zwar als hilfreich, dennoch limitierte sie die Ordnung der gefundenen Konzepte und war daher lediglich ein Zwischenschritt in der Datenanalyse. [11]

Bild3
Abbildung 2: Beispiel eines Modells aus einer qualitativen Verhandlungsstudie [11]

Abschließende Gedanken

Die Gioia Methodologie stellt nur einen möglichen Ansatz für die Durchführung einer qualitativen Inhaltsanalyse dar. Die Wahl des Verfahrens sollte z.B. auf Grundlage der zu beantwortenden Forschungsfrage(n) und der Beschaffenheit des erhaltenen Datenmaterials erfolgen. Mayrings Verfahren der qualitativen Inhaltsanalyse verfolgt bspw. einen eher theoriegeleiteten Ansatz in der Kategorienbildung, der sich vom induktiven Ansatz der Gioia Methodologie deutlich unterscheidet und in dem auch die Auszählung von Häufigkeiten (Frequenzanalysen) einen wichtigen Platz einnimmt. [12]

Für Studierende empfiehlt sich daher das Treffen einer bewussten Entscheidung für die Orientierung an einem geeigneten Verfahren der qualitativen Inhaltsanalyse. Hierbei kann sich der frühzeitige Austausch mit dem Betreuer der wissenschaftlichen Arbeit als gewinnbringend erweisen. Darüber hinaus mehren sich die Stimmen in der Forschung, die dazu raten, qualitative Inhaltsanalysen nicht strikt an einem Verfahren auszurichten („Kochbuch-Ansatz“), sondern sich eine gewisse Flexibilität zu bewahren, die analytische Vorgehensweise auf die spezifischen Besonderheiten der jeweiligen Studie auszurichten („methodische Bricolage“). [8]

Buchempfehlung für die weiterführende Lektüre:

Kuckartz, U. (2018). Qualitative Inhaltsanalyse: Methoden, Praxis, Computerunterstützung (4. Aufl.). Beltz Juventa.

Quellen:

[1] Schreier, M. (2023). Qualitative Forschungsansätze. In Schreier et al. (Hrsg.): Forschungsmethoden in Psychologie und Sozialwissenschaften für Bachelor (3. Auflage). Springer. S. 205-246.

[2] Gioia, D. A., Corley, K. G., & Hamilton, A. L. (2013). Seeking qualitative rigor in inductive research: Notes on the Gioia methodology. Organizational research methods, 16(1), S. 15-31.

[3] Schreier & Weydmann (2023). Qualitative Analyseverfahren. In Schreier et al. (Hrsg.): Forschungsmethoden in Psychologie und Sozialwissenschaften für Bachelor (3. Auflage). Springer. S. 281-318.

[4] Schreier, M. (2014). Varianten qualitativer Inhaltsanalyse: ein Wegweiser im Dickicht der Begrifflichkeiten. In Forum Qualitative Sozialforschung, 15(1).

[5] O’Kane, P., Smith, A., & Lerman, M. P. (2021). Building transparency and trustworthiness in inductive research through computer-aided qualitative data analysis software. Organizational Research Methods, 24(1), S. 104-139.

[6] Strauss, A. & Corbin, J. (1998). Basics of qualitative research (2. Auflage). Sage.

[7] Corley, K.G. and Gioia, D.A. 2004. Identity ambiguity and change in the wake of a corporate

spin-off. Administrative Science Quarterly, 49(2), S. 173–208.

[8] Mann, M. (2025). Methodological Bricolage in Qualitative Research: Applications in Interview Studies. MCAST Journal of Applied Research & Practice, 9(1), S.87-104.

[9] Glaser, B.G. and Strauss, A.L. (1967), Discovery of Grounded Theory: Strategies for Qualitative Research, Aldine Transaction, New Brunswick, NJ.

[10] Guest, G., Bunce, A., & Johnson, L. (2006). How many interviews are enough? An experiment with data saturation and variability. Field Methods, 18(1), S. 59–82.

[11] Mann, M., Warsitzka, M., Trötschel, R. & Hüffmeier, J. (2025). How, when and why do negotiators use reference points? A qualitative interview study with negotiation practitioners. International Journal of Conflict Management, 36 (3), S. 481–513.

[12] Mayring, P. (2022). Qualitative Inhaltsanalyse (13. Aufl.). Beltz.

Die neusten Studien

Band21 Shadow

Band 21

Kriterien der Einkaufsstättenwahl in der DIY-Branche. Eine empirische Untersuchung zum Konsumentenverhalten in der Baumarktbranche.

Maximilian Timm, Carsten Kortum

Oktober 2023

Band20 Shadow

Band 20

Kundenreaktion auf Out-of-Stock von Food- und Nonfood- Aktionsartikeln bei verschiedenen Betriebstypen im Lebensmitteleinzelhandel

Marcel Gimmy, Prof. Dr. Carsten Kortum

Mai 2023

Titel Band 19 Homepage Neu

Band 19

Klimaneutralität im deutschen LEH
Diskussionsbeitrag auf Basis von acht Experteninterviews

Alesia Kehl, Stephan Rüschen

November 2022

Die neusten Whitepaper

Nr. 61
Analyse der Angebotskommunikation im Nonfood-Handel: Empirische Befunde zu Frequenz und Saisonalität der digitalen Handzettelwerbung 2023– 2025
Carsten Kortum, Martin Langhauser
Januar 2026
Nr. 60
KI trifft Konsum: Weihnachtsgeschenke 2025 – Eine Studie zum digitalen Einkaufs- und Preisverhalten
Carsten Kortum
Dezember 2025
Nr. 59
Coupons im Daten-Dilemma – Nutzung, Wahrnehmung und Datenschutz von digitalen Coupons im Handel
Carsten Demming, Carsten Kortum
November 2025

Die neusten Blogbeiträge

Wirtschaftswachstum in Deutschland: Was braucht es dafür?

von Prof. Dr. Oliver Letzgus

Siegeszug der Private Labels: Handelsmarken auch 2025 auf Wachstumskurs

von Prof. Dr. Michel Mann

Kondratieff-Wellen im Handel: Innovationsgetriebene Wachstumsphasen als Erklärung langfristigen Strukturwandels

von Prof. Dr. Carsten Kortum
Wissenschaftlicher Begleittext zur Abbildung (Handelsinnovationen, ohne Industrieinnovationen)

Feuerwerk im Lebensmitteleinzelhandel 2025: Sortiment, Preisrange und was die Prospekte wirklich zeigen

von Prof. Dr. Carsten Kortum

Weihnachten beginnt früher, als viele Händler denken: Empirische Befunde zum Such- und Klickverhalten deutscher Konsument:innen

von Prof. Dr. Carsten Kortum