Datensättigung ist ein Begriff, der in der Forschung verwendet wird, um anzuzeigen, dass keine neuen Informationen mehr zu erwarten sind, die die Ergebnisse einer Studie verbessern oder verändern würden. Es ist wichtig, eine Datensättigung zu erreichen. Sie ist erreicht, wenn genügend Informationen vorhanden sind, um die Studie zu wiederholen, wenn die Fähigkeit, zusätzliche neue Informationen zu erhalten, erreicht ist und wenn eine weitere Kodierung (Identifizierung von Themen) nicht mehr möglich ist.
Das Konzept der Datensättigung gilt jedoch als vernachlässigt. Das liegt daran, dass es sich um ein Konzept handelt, das schwer zu definieren ist. Was für den einen Datensättigung ist, ist für den anderen nicht annähernd genug.
Es gibt zwei Möglichkeiten, wie sich Datensättigung in der Forschung bemerkbar macht:
Datensättigung bei der Stichprobenziehung
Wenn ein Forscher Befragte für eine Studie auswählt (eine „Stichprobe“ durchführt), kann er dies mit Hilfe einer „theoretischen Stichprobe“ tun. Das bedeutet, dass er der Stichprobe so lange neue Einheiten hinzufügt, bis die Studie einen Sättigungspunkt erreicht hat, d. h. bis keine neuen Daten mehr durch die Aufnahme und Analyse neuer Einheiten gewonnen werden. Theoretisches Sampling ist ein Ansatz zur Gewinnung von Befragten für die Forschung, der mit der so genannten „geerdeten Theorie“ zusammenhängt und dadurch gekennzeichnet ist, dass die Datenerhebung durch die entstehende Theorie gesteuert wird. Der Forscher muss ständig nach neuen Einheiten und Daten suchen und den theoretischen Zweck begründen, für den jede zusätzliche Gruppe in die Studie aufgenommen wird. Diese Art der Stichprobenziehung ist aufgrund der Zwänge eines festen Budgets, das das Studiendesign und die Stichprobenparameter bestimmt, unüblich.
Forscher tun sich oft schwer damit, abzuschätzen, wie viele Interviews erforderlich sind, um eine Datensättigung zu erreichen, und werden wiederum oft von Projektbudgets diktiert. Bei der Entscheidung für ein Studiendesign sollten Forscher ein solches anstreben, bei dem klar ist, wie die Datensättigung erreicht wird. Um die Datensättigung bestmöglich zu erreichen, sollte bei der Auswahl der Stichproben auf einen Querschnitt der interessierenden Bevölkerungsgruppen geachtet werden, so dass wahrscheinlich ein ganzes Spektrum von Ansichten zu hören ist.
Datensättigung bei qualitativen Interviews
Tiefeninterviews und Fokusgruppen sind zwei häufig verwendete Methoden der qualitativen Forschung. Im Gegensatz zu quantitativen Erhebungen, bei denen der Schwerpunkt auf eng begrenzten Fragen wie Ja/Nein oder Bewertungsskalen liegt, geht es bei beiden Methoden um die Suche nach der Tiefe der Bedeutung. Eine Fokusgruppe oder ein ausführliches Interview ist eine explorative Form der Forschung. Es ist offen und weniger formell strukturiert als eine Umfrage. Der Interviewer muss das Thema, das ihn interessiert, gemeinsam mit dem Befragten untersuchen, bis er nichts mehr hinzufügen kann. Dies kann durch Fragen am Ende des Gesprächs geschehen, z. B. „Sonst noch etwas?“ oder „Muss ich noch etwas anderes wissen als das, was ich Sie gefragt habe? Auf diese Weise wird sichergestellt, dass eine Sättigung erreicht wurde, d. h. dass es dem Thema nichts mehr hinzuzufügen gibt.
Wenn die Datensättigung in der qualitativen Forschung nicht erreicht wird, wirkt sich dies auf die Qualität der Forschung aus und beeinträchtigt die Gültigkeit des Inhalts. Es gibt jedoch kein Patentrezept für das Erreichen der Datensättigung. Es gibt Datenerhebungsmethoden, bei denen die Wahrscheinlichkeit, eine Datensättigung zu erreichen, höher ist als bei anderen, wobei diese Methoden stark vom Studiendesign abhängen.
Bedauerlicherweise kann die Datensättigung erst im Nachhinein festgestellt werden, wenn die qualitativen Interviews durchgeführt und die Daten analysiert wurden. Marktforschung wird aber in der Regel im Vorfeld geplant, begründet und kalkuliert. Um die Datensättigung in der Realität zu erreichen, bedarf es also einer Kombination aus vernünftigen Stichproben, einem guten Forschungsdesign, gut konzipierten Forschungsinstrumenten und den realen kommerziellen Parametern des Projekts.
Andernfalls können Ihre Ergebnisse genauso gut im Regen stehen gelassen werden.