Quantitative Forschungsmethoden PDF
Document Details
Uploaded by Deleted User
2024
Martin Wysterski
Tags
Summary
This is a course book on quantitative research methods. It covers the historical background, ethical considerations, and key aspects of quantitative research. The book is targeted at undergraduate-level students and is relevant to the field of education. It also focuses on methods and techniques for data analysis.
Full Transcript
QUANTITATIVE FORSCHUNGSMETHODEN DLBPGQNFM01 QUANTITATIVE FORSCHUNGSMETHODEN IMPRESSUM Herausgeber: IU Internationale Hochschule GmbH IU International University of Applied Sciences Juri-Gagarin-Ring 152 D-99084 Erfurt Postanschrift: Albert-Proeller-Straße 15-19...
QUANTITATIVE FORSCHUNGSMETHODEN DLBPGQNFM01 QUANTITATIVE FORSCHUNGSMETHODEN IMPRESSUM Herausgeber: IU Internationale Hochschule GmbH IU International University of Applied Sciences Juri-Gagarin-Ring 152 D-99084 Erfurt Postanschrift: Albert-Proeller-Straße 15-19 D-86675 Buchdorf [email protected] www.iu.de DLBPGQNFM01 Versionsnr.: 001-2024-0126 Martin Wysterski © 2024 IU Internationale Hochschule GmbH Dieses Studienskript ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Dieses Studienskript darf in jeglicher Form ohne vorherige schriftliche Genehmigung der IU Internationale Hochschule GmbH (im Folgenden „IU“) nicht reproduziert und/oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet wer- den. Die Autor:innen/Herausgeber:innen haben sich nach bestem Wissen und Gewissen bemüht, die Urheber:innen und Quellen der verwendeten Abbildungen zu bestimmen. Sollte es dennoch zu irrtümlichen Angaben gekommen sein, bitten wir um eine dement- sprechende Nachricht. 2 INHALTSVERZEICHNIS QUANTITATIVE FORSCHUNGSMETHODEN Einleitung Wegweiser durch das Studienskript................................................. 6 Basisliteratur..................................................................... 7 Weiterführende Literatur.......................................................... 8 Übergeordnete Lernziele.......................................................... 9 Lektion 1 Grundlagen quantitativer Sozialforschung 11 1.1 Entstehungskontext quantitativer Forschung................................... 12 1.2 Quantitativer Forschungsbereich des lebenslangen Lernens..................... 14 1.3 Ethik in der quantitativen Sozialforschung..................................... 17 1.4 Merkmale quantitativer Forschungsmethoden.................................. 18 1.5 Gütekriterien quantitativer Forschung......................................... 19 Lektion 2 Methoden quantitativer Forschung 23 2.1 Fragebogen................................................................. 24 2.2 Interview................................................................... 27 2.3 Beobachtung................................................................ 28 2.4 Dokumentenanalyse......................................................... 30 Lektion 3 Von der Idee zum Forschungsvorhaben 33 3.1 Themenfindung und Forschungsfrage......................................... 34 3.2 Operationalisierung.......................................................... 36 3.3 Stichproben für quantitative Untersuchungen.................................. 38 Lektion 4 Von der Theorie zur Hypothese 45 4.1 Hypothesenarten............................................................ 46 4.2 Theoriebasierte Entwicklung von Hypothesen.................................. 48 3 Lektion 5 Quantitative Daten aufbereiten 51 5.1 Funktion und Bedeutung der Datenaufbereitung................................ 52 5.2 Erstellung quantitativer Datensätze mit Statistiksoftware........................ 54 5.3 Datenbereinigung............................................................ 58 5.4 Datentransformation......................................................... 60 Lektion 6 Quantitative Daten auswerten 63 6.1 Grundlagen der quantitativen Datenauswertung................................ 64 6.2 Deskriptive Statistik I: Univariate Datenanalysen................................ 67 6.3 Deskriptive Statistik II: Bivariate Datenanalysen................................. 75 6.4 Inferenzstatistik I: Einführung................................................. 78 6.5 Inferenzstatistik II: Hypothesentest............................................ 85 6.6 Untersuchungsergebnisse darstellen.......................................... 88 Lektion 7 Ausblick 91 7.1 Weiterentwicklung der eigenen Methodenkompetenz........................... 92 7.2 Ein eigenes Forschungsprojekt planen......................................... 94 Verzeichnisse Literaturverzeichnis.............................................................. 98 Abbildungsverzeichnis.......................................................... 101 4 EINLEITUNG HERZLICH WILLKOMMEN WEGWEISER DURCH DAS STUDIENSKRIPT Dieses Studienskript bildet die Grundlage Ihres Kurses. Ergänzend zum Studienskript ste- hen Ihnen weitere Medien aus unserer Online-Bibliothek sowie Videos zur Verfügung, mit deren Hilfe Sie sich Ihren individuellen Lern-Mix zusammenstellen können. Auf diese Weise können Sie sich den Stoff in Ihrem eigenen Tempo aneignen und dabei auf lerntyp- spezifische Anforderungen Rücksicht nehmen. Die Inhalte sind nach didaktischen Kriterien in Lektionen aufgeteilt, wobei jede Lektion aus mehreren Lernzyklen besteht. Jeder Lernzyklus enthält jeweils nur einen neuen inhaltlichen Schwerpunkt. So können Sie neuen Lernstoff schnell und effektiv zu Ihrem bereits vorhandenen Wissen hinzufügen. In der IU Learn App befinden sich am Ende eines jeden Lernzyklus die Interactive Quizzes. Mithilfe dieser Fragen können Sie eigenständig und ohne jeden Druck überprüfen, ob Sie die neuen Inhalte schon verinnerlicht haben. Sobald Sie eine Lektion komplett bearbeitet haben, können Sie Ihr Wissen auf der Lern- plattform unter Beweis stellen. Über automatisch auswertbare Fragen erhalten Sie ein direktes Feedback zu Ihren Lernfortschritten. Die Wissenskontrolle gilt als bestanden, wenn Sie mindestens 80 % der Fragen richtig beantwortet haben. Sollte das einmal nicht auf Anhieb klappen, können Sie die Tests beliebig oft wiederholen. Wenn Sie die Wissenskontrolle für sämtliche Lektionen gemeistert haben, führen Sie bitte die abschließende Evaluierung des Kurses durch. Die IU Internationale Hochschule ist bestrebt, in ihren Skripten eine gendersensible und inklusive Sprache zu verwenden. Wir möchten jedoch hervorheben, dass auch in den Skripten, in denen das generische Maskulinum verwendet wird, immer Frauen und Män- ner, Inter- und Trans-Personen gemeint sind sowie auch jene, die sich keinem Geschlecht zuordnen wollen oder können. 6 BASISLITERATUR Backhaus, B. et al. (2016): Multivariate Analysemethoden: Eine anwendungsorientierte Ein- führung. 10. Auflage, Springer Verlag, Wiesbaden. Berekhoven, L. (2009): Marktforschung: Methodische Grundlagen und praktische Anwen- dung. 12. Auflage, Gabler Verlag, Wiesbaden. Döring, N. /Bortz, J. (2016): Forschungsmethoden und Evaluation in den Sozial- und Human- wissenschaften. 5. Auflage, Springer Verlag, Berlin. Brosius, H.-P./Haas, A./Koschel, F. (2016): Methoden der empirischen Kommunikationsfor- schung. 6. Auflage, VS Verlag für Sozialwissenschaften, Wiesbaden. Schnell, R./Hill, P. B./Esser, E. (2011): Methoden der empirischen Sozialforschung. 12. Auf- lage, Oldenbourg Wissenschaftsverlag, München. 7 WEITERFÜHRENDE LITERATUR LEKTION 1 Loos, J. (2017): Lebenslanges Lernen im demografischen Wandel. Springer, Wiesbaden. LEKTION 2 Köhler, T. et al. (2017): Wissensgemeinschaften in Wirtschaft, Wissenschaft und öffentlicher Verwaltung. 20. Workshop GeNeMe'17 Gemeinschaften in Neuen Medien, Dresden, 18.–20.10.2017, TUDpress, Dresden. (Im Internet verfügbar). LEKTION 3 Häder, S. (2015): Stichproben in der Praxis (Version 1.1). Arbeitspapier. GESIS – Leibniz-Insti- tut für Sozialwissenschaften. (Im Internet verfügbar). LEKTION 4 Blumberg A. et al. (2012): Robust statistics, hypothesis testing, and confidence intervals for persistent homology on metric measure spaces. Working Paper. (Im Internet verfügbar). LEKTION 5 Angele, G. (2012): SPSS Statistics 20 – Eine Einführung. Otto-Friedrich-Universität Bamberg. (Im Internet verfügbar). LEKTION 6 Tachtsoglou, S., König, J. (2017): Standardnormalverteilung und z-Transformation. In: Sta- tistik für Erziehungswissenschaftlerinnen und Erziehungswissenschaftler. Springer VS, Wiesbaden. LEKTION 7 Behrendt, E. (2012): Methodenkompetenz in beruflichen Praxisfeldern: hoher Bedarf außer- halb der Forschung. Sozialwissenschaften und Berufspraxis; 23/1, S. 87–96. (Im Inter- net verfügbar). 8 ÜBERGEORDNETE LERNZIELE In dem Kurs Quantitative Forschungsmethoden werden Schritte des quantitativen For- schungsprozesses ausgehend von der Betrachtung des historischen Kontextes beleuchtet. Hierbei stehen Ethikstandards, Merkmale und Gütekriterien quantitativer Forschung im Bereich des lebenslangen Lernens im Vordergrund. Vermittelt wird, wie ausgehend von einer spezifischen Idee ein konkretes Forschungsvorhaben unter Einbindung ausgewähl- ter Methoden zu realisieren ist. Aufbauend auf diesem Wissen, folgt eine Diskussion wichtiger Eckpunkte zur quantitati- ven Datenaufbereitung und Datenauswertung unter Nutzung von Statistiksoftware. Hierzu ist eine intensive Auseinandersetzung mit Grundlagen der deskriptiven Statistik und Infe- renzstatistik notwendig, um schließlich selbstständig Hypothesentests durchführen zu können. Am Ende des Moduls werden Möglichkeiten zum fortführenden Ausbau der eigenen Methodenkompetenz aufgezeigt. Zudem wird ein Forschungsprojekt mithilfe der im Modul vermittelten Kenntnisse exemplarisch geplant. 9 LEKTION 1 GRUNDLAGEN QUANTITATIVER SOZIALFORSCHUNG LERNZIELE Nach der Bearbeitung dieser Lektion werden Sie wissen, … – welchen geschichtlichen Hintergrund die quantitative Sozialforschung hat. – welchen Zusammenhang es zwischen quantitativer Sozialforschung und lebenslangem Lernen gibt. – welchen Ethikstandards die quantitative Sozialforschung verpflichtet ist. – welche Merkmale und Gütekriterien es für die quantitative Sozialforschung gibt. 1. GRUNDLAGEN QUANTITATIVER SOZIALFORSCHUNG Aus der Praxis Sie sind neu in einem Start-up, das Angebote in der berufsbegleitenden Weiterbildung macht, und verantwortlich für den Aufbau des quantitativen Forschungsbereiches, den es bisher so nicht gibt. Die Geschäftsführung möchte von Ihnen einen kurzen Abriss darüber, … … wie sich die quantitative Forschung entwickelt hat. … wie das Konzept des lebenslangen Lernens im Laufe der Zeit etabliert worden ist. … welche ethischen Aspekte bei der quantitativen Forschung zu berücksichtigen sind. … wie genau der ideale Forschungsprozess aussieht. … welche Qualitätskriterien in der quantitativen Forschung berücksichtigt werden müs- sen. Zur Vorbereitung der Präsentation müssen Sie sich selbst noch einmal mit diesen Themen befassen, um für Ihre erste Präsentation vor der Geschäftsführung perfekt vorbereitet zu sein. 1.1 Entstehungskontext quantitativer Forschung Die Geschichte der quantitativen Forschung kann auch als die Geschichte des Datensam- melns bezeichnet werden. Standardisierte Informationen werden schon seit Jahrtausen- den erhoben. Schon die Perser führten erste Meinungsumfragen durch. Sie zählten ihre Bevölkerung, um abschätzen zu können, wie viele Steuern sie erheben und wie viele Sol- daten sie mustern konnten. Im 16. Jahrhundert ging es im Zuge der Herausbildung der Nationalstaaten immer noch darum, militärisches Potenzial festzustellen und die Finan- zierung des Staates sicherzustellen. Allerdings versuchte man mit dem Sammeln der Daten auch schon, potenzielle Märkte zu erschließen. Das Ziel bestand also in der Ermögli- chung einer rationalen administrativen Planung. Im 19. Jahrhundert verschob sich dann jedoch der Schwerpunkt des Vorläufers unserer heutigen quantitativen Forschung. Als Folge der Industrialisierung und Urbanisierung ging es der Bevölkerung immer schlechter. Elend und Armut wurden im Lauf der Zeit immer größer. So entwickelte sich im späten 19. Jahrhundert die Armutsforschung. Diese wurde von den Herrschenden in großem Stil finanziert, denn man wollte auf jeden Fall die Lage der Armen verbessern. Man sorgte sich sowohl um die Moral in der Gesellschaft als auch – und das sicherlich in viel höherem Maße – um den eigenen Machterhalt, denn die aufkommende Arbeiterbewegung wurde zu einer ernsthaften Bedrohung für den Staat (Bosancic 2007). 12 Um 1890 herum veröffentlichte Charles Booth seine erste und noch unsystematische bzw. theorielose Studie „A Survey of London Life and Labour“. Booth war einer jener bemer- kenswerten englischen Viktorianer, der mit Recht als einer der großen und guten beschrie- ben werden kann. Er war von zeitgenössischen sozialen Problemen tief betroffen und erkannte die Grenzen der Philanthropie und der bedingten Nächstenliebe, weshalb er die Philanthropie Armut angriff, die die britische Gesellschaft heimsuchte. So konzipierte, organisierte und Unter Philanthropie ver- steht man ein menschen- finanzierte er eine der umfassendsten und wissenschaftlichsten sozialen Untersuchungen freundliches Denken und in London, die damals durchgeführt wurde. Er besuchte die Armen in ihren Haushalten Verhalten. und befragte – wenn auch unstrukturiert – „Experten“ wie Polizisten, Geldeintreiber, Hygi- eneinspektoren oder Sozialfürsorger. Diese Vorgehensweise – auch Enquete genannt – war zu diesem Zeitpunkt sehr beliebt (Bosancic 2007). Die neuen Technologien – und dabei in erster Linie das moderne Transport- und Kommu- nikationswesen – führten dazu, dass die Forscher viele Menschen leicht und schnell errei- chen konnten, die vorher nicht für sie greifbar gewesen waren. Entweder schickten sie die- sen Fragebögen per Post (die nun auch relativ sicher transportiert wurde) oder sie nutzten die Eisenbahn, um persönlich vorstellig zu werden. Dies ermöglichte die Durchführung häufigerer und komplexerer Umfragen. So umfasste die Datensammlung von Booth am Ende insgesamt 17 Bände. Booth ermittelte dabei, dass 30 Prozent der Bewohner Londons in Armut lebten und dass es eine Korrelation zwischen Hilfs- bzw. Gelegenheitsarbeit und niedrigem Lohn gab. Weitere Pioniere der empirischen Sozialforschung waren Karl Marx, Emile Durkheim und Max Weber (Baur 2003, S. 32). Auf Basis dieses Wissens entwickelte sich die Soziografie, auf deren Tradition sich wiede- Soziografie rum die qualitativen und quantitativen Ansätze ausdifferenzierten. Insbesondere die USA Die Soziografie ist eine sozialwissenschaftliche hatten diesbezüglich eine Vorreiterrolle. In den 20er-Jahren des 20. Jahrhunderts entwi- Forschungsrichtung, die ckelte sich dort eine Art quantitative Tradition. So gab es zum Beispiel Umfragen im Vor- die soziale Struktur einer feld von Wahlen, bei denen auch politische Einstellungen gemessen wurden. Man zog bestimmten Einheit (z. B. eines Dorfes oder einer erste Zufallsstichproben und entwickelte statistische Auswertungsverfahren (weiter) geografischen Region) (Bosancic 2007). empirisch zu untersuchen und zu beschreiben ver- sucht. In Deutschland orientierte man sich stark an der Entwicklung in den USA. Es bildete sich die sogenannte Kölner Schule. Kölner Schule Die Kölner Schule ist eine Theorieströmung in der In Deutschland orientierte man sich stark an der Entwicklung in den USA. Es bildete sich Soziologie, die auf den die sogenannte Kölner Schule (Bosancic 2007). Neben der Frankfurter Schule und der deutschen Soziologen Gruppe um Helmut Schelsky (Münster) waren vor allem René König und die Kölner Schule René König (1906–1992) zurückgeht. nach 1945 für die Konsolidierung, Professionalisierung und Internationalisierung des westdeutschen Soziologie prägend (Moebius, , S. 4, 6). Wie Bosancic (2007) schreibt, machte sich die Kölner Schule vor allem einen Namen in der empirischen Sozialforschung. Später ging aus ihr die Kölner Zeitschrift für Soziologie und Sozialpsychologie hervor. Ab den 50er-Jahren des 20. Jahrhunderts wiederum gründeten sich die teilweise heute noch aktiven Marktforschungsinstitute wie Emnid oder Allensbach und trieben die politische Forschung mithilfe von repräsentativen Umfragen, wie wir sie heute kennen, voran. 13 Bis Anfang der 1980er-Jahre lag der Fokus der quantitativen Sozialforschung vor allem auf der nationalen Querschnittsforschung. Dies lag daran, dass es zum einen vorher keine Datensätze gab, die internationale Erhebungen oder Längsschnittstudien erlaubt hätten. Zum anderen war die Methodenentwicklung auch noch nicht weit genug vorangeschrit- ten. Dies änderte sich zu Beginn der 1980er-Jahre, denn immer mehr Marktforschungsins- Panel titute richteten sogenannte Panels ein (SOEP, ALLBUS, Eurobarometer etc.) und sorgten wiederholte Befragung somit für eine breite Datenbasis für Längsschnittstudien und international vergleichende derselben Individuen über einen längeren Zeit- Analysen. Einen ebenfalls großen Anteil am Fortschritt der quantitativen Forschung hat raum (Jahre) hinweg die Weiterentwicklung der Technik. Waren bis Ende der 1970er-Jahre nur persönliche oder schriftliche Befragungen möglich, begann in den 1980er-Jahren der Siegeszug der telefon- ischen Befragungen (CATI), mit denen in sehr kurzer Zeit sehr viele Personen befragt wer- den konnten. Diese wurden wiederum durch das Internet und die Möglichkeit der Online- Befragung zu Beginn des 21. Jahrhunderts abgelöst. 1.2 Quantitativer Forschungsbereich des lebenslangen Lernens Bildung wird auch heute noch häufig mit der klassischen Schulbildung und den dazugehö- rigen Bildungseinrichtungen von der Grundschule bis zur Berufsschule bzw. Universität gleichgesetzt und erstreckt sich demnach auf die ersten zwei bis drei Lebensjahrzehnte. Danach ist die Bildungsphase abgeschlossen. Doch schon in den 60er-Jahren des 20. Jahr- hunderts wurde diese Perspektive kritisiert. Man entwickelte Modelle und Ansätze des Lebenslanges Lernen immerwährenden bzw. lebenslangen Lernens. Doch erst Mitte der 1990er-Jahre nahm Der Ausdruck lebenslan- sich die deutsche und europäische Politik dieses Themas verstärkt an. Seitdem ist der ges Lernen steht für ein normatives Konzept für Begriff des „lebenslangen Lernens“ auf der politischen Agenda. Man kam zu der Überzeu- eine erfolgreiche Wissens- gung, dass die zukünftige Gesellschaft eine wissensbasierte Gesellschaft sein werde, die gesellschaft. stark von den Kompetenzen und der Lernfähigkeit eines jeden Einzelnen abhängig sei (Wingerter 2004, S. 1156). Die Europäische Kommission versteht unter lebenslangem Lernen „alles Lernen während des gesamten Lebens, das der Verbesserung von Wissen, Qualifikationen und Kompeten- zen dient und im Rahmen einer persönlichen, bürgerschaftlichen, sozialen bzw. beschäfti- gungspolitischen Perspektive erfolgt“ (Europäische Kommission 2001, S. 9). Nach dieser Definition ist lebenslanges Lernen im politischen Kontext vor allem ein normatives Kon- zept, welches das Ziel verfolgt, möglichst breite Bevölkerungskreise mit dem Wissen und den Kompetenzen zu versorgen, die notwendig sind, um an einer modernen Wissensge- sellschaft wie der unsrigen erfolgreich teilhaben zu können. Und damit ist nicht nur der Beschäftigungssektor gemeint. Es geht nicht nur darum, bestehendes Wissen zu aktuali- sieren; vielmehr sollen allgemeine Bildungsdefizite auch in späteren Lebensabschnitten ausgeglichen bzw. neue Wissens- und Kompetenzbereiche erschlossen werden können. Es geht also um ein Nebeneinander von Arbeit, Bildung und Freizeit – individuell und in den verschiedensten Lebenslagen (Wingerter 2004, S. 1157f.). 14 In der praktischen Umsetzung bedeutet dies jedoch, dass einzelne Bildungsgänge durch- lässiger sein müssen, da individuelle Bildungspfade sonst nur schwer zu ermöglichen sind. Ebenso muss es ein breites Spektrum an unterschiedlichen Bildungsformen geben, die es jedem Einzelnen ermöglichen, seinen Bildungsaufwand so zu organisieren, wie es am bes- ten zu seiner aktuellen Lebenssituation passt. Damit sind wir schon auf der Individual- ebene angekommen, denn jeder Einzelne muss in Eigenverantwortung seine Bildung und Weiterbildung in die Hand nehmen. Die dafür notwendigen Lernkompetenzen muss er mitbringen bzw. sie müssen ihm vermittelt werden. Zusammengefasst bedeutet dieses Konzept eine Ausweitung des klassischen Bildungsbegriffes auf zwei Dimensionen, die als Basis für den sogenannten Lebenslang-Lebensweit-Ansatz fungieren (Wingerter 2004, S. Lebenslang-Lebensweit- 1158f.): Ansatz Dieses Konzept bezeich- net das Lernen, das zu Die erste Dimension befasst sich mit dem Alter des Lernenden. Dabei geht es um alle jeder (Lebens-)zeit und in Lernprozesse, verteilt über den kompletten Zeitraum des Lebens. Aus diesem Grund jeder Form (stark formal- isiert oder informell) nennt man sie auch die zeitliche Dimension (lebenslang). stattfindet. Der Kontext des Lernens hat ebenfalls eine eigene Dimension. Sie wird als die institutio- nelle Dimension bezeichnet und beinhaltet sämtliches Lernen, welches außerhalb des klassischen Bildungssystems stattfindet. Das Konzept des lebenslangen Lernens ist unabhängig von Ort und Zeit, d. h. es ist völlig egal, in welchem Kontext und auf welche Art und Weise man sich sein Wissen oder seine Kompetenzen aneignet. Bildung und Ler- nen unterscheiden sich durch den Formalisierungsgrad. Abbildung 1: Der Lebenslang-Lebensweit-Ansatz Quelle: Wingerter 2004, S. 1159. 15 Doch was bedeutet dies jetzt für die quantitative Forschung? Wie kann sie das Konzept des lebenslagen Lernens unterstützen bzw. wie kann das Konzept von ihr profitieren? Im End- effekt gibt es eine Vielzahl von Themenfeldern, mit denen sich die quantitative Forschung in diesem Kontext beschäftigen kann. Hier nur ein paar wenige Beispiele: Studien zu Kosten und Nutzen der betrieblichen Ausbildung für den Staat, aber auch für den Lernenden, Studien zur Weiterbildung als Bestandteil lebenslangen Lernens, Studien zu betrieblichen Qualifikationsveränderungen und -anforderungen, Evaluation von Weiterbildungsangeboten, Studien zum Thema Bildung im Alter. Vor allem der Weiterbildungsmarkt steht im Fokus der quantitativen Forschung. Aufgrund der weiter oben beschriebenen Entwicklung und politischen Förderung ist der Markt in den vergangenen Jahren stetig gewachsen. Hier ein paar Zahlen aus der aktuellsten Wei- terbildungsstatistik des Deutschen Instituts für Erwachsenenbildung aus dem Jahr 2016: Es wurden 1,1 Millionen Weiterbildungsveranstaltungen durchgeführt. Es wurden 29,3 Millionen Unterrichtsstunden gegeben. Es gab 18 Millionen Teilnehmer. Das Finanzvolumen lag bei 1,7 Milliarden Euro, wovon 34 Prozent durch die Teilnehmer getragen wurden (Horn/Lux/Amboss 2018, S. 9). Interessant ist es, auch die Seite der Teilnehmer zu betrachten: Die Teilnahmequote bezo- gen auf die erwachsene Wohnbevölkerung im Alter von 18 bis 64 Jahren beträgt für das Jahr 2016 immerhin 50 Prozent. Dabei zeigt sich – seit Beginn der Erhebung im Jahr 1991 – ein Trend, der sich in drei Phasen gliedern lässt (Bilger et al. 2017, S. 29): 1. Die erste Phase (1991 bis 1997) ist durch einen deutlichen Anstieg der Weiterbildungs- beteiligung bei den 18- bis 64-Jährigen von 37 Prozent auf 48 Prozent gekennzeichnet. 2. Die zweite Phase kann als Konsolidierung aufgefasst werden: Die Weiterbildungs- quote sinkt zunächst etwas, variiert dann aber in einem Zeitraum von zehn Jahren (2000 bis 2010) kaum (41 bis 44 Prozent). 3. Die dritte Phase beginnt mit einem deutlichen Anstieg der Teilnahmequote auf 49 Pro- zent. Darauf folgt jedoch erneut ein Zeitraum der Konsolidierung. In diese Konsolidie- rung reiht sich auch das Ergebnis von 50 Prozent im Jahr 2016 ein. Dies sind nur einige wenige Beispiele. Es gibt eine unüberschaubare Vielzahl von Studien und Forschung zu diesem Thema. 16 1.3 Ethik in der quantitativen Sozialforschung Das Thema Ethik in der quantitativen Forschung ist ein schwieriges Thema. Insbesondere deswegen, weil die Literaturlage hierzu nicht allzu umfassend ist. Natürlich kann man an dieser Stelle vereinfacht sagen, dass die ethischen Grenzen (um beide Begriffe einmal mit- einander zu verknüpfen) darin liegen, dass man bestimmte Dinge einfach nicht tut, aber was bedeutet dies im Endeffekt konkret? Sicherlich ist damit das Einhalten von Regeln zur Gewährleistung einer moralisch einwandfreien Datenerhebung und Datenanalyse gemeint. Die Übertragung ethischer Grundprinzipien auf die quantitative Forschung ist nicht so tri- vial, bedeutet aber im Endeffekt, die Prinzipien „richtigen“ und „guten“ Handelns in allen Prozessen und situationsbedingten Handlungen anzuwenden. Dies gilt auch für die han- delnden Personen. Dazu bedarf es Richtlinien, Normen und Regeln. „Wesentlich für die ethische Bewertung von Handlungen sind die mit ihnen verbundenen Folgen. Diese wer- den unterschieden in motivierende und in Kauf genommene Folgen. Motivierende Folgen sind solche, um derentwillen eine Handlung ausgeführt wird […]. In Kauf genommene Fol- gen […] werden zwar nicht unmittelbar angezielt, aber als Nebenwirkung der motivieren- den Folgen vorausgesehen und bewusst zugelassen“ (Scheffler 2015, S. 18). Diese „Folgen- betrachtung“ ist wichtig, denn Ausreden wie „das habe ich nicht gewusst/gewollt“ gelten für ethisch handelnde Forscher nicht. Ethisches Handeln ist immer auch vorausschauend und folgenorientiert. „Ethik“ ist – wie so viele andere Begriffe auch – kein eindeutiger Begriff. Häufig wird er mit anderen Begriffen umschrieben, z. B. mit Begriffen wie Anstand, Vertrauen oder vielleicht auch Moral. Diese Vielschichtigkeit des Begriffs ist wichtig, „denn sie zeigt nochmals ver- schiedene Kriterien und Richtlinien ethischen Verhaltens auf, die so auch für eine Ethik in der quantitativen Forschung zu berücksichtigen sind“ (Scheffler 2015, S. 18). Dabei geht es um die Absichten des Handelnden, die Berücksichtigung und Wahrung der Interessen der Betroffenen (informierte Einwilligung, Freiwilligkeit, Datenschutz) sowie um die Folgen (Verwendung der Ergebnisse, wirtschaftliche oder politische Folgen, Konse- quenzen für Informanten bei Missbrauch der Anonymitätszusagen) (Scheffler 2015, S. 18). Nun ist es nicht so, dass dies ein neues Thema ist. Im Gegenteil, man hat sich schon sehr früh damit auseinandergesetzt und versucht, allgemeinverständliche und allgemein aner- kannte Normen und Richtlinien zu entwickeln, was sich in der Gründung des ADM und des BVM im Jahre 1955 zeigt. Seit inzwischen über 60 Jahren gibt es nun schon die Kodizes ADM und BVM und Richtlinien der Markforschungsorganisationen. Sie sind umfassend klar verständlich Die beiden Abkürzungen stehen für Marktfor- und jeder Marktforscher hat die Pflicht, sich daran zu halten. „Ganz unabhängig von den schungs- bzw. Standes- aktuellen Herausforderungen, die Diskussions- und Handlungsbedarf verlangen, ist das verbände in Deutschland: aktuelle Regelwerk weder veraltet noch nicht mehr anwendungsorientiert oder anwen- Arbeitskreis Deutscher Markt- und Sozialfor- dungsrelevant. Es ist lediglich weiterzuentwickeln, nicht neu zu erfinden“ (Scheffler 2015, schungsinstitute e. V. S. 19). Es ist sinnvoll und absolut richtig, sich solche Regelungen und Verhaltensweisen (ADM) und Berufsverband Deutscher Markt- und vorzugeben. Doch am Ende besteht immer das Problem, dass sie einem nicht weiterhel- Sozialforscher e. V. (BVM). fen, wenn andere sich nicht daran halten und man wenig Einfluss hat, etwas daran zu 17 ändern. Als Beispiel seien hier die vielen unzulässigen Verkaufsanrufe genannt, die häufig mit Sätzen beginnen wie „60 Prozent der Deutschen sind der Meinung, sie zahlten zu viele Steuern“. Und dann wird versucht, einem ein Steuersparmodell am Telefon zu verkaufen. Das zieht die Reputation der Markt- und Meinungsforschung stark herunter. 1.4 Merkmale quantitativer Forschungsmethoden Die quantitativen Methoden stehen in einer Tradition, in der die Messung von sozialen und psychologischen Merkmalen im Vordergrund steht. Dabei soll die Messung nicht nur objektiv und präzise, sondern auch theoriegeleitet sein. Eine Forderung, die mithilfe des „hypothetiko-deduktiven Modells“ erfüllt wird. Dieses Konzept basiert auf der „deduktiv- nomologischen Erklärung“ und besteht aus zwei Komponenten: dem Explanandum (dem „zu Erklärenden“) und dem Explanans (dem „Erklärenden“). Andere Namen für dieses Modell (nach den Autoren) sind auch „Hempel-Oppenheim-Schema“ oder „HO-Schema“ (Kelle/Reith/Metje 2017, S. 28). Zum Explanans gehören immer ein allgemeines Gesetz und eine Randbedingung. Hierzu ein Beispiel (Kelle/Reith/Metje 2017, S. 29f.): Es soll der Zusammenhang zwischen der intrinsischen Lernmotivation von Grundschulkindern und der Feedbackkultur der Lehrkräfte untersucht werden. Eine Studie zu dem Thema sagt aus, dass sich die Lernmo- tivation (gemessen an der Leseleistung) von Dritt- und Viertklässlern erhöht, wenn sie durch die Lehrer positives Feedback erhalten. Bezogen auf das „Hempel-Oppenheim- Schema“ würde das Ganze wie folgt aussehen: Explanandum Dritt- und Viertklässler sind beim Lesen in der Schule manchmal unmotiviert. Eplanans Allgemeines Gesetz: Ohne positives Feedback der Lehrer sind Schüler unmotiviert. Randbedingung: Es gibt Lehrer, die zu wenig positives Feedback an die Dritt- und Viert- klässler geben. Allerdings wird die mangelnde positive Rückmeldung nur ein Teilaspekt sein, der sich auf die Motivation der Schüler auswirkt. Es werden noch viele weitere Variablen einen Einfluss darauf haben. Dazu gehören bspw. Persönlichkeitsmerkmale der Schüler, ihr Interesse am Fach oder auch die Sympathie, die sie der Lehrkraft entgegenbringen. Das bedeutet jedoch, dass die hier herangezogene wissenschaftliche Erklärung ohne Weiteres in Zweifel gezogen werden kann und dass es sich nur um eine „Erklärungshypothese“ handelt, die mit anderen Hypothesen konkurriert. Es bedarf weiterer empirischer Daten, um diese Hypothesen und Erklärungen abzusichern. Das nennt man den „hypothetiko-deduktiven“ 18 Ansatz in der Methodologie, der sich u. a. auf Popper bezieht. Der Idealfall des hypothe- tiko-deduktiven Forschungsprozesses sieht dann wie folgt aus (Kelle/Reith/Metje 2017, S. 29): Entwicklung eines Forschungsproblems und der dazugehörigen Fragestellung („Woran liegt es, dass Schüler im Unterricht unmotiviert sind?“); Suche nach einem theoretischen Ansatz zur Erklärung des Problems („Lehrer geben zu wenig positives Feedback“); Ableitung von Hypothesen aus der gefundenen Theorie (Wenn-dann-Formulierungen); Übersetzung der Begriffe aus den Hypothesen in messbare Konzepte („Operationalisie- rung“); Auswahl der Methodik/des Forschungsdesigns (Befragung); Definition und Auswahl der zu Befragenden (Schüler/Eltern/Lehrer einer bestimmten Klassenstufe); Durchführung der Datenerhebung (Befragung der Zielgruppe); Analyse der Daten. Die Analyse der Daten liefert in diesem Zusammenhang die empirische „Evidenz“ für die Gültigkeit der erklärenden Theorien. Dies setzt jedoch voraus, dass die aus den Theorien abgeleiteten Hypothesen „empirisch gehaltvoll“ sind. Damit ist gemeint, dass die Hypo- thesen am Ende auch an der empirischen Realität scheitern können und gegebenenfalls verworfen werden müssen. Dabei muss man im Hinterkopf behalten, dass es grundsätz- lich nicht möglich ist, eine wissenschaftliche Gesetzeshypothese durch empirische Daten endgültig zu beweisen (Kelle/Reith/Metje 2017, S. 29). Das liegt daran, dass sich Gesetzes- hypothesen immer auf eine unendliche Anzahl von Fällen beziehen. Das wären in diesem Fall also alle denkbaren unmotivierten Schüler. Das kann eine empirische Untersuchung jedoch nicht leisten. Aus der Universalaussage einer Theorie („Wenn im Leseunterricht positive Rückmeldungen ausbleiben, dann sind Schüler unmotiviert“) müssen Einzelaus- sagen über konkrete Vorgänge abgeleitet werden. Diese kann man dann empirisch über- prüfen. Ein Beispiel hierfür wäre die Aussage: „Wenn in einer konkreten Schulklasse mehr positive Rückmeldungen gegeben werden, steigt die Zahl der motivierten Schüler.“ Empi- rische Überprüfungen solcher Hypothesen stellen dann Tests für die Theorie dar, bei denen sie sich entweder (vorläufig) bewähren oder an denen sie scheitern kann, d. h., dass die Theorie falsifiziert wird (Kelle/Reith/Metje 2017, S. 30). 1.5 Gütekriterien quantitativer Forschung In der quantitativen Forschung hängt die Qualität der Ergebnisse ganz entscheidend vom Messvorgang selbst und dem eingesetzten Messinstrument ab. Damit die Messergebnisse und vor allem die mit deren Hilfe erzielten Schlussfolgerungen verlässlich sind, müssen die Kriterien der Objektivität, der Reliabilität und der Validität erfüllt sein. Objektivität Ergebnisse sind unabhän- gig vom Einfluss des Ver- suchsleiters. 19 Objektivität bedeutet in diesem Zusamenhang, dass, unabhängig vom Versuchsleiter, ein Test immer das gleiche Ergebnis bringen muss. Der Versuchsleiter darf also keinen Einfluss auf die Datenerhebung (und später auch nicht auf die Datenanalyse) haben. Eine absolute Objektivität gibt es dabei nicht, da immer Störfaktoren vorhanden sind, die unabhängig von den Untersuchungsbedingungen (z. B. Lärm oder Wetter) das Ergebnis beeinflussen. Es gibt verschiedene Arten der Objektivität (Diekmann 2005, S. 216): 1. Bei der Durchführungsobjektivität geht es um das Verhalten des Versuchsleiters. Je standardisierter ein Versuch durchgeführt wird, desto geringer ist der Einfluss des Ver- suchsleiters und desto größer die Durchführungsobjektivität. 2. Die Auswertungsobjektivität hingegen trifft eine Aussage darüber, inwiefern unter- schiedliche Auswertungen zu den gleichen Ergebnissen kommen. 3. Die Interpretationsobjektivität bezieht sich darauf, dass unterschiedliche Interpreten aufgrund der vorliegenden Ergebnisse zu gleichen Schlussfolgerungen kommen soll- ten. Reliabilität Die Reliabilität ist ein Maß für die Messgenauigkeit eines Testergebnisses. In der klassi- Die Reliabilität beschreibt schen Testtheorie setzt sich der Testwert eines Merkmals aus seinem wahren Wert und die Zuverlässigkeit des Testergebnisses. einem Fehler zusammen. Das bedeutet, dass die Reliabilität steigt, wenn der Fehlerwert sinkt. Dies gilt auch für die Objektivität. Ist ein Test reliabel, führt er bei Wiederholung zu identischen Ergebnissen. Es gibt verschiedene Verfahren zur Bestimmung der Reliabilität eines Tests (Brosius/Haas/Koschel 2016, S. 52ff.): Wird der identische Test von einer Gruppe ein zweites Mal durchgeführt, so lässt sich die Retest-Reliabilität bestimmen. Werden für ein Konstrukt zwei verschiedene Tests entwickelt, lässt sich die Paralleltest- Reliabilität bestimmen. Bei der Testhalbierungsreabilität wird der Test halbiert. Beide Testhälften werden dann miteinander korreliert. Die Interne Konsistenz ist eine Weiterentwicklung der Testhalbierung-Reliabilität. Dabei wird der gesamte Test in seine einzelnen Bestandteile zerlegt und jeder Teil als einzelner Test betrachtet. Die Stärke der Korrelation sagt dann etwas über die Reliabiltät aus (Döring/Bortz 2016, S. 198f.). Validität Das wichtigste Gütekriterium ist jedoch eindeutig die Validität. Sie sagt etwas darüber Die Validität prüft, ob das aus, ob ein Test auch das misst, was gemessen werden soll. Wichtig ist in diesem Zusam- gemessen wird, was tat- sächlich gemessen wer- menhang, dass Validität nicht direkt gemessen werden kann. Vielmehr geht es um ein indi- den soll. rektes Erschließen aufgrund der Methodik, der Daten und der Natürlichkeit der Ergebnisse (Brosius/Haas/Koschel 2016, S. 56ff.): 1. Mit der Inhaltsvalidität erhält man Auskunft darüber, wie gut ein Test die zu messende Eigenschaft aufzeigt. Man kann z. B. davon ausgehen, dass ein standardisierter Intelli- genztest auch wirklich die Intelligenzleistung einer Person erfasst. Führt man hinge- 20 gen einen Test durch, um zu testen, ob eine Person für den Triathlon geeignet ist, dürfte der Test nicht inhaltsvalide sein, wenn nur zwei der drei Teildisziplinen des Tri- athlons getestet werden. 2. Die kriterielle Validität (auch Kriteriumsvalidität) betrachtet die Höhe der Korrelation von dem gemessenen Konstrukt mit dem Außenkriterium des Tests, über das man eine Aussage treffen möchte. Je höher die Korrelation, desto höher die Validität. 3. Die Konstruktvalidität hingegen prüft, inwieweit ein Test von seinen Grundüberlegun- gen her geeignet ist, ein Ereignis zu messen. Liegen bereits gesicherte Hypothesen vor, dann lassen sich mit dem Test definitiv Rückschlüsse auf die Konstruktvalidität zie- hen. Liegen jedoch noch keine gut gesicherten Hypothesen vor, kann dies als ein Indiz für das Vorliegen von Konstruktvalidität gedeutet werden. Validität wird darüber hinaus auch noch dafür verwendet, Aussagen über die Gültigkeit eines Untersuchungsdesigns zu treffen. Dabei unterscheidet man zwischen interner und externer Validität. Liegt interne Validität vor, dann lassen sich die empirischen Ergebnisse Interne Validität mit der untersuchten Hypothese erklären. Können z. B. bei einem Test die Störvariablen Die Ergebnisse einer Untersuchung lassen sich gut kontrolliert werden, so ist von einer hohen internen Validität auszugehen. Das gilt mit sehr großer Wahr- eigentlich für alle Tests unter Laborbedingungen. Dahingegen wird der Feldforschung scheinlichkeit mit den eher eine niedrige interne Validität zugeschrieben (Brosius/Haas/Koschel 2016, S. 230). geprüften Hypothesen erklären. Laborbedingungen Die externe Validität sagt etwas darüber aus, inwieweit die Ergebnisse eines Tests auf Ele- Man schafft eine künstli- mente außerhalb der Stichprobe übertragen werden können. Externe Validität wird insbe- che Umgebung, um externe Einflüsse zu mini- sondere der Feldforschung zugeschrieben. Ein Beispiel: Man macht die Beobachtung, dass mieren. sich eine Person, der kalt ist, eine Jacke anzieht. Die Generalisierung könnte darin beste- Feldforschung hen, anzunehmen, dass sich auch andere Personen eine Jacke anziehen, wenn ihnen kalt Unter Feldforschung ver- ist. steht man empirische For- schung im „natürlichen Umfeld“ des Probanden. Bei Laboruntersuchungen ist die externe Validität hingegen eher gering. Dadurch, dass die Externe Validität Störvariablen kontrolliert werden, kann man die Bedingungen nicht wirklich mit der Reali- Die Ergebnisse lassen sich auf andere Personen oder tät vergleichen (Brosius/Haas/Koschel 2016, S. 230). Möchte man z. B. die Nutzerfreund- eine andere Situation lichkeit beziehungsweise Verständlichkeit der Menüführung von Fahrkartenautomaten übertragen. testen, so kann man das an einem Computerarbeitsplatz prima simulieren, indem man die Probanden davorsetzt und ihnen die Aufgabe gibt, eine bestimmte Karte zu kaufen (Labor- untersuchung). Die Ergebnisse werden sich aber von der Realität unterscheiden, denn wenn man genervt, nach einem stressigen Tag, mit einer schweren Tasche und bei schlechtem Wetter vor einem Fahrkartenautomaten steht, sind die Voraussetzungen für den erfolgreichen Kauf einer Karte ganz andere (Feldforschung). ZUSAMMENFASSUNG Der Aufstieg der quantitativen Sozialforschung begann Ende des 19. Jahrhunderts. Ein Vorreiter dabei war Charles Booth mit seiner Studie „A Survey of London Life and Labour“. Basierend darauf, entwickelte sich vor allem im amerikanischen Raum die Soziografie. In Deutschland ist diesbezüglich die Kölner Schule zu nennen, die auf den amerikanischen Vorarbeiten basiert bzw. sich stark an diesen orientiert. Seit Mitte der 21 1990er-Jahre ist der Begriff des „lebenslangen Lernens“ auf der politi- schen Agenda. Dies ist ein normatives Konzept für eine erfolgreiche Wis- sensgesellschaft und bedeutet, dass Bildungsgänge durchlässiger und individueller werden („Lebenslang-Lebensweit-Ansatz“). Mit diesem Ansatz entwickelten sich viele neue Themen für die quantitative Sozial- forschung. Ein wichtiger Aspekt in diesem Zusammenhang ist auch die Forschungsethik. Leider ist der Begriff sehr vielfältig und somit nicht in wenigen Worten zu beschreiben. Jedoch sollte man sich als (quantitati- ver) Forscher an die Richtlinien der Berufsverbände ADM und BVM hal- ten, um im Rahmen seiner Tätigkeit auf der „sicheren Seite“ zu sein. Dabei beinhaltet der – auf Hypothesen und deren Testung basierende – ideale Forschungsprozess acht Schritte: von der Problemformulierung bis zur Analyse der Daten (hypothetiko-deduktiver Forschungsprozess). Die Qualität der Forschung kann wiederum an ihren drei Gütekriterien Objektivität, Reliabilität sowie Validität gemessen werden. 22 LEKTION 2 METHODEN QUANTITATIVER FORSCHUNG LERNZIELE Nach der Bearbeitung dieser Lektion werden Sie wissen, … – was es bei der Erstellung eines Fragebogens zu beachten gilt. – wie Leitfadeninterviews zu deutlichen Erkenntnisgewinnen beitragen können. – welche verschiedenen Formen von Beobachtungen es gibt und wann man sie sinnvoll einsetzen kann. – wann eine Dokumentenanalyse die bevorzugte Methode für Ihr Projekt ist. 2. METHODEN QUANTITATIVER FORSCHUNG Aus der Praxis Das neue Projekt ist genau nach Ihrem Geschmack. Das Thema interessiert Sie schon lange und für Ihr Unternehmen ist es prestigeträchtig. Die Fragestellung ist ziemlich klar und eindeutig. Jetzt fehlt nur noch die passende Methodik. Für Sie ist klar, dass es eine quantitative Befragung werden wird. Doch Ihr Chef wirft ein, warum nicht zusätzlich noch Leitfadeninterviews mit Experten durchgeführt werden. Man wolle doch alles zu dem Thema abdecken. Schließlich denken Sie auch noch an eine Dokumentenanalyse. Um sich abzusichern, schauen Sie sich die verschiedenen Methoden noch einmal in Ruhe an, um am Ende die richtige Entscheidung treffen zu können. 2.1 Fragebogen Die Befragung ist die häufigste Art der Datenerhebung. Teilweise wird sie fälschlicherweise mit dem Begriff Marktforschung gleichgesetzt. Egal ob Kundenzufriedenheitsbefragungen, Meinungsumfragen, Befragungen im Rahmen der Wahlforschung oder auch Mitarbeiter- befragungen, fast jeder ist schon einmal befragt worden oder zumindest mit einer Befra- gung in Berührung gekommen. Bei einer Befragung möchte man immer etwas von einer anderen Person wissen. Sie soll Auskunft über ihre Einstellungen, ihr Wissen oder ihr Ver- halten geben. Hierzu wurde in den vergangenen Jahrzehnten sehr viel geforscht und pub- liziert. Grundsätzlich gilt für eine Befragung, dass es sich um eine künstlich geschaffene Situation handelt. Insbesondere, wenn man von einer persönlichen oder telefonischen Befragung ausgeht, würden die beiden involvierten Personen außerhalb der aktuellen Situation nicht miteinander kommunizieren. Das hat natürlich einen Einfluss auf das Antwortverhalten des Befragten – je nachdem, wie er den Interviewer persönlich einstuft, ihm vertraut oder die Situation interpretiert (Brosius/Haas/Koschel 2016, S. 129). Eine Befragung ist eine Situation, in der kommuniziert wird. Und diese Kommunikation ist speziell, denn es liegt eine grundsätzliche Asymmetrie zwischen dem Interviewer und dem Befragten vor. Das heißt, der Interviewer weiß, dass er an diesem Tag, in diesem Moment Personen befragen wird, während der Befragte in der Regel davon überrascht wird (Ausnahme: Es wurde beim Erstkontakt ein Termin für die Durchführung der Befra- gung ausgemacht). Weiterhin kann man in der Regel davon ausgehen, dass der Intervie- wer mehr Informationen über das Projekt und die Hintergründe besitzt als der Befragte. Er ist sozusagen in einer „besseren“ Position. Auch die Anwesenheit Dritter (Freunde, Bekannte, Kollegen usw.) kann zu Veränderungen im Antwortverhalten führen (wer spricht schon gerne im Beisein von anderen z. B. über Themen wie Sex, Angst oder seine politi- schen Einstellungen). Somit ist auch klar, dass eine Befragung ein reaktives Messverfah- 24 ren ist. Der Befragte weiß, dass er sich in einer Befragungssituation befindet, und richtet Reaktives Messver- sein Verhalten dementsprechend aus. Das Gegenteil davon sind nichtreaktive Messver- fahren Der Befragte ist sich des- fahren. Die Reaktion eines Untersuchungsobjekts auf eine Erhebungssituation wird im All- sen bewusst, dass er sich gemeinen als Reaktivität verstanden (vgl. zum Thema Reaktivität: Scholl 2013, S. 79ff.). in einer Befragungssitua- tion befindet. Nichtreaktives Messver- Auch beim Aufbau und der Gestaltung eines Fragebogens gibt es eine Vielzahl von Dingen, fahren die beachtet werden sollten, um eine erfolgreiche Studie durchführen zu können. Bei der Eine Person ist sich des- Makroplanung geht es um den Aufbau des Fragebogens. An welcher Stelle kommt wel- sen nicht bewusst, dass sie sich in einer Untersu- cher Themenkomplex, sodass sowohl Interviewer (sofern es einen gibt) als auch Befragter chungssituation befindet. eine abwechslungsreiche und möglichst kurzweilige Befragung haben? Dabei ist zu beach- Makroplanung ten, dass das Interesse der Befragten am Anfang und am Ende eher gering ist und im mitt- Die Makroplanung ist die leren Drittel einen Höhepunkt hat (Koolwijk/Wieken-Mayser 2015, S. 40). übergeordnete Gestal- tung des Fragebogens in Bezug auf die Spannungs- Die Mikroplanung hingegen befasst sich mit der Detailplanung des Fragebogens. Damit ist kurve und die Fragebo- vor allem die Reihenfolge der einzelnen Fragen gemeint. Diese ist sehr wichtig, um den gendauer. Mikroplanung sogenannten Halo-Effekt (Ausstrahlungseffekt) zu vermeiden, der darin besteht, dass jede Die Mikroplanung ist die Frage einen Bezugsrahmen für die folgenden Fragen setzt. Dies ist insbesondere bei emoti- detaillierte Gestaltung onal aufgeladenen Fragen der Fall. Dann kann es passieren, dass Fragen, die schon längst des Fragebogens in Bezug auf die Fragenreihenfolge. beantwortet worden sind, einen Einfluss auf die Antwort zur aktuellen Frage haben (Kool- Halo-Effekt wijk/Wieken-Mayser 2015, S. 40). Fragt man bei einer Kundenzufriedenheitsbefragung z. B. Die Verzerrung von Ant- zuerst nach der Detailzufriedenheit mit der Telefon-Hotline, der Verarbeitungsdauer, der worten aufgrund vorheri- Freundlichkeit der Mitarbeiter etc. und dann nach der Gesamtzufriedenheit mit dem Kauf, ger Fragen im Fragebogen bezeichnet man als Halo- wird man andere Ergebnisse bekommen, als wenn man zuerst nach der Gesamtzufrieden- Effekt. heit fragt. Der Reihenfolge-Effekt hingegen ist der bei Listenfragen auftretende Fehler, der darin Reihenfolge-Effekt besteht, dass die Befragten – unabhängig vom Gegenstand der Befragung – bestimmte Dabei handelt es sich um eine Verzerrung bei Lis- Listenpositionen bevorzugen. Da werden dann mal gerne die ersten drei bis fünf Antwor- tenfragen, da häufig nur ten oder die letzten drei bis fünf Antworten ausgewählt. Somit kann es auch bei Matrixfra- die ersten und letzten gen (Beantwortung mehrerer Teilfragen untereinander auf einer einheitlichen Skala) zu Antworten ausgewählt werden. Antwortmustern kommen (bei schriftlichen bzw. Online-Befragungen). Ein gängiges Mittel dagegen ist die Rotation solcher Listen. Dabei kann es sich um eine totale Rotation han- deln (z. B. bei der Bewertung von Aussagen) oder aber Listen werden mal von A bis Z und mal von Z bis A sortiert im Fragebogen dargestellt. Ein wichtiges Merkmal eines Fragebogens ist auch die Formulierung der Fragen bzw. deren Art. Viele Fragebögen sind heute auch in den Antwortoptionen stark standardisiert. Dafür werden in der Regel geschlossene Fragen eingesetzt. Darunter versteht man Fragen, bei Geschlossene Frage denen die Antwortmöglichkeiten für die Befragten in Form von Antwortvorgaben vorfor- Eine Frage, bei der alle Antwortoptionen vorge- muliert sind, sodass sie nur anzugeben brauchen, welcher dieser Möglichkeiten sie geben sind und der zustimmen (Beispiel: „Sind Sie mit Ihrem aktuellen Job sehr zufrieden, eher zufrieden, Befragte nur auswählen eher unzufrieden oder unzufrieden?“). Insbesondere bei geschlossenen Fragen mit einer braucht, bezeichnet man als geschlossene Frage. etwas komplexeren Struktur als den einfachen Ja-Nein-Fragen sollte der Wortlaut der Frage und der einzelnen Antwortvorgaben erst in einem Pretest getestet werden. Geschlossene Fragen schaffen durch ihre Standardisierung eine bessere Vergleichbarkeit der Antworten und vereinfachen die Datenerfassung bzw. Auswertung. Weniger gebildeten 25 Auskunftspersonen entsprechen sie insofern besser, da diese sich hinsichtlich ihrer Schwierigkeiten, Probleme spontan und ausführlich zu diskutieren, nicht überfordert füh- len. Offene Frage Das Gegenstück zu den geschlossenen Fragen sind die offenen Fragen. Bei diesen Fragen Eine offene Frage ist eine gibt es keine Antwortvorgaben, der Befragte antwortet frei und so, wie er es möchte. Bei Frage, bei der der Befragte frei antworten CATI-Befragungen (computergestützten Telefoninterviews) oder einer Face-to-Face-Befra- kann und selbst formulie- gung müssen die Interviewer die Antworten so vollständig wie möglich aufschreiben, ren muss. damit diese dann im Nachhinein analysiert werden können. Die Verwendung von offenen Fragen hat aber auch Nachteile. Dazu gehört der Interviewereffekt, denn es hängt ent- scheidend vom Interviewer ab, was er versteht und aufschreibt. Außerdem müssen alle offenen Antworten nach Beendigung der Befragung (oder schon nach Beendigung des Interviews) nachcodiert werden. Bei Telefonbefragungen gibt es noch die sogenannten halboffenen Fragen. Das sind Fragen, die der Befragte am Telefon offen beantworten muss, doch der Interviewer hat auf seinem Bildschirm Kategorien, denen er die Antwort gleich zuordnet. Das heißt, dass an dieser Stelle der eigentliche Wortlaut vom Interviewer nicht erfasst wird, sondern der Inhalt nur kategorisiert wird. Soziale Erwünschtheit Ebenfalls ein Störfaktor bei Befragungen ist die soziale Erwünschtheit. Mit sozialer Antworten, die von Erwünschtheit ist das Verhalten gemeint, wenn Befragte eine Antwort geben, die ihrer Befragten gegeben wer- den, weil diese denken, Meinung nach von anderen erwartet wird, die aber nicht ihrer eigenen Meinung ent- dass sie gesellschaftlich spricht. Natürlich hängt dieses Verhalten auch stark vom Thema der Befragung ab. Bei erwünscht sind Fragen zum Freizeitverhalten wird dieses Phänomen nicht so häufig auftreten, als wenn es um Krankheiten geht, von denen der Befragte selbst betroffen ist, um sein Sexualverhal- ten oder seine Einstellungen zu umstrittenen politischen Themen. Darüber hinaus gibt es bei der Fragebogenkonstruktion noch weitere Aspekte, die beach- tet werden sollten. Da ist zum einen die Länge des Fragebogens zu nennen. Sie sollte einen gewissen Rahmen nicht überschreiten. Außerdem besteht die Möglichkeit, Kontroll- fragen in den Fragebogen einzufügen, um zu schauen, ob die Fragen auch ernsthaft und wahrheitsgemäß beantwortet werden. Dazu stellt man die Frageformulierung etwas um oder negiert sie. Die Frage wird dann an einer anderen passenden Stelle im Fragebogen gleichsam ein zweites Mal gestellt. Durch einen Abgleich der Antworten kann man über- prüfen, ob der Befragte konsistent antwortet. Ebenfalls von hoher Wichtigkeit ist das Thema Internationalität. Ein Fragebogen, der z. B. in Deutschland gut funktioniert, muss in anderen europäischen Ländern nicht unbedingt auch funktionieren. Ein gutes Beispiel hierfür ist die Abfrage von Schulnoten („Wie bewerten Sie … auf einer Schulnoten-Skala von 1 = sehr gut bis 6 = ungenügend?“). In anderen Ländern gibt es Punktesysteme oder die hohe Schulnote ist die bessere. Hier muss man genau aufpassen, wie die Fragen zu stellen sind. Im Übrigen gilt dies auch für Deutschland. In den neuen Bundesländern gab es z. B. früher keine Note 6. So muss man auch hier schauen, wie man befragt, wenn es darum geht, Antworten von älteren Personen aus Ost und West zu vergleichen. 26 2.2 Interview Im Gegensatz zum Fragebogen ist das Interview eine Methode der qualitativen Sozialfor- schung. Dennoch ist es sinnvoll, diese Methode hier zu beschreiben. Ein Interview ist eine mündliche Befragung in Form eines Gesprächs. Dabei gibt es asymmetrisch verteilte Rol- len: Ein Interviewer stellt die ausschließlich offenen Fragen und eine interviewte Person antwortet. Interviews werden eingesetzt, um herauszufinden, was Menschen über ein bestimmtes Thema denken (welche Erfahrungen, Konzepte, Deutungsmuster lassen sich finden), oder um Lebensentwürfe, Orientierungen, Ansichten, Denkweisen etc. zu untersu- chen. Die Antworten werden dabei frei gegeben. Es gibt keine vorgegebenen Antwortkate- gorien wie z. B. bei einem Fragebogen. Wichtig ist, die Fragen so zu formulieren, dass keine Ja-oder-nein-Antworten möglich sind. Hier zwei Beispiele für eine sinnvolle offene Frage- stellung: Bitte schildern Sie mir Ihren Tagesablauf vom Zeitpunkt des Aufstehens bis zum Eintref- fen an Ihrem Arbeitsplatz. Was macht für Sie einen gelungenen Familienabend aus? Wann der Einsatz eines Interviews sinnvoll ist, lässt sich nicht pauschal sagen. Es kommt immer auf die Fragestellung an. Vor allem Meinungen von Experten lassen sich gut im Rah- men von Interviews erfassen. Auch individuelle Sichtweisen oder Motive für ein bestimm- tes Handeln lassen sich mithilfe dieser Methode herausfinden. Will man hingegen das eigentliche Handeln der Person analysieren, bietet sich wiederum eher eine Beobachtung an (Hussy/Schreier/Echterhoff 2013, S. 194). Die häufigste Anwendung erfährt die Methode des Interviews im Rahmen von Leitfaden- interviews. Darunter versteht man halbstandardisierte Interviews, die häufig dann einge- Leitfadeninterview setzt werden, wenn es darum geht, Sichtweisen von Personen zu vergleichen. Das Inter- Ein Leitfadeninterview ist ein halbstandardisiertes view behandelt dann ein bestimmtes Thema mit seinen verschiedenen Themenaspekten. Interview, bei dem vorher Zu jedem Themenaspekt werden vorab Fragen formuliert und in einem Leitfaden zusam- festgelegte Fragen mengestellt. Wichtig ist, dass es für die Fragen keine bestimmte Reihenfolge im Interview gestellt, jedoch sehr offen beantwortet werden kön- gibt. Das Gespräch wird ganz offen geführt. Der Interviewer muss jedoch die Themen- nen. aspekte mit den dazugehörigen Fragen im Hinterkopf haben, um das Gespräch entspre- chend zu lenken, damit am Ende auch über die Aspekte gesprochen wird, die für die For- schungsfrage relevant sind. Dies erfordert eine hohe Konzentration und viel Erfahrung von den Interviewern. Bei der Entwicklung des Gesprächsleitfadens gilt es insbesondere, auf die Frageformulie- rung zu achten. Wie schon erwähnt, müssen die Fragen offen formuliert sein. Darüber hinaus sollte die Sprache einfach bzw. klar sein und sich an der Ausdrucksweise der inter- viewten Personen orientieren. Man muss darauf achten, dass die Fragen alltagsnah gestellt werden und sich auf Situationen beziehen, die die Interviewten aus ihrem konkre- ten Alltag kennen. Des Weiteren ist eine gewisse Flexibilität notwendig, da die Fragen in ihrer Reihenfolge an den Gesprächsverlauf angepasst werden. Suggestivfragen, Wertun- gen und persönliche Fragen, aber auch Begründungsfragen sollte man vermeiden. Ein ausgewogener Gesprächsleitfaden deckt in der Regel fünf bis sieben Themenaspekte ab. Jeder Themenaspekt sollte ein bis zwei offene Fragen beinhalten. 27 Suggestivfrage In der Vorbereitung des Leitfadeninterviews ist es denkbar, dem Interviewten den Leitfa- Als Suggestivfrage den vorab zur Verfügung zu stellen, damit dieser sich gut auf das Gespräch vorbereiten bezeichnet man eine Fra- geform, bei der der kann. Auch sollte man darauf achten, dass es eine ungestörte Gesprächsatmosphäre gibt, Befragte durch die Art also ohne Lärmbelästigung oder zufällig hereinkommende Personen etc. In der Regel wer- und Weise der Fragestel- den Leitfadeninterviews aufgezeichnet, um sie im Nachhinein analysieren zu können. So lung dahingehend beein- flusst wird, eine Antwort kann sich der Interviewer zu 100 Prozent auf das Gespräch konzentrieren. Im Gesprächs- mit vorbestimmtem Aus- verlauf sollte man den Interviewten immer aussprechen lassen, auch wenn er eine Frage sageinhalt zu geben, die mal nicht so verstanden hat, wie sie ursprünglich gemeint war. Dies wird häufig vorkom- der Fragesteller erwartet. men, denn die Gesprächspartner deuten die Fragen so, wie sie sie verstehen. Natürlich ist es die Aufgabe des Interviewers, bei Unklarheiten nachzufragen. Einen Antwortzwang darf es jedoch nicht geben. Wenn der Interviewte eine Frage nicht beantworten möchte oder auch nach mehreren Hinweisen eine Frage nicht so gedeutet hat wie geplant, dann sollte man es auch dabei belassen. Man kann aber sagen: Je erfahrener der Interviewer ist, desto seltener kommt so etwas vor. Transkription Nach der Durchführung des Leitfadeninterviews muss das Gespräch noch transkribiert Als Transkription bezeich- werden. Selbst vor dem Hintergrund, dass nur wenige Leitfadeninterviews durchgeführt net man die Verschriftung von Gesprächen nach werden (in der Regel zwischen zehn und fünfzehn), bedeutet dies noch einmal einen bestimmten Regeln zum immensen Aufwand. Je nach Tippgeschwindigkeit des Transkripteurs liegt das Verhältnis Zwecke der Analyse. irgendwo zwischen eins zu sieben und eins zu zehn. Das heißt, eine Stunde Interview bedeutet sieben bis zehn Stunden Transkription. Entscheidend für die Dauer ist auch die Frage, ob nur das Gesagte oder auch die Form (Stimmlage, Lautstärke, Gesichtszüge etc.) transkribiert wird. Die Analyse erfolgt dann meist in Form einer Dokumentenanalyse (Hussy/Schreier/Echterhoff 2013, S. 246). 2.3 Beobachtung Die Beobachtung ist eine häufig angewandte Methode zur Datenerhebung und wird in der Regel eingesetzt, um ein bestimmtes Verhalten, ein bestimmtes Handeln oder eine bestimmte Interaktion zu untersuchen. Es geht also um sichtbare Dinge. Dies muss auch so sein, denn ansonsten könnte man nichts beobachten. Dennoch ist die wissenschaftli- che Beobachtung im Vergleich zur Alltagsbeobachtung ein systematisches Verfahren, wel- ches Regeln unterliegt. Damit spielen diejenigen Personen, die eine Beobachtung doku- mentieren, eine sehr entscheidende Rolle. Denn von ihnen hängt es ab, was überhaupt beobachtet und somit analysiert werden kann. Weiterhin können Beobachtungsverfahren – wie andere Verfahren auch – nach dem Grad der Strukturierung klassifiziert werden. Je nach Forschungsfrage werden häufig standardisierte Codierschemata eingesetzt, in die die beobachtende Person Einträge macht. Was dort genau eingetragen bzw. beobachtet werden soll, wird schon vorab eindeutig festgelegt. Auch der Grad der Einbindung des Forschers in das Untersuchungsfeld ist eine Möglichkeit Nichtteilnehmende zur Klassifizierung. Man spricht von nichtteilnehmender Beobachtung, wenn der For- Beobachtung scher selbst nicht aktiver Bestandteil des Beobachtungsfeldes ist (z. B. bei der Beobach- Der Forscher ist selbst nicht Bestandteil des tung eines Kindes im Kindergarten zur Einschätzung bestimmter Fähigkeiten). Eine offene Beobachtungsfeldes. Beobachtung in natürlichen Umgebungen ist allerdings nur durch eine mehr oder weniger 28 aktive Teilnahme im Untersuchungsfeld umsetzbar. Man spricht hier von einer teilnehm- enden Beobachtung (das wäre z. B. der Fall, wenn die Erzieherin im Rahmen ihrer Arbeit Teilnehmende das Kind beobachtet). Beobachtung Der Forscher ist selbst Bestandteil des Beobach- Ein schwieriger Aspekt bei einer teilnehmenden Beobachtung ist das sogenannte Going tungsfeldes. native. Dieses tritt dann ein, wenn der Forscher zu stark in das Untersuchungsfeld invol- Going native viert ist. Dies kann entweder zu massiven Verzerrungen oder aber (wovon eher auszuge- Der Forscher ist persön- lich zu stark in das Unter- hen ist) zu einer verminderten Beobachtungsleistung führen. Ein ebenfalls relevanter suchungsfeld involviert. Begriff im Zusammenhang mit Beobachtungen ist das Beobachtungsfeld, also der räumli- che, soziale Bereich, in dem man beobachtet (um bei dem Beispiel zu bleiben, wäre dies der Gruppenraum im Kindergarten). Das Beobachtungsfeld kann im Verlauf der Beobach- tung variieren (verschiedene Gruppenräume, Garten), d. h., es ist nicht von vornherein festgelegt (Stangl 2019). Wie schon beschrieben, spielt bei einer Beobachtung auch der Grad der Strukturierung eine wichtige Rolle. Deswegen wird auch in Bezug auf diesen Aspekt klassifiziert, wobei bei einer strukturierten Beobachtung vorab genaue Beobachtungskriterien festgelegt Strukturierte werden. In unserem Beispiel wäre das ein Tagesablaufprotokoll, in dem genau festgehal- Beobachtung Bei einer strukturierten ten wird, wann ein Kind etwas gemacht hat. Damit erreicht man einen hohen Grad der Beobachtung gibt es Kontrollierbarkeit für das Beobachtungsverfahren. Das heißt, dass verschiedene Beobach- einen hohen Grad an Kon- ter, die nach den gleichen Beobachtungskriterien beobachten, das gleiche Ergebnis trollierbarkeit durch vorab festgelegte bekommen (zumindest in der Theorie). Hier empfiehlt sich neben der intensiven Schulung Beobachtungskriterien. der beobachtenden Personen auch die Überprüfung von Inter- und Intra-Rater-Reliabili- tät. Weiterhin empfiehlt es sich, vor einer strukturierten Beobachtung eine unstruktu- Inter- und Intra-Rater- rierte Beobachtung durchzuführen, um dann im Anschluss – basierend auf den Ergebnis- Reliabilität Als Inter- und Intra-Relia- sen – die Kategorien für die strukturierte Beobachtung aufstellen zu können (Stangl 2019). bilität bezeichnet man den Vergleich der Leistun- Bei der offenen Beobachtung tritt der Beobachter explizit als Forscher auf. Somit wissen gen der Beobachter anhand verschiedener auch die beobachteten Personen, wer er ist. Allerdings heißt dies nicht, dass sie auch wis- Merkmale (inter) und wie- sen, worum es in der Beobachtung geht. Für das Beispiel des Kindergartens würde man derholter Bewertung glei- cher Merkmale (intra). den Kindern sagen, dass heute jemand kommt, „der mal sehen möchte, was hier so Unstrukturierte gemacht wird“. Gerade bei langfristigen Forschungen ist eine offene Beobachtung sehr Beobachtung sinnvoll. Irgendwann gehen die Beobachteten zur Tagesordnung über. Das Gegenteil einer Eine unstrukturierte offenen Beobachtung ist eine verdeckte Beobachtung. Hier gibt sich der Forscher nicht Beobachtung bringt einen geringen Grad an Kontrol- zu erkennen, um keine Verzerrungen in den Ergebnissen herbeizuführen. lierbarkeit durch wenig vorab festgelegte Interessant ist auch die Unterscheidung in eine direkte und indirekte Beobachtung. Bei Beobachtungskriterien mit sich. einer direkten Beobachtung ist der Forscher gleichsam vor Ort und für den Beobachteten Offene Beobachtung erkennbar. Da dies jedoch nicht immer möglich ist, kann man auch zur indirekten Der Beobachter tritt offen Beobachtung greifen. Bei dieser Form besteht kein Kontakt zwischen Forscher und als Forscher auf. beobachteten Personen. Ein wichtiges Beispiel aus der Marktforschung sind hier die mit Verdeckte Beobachtung Der Beobachter gibt sich relativ geringem Aufwand durchführbaren Store Checks. nicht zu erkennen. Direkte Beobachtung Zu guter Letzt kann man noch zwischen einer Feldbeobachtung und einer Laborbeo- Der Beobachter ist für den bachtung unterscheiden. Eine Feldbeobachtung findet in der natürlichen Situation des Beobachteten wahr- nehmbar. Gegenstandes der Untersuchung statt. Der Vorteil dieser Methode liegt darin, dass der Indirekte Beobachtung „Beobachtungseffekt“, d. h. die Änderung des Verhaltens unter dem Einfluss der Beobach- Der Beobachter ist für den Beobachteten nicht wahr- nehmbar. 29 Feldbeobachtung tung, in der Regel entfällt. Bei der Laborbeobachtung (Beispiel: „Nachbau eines Wohnzim- Die Beobachtung findet in mers“, um das Verhalten beim Fernsehen zu beobachten) hingegen handelt es sich um einer natürlichen Situa- tion statt. eine künstliche Beobachtungssituation (Brosius/Haas/Koschel 2016, S. 199ff.). Laborbeobachtung Die Beobachtung findet in Beobachtungen haben den Nachteil, dass man sich bei der Untersuchung auf Dinge einer künstlich geschaffe- beschränken muss, die häufig genug auftreten, um sie beobachten zu können, und die nen Situation statt. nicht allzu lange dauern. Außerdem hat die Gültigkeit der Messung ihre Grenzen. Kann man beispielsweise aufgrund der Beobachtung, dass eine Person ein Produkt kauft, auch darauf schließen, dass sie es nutzt? Sie könnte es ja für jemand anderen in den Einkaufs- wagen gelegt haben. Auch ist es wichtig, die Erhebungszeit für die Beobachtung genau festzulegen (Brosius/Haas/Koschel 2016, S. 213ff.). Insgesamt lassen sich die Vorteile von Beobachtungen folgendermaßen zusammenfassen: Das Verhalten der Personen ist direkt beobachtbar. Die Personen können – zumindest bei einer Feldbeobachtung – in ihrer Umgebung „stu- diert“ werden. Aufgezeichnete Beobachtungen können beliebig oft angeschaut und analysiert werden. Objektive Tatbestände lassen sich z. B. durch die Blickbewegungsregistrierung nicht nur beobachten, sondern auch messen. Die Nachteile von Beobachtungen sind: Ansichten, Meinungen oder Handlungsabsichten sind nicht wirklich beobachtbar. Wenn der Beobachter beim Beobachten Fragen hat, können diese erst im Nachhinein (und dann meistens schriftlich) beantwortet werden. Insgesamt ist die Anwendbarkeit von Beobachtungen beschränkt. Die Objektivität und die Reliabilität sind gering. 2.4 Dokumentenanalyse Die sozialwissenschaftliche Dokumentenanalyse wurde aus der Quellenanalyse der Geschichtswissenschaft entwickelt und gehört zu den quantitativen inhaltsanalytischen Techniken. Gegenstand der Dokumentenanalyse sind Bedeutungsträger aller Art. Das kön- nen sprachliche Mitteilungen (z. B. Textnachrichten), Ton- oder Bilddokumente (Filme, TV- Sendungen, Tagebücher etc.), aber auch Gegenstände aus dem Kunstbereich (z. B. Gemälde oder Skulpturen) sein. Meistens wird die Dokumentenanalyse für Dokumente angewandt, die in schriftlicher oder bildlicher Form vorliegen. Man erschließt also Mate- rial, welches schon vorliegt und nicht erst noch erhoben werden muss. Nach Mayring gibt es sechs Kriterien, die bei der Auswahl von Dokumenten für eine Doku- mentenanalyse relevant sind: 30 1. Die Art des Dokuments: Urkunden und Akten werden in der Regel als gesicherter angesehen als beispielsweise Zeitungsberichte. 2. Die äußeren Merkmale des Dokuments, also das Material und vor allem der Zustand, sind immer von besonderem Interesse. 3. Die inneren Merkmale, also der Inhalt, sind zentral bei schriftlichen Dokumenten. Bei ande- ren Quellen ist damit die Aussagekraft des Dokumentes gemeint. 4. Die Intendiertheit des Dokumentes beeinflusst ebenfalls den Erkenntniswert. Denn bei absichtlich für die Umwelt oder Nachwelt geschaffenen Dokumenten treten neue Fehler- quellen auf. 5. Die Nähe des Dokumentes zum Gegenstand, zu dem, was es dokumentieren soll, ist wichtig. Sowohl die zeitliche als auch die räumliche aber auch die soziale Nähe gilt es zu betrachten. 6. Schließlich ist die Herkunft des Dokumentes in Betracht zu ziehen. Wo ist es gefunden wor- den, wo stammt es her, wie ist es überliefert worden? (Mayring 2002, S. 46ff.). Als Beispiel für eine Dokumentenanalyse sei hier die Fragestellung genannt, wie eine Schule in den Medien wahrgenommen wird. Um dies mit einer Dokumentenanalyse zu untersuchen, wird man Regionalzeitungen (auch werblicher Art) über einen bestimmten Zeitraum (z. B. die vergangenen zwei Jahre) als Untersuchungsgegenstand heranziehen. Darin sucht man dann alle Textstellen oder Bilder, in denen die Schule oder eine Person der Schule (Lehrer, Schüler etc.) in einem konkreten Zusammenhang zur Schule vorkom- men. Dabei schaut man, welche Botschaften, Aussagen oder Meinungen über die Texte bzw. Bilder vermittelt werden. Als Ergebnis könnte dann herauskommen, dass die Schule nur sehr selten in den Regionalmedien Erwähnung findet, woraufhin sich die Schule eine verstärkte Medienarbeit zum Ziel setzt. An dieser Stelle tritt auch der quantitative Charakter der Dokumentenanalyse hervor. Am Ende werden die Artikel, Zitate, Bilder und Aussagen gezählt und kategorisiert. Gerade wenn man vielleicht nicht nur eine Schule analysiert, sondern alle Schulen in einem bestimmten Gebiet, lassen sich so Vergleiche bilden und übergreifende Rückschlüsse zie- hen. Je umfangreicher die Analyse angelegt ist, desto größer wird der Aufwand. Dement- sprechend benötigt man mehrere Personen, die die Analyse durchführen. Wenn dies der Fall ist, muss man darauf achten, dass alle an der Analyse beteiligten Personen in der glei- chen Art und Weise analysieren und codieren, sodass bei gleichem Analysematerial alle das gleiche Ergebnis bekommen (zumindest in der Theorie). Hier empfiehlt sich neben der intensiven Schulung der beteiligten Personen auch eine Überprüfung von Inter- und Intra-Coder-Reliabilität. Zudem empfiehlt es sich, vor der eigentlichen Dokumentenana- Inter- und Intra-Coder- lyse einen Pretest durchzuführen, um dann im Anschluss – basierend auf den Ergebnissen Reliabilität Test zum Vergleich der – die Kategorien für die Dokumentenanalyse aufstellen zu können. Leistungen der am Codierprozess teilnehm- Ein weiteres Beispiel: Wenn man beim Thema Schulen bleiben möchte, könnte man die enden Personen anhand verschiedener Merkmale Frage aufwerfen, inwieweit das Programm einer Schule die regionalen Anliegen berück- (inter) und wiederholter sichtigt. Werden in den Unterrichtsfächern oder bei Schulveranstaltungen regionale The- Bewertung gleicher Merk- male (intra) men ausreichend berücksichtigt? Zu analysierende Dokumente wären hier beispielsweise der regionale Entwicklungsplan oder andere Dokumente, die sich mit regionalen Anliegen befassen. Natürlich gehören auch die eigentlichen Unterrichtsmaterialen dazu. Auch diese müssen an dieser Stelle analysiert werden. Nachdem nun die diversen Materialen nach für 31 die Fragestellung relevanten Texten durchsucht und selbige ausgewählt wurden, können diese bewertet werden. Am Ende kann als Ergebnis beispielsweise herauskommen, dass regionale Anliegen in einzelnen Fächern häufiger thematisiert werden als in anderen. ZUSAMMENFASSUNG Die Gestaltung eines Fragebogens ist komplexer, als man es vielleicht im ersten Moment annimmt. Auf jeden Fall muss man sich immer vor Augen halten, dass eine Befragung eine künstlich geschaffene Kommunikation darstellt und somit ein reaktives Verfahren ist. Es ist wichtig, sich genau zu überlegen, welche Fragetypen man an welcher Stelle einsetzt, wie der Spannungsbogen im Fragebogen sein soll. Es sind die Detailfragen, die die Gestaltung eines Fragebogens schwierig und komplex machen. Diese Komplexität darf nicht unterschätzt werden, wenn man auf Basis der erhobenen Daten ggf. Investitionen tätigen möchte. Dies gilt allerdings genauso für die Durchführung von Leitfadeninter- views. Auch diese müssen sehr genau geplant sein. Maximal sieben The- menaspekte mit jeweils ein bis zwei Fragen sind in der Regel möglich. Die Interviewer müssen sehr viel Erfahrung haben und das Gespräch steuern können, denn eine festgelegte Fragenreihenfolge gibt es nicht. Des Weiteren ist es wichtig, den Zeitaufwand für ein Leitfadeninterview zu berücksichtigen; insbesondere für die Transkription. Darüber hinaus gibt es auch eine Vielzahl von Möglichkeiten, eine Beobachtung durchzuführen. Abhängig von dem jeweiligen Untersu- chungsziel ist es sinnvoll oder möglich, dass der Forscher an der Beobachtung teilnimmt oder dass ggf. eine künstliche Laborsituation geschaffen wird. Auch hier ist die Planung einer der wichtigsten Aspekte in der Umsetzung. Gegebenenfalls ist auch ein Pretest notwendig, um genauer definieren zu können, wie die eigentliche Untersuchung vons- tattengehen soll. Die Dokumentenanalyse schließt sich dem an. Wenn diese umfangrei- cher wird, gibt es auch bei dieser Methodik eine Menge Planungsauf- wand. Wo bekommt man die Dokumente her? Was sind eigentlich die richtigen Quellen? Hier helfen die sechs Anhaltspunkte zur Auswahl von Dokumenten: Art des Dokuments, äußere Merkmale, innere Merkmale, Intendiertheit, Gegenstandsnähe, Herkunft. 32 LEKTION 3 VON DER IDEE ZUM FORSCHUNGSVORHABEN LERNZIELE Nach der Bearbeitung dieser Lektion werden Sie wissen, … – wie man eine Forschungsfrage entwickelt. – was der Begriff Repräsentativität bedeutet. – wie sich eine willkürliche Auswahl, eine bewusste Auswahl und eine Zufallsauswahl unterscheiden. – warum so viele Verfahren der bewussten Auswahl in der Forschungspraxis eigentlich nicht anwendbar sind. 3. VON DER IDEE ZUM FORSCHUNGSVORHABEN Aus der Praxis Es soll eine Zufriedenheitsbefragung an allen Grundschulen in einem Bundesland in Deutschland durchgeführt werden. Dieses wichtige Projekt wird Ihnen anvertraut. Sie müssen sich jetzt überlegen, wie die genaue Forschungsfrage aussieht, welche Methodik eingesetzt wird und vor allem, wie die Stichprobe gezogen werden soll. Das Ziel ist es, eine Aussage über alle Schulen in dem Bundesland zu ermitteln. Das heißt, es müssen alle Haushalte mit grundschulpflichtigen Kindern in dem Bundeland in die Analyse einbezo- gen werden. Doch wie geht man an dieser Stelle vor? Wie wählt man die richtigen Haus- halte aus? Und wie schafft man es, dass die Ergebnisse am Ende ein repräsentatives aggre- giertes Ergebnis für alle Schulen darstellen, aber zusätzlich auch die Ergebnisse für die einzelnen Schulen repräsentativ sind? 3.1 Themenfindung und Forschungsfrage Die Themenfindung und die Forschungsfrage sind zwei elementare und eng miteinander verknüpfte Bestandteile einer jeden wissenschaftlichen Arbeit. Ausgehend von ersten Ideen, erfolgt die Fokussierung auf ein bestimmtes Thema. Sobald dieses Thema feststeht, gilt es, Informationen zu dem Thema zu sammeln. Dies kann etwa darüber geschehen, dass man die aktuelle Literaturlage checkt oder auf eine andere Art und Weise den aktuel- len (Forschungs-)Stand in Bezug auf das Thema eruiert. Am Ende entdeckt man entweder eine Forschungslücke (etwas noch nicht Untersuchtes) oder betrachtet ein Thema aus einer neuen Perspektive. Um das Thema einzugrenzen und damit bearbeitbar zu machen, muss eine beantwortbare Forschungsfrage formuliert werden. Je mehr Zeit in dieser Phase in die Exaktheit und die Eindeutigkeit der Frage(n) investiert wird, desto positiver wird sich dies auf die weitere Arbeit auswirken. Eine frühzeitige Eingrenzung erspart in der Folge einiges an Arbeit. Eine Forschungsfrage sollte als „W-Frage“ (Was? Wie? Warum? …) gestellt und möglichst offen in einem Satz formuliert werden, um ein klar verständliches Erkenntnisinteresse auszudrücken. Des Weiteren sollten die Antworten auf die Forschungsfrage nicht schon durch die Art der Fragestellung nahegelegt werden und auch nicht durch ein kurzes Goo- geln zu beantworten sein. Zu guter Letzt sollte sie Lust aufs Arbeiten machen. Um sich der Forschungsfrage anzunähern, stellt man folgende Fragen: Was möchte ich konkret herausfinden? Welche Antworten könnte ich finden? Wie bzw. auf welche Art und Weise will ich die Frage(n) beantworten? Was könnte das Ergebnis der Forschung sein? Welche Aspekte des Themas könnten relevant sein? 34 Welche Zusammenhänge möchte ich genauer untersuchen? Dabei entspricht die Forschungsfrage wissenschaftlichen Kriterien. Das heißt, sie dient der Erzeugung von absichtlichem und systematischem Wissen. Somit sollte sie in sich wider- spruchsfrei und vor allem beantwortbar sein. Darüber hinaus grenzt sie das Thema ab und trennt dabei Wichtiges von Unwichtigem. Dies erreicht man, indem sie nicht zu umfassend formuliert und thematisch möglichst klar eingegrenzt ist, damit man eine realistische Chance hat, sie im Rahmen des Projekts oder der wissenschaftlichen Arbeit zu beantwor- ten. Die Forschungsfrage gibt den roten Faden der Arbeit vor, denn diese richtet sich nicht nur inhaltlich, sondern auch von der Struktur her an ihr aus. Die Forschungsfrage dient als Orientierungspunkt, von der Einleitung bis zum Fazit. Nehmen wir einmal an, das Thema für eine Arbeit lautet „Schulfernbleiber im Gebiet XY“. Wenn man das Thema mit den W- Fragen durchgeht, könnten folgende Fragen gestellt werden: WER ist im Gebiet XY davon betroffen? WELCHE Ursachen gibt es für das Fernbleiben von der Schule? WIE bewerten Experten das Thema? WIE bewerten betroffene Schüler das Thema? WIE bewerten betroffene Lehrer das Thema? WIE bewerten betroffene Eltern das Thema? WAS wird schon gegen Schulfernbleiben in dem Gebiet XY getan? WER ist im Gebiet XY für das Thema zuständig? WO erhalten betroffene Eltern im Gebiet XY Beratung? WO erhalten betroffene Eltern außerhalb des Gebiets XY Beratung? Aus WELCHEN sozialen Schichten kommen die betroffenen Schüler? WIE häufig wird im Durchschnitt die Schule geschwänzt? Nun gilt es, die Fragen zu strukturieren. Das heißt, die Fragen werden zu gemeinsamen Fragebereichen zusammengefasst. Das könnten z. B. die folgenden sein: Wer ist vom Schulfernbleiben betroffen? Welche Ursachen gibt es dafür? Welche Maßnahmen werden ergriffen? Im Anschluss daran muss man festlegen, welche(r) dieser Fragebereiche sich am ehesten eignet, um das zu Beginn festgelegte Thema zu bearbeiten und zu einer relevanten For- schungsfrage zu führen: Inwiefern muss Literatur recherchiert und bearbeitet werden? Kann man Interviews mit den verschiedenen betroffenen Personen führen? Stehen Experten für Interviews zur Verfügung? Abschließend kann man dann eine Forschungsfrage formulieren. In diesem Fall z. B.: „Worin sehen betroffene Lehrer im Gebiet XY die Ursachen für das häufig auftretende Schulfernbleiben?“ 35 3.2 Operationalisierung Der Prozess der Datenerhebung kann auch als Messen bezeichnet werden, denn im Pro- zess der Datenerhebung werden Merkmalsausprägungen von Untersuchungseinheiten Messen gemessen. Messen ist somit die strukturtreue Zuordnung von Zahlen zu Objekten, und Die Zuordnung von Zah- zwar nach vorab festgesetzten Regeln. Strukturtreue bedeutet in diesem Zusammenhang, len zu Objekten nennt man Messen. dass eine Variable (z. B. die Körpergröße) eine Beziehung (Relation) zwischen den Objek- ten (z. B. Personen) definiert. In diesem Beispiel ist es die Relation, dass Person A größer bzw. kleiner ist als Person B. Doch bevor man mit einer Messung beginnen kann, müssen die verwendeten Begriffe empirisch „greifbar“ gemacht werden. Was bedeutet in unserem Beispiel die Aussage, dass eine Person größer oder kleiner als eine andere Person ist? Mit Hilfe welcher Variable kann man das messen? Diesen Vorgang nennt man allgemein Ope- Operationalisierung rationalisierung und er ist entscheidend für die Datenqualität und somit für die gewon- Als Operationalisierung nenen Ergebnisse (Brosius/Haas/Koschel 2016, S. 35f.). bezeichnet man die Umsetzung des theoreti- schen Konstrukts in eine Häufig ist das Merkmal, welches wir erfassen wollen, nicht direkt beobachtbar. Man empirische Dimension. spricht hier von Konzept oder Konstrukt. Die empirisch beobachtbaren Größen, anhand Indikator derer es erfasst werden soll, heißen Indikatoren. An unserem Größenbeispiel lässt sich Ein Indikator ist ein empi- das recht einfach darstellen. Wenn man die Größe einer Person meint, dann ist es heute risches Messergebnis (eine beobachtbare für jeden klar, dass man ihre Körpergröße in Zentimetern meint. Das theoretische Kon- Größe) zur Bestimmung strukt ist also die Größe einer Person, der dazugehörige Indikator ist die Körpergröße in einer Dimension. Zentimetern. Allerdings wäre es auch denkbar, die Größe einer Person nicht anhand des Indikators Körpergröße zu messen, sondern anhand ihrer Schuhgröße. Auch auf diesem Weg würde man gemessene Ergebnisse erhalten, nur wäre die Operationalisierung nicht die beste, da die gemessenen Werte Ungenauigkeiten aufweisen würden, wenn man die Personen anhand der gemessenen Schuhgröße in einer Reihe aufstellte und feststellte, dass sie in Bezug auf die Körpergröße nicht richtig „sortiert“ sind. Theoretisches Konstrukt Leider ist die Zuordnung von Indikatoren zum theoretischen Konstrukt nicht immer so Als theoretisches Kon- einfach wie in diesem Beispiel. Dies liegt vor allem daran, dass viele Konstrukte mehrdi- strukt bezeichnet man ein nicht direkt beobachtba- mensional sind, d. h., sie beinhalten unterschiedliche, wenn auch zusammengehörige res Merkmal. Dimensionen. Grundsätzlich ist es empfehlenswert, Merkmale durch mehrere Indikatoren zu messen. Dadurch erhält man in der Regel – bei korrekter Durchführung der Messung – genauere und belastbarere Ergebnisse. Als Negativbeispiel kann man z. B. eine Prüfung anführen, die nur aus einer einzigen Frage besteht, obwohl der Stoff des Semesters sehr vielschichtig und thematisch breit gefächert gewesen ist. Auch hier wird man immer den Weg gehen, mehrere Fragen aus allen Themenbereichen des Semesters zu stellen, um die Leistung der Studierenden so genau wie möglich zu messen. 36 Abbildung 2: Konzept - Dimension - Indikator Quelle: Wysterski, 2022. Als Beispiel sei das Konstrukt „Politisches Interesse“ genannt. Welche Dimensionen kön- nen für das Konstrukt „Politisches Interesse“ relevant sein? Die Partizipation am politi- schen Geschehen? Die Kommunikation über politische Ereignisse? Oder ist es das Sich- Informieren über Politik? Nehmen wir an, für die Forschungsfrage ist die Partizipation am politischen Geschehen die ausschlaggebende Dimension. Nun stellt sich die Frage, mit- hilfe welchen Indikators dies am besten zu messen ist? Ist es die Mitgliedschaft in einer Partei oder doch eher die Mitarbeit in Bürgerinitiativen? Geht es vorrangig um die Teil- nahme an politischen Wahlen oder um den Besuch von politischen Veranstaltungen (Dis- kussionsrunden etc.)? 37 Abbildung 3: Beispiel zur Operationalisieru