Summary

This document is a student's notes on social research methods, covering topics such as qualitative and quantitative research, and different research methods.

Full Transcript

TEIL I: GRUNDPRINZIPIEN Vorlesung 1 ( Einführung) 1. Was ist empirische Sozialforschung? Wissenschaftliches Arbeiten, das sich mit gesellschaftlichen Ereignissen und Tatbeständen befasst. Empirisch: Erkenntnisse basierend auf sinnlich wahrnehmbaren Erfahrungen. Wissenschaftlich...

TEIL I: GRUNDPRINZIPIEN Vorlesung 1 ( Einführung) 1. Was ist empirische Sozialforschung? Wissenschaftliches Arbeiten, das sich mit gesellschaftlichen Ereignissen und Tatbeständen befasst. Empirisch: Erkenntnisse basierend auf sinnlich wahrnehmbaren Erfahrungen. Wissenschaftlich: Arbeiten nach theoretischen Annahmen und wissenschaftlichen Methoden. 2. Was sind Sozialwissenschaften? Wissenschaften, die sich mit dem Zusammenleben von Menschen befassen, z.B.: Soziologie Wirtschaftswissenschaft Politikwissenschaft Sozialpsychologie/Sozialanthropologie (gegebenenfalls) Oft wird empirisch gearbeitet, und sie sind die Bezugswissenschaften für die soziale Arbeit. 3. Was ist quantitative Sozialforschung? Quantifizierbare Daten werden mit standardisierten Instrumenten (z.B. Fragebogen) gesammelt. Hypothesengestützt, liefert meist oberflächliche, aber generaliserbare Ergebnisse. 4. Was ist qualitative Sozialforschung? Daten werden offen interpretiert, z.B. durch narrative Interviews, um tiefere Einblicke in soziale Realität zu erhalten. Hypothesengenerierend, liefert tiefere Einblicke, aber keine generalisierbaren Ergebnisse. 5. Unterschied zwischen erkenntnistheoretischem Realismus und Konstruktivismus Realismus: Die reale Welt existiert unabhängig von unserer Wahrnehmung. Wir können die Realität mit unseren Sinnen messen. Konstruktivismus: Unsere Wahrnehmung der Realität ist subjektiv, und wir können sie nicht so erfassen, wie sie wirklich ist. 6. Was bedeutet Triangulation? Methodenmix aus quantitativen und qualitativen Methoden, um Sachverhalte präziser zu klären. 7. Ziel empirischer Sozialforschung Neues Wissen und Erkenntnisse gewinnen und diese der wissenschaftlichen Gemeinschaft und breiten Öffentlichkeit mitteilen. Wissenschaftliche Aussagen produzieren. 8. Warum ist Theorie eine Voraussetzung für empirische Forschung? Ohne Theorie sind Ergebnisse nicht sinnvoll interpretierbar. Theorie hilft, sachliche Zusammenhänge zu verstehen. 9. Was ist der kritische Rationalismus? Popper’s Philosophie: Wissenschaftliche Aussagen müssen erfahrbar und überprüfbar sein. Falsifikation: Eine Theorie gilt nur so lange als wahr, bis sie durch Erfahrungen widerlegt wird. Verifikation von Hypothesen ist unmöglich. 10. Was bedeutet „Messen“ in der empirischen Sozialforschung? Messen: Übertragung von Informationen in einen auswertbaren Bereich. Quantitativ: Zahlen Qualitativ: Klassifikation von Texten. Messinstrumente: Quantitativ: Standardisierter Fragebogen Qualitativ: Interviewleitfaden Unschärfe kann durch Veränderung während der Messung entstehen. 11. Welche Gütekriterien der empirischen Sozialforschung? Validität (Gültigkeit): Misst das, was gemessen werden soll. Reliabilität (Zuverlässigkeit): Ergebnisse sind stabil und zuverlässig. Repräsentativität: Ergebnisse lassen sich auf die gesamte Grundgesamtheit übertragen. Objektivität: Ergebnisse sind unabhängig vom Forscher. Intersubjektivität: Ergebnisse sind gut dokumentiert und nachvollziehbar. Vorlesung 2 (Grundprinzipien) 1. Unterschied zwischen Primär- und Sekundäranalysen Primäranalyse: Forscher stellt die zu analysierenden Informationen selbst zur Verfügung (z.B. durch eigene quantitative Befragungen). Sekundäranalyse: Forscher nutzt bereits vorhandene Daten (quantitativ: Datenbestände, qualitativ: Interviewtranskriptionen) und wertet diese nach eigenen Fragestellungen aus. 2. Arbeitsschritte bei einem quantitativen Forschungsvorhaben 1. Herleitung einer Forschungsfrage: Aus eigenem Interesse, durch Betreuer oder Auftragsforschung. 2. Theoretischer Hintergrund: z.B. Theorien oder aktuelle Debatten. 3. Aufarbeitung des Forschungsgegenstands: Literaturstudium zur Forschungsfrage, Methoden und empirischen Befunden. 4. Herleitung von Untersuchungshypothesen: Theoriebasierte Vorhersage von Ergebnissen. 5. Dimensionale Analyse und Operationalisierungen: Begriffe mit messbaren Sachverhalten verbinden (z.B. Variablen). 6. Entwicklung eines Erhebungsinstruments: Verschiedene Methoden wie Befragung oder Beobachtung. 7. Pretest: Testen des Instruments an einer kleinen Stichprobe. 8. Überarbeitung des Instruments: Anpassungen nach Pretest. 9. Entwicklung eines Stichprobenplans: Teilerhebung, die möglichst repräsentativ ist. 10.Durchführung der Datenerhebung. 11.Datencodierung und -eingabe: Umwandlung nicht-numerischer Daten in numerische (z.B. SPSS). 12.Datenanalyse. 13.Forschungsbericht: Dokumentation der Arbeitsschritte und Ergebnisse. 3. Was bedeutet Entdeckungs-, Verwertungs- und Begründungszusammenhang? Entdeckungszusammenhang: Anlass und Motivation für das Forschungsprojekt (Interesse des Forschers, wirtschaftliche/politische Interessen). Begründungszusammenhang: Methodische Entscheidungen im Forschungsprozess. Verwertungszusammenhang: Anwendung der Forschungsergebnisse, Zielgruppen und Veröffentlichungen. 4. Vor- und Nachteile der verschiedenen Datenerhebungsmethoden Erhebungsmethode Beispiel Vorteile Nachteile Schriftliche Zufriedenheit von Wenig zeit- und Geringe Erhebungsmethode Beispiel Vorteile Nachteile Studierenden mit der Befragung kostenaufwändig Teilnahmebereitschaft Hochschullehre Bewältigungsstrategien Zeit- und Mündliche Hohe von psychisch belasteten kostenaufwändig, Befragung Teilnahmebereitschaft Mitarbeitern Problem der Reaktivität Offene Verkehrszählung Wenig aufwändig Wenig informativ Beobachtung Verhalten von Passanten in Wenig aufwändig Forschungsethik Verdeckte einer simulierten Beobachtung Gefahrensituation Gehorsamkeit gegenüber Informativ Forschungsethik Experiment Autoritäten (Milgram- Experiment) 5. Regeln für die Erstellung eines Fragebogens Frageformulierung: Verzicht auf unverständliche oder suggestive Begriffe. Keine doppelten Verneinungen oder komplexe Formulierungen. Bewusste Wortwahl und Reihenfolge beachten. Antwortvorgaben: Überschneidungsfreie Antwortmöglichkeiten. Muss das gesamte Antwortspektrum abdecken. Allgemeine Regeln: Kürze ist besser. Anonymität und Datenschutz zusichern. Bei postalischen Befragungen: Begleitschreiben und frankierter Rückumschlag. 6. Arbeitsschritte bei einem qualitativen Forschungsvorhaben 1. Herleitung einer Forschungsfrage. 2. Theoretischer Hintergrund. 3. Aufarbeitung des Forschungsstands. 4. Sampling: Auswahl der zu befragenden Personen. 5. Entwicklung eines Interviewleitfadens. 6. Durchführung der Interviews. 7. Transkription: Umwandlung der Interviews in Textform. 8. Einzelfallanalyse. 9. Typenbildung durch Klassifikation (optional). 10.Herleitung von Untersuchungshypothesen (optional). 11.Forschungsbericht: Dokumentation der Ergebnisse. TEIL II: QUANTITATIVE METHODEN Vorlesung 3 (Grundbegriffe) 1. Was ist Statistik? Statistiken: Ergebnisse statistischer Arbeit, z. B. Daten zur Wirtschaftslage oder Meinungen wie bei einer Bundestagswahl. Statistische Methoden: Werkzeuge, um zu verstehen, wie diese Ergebnisse zustande kommen, und sie kritisch zu beurteilen. 2. Was sind statistische Methoden? Begriffserklärung 1: Statistische Methoden helfen, Massenerscheinungen (Empirisch beobachtbare Sachverhalte, die in großer Zahl auftreten) zu: Quantifizieren: Zahlen für beobachtete Phänomene ermitteln. Beschreiben: Daten zusammenfassen und darstellen. Beurteilen: Schlussfolgerungen ziehen, z. B. für die gesamte Bevölkerung. Erklären: Zusammenhänge analysieren (z. B. Korrelation und Kausalität überprüfen). Beispiel: Wir beobachten, wie viele Menschen täglich den öffentlichen Nahverkehr nutzen, berechnen Durchschnittswerte und überprüfen mögliche Ursachen (z. B. Fahrpreise, Wetter). Begriffserklärung 2: Statistische Methoden sind Werkzeuge, um: Entscheidungen bei Unsicherheit zu treffen. Weise Entscheidungen zu ermöglichen, indem Hypothesen geprüft werden. Klassifikation: 1. Deskriptive Statistik: Beschreibt die Datenlage (z. B. Mittelwerte oder Diagramme). 2. Inferenzielle Statistik: Schließt von Stichproben auf die Grundgesamtheit (z. B. Wahlprognosen). 3. Uni-, bi- und multivariate Methoden: Analysieren eine, zwei oder mehrere Variablen. 3. Was ist eine Grundgesamtheit? Die Grundgesamtheit umfasst alle Elemente, die untersucht werden sollen, und kann räumlich, zeitlich und sachlich abgegrenzt werden: Räumlich: Z. B. Deutschland. Zeitlich: Z. B. am 1. Januar 2023. Sachlich: Z. B. nur Privathaushalte, keine Heime. 4. Was ist eine Stichprobe? Eine Stichprobe ist eine Teilmenge der Grundgesamtheit, die ausgewählt wird, um deren Eigenschaften zu analysieren. Sie wird oft zufällig gewählt, damit jede Einheit die gleiche Chance hat, ausgewählt zu werden (repräsentativ). Vorteile: Kosten- und Zeitersparnis: Weniger Daten zu erheben. Praktikabilität: Manche Grundgesamtheiten können nicht vollständig erfasst werden. Einsatz: Wenn die Grundgesamtheit zu groß, unklar oder bei der Untersuchung zerstört würde (z. B. Crash-Test). 5. Welche Stichprobenverfahren gibt es? 1. Nicht-zufällige Auswahl: Beispiel: Befragung nur befreundeter Studierender → Ergebnis ist nicht repräsentativ. 2. Zufällige Auswahl: Beispiel: Jedes Element der Grundgesamtheit hat die gleiche Chance, ausgewählt zu werden. Vorteil: Repräsentativität steigt mit der Stichprobengröße. Faustregel: Für valide Aussagen sind mindestens 30 Beobachtungen (n = 30) nötig. 6. Merkmale, Merkmalswerte und Merkmalsträger: Merkmal (Variable): Eigenschaften, die untersucht werden (z. B. Alter, Einkommen). Merkmalswert: Konkrete Ausprägung der Variablen (z. B. 25 Jahre alt). Merkmalsträger: Die Einheiten, die Merkmale aufweisen (z. B. Personen, Haushalte). 7. Welche Variablentypen gibt es? 1. Diskrete Variablen: Endliche Anzahl von Ausprägungen (z. B. Kinderzahl: 1, 2, 3 …). 2. Stetige Variablen: Unendlich viele Zwischenwerte möglich (z. B. Körpergröße, Einkommen). 8. Skalenniveaus: Jede Variable hat ein Skalenniveau, das den Informationsgehalt und die zulässigen mathematischen Operationen bestimmt: 1. Nominalskala: Nur Kategorien (z. B. Geschlecht, Familienstand). 2. Ordinalskala: Rangfolge möglich, aber Abstände nicht interpretierbar (z. B. Schulnoten). 3. Intervallskala: Abstände zwischen Werten interpretierbar, aber kein natürlicher Nullpunkt (z. B. Temperatur in °C). 4. Ratioskala: Abstände und Verhältnisse interpretierbar, mit natürlichem Nullpunkt (z. B. Einkommen). 5. Absolutskala: Absolute Zahlenwerte ohne Transformation möglich (z. B. Kinderzahl). Vorlesung 4 (Datenerhebung und-präsentation) 1. Beispielerhebung: Wie beeinflussen demografische Variablen das Wahlverhalten? Wer soll befragt werden? Es wird eine Stichprobe aus der Grundgesamtheit (alle Wahlberechtigten) gezogen. Vorgehen: Zufallsstichprobe (z. B. Losverfahren). Beispiel: 300 Wahlberechtigte werden zufällig ausgewählt. Wie soll befragt werden? Befragungsmethode: Mündlich: Standardisierte Interviews. Schriftlich: Standardisierte Fragebögen. Wonach soll gefragt werden? Primärstatistik: Daten werden direkt durch Befragung, Beobachtung oder Experimente erhoben. Beispiel: Y (abhängige Variable): Wahlverhalten („Welcher Partei würden Sie am Sonntag Ihre Stimme geben?“). X (unabhängige Variablen): Demografische Faktoren wie Alter, Geschlecht, Wohnort, Konfession oder Bildungsstand. Hypothesen: Jede Variable wird einzeln untersucht, z. B. „Das Alter hat einen Einfluss auf die Parteipräferenz.“ Sekundärstatistik: Vorhandene Datenquellen werden genutzt: Amtliche Statistiken: Eurostat oder andere Behörden. Nicht-amtliche Daten: Forschungsinstitute. Nachteile: Daten sind weniger aktuell. Sie wurden für andere Fragestellungen erhoben. Die verwendeten Methoden könnten von den eigenen Präferenzen abweichen. 2. Präsentation statistischer Daten Warum Daten präsentieren? Ziel: Einzelwerte übersichtlich darstellen, um Muster oder Zusammenhänge zu erkennen. Darstellungsarten: 1. Tabellarisch 2. Grafisch: 3. Tabellarische Darstellung von Daten Univariat diskret: Beispiel: Anzahl der Kinder in Familien. Häufigkeitsverteilung: Xi: Merkmalswerte (z. B. 0, 1, 2 Kinder). Fi: Absolute Häufigkeiten (z. B. Anzahl der Familien mit 2 Kindern). Fi‘: Relative Häufigkeiten (Prozentsatz, z. B. 25 %). Kumulation: Aufsummierte relative Häufigkeiten (z. B. „88 % der Familien haben maximal 3 Kinder“). Univariat Stetig:: Beispiel: Altersverteilung in einer Stichprobe. Da es viele Werte gibt, erfolgt eine Klassifikation: Wertebereiche festlegen, z. B. „15 bis unter 25 Jahre“. Klassenanzahl: In der Regel 5–15. Klassenbreite: Gleich oder ungleich (z. B. Einkommen in engeren oder breiteren Klassen). Offene Klassen: Nur verwenden, wenn notwendig (z. B. „100.000 € und mehr“). Bivariat (zwei Variablen): Diskrete Variablen: Beispiel: Geschlecht und Parteipräferenz. Kreuztabelle: Zeilen: Parteipräferenz (z. B. CDU/CSU, SPD, Grüne). Spalten: Geschlecht (z. B. männlich, weiblich). Berechnung relativer Häufigkeiten: Zeilenweise: „Wie viel Prozent der CDU/CSU-Wähler sind Männer?“ Spaltenweise: „Wie viel Prozent der Männer wählen CDU/CSU?“ Stetige Variablen: Beispiel: Einkommen und Arbeitszufriedenheit. Einkommen wird in Klassen eingeteilt (z. B. „1.000–2.000 €“). Darstellung: Durchschnittliche Arbeitszufriedenheit pro Einkommensklasse. 4. Grafische Darstellung von Daten Univariat: Diskrete Merkmale: Kreisdiagramm → z. B. Parteipräferenzen. Säulendiagramm → z. B. Häufigkeit der Kinderzahl in Familien. Polygone: Linien verbinden Klassenmittelpunkte, z. B. zur Darstellung von Trends. Stetige Merkmale: Histogramme: Rechtecke repräsentieren Häufigkeiten. Flächen proportional zur Klassenbreite (Prinzip der Flächentreue). Ogive: Summenkurve zeigt kumulierte relative Häufigkeiten. Bivariat: Diskrete Variablen: Gestapelte oder gruppierte Säulendiagramme → z. B. Geschlecht und Parteipräferenz. Stetige Variablen: Streudiagramme: Beispiel: Zusammenhang von Bildungsjahren und Einkommen. Darstellung: Punktwolke zeigt Muster (z. B. positiver Zusammenhang). Tabellen- und Diagrammbeispiele: Altersklasse Absolute Häufigkeit (fi) Relative Häufigkeit (fi‘) Kumulation (fi‘Kum) 15 bis unter 25 65 13 % 13 % 25 bis unter 35 88 17,6 % 30,6 % Kreisdiagramm: Parteipräferenz → CDU/CSU (49 %), SPD (22 %), Grüne (13 %). Streudiagramm: Einkommen und Arbeitszufriedenheit → Positive Korrelation sichtbar. Vorlesung 5 (Univariate Maßzahlen) 1. Mittelwerte Mittelwerte geben die „Zentralität“ der Daten an, also einen Wert, der die Daten am besten repräsentiert. a) Arithmetisches Mittel (Durchschnitt) Was ist das? Es ist der durchschnittliche Wert einer Gruppe von Zahlen. Wie berechnet man es? Alle Zahlen zusammenzählen und durch die Anzahl der Zahlen teilen. b) Median Was ist das? Der Median ist der mittlere Wert einer geordneten Zahlenreihe. Wie berechnet man es? Zuerst werden die Werte in aufsteigender Reihenfolge sortiert, und dann wird der mittlere Wert ermittelt. Wenn die Anzahl der Werte gerade ist, ist der Median der Durchschnitt der beiden mittleren Werte. c) Modus Was ist das? Der Wert, der am häufigsten vorkommt. Wie berechnet man es? Einfach nachsehen, welcher Wert am häufigsten in den Daten erscheint. Unterschied zwischen den Mittelwerten: Die drei Mittelwerte (arithmetisches Mittel, Median und Modus) sind nur dann gleich, wenn die Verteilung der Daten symmetrisch ist. Bei einer schiefen Verteilung (z.B. mit Ausreißern) weichen sie voneinander ab. Symmetrisch: Alle Mittelwerte stimmen überein. Schief: Die Mittelwerte können sich stark unterscheiden. Wann welchen Mittelwert verwenden? Bei metrischen Daten kann jeder Mittelwert verwendet werden. Der Modus ist am besten bei nominalen Daten geeignet, wenn du den häufigsten Wert wissen möchtest. Der Median ist besser, wenn du einen Wert in der Mitte suchst, der nicht von extremen Werten (Ausreißern) beeinflusst wird. Das arithmetische Mittel eignet sich, wenn du den Durchschnitt berechnen möchtest und Ausreißer eine Rolle spielen können. Für dichotome Variablen (z.B. Ja/Nein oder 0/1) kannst du den Durchschnitt als Prozentsatz der Ja-Antworten betrachten. 2. Streuungsmaße Streuungsmaße zeigen, wie stark die Werte um den Mittelwert (Durchschnitt) herum verteilt sind. a) Spannweite Was ist das? Der Unterschied zwischen dem größten und dem kleinsten Wert. Wie berechnet man es? Größten Wert minus kleinsten Wert. b) Was ist das? Die Varianz zeigt, wie stark die Werte im Durchschnitt von ihrem Mittelwert abweichen. Sie ist ein Maß dafür, wie weit die einzelnen Werte vom Durchschnitt entfernt sind. Wie berechnet man es? Um die Varianz zu berechnen, wird für jeden Wert der Datenreihe ermittelt, wie viel er vom Mittelwert abweicht. Diese Abweichungen werden dann jeweils zum Quadrat genommen (also mit sich selbst multipliziert). Danach wird der Durchschnitt dieser quadrierten Abweichungen berechnet. c) Standardabweichung Was ist das? Die Standardabweichung gibt an, wie weit die Werte im Durchschnitt vom Mittelwert entfernt sind. Sie gibt uns eine Vorstellung davon, wie stark die Werte in einer Datenreihe insgesamt variieren. Wie berechnet man es? Die Standardabweichung ist einfach die Quadratwurzel der Varianz. Man zieht also die Wurzel aus der berechneten Varianz. d) Schritte zur Bestimmung des Semi-Quartilsabstands: 1. Daten sortieren: Sortiere die Daten in aufsteigender Reihenfolge, von dem kleinsten bis zum größten Wert. 2. Bestimmung des 1. Quartils (Q1): Das 1. Quartil ist der Median der unteren Hälfte der Daten (also der Wert, der den unteren 25% der Daten entspricht). Wenn du eine gerade Anzahl an Daten hast, wird der Median der unteren Hälfte als der Mittelwert der beiden mittleren Werte dieser Hälfte berechnet. 3. Bestimmung des 3. Quartils (Q3): Das 3. Quartil ist der Median der oberen Hälfte der Daten (also der Wert, der den oberen 75% der Daten entspricht). Auch hier gilt, dass bei einer geraden Anzahl an Daten der Median der oberen Hälfte der Mittelwert der beiden mittleren Werte dieser Hälfte ist. 4. Berechnung des Semi-Quartilsabstands: Der Semi-Quartilsabstand ist einfach der Unterschied zwischen dem 3. Quartil und dem 1. Quartil: Vorlesung 6 (Bivariate Regressionsrechnung) 1. Was ist die bivariate Regressionsrechnung in der empirischen Sozialforschung? In der empirischen Sozialforschung möchten wir oft verstehen, wie zwei Dinge miteinander zusammenhängen. Zum Beispiel könnte die Frage sein: „Wie beeinflusst das Alter einer Person ihre Meinung zu einem bestimmten Thema?“ Die unabhängige Variable (X) ist die, die wir nutzen, um etwas anderes zu erklären (in diesem Beispiel: das Alter der Person). Die abhängige Variable (Y) ist das, was wir erklären möchten (in diesem Beispiel: die Meinung der Person). Mit der bivariaten Regressionsrechnung können wir herausfinden, ob und wie das Alter (X) die Meinung (Y) beeinflusst. 2. Wie ist die lineare Funktion in der bivariaten Regressionsrechnung aufgebaut? Die lineare Funktion sieht so aus: yti = a + b * xi yti ist der vorhergesagte Wert der abhängigen Variable Y. Zum Beispiel: Der erwartete Wert der Meinung, wenn wir das Alter kennen. a ist der y-Achsenabschnitt. Das ist der Wert, den Y hat, wenn X = 0 ist. (Zum Beispiel: Wenn eine Person 0 Jahre alt wäre, was wäre dann ihre Meinung?) b ist die Steigung. Sie zeigt uns, wie stark sich Y verändert, wenn sich X um 1 Einheit verändert. (Also: Wenn sich das Alter der Person um 1 Jahr verändert, wie verändert sich ihre Meinung?) Beispiel: Angenommen, die Formel lautet: yti = 5 + 0,2 * xi a = 5: Wenn eine Person 0 Jahre alt wäre (also X = 0), dann wäre der Wert ihrer Meinung 5. b = 0,2: Wenn das Alter um 1 Jahr steigt, dann steigt der Wert der Meinung um 0,2. 3. Wovon hängt die Qualität der Prognose ab? Die Qualität, wie gut unsere Vorhersage für Y ist, hängt von ein paar Dingen ab: Datenmenge: Je mehr Daten wir haben, desto genauer ist die Vorhersage. Ist die Beziehung wirklich linear?: Wenn das Alter tatsächlich einen linearen Einfluss auf die Meinung hat (also eine gerade Linie bildet), dann ist die Vorhersage genauer. Wie nah sind die Daten an der Regressionslinie?: Wenn die Datenpunkte sehr nah an der Linie liegen, dann wissen wir, dass unser Modell gut passt. Nähe des X-Werts zur Mitte der Daten: Wenn der Alter-Wert, den wir vorhersagen möchten, in der Mitte des Datensatzes liegt (also nicht zu extrem), dann ist die Vorhersage besser. 4. Wie berechnet man den Determinationskoeffizienten (r²)? Der r²-Wert zeigt, wie gut die unabhängige Variable (z. B. das Alter) die abhängige Variable (z. B. die Meinung) erklärt. r²-Wert = Der Anteil der Veränderung in Y, der durch X erklärt wird. Ein r² von 0,8 (80%) bedeutet, dass 80% der Veränderung in der Meinung durch das Alter erklärt werden. Beispiel: Wenn der r²-Wert 0,75 ist, dann bedeutet das, dass 75% der Veränderung in der Meinung durch das Alter der Person erklärt werden. Die restlichen 25% kommen von anderen Faktoren. 5. Wie berechnet man die Regressionsfunktion bei dichotomen X-Variablen? Wenn X nur zwei Werte hat (z. B. Geschlecht: männlich und weiblich), dann können wir eine Regressionsgleichung aufstellen, die den Unterschied zwischen diesen beiden Gruppen beschreibt. Beispiel: Wenn X = 0 für Männer und X = 1 für Frauen ist, und die Regressionsgleichung lautet: yti = 77 + (-5) * xi, dann bedeutet das: a = 77: Das ist der Durchschnittswert der Meinung für Männer (wenn X = 0). b = -5: Der Unterschied zwischen Männern und Frauen. Wenn eine Person weiblich ist (X = 1), dann sinkt der Wert ihrer Meinung um 5 Einheiten im Vergleich zu Männern. 6. Wie berechnet man die Regressionsfunktion bei ordinalen X-Variablen? Bei ordinalen Variablen (z. B. Schulabschlüsse: Hauptschule, Realschule, Abitur) müssen wir die Kategorien in Dummy-Variablen umwandeln. Das bedeutet: Jede Kategorie bekommt entweder eine 0 oder eine 1. 0 könnte für Hauptschule stehen, 1 für Realschule oder Abitur. Mit diesen Dummy-Variablen können wir dann eine Regressionsfunktion erstellen, um zu verstehen, wie sich die Meinung in Abhängigkeit vom Bildungsabschluss verändert. Zusammengefasst: Bivariate Regressionsrechnung hilft uns zu verstehen, wie zwei Variablen zusammenhängen (z. B. Alter und Meinung). Die lineare Funktion zeigt, wie eine Variable (z. B. Alter) die andere (z. B. Meinung) beeinflusst. Der r²-Wert hilft uns zu verstehen, wie gut unser Modell die Daten erklärt. Bei dichotomen Variablen (z. B. Geschlecht) schauen wir uns an, wie sich die Gruppen im Vergleich zueinander unterscheiden. Ordinalwerte (z. B. Bildungsabschlüsse) müssen in Dummy-Variablen umgewandelt werden, um sie in der Regressionsrechnung zu verwenden. Vorlesung 7 (Bivariate Korrelationsrechnung) 1. Wofür benötigt man die Korrelationsrechnung? Die Korrelationsrechnung hilft uns zu verstehen, wie zwei Variablen miteinander verbunden sind. Sie zeigt uns, ob und wie stark eine Variable die andere beeinflusst. Beispiel: Steigt das Einkommen (X), steigt auch die Bildung (Y)? Es gibt verschiedene Methoden zur Berechnung der Korrelation, je nachdem, ob die Variablen metrisch, ordinal oder nominal sind. 2. Was ist der Korrelationskoeffizient r von Pearson? Der Korrelationskoeffizient r von Pearson zeigt den Zusammenhang zwischen zwei metrischen Variablen (also Variablen, die auf einer Zahlenskala messbar sind). Er hilft uns zu verstehen, ob zwei Variablen positiv, negativ oder überhaupt nicht miteinander zusammenhängen. Formel für den Pearson-Korrelationskoeffizienten: r = (Summe der Produkte der Abweichungen der X-Werte und der Y-Werte) geteilt durch die Quadratwurzel von (Summe der quadrierten Abweichungen der X-Werte mal Summe der quadrierten Abweichungen der Y-Werte) Das bedeutet, wir berechnen für jede Zahl in den Daten: Wie weit der Wert von X von seinem Durchschnitt entfernt ist (diese Abweichung wird quadriert). Wie weit der Wert von Y von seinem Durchschnitt entfernt ist (auch diese Abweichung wird quadriert). Dann nehmen wir das Produkt der beiden Abweichungen für jede Zahl und addieren alle Produkte zusammen. Am Ende teilen wir das durch die Quadratwurzel der Summe der quadrierten Abweichungen von X und Y. Interpretation von r: r = +1: Es gibt einen maximal starken positiven Zusammenhang. Wenn X steigt, steigt auch Y. Alle Punkte liegen auf einer steigenden Linie. r = 0: Kein Zusammenhang. Die Punkte verteilen sich zufällig ohne erkennbares Muster. r = -1: Es gibt einen maximal starken negativen Zusammenhang. Wenn X steigt, fällt Y. Alle Punkte liegen auf einer fallenden Linie. r²: Das ist der Bestimmtheitsmaß. Es zeigt, wie viel Prozent der Veränderung in Y durch X erklärt wird. 3. Was ist der Rangkorrelationskoeffizient Rho (p) von Spearman? Der Rangkorrelationskoeffizient von Spearman wird verwendet, wenn die Variablen ordinal sind, d.h. wir haben eine Reihenfolge der Werte, aber keine genauen Abstände zwischen den Werten (z.B. Schulnoten). Formel für den Spearman-Rangkorrelationskoeffizienten: ρ = 1 - (6 mal Summe der quadrierten Rangdifferenzen) geteilt durch (n mal (n² - 1)) Rangdifferenzen: Wir ordnen jedem Wert von X und Y einen Rangplatz zu. Dann berechnen wir für jedes Paar von X und Y die Differenz der Rangplätze (wie sehr sich die Ränge unterscheiden). Quadrieren der Differenzen: Wir quadrieren jede Differenz und addieren diese quadrierten Differenzen zusammen. Interpretation von ρ: ρ = +1: Es gibt einen perfekten positiven Zusammenhang. Wenn der Rang von X steigt, steigt auch der Rang von Y in exakt der gleichen Weise. ρ = 0: Kein Zusammenhang. Es gibt keine erkennbare Verbindung zwischen den Rängen von X und Y. ρ = -1: Es gibt einen perfekten negativen Zusammenhang. Wenn der Rang von X steigt, sinkt der Rang von Y. 4. Was ist der Vierfelderkoeffizient Phi? Der Vierfelderkoeffizient Phi wird verwendet, um den Zusammenhang zwischen dichotomen (zweiwertigen) Variablen zu messen. Das bedeutet, die Variablen können nur zwei Werte annehmen, z.B. Ja/Nein, Männlich/Weiblich. Formel für den Phi-Koeffizienten: Phi = (a mal d minus b mal c) geteilt durch die Quadratwurzel von (a + b) mal (c + d) mal (a + c) mal (b + d) In der Formel kommen die Häufigkeiten aus einer sogenannten Vierfeldertafel vor: X=1 X=0 Summe Y=1 a b S1 Y=0 c d S2 Summe S3 S4 n Interpretation von Phi: Phi = 0: Kein Zusammenhang zwischen den beiden Variablen. Phi = 1: Stärkster positiver Zusammenhang. Ein Phi-Koeffizient von 0,5 oder -0,5 deutet auf einen mittleren Zusammenhang hin. 5. Was ist der Kontingenzkoeffizient C von Pearson? Der Kontingenzkoeffizient C misst den Zusammenhang zwischen nominalen Variablen, bei denen mindestens eine der Variablen mehr als zwei Kategorien hat (also polytome Variablen, z.B. Alter mit mehreren Altersgruppen). Formel für den Kontingenzkoeffizienten C: C = Quadratwurzel von (Chi-Quadrat geteilt durch (Chi-Quadrat plus n)) Der Chi-Quadrat-Wert wird zuvor durch den Chi-Quadrat-Test berechnet, der prüft, wie gut die beobachteten Häufigkeiten mit den erwarteten Häufigkeiten übereinstimmen. Interpretation von C: C = 0: Kein Zusammenhang zwischen den Variablen. C = 1: Stärkster Zusammenhang. Zusammenfassung: Korrelationsrechnung hilft uns zu verstehen, wie zwei Variablen miteinander verbunden sind. Der Pearson-Korrelationskoeffizient misst den linearen Zusammenhang zwischen zwei metrischen Variablen. Der Spearman-Rangkorrelationskoeffizient ist für ordinalskalierte Daten, bei denen die Reihenfolge wichtig ist. Der Phi-Koeffizient misst den Zusammenhang zwischen zwei dichotomen Variablen. Der Kontingenzkoeffizient C wird für nominale Variablen verwendet, wenn mindestens eine Variable mehr als zwei Kategorien hat. Vorlesung 8 (Multiple Regressionsrechnung) 1. Wofür wird die multiple Regressionsrechnung genutzt? Die multiple Regressionsrechnung wird verwendet, wenn du mehr als zwei Variablen untersuchen möchtest. Zum Beispiel: Du möchtest wissen, wie sich das Einkommen (die abhängige Variable) aufgrund von verschiedenen Faktoren wie Alter und Berufserfahrung (unabhängige Variablen) verändert. Die Methode hilft dir dabei, den Einfluss jeder dieser Variablen auf die abhängige Variable zu untersuchen. 2. Wie setzt sich die multiple lineare Regressionsfunktion zusammen? Die multiple lineare Regressionsgleichung lautet: y = a + b₁ * x₁ + b₂ * x₂ a: Das ist der Startwert (Ordinatenabschnitt), den du erwarten würdest, wenn beide unabhängigen Variablen (x₁ und x₂) gleich null sind. b₁: Das ist die Steigung in Bezug auf die erste unabhängige Variable (x₁). Es zeigt, wie sich der Wert von y verändert, wenn sich x₁ um eine Einheit ändert, während x₂ konstant bleibt. b₂: Das ist die Steigung in Bezug auf die zweite unabhängige Variable (x₂). Es zeigt, wie sich der Wert von y verändert, wenn sich x₂ um eine Einheit ändert, während x₁ konstant bleibt. Stell dir vor, du hast die Variablen „Alter“ und „Berufserfahrung“, und du möchtest das Einkommen (y) vorhersagen. b₁ zeigt, wie sich das Einkommen mit jedem Jahr „Alter“ verändert, während b₂ zeigt, wie sich das Einkommen mit jedem Jahr „Berufserfahrung“ verändert. 3. Was ist der multiple Determinationskoeffizient und wie wird er interpretiert? Der multiple Determinationskoeffizient (r²) gibt an, wie gut die unabhängigen Variablen die abhängige Variable erklären. Er zeigt den Anteil der Veränderung der abhängigen Variable, der durch die unabhängigen Variablen erklärt wird. Ein Beispiel: Wenn r² = 0,75 bedeutet das, dass 75% der Veränderung in der abhängigen Variable (z.B. das Einkommen) durch die unabhängigen Variablen (z.B. Alter und Berufserfahrung) erklärt werden können. Ein höherer r²-Wert zeigt, dass das Modell gut erklärt, was die abhängige Variable beeinflusst. Wenn der r²-Wert jedoch nicht viel höher wird, wenn du eine neue unabhängige Variable hinzufügst, ist es vielleicht nicht sinnvoll, diese neue Variable im Modell zu behalten. 4. Warum werden standardisierte Werte berechnet und wie funktioniert das? Manchmal haben die unabhängigen Variablen unterschiedliche Maßeinheiten (z.B. „Alter“ in Jahren und „Einkommen“ in Euro). Das macht sie schwer vergleichbar. Deshalb standardisieren wir die Variablen, um sie auf die gleiche „Skala“ zu bringen. Das geht so: Du berechnest für jeden Wert der Variablen den „Standardwert“, der so umgerechnet wird, dass der Mittelwert 0 und die Standardabweichung 1 ist. Die Umrechnung erfolgt durch die Formel: z = (x - Mittelwert) / Standardabweichung Dieser Standardwert (z) hilft dabei, die Variablen direkt miteinander zu vergleichen. So können alle Variablen auf einer einheitlichen Skala dargestellt werden. 5. Wie berechnet SPSS die Parameter für Dummy-Variablen? Wenn du eine Variable hast, die nur zwei mögliche Werte hat (z.B. Geschlecht: männlich oder weiblich), wird diese als „Dummy-Variable“ behandelt. In SPSS wird für jede Ausprägung einer solchen Variablen eine neue „Dummy-Variable“ erstellt, die entweder 0 oder 1 ist. Eine der Kategorien wird als Referenzkategorie verwendet und bleibt ohne Zahl. Der Rest wird als „Dummy“ codiert. Die Regressionskoeffizienten (b-Werte) zeigen dann, wie sich die abhängige Variable im Vergleich zur Referenzkategorie verändert. 6. Wann sollte man die multiple Regressionsrechnung anwenden, wann nicht? Die multiple Regressionsrechnung sollte nur dann verwendet werden, wenn sie wirklich hilfreich ist. Man sollte sich überlegen, ob es sinnvoll ist, mehrere Variablen zu berücksichtigen. Wenn eine zusätzliche unabhängige Variable den Erklärungswert des Modells (r²) stark erhöht, dann ist es sinnvoll, sie hinzuzufügen. Wenn eine neue Variable das Modell jedoch nicht deutlich verbessert, ist es besser, das Modell einfach und übersichtlich zu halten und keine unnötigen Variablen hinzuzufügen. Vorlesung 9 (Inferenzielle Statistik) Die inferenzielle Statistik hilft uns, aus Stichproben auf die Gesamtbevölkerung zu schließen. Sie spielt eine entscheidende Rolle bei der Überprüfung von Hypothesen und der Berechnung von Wahrscheinlichkeiten. Mithilfe von Signifikanztests und der Normalverteilung können wir statistische Aussagen über die Daten treffen und die Wahrscheinlichkeit von Fehlern quantifizieren. 1. Wofür wird inferenzielle Statistik genutzt? Die inferenzielle Statistik wird verwendet, um von den Ergebnissen einer Stichprobe auf die Gesamtbevölkerung (Grundgesamtheit) zu schließen. Das bedeutet, wir untersuchen eine kleine Gruppe und versuchen, daraus zu verstehen, wie es in der gesamten Gruppe aussieht. Ein Beispiel: Wenn wir das durchschnittliche Einkommen einer Gruppe von Menschen messen, können wir mithilfe der inferenziellen Statistik darauf schließen, wie das durchschnittliche Einkommen in der gesamten Bevölkerung aussieht. Statistischer Hypothesentest (Signifikanztest): Hierbei wird überprüft, ob eine Hypothese über die Grundgesamtheit richtig oder falsch ist. 2. Was ist eine Hypothese? Eine Hypothese ist eine Annahme oder Aussage über die Gesamtbevölkerung, die wir testen möchten. Beispiel: Wir nehmen an, dass das durchschnittliche Einkommen von Menschen, die abhängig beschäftigt sind, in Deutschland bei 2800 € brutto liegt. Es gibt verschiedene Arten von Hypothesen: Anteilswerthypothese: Z.B. „Der Anteil weiblicher Studierender an der Hochschule beträgt 65%“. Standardabweichungshypothese: Z.B. „Die Streuung des Einkommens beträgt 800 €“. Hypothese über Mittelwertunterschiede: Z.B. „Das durchschnittliche Einkommen von Frauen unterscheidet sich nicht von dem der Männer“. Hypothese über den Zusammenhang zwischen Variablen: Z.B. „Es gibt keinen Zusammenhang zwischen Geschlecht und Einkommen.“ Es ist wichtig zu wissen, dass wir nie sicher sein können, ob eine Hypothese wahr oder falsch ist – wir können nur entscheiden, ob sie vorläufig bestätigt oder abgelehnt wird. 3. Fehlerarten bei Hypothesentests Fehler vom Typ I (Alpha-Fehler): Wir lehnen die Nullhypothese ab, obwohl sie eigentlich richtig ist. Fehler vom Typ II (Beta-Fehler): Wir nehmen an, dass die Nullhypothese richtig ist, obwohl sie falsch ist. Das Risiko, solche Fehler zu machen, muss immer berücksichtigt werden, und deshalb versuchen wir, diese Fehler mit der Signifikanz (Wahrscheinlichkeit, dass der Fehler passiert) so gering wie möglich zu halten. 4. Was ist eine Wahrscheinlichkeit? Wie wird sie berechnet? Wahrscheinlichkeit gibt an, wie wahrscheinlich ein bestimmtes Ereignis ist. Ein Beispiel: Bei einem Münzwurf gibt es zwei mögliche Ergebnisse – Kopf oder Zahl – und jedes hat eine Wahrscheinlichkeit von 50% (0,5). Es gibt zwei Hauptarten der Wahrscheinlichkeitsberechnung: Klassische Definition (Laplace): Die Wahrscheinlichkeit ist der Anteil der günstigen Ergebnisse an allen möglichen Ergebnissen. Statistische Definition: Die Wahrscheinlichkeit eines Ereignisses A ist der Anteil der Häufigkeit von A an der Gesamtzahl von Ereignissen, wenn die Zahl der Versuche sehr groß wird. 5. Was ist eine Zufallsvariable? Was sind Wahrscheinlichkeitsverteilungen? Eine Zufallsvariable ist eine Variable, die verschiedene Werte annehmen kann, die durch Zufall bestimmt werden. Beispiel: Die Augenzahl bei einem Würfeln ist eine Zufallsvariable, die Werte von 1 bis 6 annehmen kann. Wahrscheinlichkeitsverteilungen zeigen, mit welcher Wahrscheinlichkeit jeder Wert einer Zufallsvariable eintritt. Sie helfen uns zu verstehen, wie Wahrscheinlichkeiten über verschiedene mögliche Ergebnisse verteilt sind. Diskrete Wahrscheinlichkeitsverteilungen: Hier kann die Zufallsvariable nur bestimmte, getrennte Werte annehmen (z.B. Münzwurf – Kopf oder Zahl). Stetige Wahrscheinlichkeitsverteilungen: Die Zufallsvariable kann unendlich viele Werte annehmen (z.B. Körpergröße). 6. Die Normalverteilung Die Normalverteilung ist eine wichtige Wahrscheinlichkeitsverteilung, die viele natürliche Phänomene beschreibt (z.B. Körpergröße oder IQ). Eigenschaften der Normalverteilung: Sie ist symmetrisch, d.h. sie hat einen Mittelwert (µ) in der Mitte, und die Häufigkeit der Werte nimmt nach außen hin ab. Die Fläche unter der Kurve entspricht 100% (alle möglichen Ergebnisse). Sie hat zwei Wendepunkte, die den Abstand der Werte vom Mittelwert darstellen. Wichtig: Nur für stetige Variablen! Das bedeutet, die Normalverteilung wird nicht für Variablen verwendet, die nur bestimmte Werte annehmen können. 7. Hypothesentests und Signifikanzniveau Hypothesentests prüfen, ob eine Hypothese über die Grundgesamtheit mit den Daten übereinstimmt. Ein Signifikanzniveau (meist 5% oder 1%) gibt an, wie sicher wir uns sein können, dass die Abweichung von der Hypothese nicht zufällig ist. Ein Ergebnis wird als statistisch signifikant betrachtet, wenn die Wahrscheinlichkeit, dass das Ergebnis zufällig zustande kommt, unter diesem Niveau liegt. Beispiel: Wenn wir ein Signifikanzniveau von 5% wählen, bedeutet das, dass wir nur in 5% der Fälle erwarten, dass das Ergebnis zufällig ist. 8. Der Mittelwerttest Ein Mittelwerttest prüft, ob der Mittelwert einer Stichprobe mit einem vorab festgelegten Wert übereinstimmt. Beispiel: Angenommen, wir nehmen eine Stichprobe von 400 Personen und messen deren Einkommen. Wenn der Mittelwert der Stichprobe stark vom vermuteten Mittelwert (z.B. 2800 €) abweicht, könnte die Nullhypothese (dass das durchschnittliche Einkommen 2800 € beträgt) verworfen werden. Das zentrale Grenzwerttheorem besagt, dass, egal wie die Verteilung der Grundgesamtheit aussieht, die Verteilung des Stichprobenmittelwerts immer näherungsweise eine Normalverteilung ist, wenn die Stichprobe groß genug ist. TEIL III: QUALITATIVE METHODEN Vorlesung 10 (Geschichte und Gütekriterien) 1. Wie ist die qualitative Sozialforschung entstanden? Quantitative Forschung: Arbeitet mit Zahlen und messbaren Daten. Qualitative Forschung: Beschäftigt sich mit Gefühlen, Erfahrungen und Dingen, die man nicht einfach in Zahlen fassen kann. Entwicklung: Früher waren fast nur quantitative Methoden üblich. Seit den 70er Jahren wird auch die Qualität von Dingen (also das Verständnis von Menschen und ihren Perspektiven) wichtiger. Kritik an der quantitativen Forschung: Sie misst zwar vieles, versteht aber oft nicht, was hinter den Zahlen steckt. Heute: Methoden werden kombiniert, aber qualitative Forschung stößt manchmal noch auf Vorurteile. 2. Fünf Anzeichen für die „qualitative Wende“: 1. Kritik an quantitativen Methoden: Menschen werden in solche Studien oft in feste Kategorien gezwängt und können nicht frei sprechen. 2. Biografieforschung: Wurde populär und nutzt viele qualitative Methoden. 3. Interpretatives Denken: Menschen handeln nicht nur nach Regeln – jede Situation wird von ihnen individuell interpretiert. 4. Feministische Forschung: Setzt sich für verstehende, einzelfallbezogene Methoden ein, anstatt für „männlich-wissenschaftliche“ Ansätze. 5. Kritische Psychologie: Sieht quantitative Forschung als Mittel, um Menschen anzupassen, statt sie zu verstehen. 3. Wurzeln qualitativen Denkens: Aristoteles: Dinge verändern sich durch ihre Umgebung. Man muss ihre Ziele und ihren Zweck verstehen. Hermeneutik: Kunst, Texte zu interpretieren. Texte und andere Dinge, die Menschen schaffen, tragen immer subjektive Bedeutungen, die interpretiert werden müssen. 4. Entwicklung in verschiedenen Wissenschaften: Soziologie: Wechsel von Zahlen-Dominanz hin zu qualitativen Ansätzen seit den 70ern. Psychologie: Lange von Experimenten und naturwissenschaftlichen Methoden geprägt; qualitative Forschung ist erst seit Kurzem wichtig. Pädagogik: Qualitative Methoden haben sich schon seit den 50ern etabliert. Warum die Unterschiede? Psychologie ist stärker naturwissenschaftlich geprägt, Pädagogik eher sozialwissenschaftlich. 5. Fünf Grundideen qualitativer Forschung: 1. Fokus auf Menschen: Sie sind das Zentrum der Forschung, keine „Objekte“. 2. Beschreibung statt Zahlen: Dinge müssen detailliert beschrieben werden, besonders außergewöhnliche Fälle. 3. Interpretation: Der Forscher muss das Thema durch Nachfragen und Zuhören erschließen. 4. Alltag statt Labor: Forschen in der natürlichen Umgebung der Menschen. 5. Generalisierung: Erkenntnisse können nicht einfach verallgemeinert werden – jede Verallgemeinerung muss begründet werden. 6. 13 wichtige Prinzipien qualitativer Forschung: 1. Einzelfälle beachten: Erkenntnisse müssen auch bei Einzelbeispielen geprüft werden. 2. Offenheit: Flexibel sein, wenn etwas Unerwartetes auftaucht. 3. Methodenkontrolle: Alles muss klar dokumentiert werden. 4. Vorwissen: Das eigene Wissen darf genutzt werden, muss aber offengelegt werden. 5. Introspektion: Der Forscher darf auch die eigene Perspektive einbringen, wenn er sie klar begründet. 6. Interaktion: Forschung beeinflusst sowohl den Forscher als auch die Menschen, die untersucht werden. 7. Ganzheit: Auch wenn man Dinge trennt (z. B. in Kategorien), muss man sie am Ende als Ganzes sehen. 8. Geschichte beachten: Menschen und Dinge sind von ihrer Geschichte und ihrem Umfeld geprägt. 9. Problemlösung: Forschung sollte praktisch helfen, statt nur Theorien zu entwickeln. 10.Begründung von Ergebnissen: Ergebnisse gelten nur für den untersuchten Bereich, wenn sie nicht gut begründet werden. 11.Induktion: Forschung geht vom Besonderen (Einzelfall) zum Allgemeinen, nicht umgekehrt. 12.Regeln statt Gesetze: Menschen verhalten sich regelmäßig, aber nicht gesetzmäßig. 13.Zahlen sind hilfreich: Auch qualitative Forschung kann Zahlen nutzen, um Ergebnisse zu stützen. 7. Sechs Qualitätsmerkmale guter qualitativer Forschung: 1. Dokumentation: Alle Schritte der Forschung müssen klar erklärt und nachvollziehbar sein. 2. Gut begründete Interpretationen: Die Ergebnisse müssen logisch erklärt werden. 3. Regelgeleitet: Forschung muss trotz Flexibilität strukturiert und systematisch sein. 4. Nähe zum Thema: Forschung sollte in der realen Lebenswelt der Menschen stattfinden. 5. Austausch mit Betroffenen: Ergebnisse sollten mit den Betroffenen diskutiert werden (wenn möglich). 6. Triangulation: Nutzung verschiedener Datenquellen und Methoden, um die Ergebnisse abzusichern. Vorlesung 11 (Untersuchungspläne und Erhebungsverfahren) 1. Untersuchungsplan vs. Untersuchungsverfahren Untersuchungsplan: Der Plan, wie eine Untersuchung aufgebaut wird (also das Design der Forschung). Untersuchungsverfahren: Die Methoden, mit denen man Daten sammelt, aufbereitet und auswertet. 2. Einzelfallanalyse Was ist das? Man untersucht eine einzelne Person oder Gruppe (z.B. eine Familie oder eine Subkultur). Wie geht das? 1. Frage: Was will man herausfinden? 2. Fall bestimmen: Welche Fälle soll man untersuchen? 3. Daten sammeln: Welche Methoden nutzt man und welche Materialien braucht man? 4. Daten aufbereiten: Das gesammelte Material wird untersucht. 5. Vergleich: Der Fall wird mit anderen Fällen verglichen. Material: Zum Beispiel Briefe, Tagebücher, Lebensgeschichten. Wann wird es verwendet? Wenn es um schwierige Themen geht, wie Gewalt oder Armut. 3. Dokumentenanalyse Was ist das? Man untersucht bereits vorhandenes Material wie Texte, Filme oder Kunstwerke. Vorteil: Man muss keine neuen Daten erheben und die Daten sind oft weniger fehleranfällig. Wie geht das? 1. Frage: Was will man untersuchen? 2. Dokumente auswählen: Welche Dokumente sind wichtig? 3. Kritische Analyse: Man bewertet die Dokumente. 4. Interpretation: Man versteht und deutet die Dokumente. 4. Handlungsforschung Was ist das? Forschung, die dabei hilft, soziale Probleme zu lösen und die Praxis zu verändern. Ziele: Praktische Lösungen finden Ergebnisse direkt umsetzen Forscher und Betroffene arbeiten gleichberechtigt zusammen Wie geht das? Problem erkennen Informationen sammeln Mit Betroffenen sprechen Handeln und Lösungen umsetzen 5. Feldforschung Was ist das? Man erforscht ein Thema direkt in der natürlichen Umgebung, ohne einzugreifen. Vorteil: Man kann das Thema ohne Verzerrung untersuchen. Herausforderungen: Es ist manchmal schwer, Zugang zum Feld zu bekommen, oder man könnte sich zu sehr anpassen. Voraussetzungen: 1. Der Forscher muss Zugang zum Feld haben. 2. Er darf die Alltagssituationen nicht stören. 3. Der Forscher muss geschult sein, um objektiv zu bleiben. 4. Das Projekt muss sinnvoll und gerechtfertigt sein. Wann nutzt man es? Z.B. in bestimmten sozialen Gruppen oder Szenen. 6. Qualitative Evaluationsforschung Was ist das? Man untersucht, welche Bedeutung Menschen bestimmten Ereignissen geben und wie man Praxis verbessern kann. Ziel: Nicht die Praxis verändern, sondern sie bewerten und verbessern. 7. Problemzentriertes Interview Was ist das? Ein Interview, bei dem der Interviewpartner über ein bestimmtes Problem spricht. Wie geht das? 1. Frage: Welches Problem soll besprochen werden? 2. Fragen stellen: Der Forscher stellt verschiedene Fragen (allgemeine, gezielte und spontane). 3. Aufzeichnen: Das Gespräch wird aufgenommen und transkribiert. Wann wird es verwendet? Wenn man mehr über spezifische Probleme erfahren will. 8. Narratives Interview Was ist das? Der Interviewpartner erzählt eine Geschichte aus seinem Leben zu einem bestimmten Thema. Wie geht das? 1. Erzählfrage stellen 2. Die Geschichte erzählen lassen 3. Nachfragen des Forschers Wann wird es verwendet? Wenn es um persönliche Erfahrungen und tiefere Bedeutungen geht. 9. Gruppendiskussion Was ist das? Mehrere Menschen (5-15 Personen) diskutieren über ein Thema, um ihre Meinungen zu verstehen. Wie geht das? 1. Fragen stellen 2. Gruppen bilden 3. Diskussion starten 4. Weitere Reize einbringen 5. Diskussion auswerten Wann wird es verwendet? Wenn man tiefer in soziale Themen eintauchen möchte (z.B. Vorurteile oder Werte). 10. Teilnehmende Beobachtung Was ist das? Der Forscher nimmt aktiv an der Gruppe oder dem Umfeld teil, um Daten zu sammeln. Wann wird es verwendet? Wenn man das Verhalten von Menschen untersuchen möchte, das nicht direkt beobachtet werden kann (z.B. bei Kindern oder Gruppenverhalten). Vorlesung 12 (Aufbereitungsverfahren und Auswertungsverfahren) 1. Warum muss qualitatives Datenmaterial aufbereitet werden? Welche Darstellungsmittel gibt es? Warum aufbereiten? Das Datenmaterial muss festgehalten werden, um es richtig auswerten zu können. Darstellungsmittel: Text Grafische Darstellung: Tabellen, Prozessmodelle, Kontextmodelle oder Strukturmodelle Audiovisuelle Darstellung: Bilder, Filme, Töne Darstellung durch die Forschungsperson: Lebenslinientechnik, Strukturlegungstechnik Ziel: Je mehr Darstellungsmöglichkeiten, desto einfacher wird das Material zu verstehen und auszuwerten! 2. Was ist eine Transkription? Welche Formen gibt es und wann werden sie genutzt? Was ist Transkription? Gesprochene Sprache wird in schriftliche Form umgewandelt. Arten: Wörtliche Transkription: Alles wird exakt aufgeschrieben, inklusive Pausen und Betonungen. Kommentierte Transkription: Zusätzlich werden Kommentare zum Text hinzugefügt. 3. Was ist ein Protokoll? Welche Arten gibt es? Arten von Protokollen: Zusammenfassendes Protokoll: Der Text wird verkürzt, um nur das Wesentliche zu zeigen. Geeignet bei viel Material. Selektives Protokoll: Nur bestimmte Teile des Textes werden nach festgelegten Kriterien ausgewählt und protokolliert. Besonders hilfreich bei viel Material mit Überflüssigem. 4. Was ist die Konstruktion deskriptiver Systeme? Was ist das? Erstellung von Systemen, die Daten kategorisieren und ordnen. Beispiel: Für das Konzept „Armut“ könnten Indikatoren wie „kein Weihnachtsgeschenk für das Kind“ oder „keine warmen Mahlzeiten“ genutzt werden. 5. Was ist die gegenstandsbezogene Theoriebildung (Grounded Theory)? Was ist das? Während der Datensammlung entwickelt der Forscher schon Theorien und Hypothesen. Wichtig: Forscher nutzen Memos (Notizen) und Kodierungen, die unterschiedliche Abstraktionsstufen darstellen. Wann nutzen? Besonders für unerforschte Themen oder Feldforschung. 6. Was ist die phänomenologische Analyse? Was ist das? Eine Methode zur Beschreibung von Phänomenen aus der Perspektive der betroffenen Person. Ziel: Die Phänomene auf ihren Wesenskern reduzieren, indem man vergleicht, was gleich bleibt und was sich verändert. 7. Was ist die qualitative Inhaltsanalyse? Was ist das? Eine Methode, bei der Textmaterial in kleine Teile zerlegt und systematisch bearbeitet wird. Grundformen: Zusammenfassung: Material wird reduziert, bis nur das Wesentliche übrig bleibt. Explikation: Zu den Textstellen wird zusätzliches erläuterndes Material hinzugefügt. Strukturierung: Eine bestimmte Struktur wird aus dem Text herausgefiltert. 8. Was ist die objektive Hermeneutik? Was ist das? Ziel ist es, hinter subjektiven Bedeutungen allgemeine, objektive Strukturen zu finden. Methode: Man diskutiert und analysiert mögliche Bedeutungen von Textstellen durch Gedankenexperimente im Team. Ablauf: 1. Festlegung der Fragestellung 2. Grobanalyse des Materials 3. Detaillierte Analyse mit Gedankenexperimenten 4. Vergleich von Fällen, die zur Fragestellung passen Einsatz: Häufig bei kurzen Interviewausschnitten. 9. Was ist die typologische Analyse? Was ist das? Man filtert typische Muster aus dem Material heraus und beschreibt sie. Ziel: Das Material übersichtlicher machen, ohne Details zu verlieren. Arten von Typen: Idealtypen: Besonders markante, aber nicht immer real existierende Fälle. Realtypen: Tatsächlich vorkommende Fälle aus dem Material. Wann genutzt? Wenn viel Material vorhanden ist, um es zu ordnen.

Use Quizgecko on...
Browser
Browser