VO Grundlagen empirischer Forschung PDF
Document Details
Uploaded by BrightJasper8624
Pädagogische Hochschule Salzburg Stefan Zweig
Tags
Summary
This document is about the foundations of empirical research, specifically focusing on concepts like real groups, discussion groups, and quantitative methods, including validity and reliability criteria.
Full Transcript
VO Grundlagen empirischer Forschung Realgruppen: bestehen auch außerhalb der Diskussionssituation; Achtung: Rollen- und Statusgefüge à hohe externe Validität, Künstliche Gruppen: sind zum Zweck der Diskussion zusammengesetzt und kennen sich nicht à hohe interne Validität...
VO Grundlagen empirischer Forschung Realgruppen: bestehen auch außerhalb der Diskussionssituation; Achtung: Rollen- und Statusgefüge à hohe externe Validität, Künstliche Gruppen: sind zum Zweck der Diskussion zusammengesetzt und kennen sich nicht à hohe interne Validität homogene oder heterogene Gruppen: (Achtung: Wenn zu homogen oder heterogen, dann könnten unproduktive oder oberflächliche Diskussion entstehen). GRUPPENDISKUSSION: TYPISCHE MODERATIONSFEHLER 1. zu strikte Orientierung am Leitfaden, 2. VerwicklunginEinzelgespräche, 3. Fokussierung auf die Gesprächsleitung und zu geringe Orientierung an der Aussagekraft von Beiträgen, 4. Bemühen um Unsichtbarkeit (man sieht sich als Moderator oder Moderatorin als möglichen Störfaktor und will die Gruppe möglichst wenig beeinflussen), 5. zu geringe Berücksichtigung des Prozesscharakters (Phasen einer Diskussion und Gruppendynamik), 6. falsches Zeitmanagement, 7. zu schneller Themenwechsel bei Pausen oder schleppender Diskussion sowie 8. suggestives Auftreten. QUANTITATIVEN ERHEBUNGSMETHODEN (GÜTEKRITERIEN, SKALENNIVEAUS, FRAGEBOGEN) METHODEN DER QUANTITATIVEN DATEN Gewinnung quantitativer Daten durch: Direkte Messung der Einstellungsmessung: (Ergebnis von Messgerät ablesen, zB. Temperatur, Einstellungen anhand von Meinungen und Überzeugungen von Personen durch Fragebogen direkt erfassen, Personen sind sich Messvorgangs bewusst) Indirekte Messung der Einstellungsmessung: Personen sind sich Messvorgangs nicht bewusst (zB. Messung von Reaktionen der Haut/Gesichtsmuskeln;), Fragebögen und psychologische Tests GÜTEKRITERIEN FÜR QUANTITATIVE FORSCHUNG Hauptgütekriterien Nebengütekriterien 1. Objektivität 4. Normierung 2. Reliabilität 5. Vergleichbarkeit 3. Validität 6. Ökonomie 7. Nützlichkeit OBJEKTIVITÄT := Unabhängigkeit von subjektiven Einflüssen Gibt an, in welchen Ausmaß die Testergebnisse vom Testanwender unabhängig sind Unterscheidung: Durchführungsobjektivität: Testergebnisse durch Untersuchungsleistung nicht beeinflusst werden (zB. Testmanual) Auswertungsobjektivität: versch. Auswerter sollen bei Auswertung des gleichen Testprotokolls zur gleichen Punktanzahl kommen (zB. Beurteilungsraster) Interpretationsobjektivität: individuelle Deutung dürfen Interpretationen eines Testwertes nicht einfließen (zB. Testhandbücher) RELIABILITÄT := Messungsgenauigkeit, Zuverlässigkeit, Beständigkeit Grad der Genauigkeit wird gekennzeichnet, mit dem geprüftes Merkmal gemessen wird Seite 25 VO Grundlagen empirischer Forschung Maße für interne Konsistenz à zB. Cronbach’s Alpha die Reliabilität ist umso höher, je kleiner der zu einem Messwert X gehörende Fehleranteil ist Beispiel: Interrater-Reliabilität: (höhe der Übereinstimmungen der Einschätzungsergebnisse untersch. Beobachter/Testanwender = Rater) zB. für Berechnung Beurteilerreliabilität von zwei Ratern à Verwendung von Cohens Kappa, für mehr als zwei Rater der Kappa nach Fleiss & Cohen. VALIDITÄT := Relevanz der Messung Wie gut Test in der Lage ist, genau das zu messen, was er zu messen vorgibt Unterscheidung in: Inhaltsvalidität (wenn der Inhalt des Test-Items das zu messende Konstrukt möglichst vollständig erfasst; àzB: Test zu Grundrechnungsarten beinhaltet keine Multiplikation à schlechte Inhaltsvalidität, Inhaltsvalidität eines Tests ist umso höher, je besser die Testitems diese Grundgesamtheit repräsentieren Kriteriumsvalidität: hoher Zusammenhang zwischen Konstrukt/latentes Merkmal und Kriterium (zB: Schulreifetest, Berufseignungstest, Intelligenztest, …) Konstruktvalidität: wenn aus dem Zielkonstrukt Hypothesen ableitbar sind, die anhand der Messwerte bestätigt werden können GÜLTIGKEIT EINER UNTERSUCHUNG (VALIDITÄT) Bei Durchführung einer Untersuchung wichtig à dass Ergebnisse Gültigkeit und Aussagekraft aufweisen Versch. Untersuchungsdesigns erfüllen Anspruch mehr oder weniger Bei Gültigkeit einer Untersuchung wird zw. Interner Validität und externer Validität unterschieden Interne Validität: Ergebnisse sind eindeutig interpretierbar Veränderungen in der abhängigen Variablen (AV) sollen eindeutigen auf Einfluss der unabhängigen Variablen (UV) der Untersuchung zurückzuführen sein Externe Validität: Ergebnisse sind auf andere Personen, Situationen und Zeitpunkte generalisierbar INTERNE VALIDITÄT WIRD BEEINFLUSST DURCH … 1. Zwischenzeitliches Geschehen (Geschichte) à Besondere Ereignisse, die während Untersuchung auftreten 2. Reifungsprozess: Personen verändern sich unabhängig von Treatment, werden älter/reifer/… 3. Testübung: Testwirkung, testverbessertes Lernen) à Untersuchungsinstrument (Fragebogen, Test) beeinflusst Messende bzw. das erste Messen beeinflusst eine weitere Messung 4. Instrumentation, Mangelnde Instrumentelle Reliabilität: Verlässlichkeit à Testinstrument kann aufgrund Erfahrung genauer oder wegen Müdigkeit oder Langeweile ungenauer messen; à Erfolgt die Kalibrierung nicht, kann es zu Decken- oder Bodenenekte kommen. Messinstrument erfasst das zu Messende fehlerhaft oder ungenau (Beobachter, Auswerter, …) 5. Statistische RegressionseJekte: „Tendenz zur Mitte“ à nicht zufällig ausgewählte Stichprobe, kann zu statistischen Veränderungen führen (z.B. nur IQ 130) 6. SelektionseJekte: Auswahl à Untersuchungsteilnehmer werden nicht zufällig zu Gruppen zugeteilt („Bias-Enekt“) Seite 26 VO Grundlagen empirischer Forschung 7. Experimentelle Einbußen: Ausfall, „mortality“ à Versuchspersonen sind nicht unter allen Untersuchungsbedingungen gleich bereit sind, Untersuchung zu Ende zu führen 8. Wechselwirkung zw. Auswahl und Reifung à Untersuchungsgruppen unterscheiden sich zu stark voneinander à kann zu unterschiedlichen Reifungsprozessen führen 9. VersuchsleitereJekt: Pygmalion-Enekt à positive Erwartungen, Einstellungen, Überzeugungen, Stereotype des Versuchsleiter wirken sich als „sich selbsterfüllende Prophezeiung“ aus, à keine absichtliche Handlung, sondern Einflussnahme erfolgt unbewusst 10. Placebo EJekt: Verbesserung, die aufgrund von Erwartungen eintritt und nicht als Ergebnis einer Behandlung, Gegenstück dazu ist Naceboenekt:= unerwünschte Wirkungen, die analog zu Placebowirkung auftreten können 11. Hawthorne-EJekt: Versuchspersonen können natürliches Verhalten ändern können, wenn sie wissen, dass sie Teilnehmer einer Untersuchung sind, verhalten sich unahängig von Behandlung anders 12. Kontaminierung: Vergleichgruppe wird in irgendeiner Weise durch Behandlungsgruppe beeinflusst (oder umgekehrt), Steigerung der Anstrengung kann erfolgen à wird als „kompensatorische Rivalität“ bezeichnet EXTERNE VALIDITÄT WIRD BEEINFLUSST DURCH… 1. Stichprobenfehler: (Populationsvalidität): Untersuchungsergebnisse einer Stichprobe dürfen nicht auf Population (Grundgesamtheit) übertragen werden, wenn Stichprobe für Population nicht repräsentativ ist 2. Interaktion zwischen Persönlichkeitsvariablen und TreatmenteJekten (Treatment = Behandlung) 3. Experimentelle Reaktivität (Situationsvalidität) à Ergebnisse, die einem Experiment (unter Laborbedingungen) erzielt wurden, sind streng genommen nur für die experimentelle Situation generalisierbar 4. EJekte des Testens (Vortestsensitivierung/Nachtestsensitivierung) à durch Pretest kann Sensitivität bzw. Problembewusstsein der TN verändert werden 5. Beeinträchtigung durch mehrere experimentelle Behandlungen à Versuchspersonen durch mehrere Untersuchungen sensitiviert, somit sind Ergebnisse nicht generalisierbar 6. Neuheits- und StörungseJekte 7. Interaktion zw. Umweltgeschehen und TreatmenteJekten 8. Interaktion zw. Messzeitpunkt und TreatmenteJekt Hohe externe Validität ist als gegeben, wenn 1. …sich Resultate auf Gesamtheit übertragen lassen, für die Studie konzipiert wurde 2. … sich Resultate über konkrete Setting der Studie hinausgehend auf andere Designs und Situationen übertragen lassen, wenn sie also allgemeingültig und verallgemeinerungsfähig sind SKALENNIVEAUS Merkmalausprägungen können unterschiedliche Messniveaus mit untersch. Aussagequalität aufweisen Die vier wichtigsten sind: Nominalskala (kategorial) Ordinalskala (kategorial) Intervallskala (metrisch) Verhältnisskala (metrisch) Absolutskala (metrisch) Niveaus werden unterschieden, welche Relationen (Verschiedenheit, Ordnung, Größe der Dinerenz oder Verhältnis) zwischen den Objekten durch eine Skala abgebildet werden können oder sollen Seite 27 VO Grundlagen empirischer Forschung Messung Skalenniveaus (PPT 6, Folie 15-16) NOMINALSKALA Verwendung: wenn Personen/Objekte hinsichtlich ihres Merkmals als gleichartig oder verschieden anzusehen ist Voraussetzung: verwendeten Kategorien müssen vollständig sein (Exhaustivität) und dürfen sich nicht gegenseitig ausschließen (d.h. keine Person darf zwei Merkmalen zugeordnet werden) (Exklusivität) Dichotom: zwei Ausprägungen (ja – nein) Polytom: mehrere Ausprägungen (Haarfarbe, Schulklasse, Blutgruppe, Religion) Fragebogen: ja – nein; ledig – verheiratet -, … Beispiele: Geschlecht: 1 = männlich, 2 = weiblich, 3 = divers (polytom) Familienstand: 1 = ledig, 2 = verheiratet, 3 = verwitwet, 4 = geschieden, … (polytom) RaucherIn: 1 = ja, 2 = nein (dichotom) Statistik ist schwer: 1 = ich stimme zu, 2 = ich stimme nicht zu (dichotom) ACHTUNG: Reihung NICHT möglich, da z.B. „ledig“ nicht mehr wert ist als „verheiratet“! ORDINALSKALA Verwendung: wenn Personen/Objekte hinsichtlich eines Merkmals verglichen werden können (Rangordnung) hinsichtlich „größer“, kleiner“ oder „gleich“ oder „ungleich“. Abstand zwischen Kategorien kann unterschiedlich sein Beispiele: Rauchgewohnheiten: 1 = Nichtraucher*in, 2 = mäßige/r Raucher*in, 3 = starke/r Raucher*in, 4 = sehr starke/r Raucher*in Höchster Abschluss: 1 = Hauptschule/NMS, 2 = Polytechnische Schule, 3 = Fachschule, 4 = Berufsbildende Höhere Schule Wie alt sind Sie?: 1 = bis 24 Jahre, 2 = 25 bis 30 Jahre, 3 = 31 bis 35 Jahre, 4 = über 35 Jahre ACHTUNG: Reihenfolge = aufsteigend, Abstände zwischen den Kategorien sind NICHT gleich! INTERVALLSKALA Verwendung: wenn Größe der Dinerenz zw. Personen/Objekten interessant ist. Metrische Skala weist genau definierte und gleich große Einheiten (= Gleichheit von Dinerenzen) auf „Daten, die Dinerenzbildung (A – B = C – D), Relationen (größer/kleiner oder besser/schlechter) und Aussagen über Unterschied (Gleichheit/Ungleichheit) haben Intervallskalennivau“ Beispiele: Temperatur (Celsius) Intelligenzquotient Leistung in einem Schultest Fragebogen (trint gar nicht zu …trint sehr zu) [Anm.: mind. 5 Abstufungen mit gleichem Abstand) Seite 28 VO Grundlagen empirischer Forschung VERHÄLTNISKALA/ABSOLUTSKALA Verwendung: Skala hat über die konstanten Intervalle noch einen natürlichen und invarianten Nullpunkt Ermöglicht numerischen Verhältnisse zw. Versch. Werten zu vergleichen (=Gleichheit von Verhältnissen) Beispiele: Reaktionszeit, Körpergröße, Körpergewicht, Währung, Kelvinskala Absolutskala: Intervallskala mit „natürlichem“ (absoluten) Nullpunkt Beispiel: Personen/Bücher im Haushalt SKALENÜBERSICHT DATENERHEBUNG: SCHRIFTLICHE BEFRAGUNG (FRAGEBOGEN) Einleitung standardisierter Fragebogenà typisches Messinstrument in den empirischen Sozialwissenschaften Schriftliche Befragung à Vorlegen von Fragen in schriftlicher Form, die von Untersuchungsteilnehmer selbstständig beantwortet werden METHODE: FRAGEBOGEN Vor- und Nachteile: 1. Entwicklung erfordert mehr Kenntnisse und Vorarbeit 2. muss so gestaltet sein, dass seine Bearbeitung außer einer einleitenden Instruktion keiner weiteren Erläuterung bedarf. 3. vielen fällt es schwer, sich schriftlich zu äußern oder einen FB auszufüllen 4. Erhebungssituationà Versuchspersonen (Vpn) antworten meist anonymer; bei postalischem Weg bleibt jedoch häufig unklar, wer den FB ausgefüllt hat, in welcher Reihenfolge, Zeit,... 5. sind in höchstem Maß standardisiert ANWENDUNG VORWIEGEND BEI… Konkreten, teilweise bereits erforschten Thematiken à Überprüfung von Hypothesen Datenerhebungsmethoden Qualitativ: Daten werden interpretativ verarbeitet, i.d.R. onen gestellte Fragen Quantitativ: alle Fragen mit Antwortvorgaben Schwerpunkt: geschlossene oder halbonene Antwortmöglichkeiten (Daten werden statistisch verarbeitet) Seite 29 VO Grundlagen empirischer Forschung Stichprobe Höhere Anzahl von Personen (Empfehlung mind. 25) Bei quantitativen Studien mehr Versuchspersonen als Items Untersuchungs- bzw. Analyseeinheiten Personen der Gesamtstichprobe bzw. Fragebogen (mehrere Variablen) Methoden der Datenauswertung Deskriptive Statistik: Mittelwert, Median, Modus, Streuung; absolute/prozentuelle Häufigkeiten Zusammenhangsmaße (Beziehungen zw. Variablen): Tests auf signifikante Unterschiede, Tests zu Kreuztabellen, Korrelation, Regression Vorteile: sehr ökonomisch (billig) bei Gruppenbefragungen Zeitökonomie größere Reliabilität Förderung ehrlicher und spontaner Antworten durch Anonymität Objektive Auswertung kein Interviewerenekt Befragung geografisch verstreuter Personen mehr Zeit für eine Frage (durchdenken) Nachteile: Rücklaufquoten (systematische und stichprobenneutrale Ausfälle unbekannt) Unkontrollierbarkeit der Erhebungssituation (Behebung: Anwesenheit von Untersuchungsleiter) keine weiteren Erklärungen der Fragen möglich bei geschlossenen Fragen: Problem unvollständiger Alternativen unvollständig ausgefüllte Fragebögen mehr Entwicklungsarbeit KRITERIEN 1. Nach dem Standardisierungsgrad Vollstandardisiert (nicht gestaltbar, starrer Ablauf) Teilstandardisiert (teilweise gestaltbarer Ablauf) Nichtstandardisiert (gestaltbarer, flexibler Ablauf) Dieser Grad der Standardisierung kann sich auf Die Antwortmöglichkeiten, Die Reihenfolge der Fragen, Die Interviewsituation, Die Formulierung der Fragen beziehen 2. Nach der Kommunikationsart Face-to-Face (Mündlich/persönlicher) Paper-Pencil-Vorgabe (schriftliche) Telefonisch Elektronisch/ schriftlich via webgestützem Fragebogen VORGEHEN BEI DER KONSTRUKTION 1. Konkrete Formulierung einer Forschungsfrage Ziel definieren à Präzisierung der Fragestellung (Was will ich genau wissen? Was will ich genau erforschen?) Stonsammlung (Literaturstudium, Voruntersuchungen) Seite 30 VO Grundlagen empirischer Forschung 2. Strukturierung nach Untersuchungsdimensionen und groben Fragestellungen 3. Erste grobe Fragesammlungen bzw. Hypothesen 4. Zerlegen der theoretischen Konstrukte in relevante Teildimensionen und Teilfragen 5. Frage nach Operationalisierung (Messung einzelner relevanter Variablen bzw. Merkmale) 6. Ablauf der Untersuchung Kodierung der Daten – Kodeplan Auswahl / Umfang der Stichprobe Erprobung – Pretest Verständlichkeit – Balance – Ausfüllzeit Durchführung der Befragung (direkt (unter „Aufsicht“), postalisch oder Internet (LimeSurvey, Survey Monkey, …) Auswertung der Ergebnisse PRINZIPIEN DER KONSTRUKTION 1. Fragenauswahl gibt es bereits entwickelte Fragebögen zu diesem Thema? Formulierung von Fragen: Onen, geschlossen, Mischformen? 2. Einleitung, Instruktion, Anrede (Fragebogen) Kurze, klare Darstellung der Person u. eventuell der Einrichtung, für die die Erhebung durchgeführt wird Grobe Darstellung der Forschungsfrage u. Erklärung der Weiterverwendung der gewonnenen Daten Bitte um vollständiges Ausfüllen der Fragen, Hinweis, dass jede Beantwortung sehr wichtig ist Bitte um aufrichtige und rasche Beantwortung der Items mit dem Hinweis, dass es weder richtige noch falsche Antworten gibt (außer bei Leistungstests) Zusicherung der Anonymität (falls diese auch wirklich gewährleistet werden kann) Dank für die Beantwortung des Fragebogens 3. Richtlinien zur Formulierung von Items Bei schriftlichen Befragungen bevorzugt Items mit Antwortkategorien verwenden Itemformulierung auf Zielgruppe abstimmen Auf ansprechendes Layout achten (aufgelockertes Bild) Zumutbare Gesamtlänge Kurz und prägnant formulierte Items Auf sinnvolle Abfolge von Fragen achten („rote Faden“) Themeneinleitung mit Eisbrecher bzw. Aufwärmfragen, die Interesse an das Thema wecken Suggestive, stereotype oder stigmatisierende Formulierungen von Items vermeiden Auf Bedeutungsinhalte von Begrinen achten (alltagssprachliche Ausdrücke können z.B. stigmatisierend wirken) Items, die praktisch von allen bejaht oder verneint werden, sind ungeeignet (Gefahr von ceiling- oder floor-Enekt) Formulierungen von „immer“, „alle“, „keiner“ oder niemals“ vermeidenàbesser „(fast) nie“ … „(fast) immer“ Quantifizierende Umschreibungen von Begrinen wie „fast“, „kaum“ oder „selten“ vermeiden Vermeiden vom Verpacken mehrerer Sachverhalte in ein Item (eindeutige Zuordnung der Antwort soll gegeben sein) 4. Antwortformate Freies Seite 31 VO Grundlagen empirischer Forschung onenes Antwortformat Ergänzungsaufgaben Kurzaufsatzaufgaben) Gebundenes / geschlossenes Antwortformat Auswahlantwortaufgaben (r/f, MC, Ratings) Zuordnungsaufgaben Dichotomes Antwortformat (ja/nein, stimmt/stimmt nicht,..) Ratingskalen Skalenniveauàmeist kann von einer Intervallskala ausgegangen werden (=Mittelwertbildung), jedoch muss diese in jeder konkreten Situation begründet werden Ratingskalen (gebundene Antwortskalen) Allgemein: geben (durch Zahlen, verbale Beschreibungen, Beispiele,…) markierte Abschnitte eines Merkmalskontinuum vor, die die Urteilenden als gleich groß bewerten sollen, d.h. es wird davon ausgegangen, dass die Stufen der Rating-Skala eine Intervallskala bilden Bipolar: Extreme sind durch gegensätzliche Begrine markiert; zB: Zahlenwerte 1-5; um Gegensätzlichkeit zu betonen, kann auch neutrale Mitte (0) verwendet werden Unipolar: passender Gegenbegrin wird schwer gefunden (zB. bei „natürlichem Nullpunkt“ wie „Lärmbelästigung“) Ungerade bzw. Gerade Abstufung: (Mittelkategorie-neutrale Kategorie) bzw. gerade Anzahl (forced choice) Numerische Marken: Verbale Marken: Häufigkeit: nie – selten – gelegentlich – oft – immer Sehr selten – selten – gelegentlich – oft – sehr oft Intensität: Gar nicht – wenig – mittelmäßig – überwiegend – völlig Gar nicht – eher nicht – kaum – etwas – sehr stark Wahrscheinlichkeit: Keinesfalls – wahrscheinlich nicht – vielleicht – ziemlich wahrscheinlich – ganz sicher Bewertung Trint gar nicht zu – trint wenig zu – trint teils zu – trint ziemlich zu – trint völlig zu Völlig falsch – ziemlich falsch – unentschieden – ziemlich richtig – völlig richtig Seite 32 VO Grundlagen empirischer Forschung Marken: Numerische Prozentskala: 0% - 25% - 50% - 75% - 100% Symbolische Marken: zB. Smileys Grafische Ratings: Skalenverankerung durch Beispiele Wie geht er mit Schwierigkeiten um? 5. Nach dem Pretest; Untersuchung nach folgenden Aspekten: Verständlichkeit der Fragen Sind alle Antworten in den vorgesehenen Antwortkategorien eindeutig zuordenbar? Ist das Layout ansprechend und übersichtlich? Ist der Fragebogen zu länge, wirkt er ermüdend? Ist bei onenen Fragen genügend Platz zur Beantwortung? Wird man beim Beantworten der Fragen in eine bestimmte Richtung gedrängt) Ist bei Skip-Fragen klar, wo es weitergeht? Wie lange war die Dauer der Bearbeitung? Ist der Fragebogen sprachlich zielgruppenadäquat? Kann ich mit den vorliegenden Fragen meine Hypothesen beantworten? Entsprechen die Antwortformate bei den Items meinen Vorstellungen hinsichtlich der Auswertung? 6. ACHTUNG: Gibt es im FB Tendenzen der Verfälschbarkeit? (Negative Antworttendenzen) Absichtliche Verstellung (z.B. beim Beantworten eines Persönlichkeitsfragebogens beim Einstellungstest; „Faking Good“; „Faking Bad“ z.B. bei Stellenbewertung) Soziale Erwünschtheit (Antworten werden entsprechend der sozialen Norm beantwortet) Antworttendenzen ((Ja (Nein)-Sage –Tendenz; Überspringen von Items) Bevorzugung von extremen, unbestimmten oder besonders platzierten Antwortkategorien (Tendenz zur Mitte à extreme Ausprägungen werden vermieden) Wahl von Antwortmöglichkeiten, die eine bestimmte Länge, Wortfolge oder serielle Position aufweisen (Primacy-Recency-Enekt: Urteilsverzerrungen durch Fragepositionenà Reihenfolge der Items beachten!) Verfälschung aufgrund der Tendenz, zu raten, oder aufgrund einer raschen Bearbeitung des Tests (Antworten werden nicht reflektiert) Tendenz zur ersten passenden Kategorie („Linkstendenz“) Beeinflussung durch motivationale Bedingungen (Überforderung durch Kontext oder Dauer der Erhebung) „Mustermalen“ Halo-EJekt (Beurteilung von Pauschalurteil abhängig) Milde-Härte Fehler (systematisch zu positiv oder negativ eingestuft) Techniken zur Vermeidung durch: Ausbalancierte Antwortvorgaben Kontrollskalen („Lügenskalen“) Seite 33 VO Grundlagen empirischer Forschung „AUFBEREITUNGSMETHODEN“ (TRANSKRIPTION, AUFBEREITUNG VON DATENSÄTZEN, STATISTISCHE ARGUMENTE DATENAUFBEREITUNG: TRANSKRIPTION (QUALITATIV) Bei der Auswertung Unterscheidung in: Phase 1: Datenaufbereitung (z.B. Transkription) Phase 2: Analyse der Daten (z.B. Codieren, Inhaltsanalyse, Diskursanalyse) Phase 3: Systematisierung der Ergebnisse à Verbale Daten (Interview, Gruppendiskussionen, natürliche Gespräche) liegen noch nicht in schriftlicher, sondern in auditiver Form vor à zuerst verschriftlichen (=transkribieren) ENTSCHEIDUNGEN VOR TRANSKRIPTION: Wie vollständig? In welchem Umgang? Auf welche Weise sollen die Daten wiedergegeben werden? VOLLSTÄNDIGKEIT Aufbereitung Daten = Ausgangsgrundlage der Auswertung: bei verbalen Daten mittels Transkribtion: Zusammenfassendes Protokoll (komprimierte sinngemäße Darstellung des Gesagten, zB. bei Methode der Inhaltsanalyse nach Mayring) Vollständige Transkription (alle sprachlichen Äußerungen werden verschriftlicht) Selektive Transkription (Auswahl relevanter Sequenzen nach Thematik/Interessantheit; bereits Interpretation der Person, die Sequenz auswählt) Kommentierte Transkription (Transkriptionsregeln nach mittler Genauigkeit; Sprachäußerungen u. Modalität der Ausdrucksweise (Tonfall, Sprechpausen, …) werden berücksichtig UMFANG Transkription je nach Art und berücksichten Informationen mehr oder weniger umfangreich Sprachliche Äußerungen setzen sich zusammen aus. Inhalt: Gesagtes (inkl. Ko-Text à Worte die geäußerten Worten unmittelbar vorausgehen oder folgen) Form: Wie etwas gesagt wird (zB. schluchzend, lachend, …) ÄUßERUNGSFORM Unterscheidung nach: Paraverbalen Elementen: stimmliche Aspekte, die verbale Äußerungen begleiten, aber keine eigeneständigen verbalen Äußerungen darstellen (zB. Stimmverlauf, Lautstärke) Nonverbalen Elementen: kommt partiell ein eigner Äußerungscharakter zu (zB. Gähnen, Lachen, Schluchzen, Nicken) Fazit: Die Äußerungsinhalte beziehen sich auf das WAS, die para- und nonverbalen Elemente auf das WIE. ELEMENTE EINER ÄUßERUNG Seite 34 VO Grundlagen empirischer Forschung ART DER WIEDERGABE Auditives Material kann in Schriftdeutsch, in literarische Umschrift (Versprecher, Dialekt usw.) oder in Lautschrift (unter Nutzung des phonetischen Alphabets) übertragen werden. Übertragung in Schriftdeutsch à Schwerpunkt auf Äußerungsinhalt Übertragung in literarische Umschrift (oder Lautschrift=näher an gesprochene Sprache) à Einbeziehung von formalen Elementen, paraverbale Elemente im Transkript à spezielle Symbole, um nicht „Stimme geht nach oben“ schreiben zu müssen GRUNDSÄTZE DER QUALITATIVEN DATENAUFBEREITUNG Achtung: Art der Transkription richtet sich nach Erkenntnisinteresse der Untersuchung Auswertung muss nach intersubjektiv nachvollziehbaren Arbeitsschritten erfolgen hergeleitete Interpretation muss auch von Anderen (z.B. in der Interpretationsgruppe) diskutiert werden und als schlüssig angesehen werden PROBLEM DER AUSWERTUNG ANALYSE: Mit welcher Methode gelingt es die erhobenen Daten angemessen zu bearbeiten, um die gestellte Fragestellung zu beantworten? Wichtig im qualitativen Forschungsprozess: Erkenntnisinteresse Fragestellung Theoretische und methodologische Rahmen Auswahl und Konzipierung der Erhebung- und Auswertungsverfahren (Forschungsdesign) DATENAUFBEREITUNG: DATENSÄTZE (QUANTITATIV) Datenaufbereitung dient dazu, Rohdaten in geeigneter Form für Auswertung zu bringen (Beantworten von Forschungsfragen, Überprüfung von Hypothesen) Dazu gehören: Überführung von Daten: die noch nicht in quantitativer Form vorliegen, in Zahlen (z. B. quantitative Codierung von Beobachtungen oder verbalem Material; Bildung von Häufigkeiten nominalskalierter Daten); Übertragung von Daten von Test- oder Befragungsbögen (bei Paper-PencilErhebung) oder Rohdatendateien (bei computergestützter Datenerhebung wie LimeSurvey) in ein analysierbares Datenformat (z. B. für ein Statistikprogramm wie SPSS, PSPP, JASP, Jamovi, R,…); Zusammenfassung (Aggregierung) von einzelnen Variablen zu Gesamtwerten (z. B. die Bildung eines Gesamtwerts für eine Skala) DATENAUFBERITUNG: DATENSÄTZE 1. Daten, die noch nicht in quantitativer Form vorliegen, in Zahlenform zu überführen 2. Diese quantitativen Daten in ein per Software analysierbares Datenformat zu übertragen. 3. Die Daten so organisieren, dass sie in Hinblick auf Fragestellung/Hypothese eiektiv analysiert werden können ORGANISATION UND DARSTELLUNG VON DATEN Ausgangspunkt für statische Erhebungen sind meist ungeordnete Einzelergebnisse (aus Fragebögen oder Leistungstests) Systematische Darstellung gesammelter Daten ermöglicht Auswertung Seite 35 VO Grundlagen empirischer Forschung KODIERUNG KODEPLAN ERSTELLEN In einem Kodeplan: Werden einzelne Fragen eines Fragebogens Variablennummern und verwendeten Kodes/Zahlen zugeordnet Wird genau festgelegt, wie aus Fragebogen eine Datenmatrix entsteht ORGANISATION UND DARSTELLUNG VON DATEN Wichtige Schritte für Datensatzaufbereitung 1. Erstellung der Datensätze: Sortierung, Zuordnung, Digitalisierung, Formatierung des Rohdatensatzes zu strukturierten Datensätzen 2. Kommentierung der Datensätze: Ergänzung um Informationen à Bedeutung der Variablen, Vergebung von Variablen- und Wertelabels,.. 3. Anonymisierung der Datensätze: Entfernung& Ersetzung von Informationen, die zur Identifizierung von Untersuchungsteilnehmer führen 4. Datenbereinigung: Aufdecken von Eingabefehlern, Umgang mit Missings,.. 5. Datentransformation: Umpolung und Zusammenfassung von Variablen, ggf. Gewichtung von komplexen Stichproben AUFBEREITUNG VON MESSDATEN Datenmatrix:= Zuordnung von Zahlen zu den gesammelten Informationen, Datenmatrizen werden mittels Computerprogrammen erstellt (Excel, SPSS, PSPP, Jamovi, JASP Kodierung von Variablen: Zuordnung von Zahlen zu den unterschiedlichen Ausprägungen der Variablen (Z.B. Variable Geschlecht; Ausprägungen: männlich (= 1), weiblich (= 2) und divers (= 3)) Fehlende Werte = Zahlen außerhalb des Werteberichts; Kennzeichnung durch bestimmte Zahlen (z.B. 9 = missing bzw. fehlend oder 8 = valid bzw. ungültig) anstatt Freilassen des Eingabefeldes Z.B. Variable Geschlecht; mit männlich = 1, weiblich = 2, divers = 3 und fehlend = 9 EXKURS: FEHLENDE DATEN Fehlende Angaben von Seiten der befragten Person (z.B. durch Ignorieren einer Frage im Fragebogen, falsches Ausfüllen, oder falsch erfasste Werte durch falsches Abtippen) Solche Werte in den Daten signalisieren, dass bei einem Fall keine Angabe über die tatsächliche (wahre) Ausprägung einer Variablen möglich ist. Solche Fälle gehen nicht in Berechnungen und Auswertungen ein Seite 36 VO Grundlagen empirischer Forschung Missing = fehlende Werte / missing values: besonderes Problem bei allen empirischen Untersuchungen, SPSS / PSPP/JASP unterscheidet zwischen systemdefinierte („system-missing value“) fehlende numerische Zahlen in der Datenmatrix und benutzerdefinierte fehlende Werte („user-missing value“) System-missing value: o wird vergeben, wenn sich in der Datenmatrix als Wert einer numerischen Variablen ein Zeichen, das keine Zahl ist oder nur ein Leerzeichen befindet o Z.B. durch vorzeitigen Abbruch der Befragung oder der Unlesbarkeit einer Angabe beim Einscannen des Fragebogens, fehlende Seite im Fragebogen, … o à gehen nicht in Berechnung und Auswertung ein User-missing values: o Fehlende Angaben von Seiten der befragten Person (z.B. durch Ignorieren einer Frage im Fragebogen, falsches Ausfüllen, oder falsch erfasste Werte durch falsches Abtippen) o Signalisieren, dass bei einem Fall keine Angabe über tatsächliche (wahre) Ausprägung einer Variable möglich ist o à gehen nicht in Berechnung und Auswertung ein Um unterscheiden zu können, warum ein Wert fehlend ist, gibt es folgende Unterscheidungen: System-missing value: o 7, 77, 777, -777 = systemdefiniert fehlender Wert user-missing values: o 8, 88, 888, -888 = ungültig [ich kann beim Fragebogen erkennen, dass die befragte Person die Frage gelesen hat, aber nicht „im Sinne des Erfinders“ geantwortet hat (z.B. durch ungültiges Ankreuzen, bewusst falsches Ausfüllen, Kritzeleien, Schimpfwörter, …)] o 9, 99, 999, -999 = missing [fehlende Werte, z.B. durch bewusstes oder unbewusstes Übergehen einer Frage oder Aufgabe] Achtung: Wann ein- oder mehrstellig? Bsp. anhand von missing (Code = 9, 99, 999, -999) Geschlecht (1 = männlich, 2 = weiblich, 3 = divers)àda der Wert 9 nicht erreicht wird à Missing Code = 9 Anzahl in der Klasse (z.B. 24 Kinder)àda der Wert 99 nicht erreicht wird àMissing Code = 99 Körpergröße (z.B. 180 cm)àda der Wert 999 nicht erreicht wird àMissingCode = 999 Für Faule: Wenn ich nicht bei jeder Variable überlegen will, wird (inzwischen international üblich) der Wert -999 eingegeben, da er SICHER NICHT erreicht werden kann Achtung: Wieso überhaupt Missing definieren? 1. Um im Nachhinein die Qualität des Fragebogens zu überprüfen, zu viele Missings à Fragen vielleicht zu unverständlich gestellt, Antwortkategorien nicht passend waren, Aufgaben zu schwer gestellt waren, Fragebogen zu lang/langweilig 2. Wenn Codes in Datenmatrix eingetragen sind und NICHT definiert werden à diese Werte in Berechnung und Auswertung einbezogen Bsp.: Körpergröße (170, 180, 154, 177, 999); Mittelwert (bei Definition): 170,25 Mittelwert (bei Nichtdefinition): 336!! ORGANISATION UND DARSTELLUNG VON DATEN In SPSS und PSPP gibt es zwei Arten von Ansicht: Die Variablenansicht und die Datenansicht. Seite 37 VO Grundlagen empirischer Forschung Bsp.: Variablenansicht: In dieser Ansicht werden die Variablen anhand des Kodeplans definiert Bsp.: Datenansicht: In dieser Ansicht werden die Daten eingegeben ARGUMENTE IN DER EMPIRISCHEN SOZIALFORSCHUNG Hauptzweck statischen Argumente bestehen in Übersetzung der theoretischen Erwartungen (Variablen àStichprobe à Erhebung àBereinigung à Berechnung) Gute statistische Argumente haben folgende Eigenschaften Bestätigung der „Robustheit“ verschiedenen Berechnungsverfahren Daten werden auf das Vorhandensein verschiedener Arten von Fehlern untersucht (z.B. Ausreißer, Missing, …) Eigene Befunde werden hinterfragt und auf Berechnungsfehler überprüft Annahmen an die Daten, z.B. die Normalverteilung, werden bei den Anwendungen von statistischen Verfahren nicht verletzt. Die Werte, mit denen die einzelnen Variablen beschrieben werden, haben eine inhaltliche Bedeutung. Bei komplexen Verfahren kann sich die numerische Bedeutung darauf beschränken, wie stark die einzelnen Werte vom Durchschnitt abweichen. Beispiel: m/ w / d (divers häufig zu kleine Gruppe, um sie auszuwerten) Frauenquote in Führungspositionen o Was ist eine Führungsposition? àDefinition? o Unterschied, ob in einer Firma 79% Frauen oder 70% Männer arbeiten? o Vollzeit? Teilzeit? o Betriebszugehörigkeit? Erfahrung? o Frauen sind meisten stärker als Männer durch Familie und Kinder belastet à Berücksichtigung? Fazit: Nicht die Berechnung ist die Schwierigkeit, sondern die Argumentation! Methodische Anforderungen: „Verunreinigung“ der Stichprobe durch falsche „irgendwelche“ Antworten àkeine Lust, Fragebogen möglichst schnell beantworten, keine „wahrheitsgemäße“ Beantwortung Selbstbild – Fremdbild Einstellung – Handlung (Stichwort: Umwelt) Seite 38 VO Grundlagen empirischer Forschung „DATENAUSWERTUNG“ (INHALTSANALYSE; GROUND THEORY) QUALITATIVE INHALTSANALYSE Vorgehensweise: Qualntitativ: Zuordnung mittels vorbereitetem Analysebogen (Kategoriesystem) Qualitativ: Verbale Beschreibung systematisch angelegt; Kategorieschema mit Ober- und Unterordnung (Leitfragen zur Analyse) Stichprobe: Schulbücher, Lernmaterialien, Literatur, Transkripte aus Gesprächen, Akten, Bobachtungsprotokolle Untersuchungs- bzw. Analyseeinheiten: Sätze, Absätze, Seitenteile, Seiten Aufgabenstellungen, Übungen Bilder Methoden der Datenauswertung: Quantitative und qualitative Inhaltsanalyse (Mayring) Bildinterpretation (zB. Panfosky) Dokumentarische Methode (zB. Bohnsack) ERSTELLUNG KATEGORIESYSTEM 1. Genauigkeits-Kriterium: Kategorien müssen exakt definiert sein (nominal/ polytom skaliert); Erforderlich sind präzise definierte, operationale Indikatoren für die einzelnen Kategorien des Merkmals, 2. Exklusivitäts-Kriterium: ein Objekt darf gleichzeitig nicht mehreren Kategorien eines Merkmals zugeordnet werden (z.B. Schlosser und Handwerker) 3. Exhaustivitäts-Kriterium: Kategorien müssen so geartet sein, dass jedes Untersuchungsobjekt einer Merkmalskategorie zugeordnet werden kann (die Kategorie „Sonstiges“ ist für wissenschaftliche Zwecke wenig brauchbar ist Auswertungsmöglichkeiten 1. Angabe von Häufigkeiten für die einzelnen Kategorien (inkl. grafischer Darstellung) 2. Kontingenztabellen (Kreuztabellen) à Auszählung von Merkmalskombinationen; informiert darüber, welche Merkmalskombinationen gemeinsam häufig auftreten (soz. Herkunft UND Bildungsabschluss) Methoden zur inhaltlichen Analyse von Texten Schritt1:TextmaterialwirdinSinn-Einheitenzergliedert Schritt 2: Einheiten werden in abstraktere Kategorien zugeordnet, die deren Inhalten prägnant beschreiben Schritt 3: Ausgehend von dem, was eine bestimmte Person ganz konkret gesagt hat, wird eine etwas abstraktere Kategorie gebildet. Kategorie lassen sich dann ähnliche Aussagen derselben Person oder anderer Person zuordnen à Ziel: große Reduktion der Datenmenge und ein System abstrakterer Kategorien, das ein Verständnis des Textmaterials erlaubt DREI GRUNDFORMEN DER QUALITATIVEN INHALTSANALYSE 1. Zusammenfassende Inhaltsanalayse: Ziel: gesamte Textmaterial wird auf die wesentlichen Inhalte reduziert Durch abstrakte Zusammenfassungen langer, konkreter Textpassagen entsteht à Miniaturbild des Ganzen à zentralen Aussagen des Gesamtmaterial spiegeln sich wieder, wird mit induktiver Kategorienbildung gearbeitet Vorgangsweise: Textmaterial Zeile für Zeile durchlesen, nach Textstellen suchen, die für Untersuchung als relevant festgelegt werden, Textstelle gefunden à Kategorien bilden, (Kategorie:= Begri` oder Satz, der den Inhalt der Aussage vereinfacht wiedergibt (= paraphrasiert) In weiteren Analyse Textstelle gefunden, die zu Kategorie passt à wird sie subsumiert; Textstelle, die sich bestehenden Kategorien nicht zuordnen lässt, erfordert Konstruktion neuer Kategorie, Wenn Seite 39 VO Grundlagen empirischer Forschung keine neuen Kategorien mehr gefunden werden können, wird das Kategoriensystem überprüft und überarbeitet. Ergebnis: ist ein System von Kategorien, das das Gesamtmaterial abbildet. Beispiel: Lange Aussage einer Interviewten über ihre Erfahrungen mit der beruflichen Weiterbildung, in der sie sich ausgiebig über ihre Lehrer mokiert à „Unzufriedenheit mit den Lehrenden“ 2. Strukturierende Inhaltsanalyse Ziel: Das Herausschälen einer bestimmten Struktur aus dem Textmaterial Struktur: à inhaltliche Aspekte, bestimmte Typen, Skalierungen...verstanden Beispiel: In einer Untersuchung zur Lehrerarbeitslosigkeit (Ulich et al. 1985) wurde z. B. eine Skala zur Ausprägung der subjektiven Belastung konstruiert. Diese war unterteilt in „keine Belastung“, „schwache Belastung“ und „starke Belastung“. Kategoriesystem muss exakt präzisiert werden, dass jede Textstelle ganz eindeutig einer Kategorie zugeordnet werden kann. à Kodierleitfaden muss entwickelt werden, der genaue Regeln enthält; wenn bestimmte Textstelle einer bestimmten Kategorie zugeordnet wird und wann nicht. Dazu: 1. Exakte Definition der Kategorien (welche Textstellen wird welcher Kategorie zugeordnet) 2. Benennung von Ankerbeispielen (d.h. konkrete Textpassagen, die zu einer bestimmten Kategorie gehören und als prototypische Beispiele für die Kodierung dienen) 3. Formulierung von Kodierregeln (Diese erlauben eine unmissverständliche Zuordnung der Textstellen, insbesondere, wenn es Abgrenzungsprobleme zwischen verschiedenen, aber ähnlichen Kategorien gibt. Der so entwickelte Kodierleitfaden dient als Richtlinie für die Auswertung. ABLAUF EINER STRUKTURIERENDEN INHALTSANALYSE ANALYSEFORMEN EINER STRUKTURIERENDEN INHALTSANALYSE Seite 40 VO Grundlagen empirischer Forschung 3. Explizierende Inhaltsanalyse Sonderform der qualitativen Inhaltsanalyse Fragliche oder unverständlich gebliebene Textstellen werden mit zusätzlichen Materials erklärt Verwendung des direkten Textumfelds der fraglichen Stelle oder eines Material aus anderen Texten, Im ersten Fall wird zusätzliche Information eingeholt, die sich im Text selbst befindet und das zu klärende Element erhellt. Im zweiten Fall zieht man Informationen heran, die über den Text an sich hinausgehen. Beispiel: Biografische Informationen über Shakespeare à Kontextanalyse FAZIT: QUALITATIVE INHALTSANALYSE Vorgehensweise nach Mayring (1989) Schritt 1: Zusammenfassende Inhaltsanalyse Ausgangstext wird auch das Wesentliche reduziert Schritt 2: Explizierende Inhaltsanalyse Unklare Textbestandteile werden durch das Hinzuziehen zusätzlicher Materialien (z.B. Interviews, Quellenstudium) verständlich gemacht Schritt 3: Strukturierende Inhaltsanalyse Zusammengefasste Kurzversion wird unter theoretischen Fragestellungen geordnet und gegliedert à Erstellung eines Kategoriensystems PRINZIPIEN DER QUALITATIVEN INHALTSANALYSE Einordnung in ein Kommunikaitonsmodell, um festzulegen, auf welchen Teil des Modelles durch die Textanalyse Schlussfolgerungen gezogen werden sollen; zum Kommunikationsmodell gehören der/die Autor/in des Textes, der soziokulturelle Hintergrund, die textproduzierende Situation, der/die Adressat/in des Textes und der/die Inhaltsanalytiker/in selbst Regeln werden vorab formuliert (Ablaufmodelle, Analyseeinheiten, inhaltsanalytische Regeln), nach denen die Textanalyse erfolgt. Diese Regeln werden in Rückkoppelungsschleifen während der Analyse überarbeitet, bleiben aber für den letztendlichen Materialdurchgang konstant. Anpassung der Ablaufmodelle an die Fragestellung; aus den vorgeschlagenen Modellen (Zusammenfassung/induktive Kategorienbildung, Explikation, Strukturierungen) wird die passende Grundform oder ggf. eine Kombination der Grundformen ausgewählt und auf das konkrete Material adaptiert Kategorisystem: Kategorien fassen Auswertungsaspekte zusammen und müssen klar definiert sein. Ihre Zuordnung zum Text folgt festen Regeln: Bei deduktiven Kategorien erfolgt dies theoriegeleitet und vorab festgelegt, bei induktiven Kategorien durch Gruppierung ähnlicher Inhalte. Die Zuordnung von Kategorien zu Textstellen erfolgt regelgeleitet. Es wird komplex, wenn deduktive Kategorien einmalig für ein ganzes Interview vergeben werden und mehrere relevante Textstellen auftreten. Dabei sind Interpretationsentscheidungen nötig, die in Kodierregeln für ähnliche Fälle einfließen. Das Kategoriensystem wird durch Rückkopplungsschleifen entwickelt, da es das zentrale Analyseinstrument ist und projektspezifisch erstellt wird. Neue Systeme werden in Pilotstudien getestet und angepasst, oft am gleichen Material. Gütekriterium: Überprüfung der Intra-Koderreliabilität (= Auswertungsobjektivität) à nach Abschluss der Analyse werden Teile des Materials erneut durchgearbeitet, ohne auf die zuerst erfolgten Kodierungen zu sehen; Ziel = hohe Übereinstimmung; dabei wird das Material nach Einarbeitung in das Kodiersystem einem/einer zweiten Kodierer:in vorgelegt; bei Nicht-Übereinstimmung durch Nachweis von Fehlkodierungen --> Kodierkonferenz bzw. Nachkodieren Seite 41 VO Grundlagen empirischer Forschung ENTWICKLUNG EINES KATEGORIESYSTEMS (BSP.) 1. Einordnen in das Kommunikationsmodell 2. Bestimmung des konkreten inhaltsanalytischen Verfahrens 3. Aufstellen eines Ablaufmodells, Festlegen des Kategoriensystems und der inhaltsanalytischen Regeln 4. Überprüfung der Kategoriensysteme anhand einer Pilottestung und anschließenden Auswertung mit Intra-Koder-Übereinstimmung KURZE BEGRIFFSERKLÄRUNG Kategoriesystem:= In Kategoriensystemen werden mehrere forschungsrelevante Merkmalsdimensionen versammelt, die zu Bedeutungseinheiten zusammengefasst werden Transkript:=Verschriftung von akustischen oder audiovisuellen Gesprächsprotokollen nach vorgeschriebenen Notationsregeln. (mit GoSpeech, Clipto, TurboScribe, F4) ENTWICKLUNG EINES KATEGORIENSYSTEMS 1. Einordnen in das Kommunikationsmodell Die meisten Kommunikationsmodelle (Sender-Empfänger) sind Abbildungen von Kommunikationsprozessen Sender-Empfänger: z.B. Sender = Aufgabenstellung, Empfänger = Person, die die Aufgabe bearbeitet Handelt sich um „multipolare“ Gebilde (s.o.) à Aufgabe, Material, Lösung, individuelle Perspektive,... àdiese Facetten müssen auch in der Auswertung berücksichtigt werden 2. Bestimmung des konkreten inhaltsanalytischen Verfahrens Was ist Ziel der Analyse? Ausgehend vom Ziel der Analyse schlägt Mayring verschiedene Verfahren vor (können kombiert werden) Zusammenfassung Induktive Kategorienbildung Explikation(enge und weite Kontextanalyse) Strukturierung bzw. deduktive Kategorienanwendung(formale, typisierende, skalierende Strukturierung) 3. Aufstellen eines Ablaufmodells, Festlegen des Kategoriesystems und der inhaltsanalytischen Regeln Kategorien:= Auswertungsaspekte, mithilfe das Material bearbeitet wird Definition von Kategorien bildet ein zentrales Moment in Analyse, entweder induktiv aus Material gewonnen oder deduktiv, d.h. theoretisch begründet vorab formuliert und an Material angelgt Kategorien können gruppiert oder hierarchisch geordnet werden (Kategoriesystem), Zuordnung von Textmaterial wird nach inhaltsanalytischen Regeln festgelegt Ablaufmodell induktiver Kategorienbildung: Nach der Festlegung des Untersuchungsgegenstandes, Materials und Ziel der Analyse wird theoriegeleitet festgelegt, welches Material Ausgangspunkt der Kategoriendefinition sein wird. Ebenso müssen das Selektionskriterium und das Abstraktionsniveau festgelegt sowie entschieden werden, wie konkret oder abstrakt die Kategorien sein sollen. Anschließend wird das Material durchgearbeitet und jeweils entschieden, ob es einer bereits vorhandenen Kategorie zugeordnet werden kann oder mit einer neuen Kategorie begonnen werden muss. Wenn bereits 10 % (bei großen Mengen) bis 50 % (bei kleineren Mengen) durchgearbeitet wurden, beginnt die Revision des Kategoriensystems. Dabei muss überprüft werden, ob die Kategorien dem Ziel der Analyse nahe gekommen sind und ob das Selektionskriterium und das Abstraktionsniveau vernünftig gewählt wurden. Notwendige Veränderungen werden durchgeführt und anschließend das restliche Material durchgearbeitet Seite 42 VO Grundlagen empirischer Forschung 4. Überprüfung der Kategoriensysteme anhand einer Pilottestung und anschließenden Auswertung mit Intra-Koder-Übereinstimmung Kappa-Koe`izient: ab 0.2 àgering, ab 0.4 à moderat; ab 0.6 àgut; ab 0.8 àsehr gut Übereinstimmungstabelle für eine Kategorie und zwei Kodierende (einfache Form) Kappa-Koe`izient:.6-.8 à gut ab.8 à sehr gut Einfachste Form (relative Häufigkeit): p0= (a+d)/N; p0 = (11+7)/20 = 0.9 à 90% Übereinstimmung Besser: Cohens Kappa à basiert auf der Überlegung, dass ein bestimmtes Maß an Übereinstimmung auch dann zu erwarten wäre, wenn Kodierenden rein zufällig den Kodiereinheiten Kategorien zuweisen würden GROUNDED THEORY Definition:= Die Grounded theory bzw. gegenstandsbezogene Theoriebildung ist eine Methode, die mithilfe der schrittweisen Interpretation von Texten oder Situationen Theorien generiert. Das Auswertungsverfahren der Grounded Theory nennt sich theoretisches Kodieren. Dazu werden einzelnen Elementen des Textmaterials BegriGe bzw. Codes zugeordnet, die den Text anfangs möglichst konkret, später zunehmend abstrakter beschreiben und interpretieren. Insofern ist die Grounded Theory der qualitativen Inhaltsanalyse nicht ganz unähnlich. Ground Theory baut auf stetigen Wechsel zwischen Induktion und Dekuktion auf (=Abduktion). Abduktion sucht wegen überraschender Fakten nach sinnstiftenden Regeln, Endpunkt der Suche ist Hypothese, danach beginnt Überprüfungsprozess Die Grounded Theory stellt eine Heuristik dar, mit deren Hilfe aus Daten theoretische Konzepte entwickelt werden können Seite 43 VO Grundlagen empirischer Forschung DREI SCHRITTE DES THEORETISCHEN KODIERENS: 1. OJenes Kodieren Zergliederung des Textes bzw. Datenmaterial in einzelnen Sinneseinheiten, werden mit Begri`en/Codes versehen; wegen hohen Arbeitsaufwand meist nicht ganzer Text, sondern bei signifikanten, unklaren oder einleitenden Passagen Entstehen oft hunderte von Codes, für Fragestellung in besonders wichtige Kategorien gebündelt Kategorien werden erneut mit Codes versehen, haben höheren Abstraktionsniveau als die im ersten Schritt Hilfestellung durch W-Fragen: Was passiert hier? Wer ist beteiligt? Wie wird gesprochen? Wann und wo ereignet es sich? Wie viel und wie stark sind die Erfahrungen? Warum ist das so? Wozu ist das passiert? Womit wurde das erreicht? 2. Axiales Kodieren Dient Di`erenzierung und Verfeinerung der Kategorien, die beim Kodieren gewonnen werden Kategorien werden ausgewählt, deren Weiterverfolgung am vielversprechendsten erschein; dienen als Achsenkategorien, werden mit möglichst vielen passenden Stellen aus dem Text angereichert Beziehungen zwischen Kategorien und Unterkategorien werden herausgearbeitet; wird versucht gefundene Codes in Beziehung zueinander zu setzen, um Ursachen und Kontextbedingungen eines Phänomens zu identifizieren Ziel: Finden von Ursache-Wirkungs-, Mittel-Zweck- oder Zeit-Raum-Relationen Beispiel: in einer Studie über die medizinische Versorgung in Altenpflegeheimen könnte sich z. B. herauskristallisieren, dass oft dann Medikamente verabreicht werden, wenn die Heimbewohner Kummer und Sorgen aussprechen. 3. Selektives Kodieren Setzt axiale Kodieren auf höheren Abstraktionsniveau fort Ziel: Herausarbeitung Kernkategorie, um anderen Kategorien gruppieren zu lassen, sollen kurzen Überblick über gesamte Material bieten, aber nicht mehr als ein paar Zeilen Umfang haben Ergebnis: Kernkategorie und ein Phänomen, das das Zentrum der ganzen Theoriebildung darstellt Beispiel: „Hat sich z. B. in biographischen Interviews mit pensionierten Managern, die viel Anerkennung aus ihrem Beruf geschöpft haben, ergeben, dass diese sich nach einer verantwortungsvollen Arbeit sehnen, ließe sich als Kernkategorie »Wunsch nach Vertrautheit und Kontinuität im Leben« bilden.“ PRAKTISCHE DURCHFÜHRUNG 1. Sammeln von reichhaltigen Daten, 2. Codierung, 3. Anfertigen von Memos, 4. theoretisches Sampling, Sättigung und Sortierung, 5. Herleiten einer Theorie und Verfassen eines ersten Berichts sowie 6. Reflexion des Forschungsprozesses. UNTERSCHIED INHALTSANALYSE (QI) ZUR GROUNDED-THEORY (GT) Ziel GT: eine neue in den Daten begründete Theorie zu entwickeln, kann auch ein Ziel bei der Anwendung QI sein, muss nicht Für Erreichung des Ziels der Theoriebildung ist es bei einem GT nicht nötig, da gesamtes Material zu kodieren, denn Endpunkt der Analyse ist die Sättigung der generierten Theorie und nicht das Kodieren und die kategorienbasierte Analyse des vollständigen Materials. Es ist auch nicht notwendig, das gesamte Material auf die gleiche systematische Art und Weise zu bearbeiten und zu kodieren. Seite 44 VO Grundlagen empirischer Forschung Bei einer GT sind Änderungen am Kategoriensystem fortlaufend möglich, permanente Arbeit an Kodes und Kategorien à charakteristisches Merkmal. Der GT-Ansatz beschreibt nicht nur eine Auswertungsmethode, sondern umfasst auch die Datenerhebung (Stichwort „Theoretisches Sampling“). Optimalerweise werden fortlaufend Daten erhoben und ausgewertet, insgesamt ist das Vorgehen sehr prozessorientiert und flexibel. QI-Projekte arbeiten in der Regel vorab mit bestimmten Auswahlplänen. Auswahlpläne ermöglichen es unter anderem, gezielte Vergleiche mit hinreichend großen Gruppen vorzunehmen. Aufgrund seiner Zielsetzung sind GT-Ansätze für deskriptive Analysen weniger geeignet, gleiches gilt für den Einsatz in der Evaluation. „DATENAUSWERTUNG“ (FALLANALYSE, NARRATIONSANALYSE) ERINNERUNG: MERKMALE QUALITATIVER FORSCHUNG Vor allem Erhebung sprachgebundener Daten, die durch interpretative und hermeneutische Analyseverfahren ausgewertet werden (überwiegend) Einzelfallorientierung Fallgruppenorientierung Ausrichtung: zumeist hypothesengenerierend, nicht hypothesenprüfend nicht auf Objektivität der Datengewinnung und -analyse gerichtet, da forschende Person in Erhebung eingebunden ist UNTERTEILUNG VON FALLSTUDIEN Einzelfallstudie Fallgruppe Vergleich mehrerer Fallgruppen Einzelfallstudie Werden erstellt, wenn unbekannte, neuartige, exemplarische Phänomene oder Entwicklungsprozesse erforscht werden sollen „Fall“ ist etwas, was eine Geschichte hat „Fall“ ist z.B. Biografie, Ereignis, Gruppe (Klasse, Familie, Peers), Programm, Organisation, ein Betrieb, Tradition, gemeinschaftlicher Sozialzusammenhang, Lehrplan,... Ziel: das Herausfinden diejenigen Struktureigenschaften, die einen „Fall“ determinieren Was ist das bedeutsame Kennzeichen des zu untersuchenden Phänomens? Wie ist dieses als Einheit zu verstehen? Fallgruppe Fälle stammen aus relativ homogenen Gruppen (zB: biografische Verläufe und Handlungsmuster obdochloser Frauen, Konflikte in der Klasse, Widerstand von LP gegen Reformen in Schule, … Durch Untersuchung mehrerer gelichartiger Fälle können die Ergebnisse auf Gesamtgruppe übertragen werden (Voraussetzung à Fälle sind für Gesamtgruppe repräsentativ) Problem der Repräsentativität bzw. Objektivität: in qualitativen Untersuchungen wird meistens nicht mit Zufallsstichproben gearbeitet à sondern gezielt exemplarische Fälle werden ausgewählt Lösung: Ausgewählte exemplarische Fälle decken innerhalb der zu untersuchenden Gruppe Unterschiede ab Voraussetzung: Vorwissen und Hypothesen über mögliche Variation des untersuchten Phänomens (zB. Einfluss von Geschlecht, Alter und Dauer der Gruppenzugehörigkeit) Seite 45