Aufbereitungsmethoden - Methoden der Datenauswertung - PDF
Document Details
Uploaded by UnrivaledAlliteration9912
Tags
Summary
This document provides information on various data processing methods, including qualitative transcript analysis and quantitative data set preparation, suitable for social science research.
Full Transcript
„AUFBEREITUNGSMETHODEN“ (TRANSKRIPTION, AUFBEREITUNG VON DATENSÄTZEN, STATISTISCHE ARGUMENTE DATENAUFBEREITUNG: TRANSKRIPTION (QUALITATIV) Bei der Auswertung Unterscheidung in: Phase 1: Datenaufbereitung (z.B. Transkription) Phase 2: Analyse der Daten (z.B. Codieren, Inhaltsanalyse, Diskur...
„AUFBEREITUNGSMETHODEN“ (TRANSKRIPTION, AUFBEREITUNG VON DATENSÄTZEN, STATISTISCHE ARGUMENTE DATENAUFBEREITUNG: TRANSKRIPTION (QUALITATIV) Bei der Auswertung Unterscheidung in: Phase 1: Datenaufbereitung (z.B. Transkription) Phase 2: Analyse der Daten (z.B. Codieren, Inhaltsanalyse, Diskursanalyse) Phase 3: Systematisierung der Ergebnisse → Verbale Daten (Interview, Gruppendiskussionen, natürliche Gespräche) liegen noch nicht in schriftlicher, sondern in auditiver Form vor → zuerst verschriftlichen (=transkribieren) ENTSCHEIDUNGEN VOR TRANSKRIPTION: Wie vollständig? In welchem Umgang? Auf welche Weise sollen die Daten wiedergegeben werden? VOLLSTÄNDIGKEIT Aufbereitung Daten = Ausgangsgrundlage der Auswertung: bei verbalen Daten mittels Transkribtion: Zusammenfassendes Protokoll (komprimierte sinngemäße Darstellung des Gesagten, zB. bei Methode der Inhaltsanalyse nach Mayring) Vollständige Transkription (alle sprachlichen Äußerungen werden verschriftlicht) Selektive Transkription (Auswahl relevanter Sequenzen nach Thematik/Interessantheit; bereits Interpretation der Person, die Sequenz auswählt) Kommentierte Transkription (Transkriptionsregeln nach mittler Genauigkeit; Sprachäußerungen u. Modalität der Ausdrucksweise (Tonfall, Sprechpausen, …) werden berücksichtig UMFANG Transkription je nach Art und berücksichten Informationen mehr oder weniger umfangreich Sprachliche Äußerungen setzen sich zusammen aus. Inhalt: Gesagtes (inkl. Ko-Text → Worte die geäußerten Worten unmittelbar vorausgehen oder folgen) Form: Wie etwas gesagt wird (zB. schluchzend, lachend, …) ÄUßERUNGSFORM Unterscheidung nach: Paraverbalen Elementen: stimmliche Aspekte, die verbale Äußerungen begleiten, aber keine eigeneständigen verbalen Äußerungen darstellen (zB. Stimmverlauf, Lautstärke) Nonverbalen Elementen: kommt partiell ein eigner Äußerungscharakter zu (zB. Gähnen, Lachen, Schluchzen, Nicken) Fazit: Die Äußerungsinhalte beziehen sich auf das WAS, die para- und nonverbalen Elemente auf das WIE. ELEMENTE EINER ÄUßERUNG ART DER WIEDERGABE Auditives Material kann in Schriftdeutsch, in literarische Umschrift (Versprecher, Dialekt usw.) oder in Lautschrift (unter Nutzung des phonetischen Alphabets) übertragen werden. Übertragung in Schriftdeutsch → Schwerpunkt auf Äußerungsinhalt Übertragung in literarische Umschrift (oder Lautschrift=näher an gesprochene Sprache) → Einbeziehung von formalen Elementen, paraverbale Elemente im Transkript → spezielle Symbole, um nicht „Stimme geht nach oben“ schreiben zu müssen GRUNDSÄTZE DER QUALITATIVEN DATENAUFBEREITUNG Achtung: Art der Transkription richtet sich nach Erkenntnisinteresse der Untersuchung Auswertung muss nach intersubjektiv nachvollziehbaren Arbeitsschritten erfolgen hergeleitete Interpretation muss auch von Anderen (z.B. in der Interpretationsgruppe) diskutiert werden und als schlüssig angesehen werden PROBLEM DER AUSWERTUNG ANALYSE: Mit welcher Methode gelingt es die erhobenen Daten angemessen zu bearbeiten, um die gestellte Fragestellung zu beantworten? Wichtig im qualitativen Forschungsprozess: Erkenntnisinteresse Fragestellung Theoretische und methodologische Rahmen Auswahl und Konzipierung der Erhebung- und Auswertungsverfahren (Forschungsdesign) DATENAUFBEREITUNG: DATENSÄTZE (QUANTITATIV) Datenaufbereitung dient dazu, Rohdaten in geeigneter Form für Auswertung zu bringen (Beantworten von Forschungsfragen, Überprüfung von Hypothesen) Dazu gehören: Überführung von Daten: die noch nicht in quantitativer Form vorliegen, in Zahlen (z. B. quantitative Codierung von Beobachtungen oder verbalem Material; Bildung von Häufigkeiten nominalskalierter Daten); Übertragung von Daten von Test- oder Befragungsbögen (bei Paper-PencilErhebung) oder Rohdatendateien (bei computergestützter Datenerhebung wie LimeSurvey) in ein analysierbares Datenformat (z. B. für ein Statistikprogramm wie SPSS, PSPP, JASP, Jamovi, R,…); Zusammenfassung (Aggregierung) von einzelnen Variablen zu Gesamtwerten (z. B. die Bildung eines Gesamtwerts für eine Skala) DATENAUFBERITUNG: DATENSÄTZE 1. Daten, die noch nicht in quantitativer Form vorliegen, in Zahlenform zu überführen 2. Diese quantitativen Daten in ein per Software analysierbares Datenformat zu übertragen. 3. Die Daten so organisieren, dass sie in Hinblick auf Fragestellung/Hypothese effektiv analysiert werden können ORGANISATION UND DARSTELLUNG VON DATEN Ausgangspunkt für statische Erhebungen sind meist ungeordnete Einzelergebnisse (aus Fragebögen oder Leistungstests) Systematische Darstellung gesammelter Daten ermöglicht Auswertung KODIERUNG KODEPLAN ERSTELLEN In einem Kodeplan: Werden einzelne Fragen eines Fragebogens Variablennummern und verwendeten Kodes/Zahlen zugeordnet Wird genau festgelegt, wie aus Fragebogen eine Datenmatrix entsteht ORGANISATION UND DARSTELLUNG VON DATEN Wichtige Schritte für Datensatzaufbereitung 1. Erstellung der Datensätze: Sortierung, Zuordnung, Digitalisierung, Formatierung des Rohdatensatzes zu strukturierten Datensätzen 2. Kommentierung der Datensätze: Ergänzung um Informationen → Bedeutung der Variablen, Vergebung von Variablen- und Wertelabels,.. 3. Anonymisierung der Datensätze: Entfernung& Ersetzung von Informationen, die zur Identifizierung von Untersuchungsteilnehmer führen 4. Datenbereinigung: Aufdecken von Eingabefehlern, Umgang mit Missings,.. 5. Datentransformation: Umpolung und Zusammenfassung von Variablen, ggf. Gewichtung von komplexen Stichproben AUFBEREITUNG VON MESSDATEN Datenmatrix:= Zuordnung von Zahlen zu den gesammelten Informationen, Datenmatrizen werden mittels Computerprogrammen erstellt (Excel, SPSS, PSPP, Jamovi, JASP Kodierung von Variablen: Zuordnung von Zahlen zu den unterschiedlichen Ausprägungen der Variablen (Z.B. Variable Geschlecht; Ausprägungen: männlich (= 1), weiblich (= 2) und divers (= 3)) Fehlende Werte = Zahlen außerhalb des Werteberichts; Kennzeichnung durch bestimmte Zahlen (z.B. 9 = missing bzw. fehlend oder 8 = valid bzw. ungültig) anstatt Freilassen des Eingabefeldes Z.B. Variable Geschlecht; mit männlich = 1, weiblich = 2, divers = 3 und fehlend = 9 EXKURS: FEHLENDE DATEN Fehlende Angaben von Seiten der befragten Person (z.B. durch Ignorieren einer Frage im Fragebogen, falsches Ausfüllen, oder falsch erfasste Werte durch falsches Abtippen) Solche Werte in den Daten signalisieren, dass bei einem Fall keine Angabe über die tatsächliche (wahre) Ausprägung einer Variablen möglich ist. Solche Fälle gehen nicht in Berechnungen und Auswertungen ein Missing = fehlende Werte / missing values: besonderes Problem bei allen empirischen Untersuchungen, SPSS / PSPP/JASP unterscheidet zwischen systemdefinierte („system-missing value“) fehlende numerische Zahlen in der Datenmatrix und benutzerdefinierte fehlende Werte („user-missing value“) System-missing value: o wird vergeben, wenn sich in der Datenmatrix als Wert einer numerischen Variablen ein Zeichen, das keine Zahl ist oder nur ein Leerzeichen befindet o Z.B. durch vorzeitigen Abbruch der Befragung oder der Unlesbarkeit einer Angabe beim Einscannen des Fragebogens, fehlende Seite im Fragebogen, … o → gehen nicht in Berechnung und Auswertung ein User-missing values: o Fehlende Angaben von Seiten der befragten Person (z.B. durch Ignorieren einer Frage im Fragebogen, falsches Ausfüllen, oder falsch erfasste Werte durch falsches Abtippen) o Signalisieren, dass bei einem Fall keine Angabe über tatsächliche (wahre) Ausprägung einer Variable möglich ist o → gehen nicht in Berechnung und Auswertung ein Um unterscheiden zu können, warum ein Wert fehlend ist, gibt es folgende Unterscheidungen: System-missing value: o 7, 77, 777, -777 = systemdefiniert fehlender Wert user-missing values: o 8, 88, 888, -888 = ungültig [ich kann beim Fragebogen erkennen, dass die befragte Person die Frage gelesen hat, aber nicht „im Sinne des Erfinders“ geantwortet hat (z.B. durch ungültiges Ankreuzen, bewusst falsches Ausfüllen, Kritzeleien, Schimpfwörter, …)] o 9, 99, 999, -999 = missing [fehlende Werte, z.B. durch bewusstes oder unbewusstes Übergehen einer Frage oder Aufgabe] Achtung: Wann ein- oder mehrstellig? Bsp. anhand von missing (Code = 9, 99, 999, -999) Geschlecht (1 = männlich, 2 = weiblich, 3 = divers)→da der Wert 9 nicht erreicht wird → Missing Code = 9 Anzahl in der Klasse (z.B. 24 Kinder)→da der Wert 99 nicht erreicht wird →Missing Code = 99 Körpergröße (z.B. 180 cm)→da der Wert 999 nicht erreicht wird →MissingCode = 999 Für Faule: Wenn ich nicht bei jeder Variable überlegen will, wird (inzwischen international üblich) der Wert - 999 eingegeben, da er SICHER NICHT erreicht werden kann Achtung: Wieso überhaupt Missing definieren? 1. Um im Nachhinein die Qualität des Fragebogens zu überprüfen, zu viele Missings → Fragen vielleicht zu unverständlich gestellt, Antwortkategorien nicht passend waren, Aufgaben zu schwer gestellt waren, Fragebogen zu lang/langweilig 2. Wenn Codes in Datenmatrix eingetragen sind und NICHT definiert werden → diese Werte in Berechnung und Auswertung einbezogen Bsp.: Körpergröße (170, 180, 154, 177, 999); Mittelwert (bei Definition): 170,25 Mittelwert (bei Nichtdefinition): 336!! ORGANISATION UND DARSTELLUNG VON DATEN In SPSS und PSPP gibt es zwei Arten von Ansicht: Die Variablenansicht und die Datenansicht. Bsp.: Variablenansicht: In dieser Ansicht werden die Variablen anhand des Kodeplans definiert Bsp.: Datenansicht: In dieser Ansicht werden die Daten eingegeben ARGUMENTE IN DER EMPIRISCHEN SOZIALFORSCHUNG Hauptzweck statischen Argumente bestehen in Übersetzung der theoretischen Erwartungen (Variablen →Stichprobe → Erhebung →Bereinigung → Berechnung) Gute statistische Argumente haben folgende Eigenschaften Bestätigung der „Robustheit“ verschiedenen Berechnungsverfahren Daten werden auf das Vorhandensein verschiedener Arten von Fehlern untersucht (z.B. Ausreißer, Missing, …) Eigene Befunde werden hinterfragt und auf Berechnungsfehler überprüft Annahmen an die Daten, z.B. die Normalverteilung, werden bei den Anwendungen von statistischen Verfahren nicht verletzt. Die Werte, mit denen die einzelnen Variablen beschrieben werden, haben eine inhaltliche Bedeutung. Bei komplexen Verfahren kann sich die numerische Bedeutung darauf beschränken, wie stark die einzelnen Werte vom Durchschnitt abweichen. Beispiel: m/ w / d (divers häufig zu kleine Gruppe, um sie auszuwerten) Frauenquote in Führungspositionen o Was ist eine Führungsposition? →Definition? o Unterschied, ob in einer Firma 79% Frauen oder 70% Männer arbeiten? o Vollzeit? Teilzeit? o Betriebszugehörigkeit? Erfahrung? o Frauen sind meisten stärker als Männer durch Familie und Kinder belastet → Berücksichtigung? Fazit: Nicht die Berechnung ist die Schwierigkeit, sondern die Argumentation! Methodische Anforderungen: „Verunreinigung“ der Stichprobe durch falsche „irgendwelche“ Antworten keine Lust, Fragebogen möglichst schnell beantworten, keine „wahrheitsgemäße“ Beantwortung Selbstbild – Fremdbild Einstellung – Handlung (Stichwort: Umwelt) „DATENAUSWERTUNG“ (INHALTSANALYSE; GROUND THEORY) QUALITATIVE INHALTSANALYSE Vorgehensweise: Qualntitativ: Zuordnung mittels vorbereitetem Analysebogen (Kategoriesystem) Qualitativ: Verbale Beschreibung systematisch angelegt; Kategorieschema mit Ober- und Unterordnung (Leitfragen zur Analyse) Stichprobe: Schulbücher, Lernmaterialien, Literatur, Transkripte aus Gesprächen, Akten, Bobachtungsprotokolle Untersuchungs- bzw. Analyseeinheiten: Sätze, Absätze, Seitenteile, Seiten Aufgabenstellungen, Übungen Bilder Methoden der Datenauswertung: Quantitative und qualitative Inhaltsanalyse (Mayring) Bildinterpretation (zB. Panfosky) Dokumentarische Methode (zB. Bohnsack) ERSTELLUNG KATEGORIESYSTEM 1. Genauigkeits-Kriterium: Kategorien müssen exakt definiert sein (nominal/ polytom skaliert); Erforderlich sind präzise definierte, operationale Indikatoren für die einzelnen Kategorien des Merkmals, 2. Exklusivitäts-Kriterium: ein Objekt darf gleichzeitig nicht mehreren Kategorien eines Merkmals zugeordnet werden (z.B. Schlosser und Handwerker) 3. Exhaustivitäts-Kriterium: Kategorien müssen so geartet sein, dass jedes Untersuchungsobjekt einer Merkmalskategorie zugeordnet werden kann (die Kategorie „Sonstiges“ ist für wissenschaftliche Zwecke wenig brauchbar ist Auswertungsmöglichkeiten 1. Angabe von Häufigkeiten für die einzelnen Kategorien (inkl. grafischer Darstellung) 2. Kontingenztabellen (Kreuztabellen) → Auszählung von Merkmalskombinationen; informiert darüber, welche Merkmalskombinationen gemeinsam häufig auftreten (soz. Herkunft UND Bildungsabschluss) Methoden zur inhaltlichen Analyse von Texten Schritt1:TextmaterialwirdinSinn-Einheitenzergliedert Schritt 2: Einheiten werden in abstraktere Kategorien zugeordnet, die deren Inhalten prägnant beschreiben Schritt 3: Ausgehend von dem, was eine bestimmte Person ganz konkret gesagt hat, wird eine etwas abstraktere Kategorie gebildet. Kategorie lassen sich dann ähnliche Aussagen derselben Person oder anderer Person zuordnen → Ziel: große Reduktion der Datenmenge und ein System abstrakterer Kategorien, das ein Verständnis des Textmaterials erlaubt DREI GRUNDFORMEN DER QUALITATIVEN INHALTSANALYSE 1. Zusammenfassende Inhaltsanalayse: Ziel: gesamte Textmaterial wird auf die wesentlichen Inhalte reduziert Durch abstrakte Zusammenfassungen langer, konkreter Textpassagen entsteht → Miniaturbild des Ganzen → zentralen Aussagen des Gesamtmaterial spiegeln sich wieder, wird mit induktiver Kategorienbildung gearbeitet Vorgangsweise: Textmaterial Zeile für Zeile durchlesen, nach Textstellen suchen, die für Untersuchung als relevant festgelegt werden, Textstelle gefunden → Kategorien bilden, (Kategorie:= Begriff oder Satz, der den Inhalt der Aussage vereinfacht wiedergibt (= paraphrasiert) In weiteren Analyse Textstelle gefunden, die zu Kategorie passt → wird sie subsumiert; Textstelle, die sich bestehenden Kategorien nicht zuordnen lässt, erfordert Konstruktion neuer Kategorie, Wenn keine neuen Kategorien mehr gefunden werden können, wird das Kategoriensystem überprüft und überarbeitet. Ergebnis: ist ein System von Kategorien, das das Gesamtmaterial abbildet. Beispiel: Lange Aussage einer Interviewten über ihre Erfahrungen mit der beruflichen Weiterbildung, in der sie sich ausgiebig über ihre Lehrer mokiert „Unzufriedenheit mit den Lehrenden“ 2. Strukturierende Inhaltsanalyse Ziel: Das Herausschälen einer bestimmten Struktur aus dem Textmaterial Struktur: → inhaltliche Aspekte, bestimmte Typen, Skalierungen...verstanden Beispiel: In einer Untersuchung zur Lehrerarbeitslosigkeit (Ulich et al. 1985) wurde z. B. eine Skala zur Ausprägung der subjektiven Belastung konstruiert. Diese war unterteilt in „keine Belastung“, „schwache Belastung“ und „starke Belastung“. Kategoriesystem muss exakt präzisiert werden, dass jede Textstelle ganz eindeutig einer Kategorie zugeordnet werden kann. → Kodierleitfaden muss entwickelt werden, der genaue Regeln enthält; wenn bestimmte Textstelle einer bestimmten Kategorie zugeordnet wird und wann nicht. Dazu: 1. Exakte Definition der Kategorien (welche Textstellen wird welcher Kategorie zugeordnet) 2. Benennung von Ankerbeispielen (d.h. konkrete Textpassagen, die zu einer bestimmten Kategorie gehören und als prototypische Beispiele für die Kodierung dienen) 3. Formulierung von Kodierregeln (Diese erlauben eine unmissverständliche Zuordnung der Textstellen, insbesondere, wenn es Abgrenzungsprobleme zwischen verschiedenen, aber ähnlichen Kategorien gibt. Der so entwickelte Kodierleitfaden dient als Richtlinie für die Auswertung. ABLAUF EINER STRUKTURIERENDEN INHALTSANALYSE ANALYSEFORMEN EINER STRUKTURIERENDEN INHALTSANALYSE 3. Explizierende Inhaltsanalyse Sonderform der qualitativen Inhaltsanalyse Fragliche oder unverständlich gebliebene Textstellen werden mit zusätzlichen Materials erklärt Verwendung des direkten Textumfelds der fraglichen Stelle oder eines Material aus anderen Texten, Im ersten Fall wird zusätzliche Information eingeholt, die sich im Text selbst befindet und das zu klärende Element erhellt. Im zweiten Fall zieht man Informationen heran, die über den Text an sich hinausgehen. Beispiel: Biografische Informationen über Shakespeare → Kontextanalyse FAZIT: QUALITATIVE INHALTSANALYSE Vorgehensweise nach Mayring (1989) Schritt 1: Zusammenfassende Inhaltsanalyse Ausgangstext wird auch das Wesentliche reduziert Schritt 2: Explizierende Inhaltsanalyse Unklare Textbestandteile werden durch das Hinzuziehen zusätzlicher Materialien (z.B. Interviews, Quellenstudium) verständlich gemacht Schritt 3: Strukturierende Inhaltsanalyse Zusammengefasste Kurzversion wird unter theoretischen Fragestellungen geordnet und gegliedert → Erstellung eines Kategoriensystems PRINZIPIEN DER QUALITATIVEN INHALTSANALYSE Einordnung in ein Kommunikaitonsmodell, um festzulegen, auf welchen Teil des Modelles durch die Textanalyse Schlussfolgerungen gezogen werden sollen; zum Kommunikationsmodell gehören der/die Autor/in des Textes, der soziokulturelle Hintergrund, die textproduzierende Situation, der/die Adressat/in des Textes und der/die Inhaltsanalytiker/in selbst Regeln werden vorab formuliert (Ablaufmodelle, Analyseeinheiten, inhaltsanalytische Regeln), nach denen die Textanalyse erfolgt. Diese Regeln werden in Rückkoppelungsschleifen während der Analyse überarbeitet, bleiben aber für den letztendlichen Materialdurchgang konstant. Anpassung der Ablaufmodelle an die Fragestellung; aus den vorgeschlagenen Modellen (Zusammenfassung/induktive Kategorienbildung, Explikation, Strukturierungen) wird die passende Grundform oder ggf. eine Kombination der Grundformen ausgewählt und auf das konkrete Material adaptiert Kategorisystem: Kategorien fassen Auswertungsaspekte zusammen und müssen klar definiert sein. Ihre Zuordnung zum Text folgt festen Regeln: Bei deduktiven Kategorien erfolgt dies theoriegeleitet und vorab festgelegt, bei induktiven Kategorien durch Gruppierung ähnlicher Inhalte. Die Zuordnung von Kategorien zu Textstellen erfolgt regelgeleitet. Es wird komplex, wenn deduktive Kategorien einmalig für ein ganzes Interview vergeben werden und mehrere relevante Textstellen auftreten. Dabei sind Interpretationsentscheidungen nötig, die in Kodierregeln für ähnliche Fälle einfließen. Das Kategoriensystem wird durch Rückkopplungsschleifen entwickelt, da es das zentrale Analyseinstrument ist und projektspezifisch erstellt wird. Neue Systeme werden in Pilotstudien getestet und angepasst, oft am gleichen Material. Gütekriterium: Überprüfung der Intra-Koderreliabilität (= Auswertungsobjektivität) nach Abschluss der Analyse werden Teile des Materials erneut durchgearbeitet, ohne auf die zuerst erfolgten Kodierungen zu sehen; Ziel = hohe Übereinstimmung; dabei wird das Material nach Einarbeitung in das Kodiersystem einem/einer zweiten Kodierer:in vorgelegt; bei Nicht-Übereinstimmung durch Nachweis von Fehlkodierungen --> Kodierkonferenz bzw. Nachkodieren ENTWICKLUNG EINES KATEGORIESYSTEMS (BSP.) 1. Einordnen in das Kommunikationsmodell 2. Bestimmung des konkreten inhaltsanalytischen Verfahrens 3. Aufstellen eines Ablaufmodells, Festlegen des Kategoriensystems und der inhaltsanalytischen Regeln 4. Überprüfung der Kategoriensysteme anhand einer Pilottestung und anschließenden Auswertung mit Intra-Koder-Übereinstimmung KURZE BEGRIFFSERKLÄRUNG Kategoriesystem:= In Kategoriensystemen werden mehrere forschungsrelevante Merkmalsdimensionen versammelt, die zu Bedeutungseinheiten zusammengefasst werden Transkript:=Verschriftung von akustischen oder audiovisuellen Gesprächsprotokollen nach vorgeschriebenen Notationsregeln. (mit GoSpeech, Clipto, TurboScribe, F4) ENTWICKLUNG EINES KATEGORIENSYSTEMS 1. Einordnen in das Kommunikationsmodell Die meisten Kommunikationsmodelle (Sender-Empfänger) sind Abbildungen von Kommunikationsprozessen Sender-Empfänger: z.B. Sender = Aufgabenstellung, Empfänger = Person, die die Aufgabe bearbeitet Handelt sich um „multipolare“ Gebilde (s.o.) → Aufgabe, Material, Lösung, individuelle Perspektive,... →diese Facetten müssen auch in der Auswertung berücksichtigt werden 2. Bestimmung des konkreten inhaltsanalytischen Verfahrens Was ist Ziel der Analyse? Ausgehend vom Ziel der Analyse schlägt Mayring verschiedene Verfahren vor (können kombiert werden) Zusammenfassung Induktive Kategorienbildung Explikation(enge und weite Kontextanalyse) Strukturierung bzw. deduktive Kategorienanwendung(formale, typisierende, skalierende Strukturierung) 3. Aufstellen eines Ablaufmodells, Festlegen des Kategoriesystems und der inhaltsanalytischen Regeln Kategorien:= Auswertungsaspekte, mithilfe das Material bearbeitet wird Definition von Kategorien bildet ein zentrales Moment in Analyse, entweder induktiv aus Material gewonnen oder deduktiv, d.h. theoretisch begründet vorab formuliert und an Material angelgt Kategorien können gruppiert oder hierarchisch geordnet werden (Kategoriesystem), Zuordnung von Textmaterial wird nach inhaltsanalytischen Regeln festgelegt Ablaufmodell induktiver Kategorienbildung: Nach der Festlegung des Untersuchungsgegenstandes, Materials und Ziel der Analyse wird theoriegeleitet festgelegt, welches Material Ausgangspunkt der Kategoriendefinition sein wird. Ebenso müssen das Selektionskriterium und das Abstraktionsniveau festgelegt sowie entschieden werden, wie konkret oder abstrakt die Kategorien sein sollen. Anschließend wird das Material durchgearbeitet und jeweils entschieden, ob es einer bereits vorhandenen Kategorie zugeordnet werden kann oder mit einer neuen Kategorie begonnen werden muss. Wenn bereits 10 % (bei großen Mengen) bis 50 % (bei kleineren Mengen) durchgearbeitet wurden, beginnt die Revision des Kategoriensystems. Dabei muss überprüft werden, ob die Kategorien dem Ziel der Analyse nahe gekommen sind und ob das Selektionskriterium und das Abstraktionsniveau vernünftig gewählt wurden. Notwendige Veränderungen werden durchgeführt und anschließend das restliche Material durchgearbeitet 4. Überprüfung der Kategoriensysteme anhand einer Pilottestung und anschließenden Auswertung mit Intra-Koder-Übereinstimmung Kappa-Koeffizient: ab 0.2 →gering, ab 0.4 → moderat; ab 0.6 →gut; ab 0.8 →sehr gut Übereinstimmungstabelle für eine Kategorie und zwei Kodierende (einfache Form) Kappa-Koeffizient:.6-.8 → gut ab.8 → sehr gut Einfachste Form (relative Häufigkeit): p0= (a+d)/N; p0 = (11+7)/20 = 0.9 → 90% Übereinstimmung Besser: Cohens Kappa → basiert auf der Überlegung, dass ein bestimmtes Maß an Übereinstimmung auch dann zu erwarten wäre, wenn Kodierenden rein zufällig den Kodiereinheiten Kategorien zuweisen würden GROUNDED THEORY Definition:= Die Grounded theory bzw. gegenstandsbezogene Theoriebildung ist eine Methode, die mithilfe der schrittweisen Interpretation von Texten oder Situationen Theorien generiert. Das Auswertungsverfahren der Grounded Theory nennt sich theoretisches Kodieren. Dazu werden einzelnen Elementen des Textmaterials Begriffe bzw. Codes zugeordnet, die den Text anfangs möglichst konkret, später zunehmend abstrakter beschreiben und interpretieren. Insofern ist die Grounded Theory der qualitativen Inhaltsanalyse nicht ganz unähnlich. Ground Theory baut auf stetigen Wechsel zwischen Induktion und Dekuktion auf (=Abduktion). Abduktion sucht wegen überraschender Fakten nach sinnstiftenden Regeln, Endpunkt der Suche ist Hypothese, danach beginnt Überprüfungsprozess Die Grounded Theory stellt eine Heuristik dar, mit deren Hilfe aus Daten theoretische Konzepte entwickelt werden können DREI SCHRITTE DES THEORETISCHEN KODIERENS: 1. Offenes Kodieren Zergliederung des Textes bzw. Datenmaterial in einzelnen Sinneseinheiten, werden mit Begriffen/Codes versehen; wegen hohen Arbeitsaufwand meist nicht ganzer Text, sondern bei signifikanten, unklaren oder einleitenden Passagen Entstehen oft hunderte von Codes, für Fragestellung in besonders wichtige Kategorien gebündelt Kategorien werden erneut mit Codes versehen, haben höheren Abstraktionsniveau als die im ersten Schritt Hilfestellung durch W-Fragen: Was passiert hier? Wer ist beteiligt? Wie wird gesprochen? Wann und wo ereignet es sich? Wie viel und wie stark sind die Erfahrungen? Warum ist das so? Wozu ist das passiert? Womit wurde das erreicht? 2. Axiales Kodieren Dient Differenzierung und Verfeinerung der Kategorien, die beim Kodieren gewonnen werden Kategorien werden ausgewählt, deren Weiterverfolgung am vielversprechendsten erschein; dienen als Achsenkategorien, werden mit möglichst vielen passenden Stellen aus dem Text angereichert Beziehungen zwischen Kategorien und Unterkategorien werden herausgearbeitet; wird versucht gefundene Codes in Beziehung zueinander zu setzen, um Ursachen und Kontextbedingungen eines Phänomens zu identifizieren Ziel: Finden von Ursache-Wirkungs-, Mittel-Zweck- oder Zeit-Raum-Relationen Beispiel: in einer Studie über die medizinische Versorgung in Altenpflegeheimen könnte sich z. B. herauskristallisieren, dass oft dann Medikamente verabreicht werden, wenn die Heimbewohner Kummer und Sorgen aussprechen. 3. Selektives Kodieren Setzt axiale Kodieren auf höheren Abstraktionsniveau fort Ziel: Herausarbeitung Kernkategorie, um anderen Kategorien gruppieren zu lassen, sollen kurzen Überblick über gesamte Material bieten, aber nicht mehr als ein paar Zeilen Umfang haben Ergebnis: Kernkategorie und ein Phänomen, das das Zentrum der ganzen Theoriebildung darstellt Beispiel: „Hat sich z. B. in biographischen Interviews mit pensionierten Managern, die viel Anerkennung aus ihrem Beruf geschöpft haben, ergeben, dass diese sich nach einer verantwortungsvollen Arbeit sehnen, ließe sich als Kernkategorie »Wunsch nach Vertrautheit und Kontinuität im Leben« bilden.“ PRAKTISCHE DURCHFÜHRUNG 1. Sammeln von reichhaltigen Daten, 2. Codierung, 3. Anfertigen von Memos, 4. theoretisches Sampling, Sättigung und Sortierung, 5. Herleiten einer Theorie und Verfassen eines ersten Berichts sowie 6. Reflexion des Forschungsprozesses. UNTERSCHIED INHALTSANALYSE (QI) ZUR GROUNDED-THEORY (GT) Ziel GT: eine neue in den Daten begründete Theorie zu entwickeln, kann auch ein Ziel bei der Anwendung QI sein, muss nicht Für Erreichung des Ziels der Theoriebildung ist es bei einem GT nicht nötig, da gesamtes Material zu kodieren, denn Endpunkt der Analyse ist die Sättigung der generierten Theorie und nicht das Kodieren und die kategorienbasierte Analyse des vollständigen Materials. Es ist auch nicht notwendig, das gesamte Material auf die gleiche systematische Art und Weise zu bearbeiten und zu kodieren. Bei einer GT sind Änderungen am Kategoriensystem fortlaufend möglich, permanente Arbeit an Kodes und Kategorien → charakteristisches Merkmal. Der GT-Ansatz beschreibt nicht nur eine Auswertungsmethode, sondern umfasst auch die Datenerhebung (Stichwort „Theoretisches Sampling“). Optimalerweise werden fortlaufend Daten erhoben und ausgewertet, insgesamt ist das Vorgehen sehr prozessorientiert und flexibel. QI-Projekte arbeiten in der Regel vorab mit bestimmten Auswahlplänen. Auswahlpläne ermöglichen es unter anderem, gezielte Vergleiche mit hinreichend großen Gruppen vorzunehmen. Aufgrund seiner Zielsetzung sind GT-Ansätze für deskriptive Analysen weniger geeignet, gleiches gilt für den Einsatz in der Evaluation.