Methodenlehre I Zusammenfassung PDF
Document Details
![ImprovedNovaculite2181](https://quizgecko.com/images/avatars/avatar-3.webp)
Uploaded by ImprovedNovaculite2181
TU Braunschweig
Tags
Summary
Dieses Dokument enthält eine Zusammenfassung von "Methodenlehre I". Es behandelt Themen wie Alltagspsychologie, wissenschaftliche Theorien, Kategorisierung, Wahrheitskriterien und die Charakteristik der Psychologie als Wissenschaft. Außerdem werden wichtige Punkte wie die Ziele der Forschung, Theorienentwicklung und die Bedeutung von Empirie und Wissenschaftstheorie erläutert.
Full Transcript
VL - Methodenlehre I Zusammenfassung Alltagspsychologie - Wissenschaft und Theorien Charakteristik Plausibilität, Intuition, Heuristiken ○ nicht wissenschaftlich, subjektiv Persönliche Erfahrung, Mitteilungen Meinungen naive Methodik ○ Begriffe, Theorien,...
VL - Methodenlehre I Zusammenfassung Alltagspsychologie - Wissenschaft und Theorien Charakteristik Plausibilität, Intuition, Heuristiken ○ nicht wissenschaftlich, subjektiv Persönliche Erfahrung, Mitteilungen Meinungen naive Methodik ○ Begriffe, Theorien, Messvorschriften Werturteile Alltagssprache ○ extrem unklar, sozial gesehen in Ordnung “Phänomenologische” Kategorien ○ äußerliche Merkmale ○ Vorstellungen ≠ Realität Merkmalsträger Kategorisierung Kategorien haben immer eine (theoretische) Grundlage ○ Zerteilung der Welt in verschiedene Elemente Wahrheitskriterien soziales System: Mehrheit, Abstimmungskriterien ○ Fachkollegen können sich irren ○ sozial vereinbart, was stimmt wissenschaftlich: bessere Argument, was objektiv gültig ist ○ besser begründet, konsistent, Verbindungen zu (wohl) treffenden Theorien ○ Autoritätskriterium: Argumente > Autorität ○ Wahrheit/Realität > Vorlieben → unnatürlich, lernbar Psychologie als Wissenschaft - Charakteristik Logik Empirie (Überprüfung) Objektivität Argumente (schlüssig, plausibel) wissenschaftliche Methodik Theoretisch begründete Kategorien Merkmale (Zusammenhänge) Ziele → Versuch: Schaffung einer zutreffenden Theorie Ressourcenoptimierung Theoretisch fundierte Beschreibungen Theoretisch begründete Vorhersagen ○ präventive Eingriffe in gewisse Bereiche Theoretische Erklärungen Theoretisch begründete Manipulationen ○ Wissenschaft: Suche nach allgemeinen Prinzipien ○ Technologien: Lösung praktischer Probleme → soziale Probleme lösen Personalauswahl, Diagnostik, Therapie Aufklärung der Kausalstruktur der Welt ○ gegenseitiges Beeinflussen von Sachen, Zusammenhänge Theorie System von Aussagen ○ Relation von Argumentationen, Wahrheitswert ○ sprachliches Gebilde mit zugewiesenen Wahrheitswert ○ Aussagenlogik → Interpretation logische Struktur: logisches Ableiten widerspruchsfrei: Falsifikation, ohne nicht prüfbar sparsam reichhaltig: viele Phänomene erklärbar empirisch prüfbar Logik: wichtigstes Werkzeug der Theorieentwicklung & empirischen Prüfung → Unterschiedliche Phänomene werden auf gemeinsame, abstrakte Gesetzmäßigkeiten zurückgeführt (zentrales Ereignis, empirische Beobachtungen → Regularisten) Theorieentwicklung “von unten” ○ aus Beobachtungen → induktiv “von oben” ○ Allgemein → speziellen Bereich → häufiges Zusammenspiel Empirie empirische Hypothesen (Aussagen) ○ folgen logisch aus der Theorie, beschreiben Ereignisse beschreiben bestimmte Beobachtungen empirischer Test der Hypothesen Zuweisung eines Wahrheitswerts logischer Schluss auf die Theorie ○ Induktionsproblem: wann ein Schluss durch Induktion von Einzelfällen auf ein allgemeingültiges Gesetz zulässig ist Wissenschaft Technologie keinen direkten Effekt auf soziale Forschung → Einfluss auf soziale Strukturen, abstrakt Strukturen Technologien Fragestellungen statt Hypothesen ○ Kausalstruktur: psychologische Prozesse und Mechanismen nicht theoretisch ableitbar dienen nicht dem empirischen Test von Theorien meistens aufgrund praktischer Relevanz interessant Wissenschaftstheorie Ansätze → normative (Gesetze/Normen) und deskriptive (Prozessablauf) Wissenschaftstheorie Metatheorie (Theorie über Theorien) ○ Status, Bedingungen, empirische Prüfung von Theorien Methodologie (Meta-Methodenlehre) ○ methodische Struktur → Theoriebildung Historisch-soziologische Analyse ○ historische Entwicklung + Auswirkung von Gesellschaft Methodologie wissenschaftlicher Forschungsprogramme Logischer Empirismus (Carnap) Induktion → keine empirische Prüfung möglich Standardkonzeption wissenschaftlicher Theorien 1. Formale Axiomatisierung → unpraktisch 2. Beobachtungs- und theoretische Begriffe 3. Theoretische Begriffe (H) auf Beobachtungsbegriffe (B) zurückführbar (B1 ^ B2 … ^ Bn) → H (^: und, →: impliziert) → keine Beobachtungsbasis abseits von theorieabhängigen Beobachtungen Kritischer Rationalismus (Popper) Deduktion Falsifikationismus ○ B ✓ → H ✓ (Verifikation) → T wurde NOCH nicht widerlegt ○ B X → H X (Falsifikation) → T widerlegt → gegen Alltagsverständnis, Wissen aus Wissenschaft nur vorläufig Ablauf: strenger Test auf eine spezielle Theorie Ziel: viele spezielle Vorhersagen zu falsifizieren kritisches Hinterfragen von Beobachtungen/Daten → zuverlässig? ○ Kategorienfehler ○ spezielle Einzelfälle empirische Stützung kritisch Untersuchen Empiriearbeit: Methodik zur Überprüfung Theoriearbeit: Theorie korrigieren Methodologie wissenschaftlicher Forschungsprogramme (Lakatos) Immunisierung → Integration von Gegenbeispielen/-theorien Selektion Wissenschaftliche Forschungsprogramme Theoriekern + Hilfshypothesen ○ Immunisierung → experimentelles Hinterfragen, Zusatzannahmen Konkurrenz von Programmen ○ interne und externe Konkurrenz (soziale Kriterien) ○ entscheidet welche Theorien selektiert werden Reaktivierung von Programmen (H ^ A1 ^ … ^ An) → B ¬B ¬H ˇ ¬ A1 ˇ … ˇ ¬ An Wissenschaftliche Revolution (Kuhn) Dynamik der Paradigmen Scientific Community ○ Benennung, Erklärung → enge Kommunikation von Wissenschaftlern Einstimmigkeit, Methodik/empirie, Theorien Paradigma → ○ Grundüberzeugung ○ innerhalb: Normalwissenschaft ← Anomalien (Gegenbeobachtungen) ○ evaluieren, integrieren → Immunisierung → Krise Außerordentliche Wissenschaft → integriert in Paradigma oder… ○ Lösungsversuche konkurrieren → Wissenschaftliche Revolution Die Macht der Diskurse (Foucault) Gesellschaft ← Diskurs(e) ○ Kommunikationsstruktur → Hierarchie Macht/Herrschaft → angewandt auf Gesellschaft → Sprecher ○ Rollenverteilung → normal durch Weltsicht Sagbares Diskursanalyse → Irritation ○ Herrschaft nicht offen → normal Unzugänglichkeit einer real existierender empirischen Studie Theorie fehlt oft Hypothesen oft umgangssprachlich → Alltagsbegriffe Präzisierung oft unzureichend → ungenaue Definition/Abgrenzung zu anderen Begriffen Formalisierung oft nicht vorhanden → Modelle anstatt von Theorien Modellbildung oft unreflektiert recht weitgreifende Schlussfolgerungen ohne theoretische Rechtfertigung Experimente und latente Variablen Kausalität Manipulation von Variabel hat Einfluss auf andere Variabel A → A’ → B → B’ | x‘: manipuliert/verändert A beeinflusst B Experimente Nachweis von Kausalbeziehung zwischen Variablen Beschreiben → Erklären → Vorhersagen, Beeinflussen, Aufklärung der Kausalstruktur der Welt ○ Beschreiben: Bestandteil von Wissenschaft, Kategorisierung beeinflusst Erklärung ○ Erklären: zurückführen auf allgemeine Prinzipien/Gesetze →Regularitäten ○ Vorhersagen: theoretisch möglich, Tendenzen von Verhalten ○ Beeinflussen: Interventionen Ablauf Manipulation der UV ○ Manipulation des Merkmals, dass der UV zugrunde liegt Kontrolle der SV I und II ○ Kontrolle der potentiellen konfundierten) Störeinflüsse/Störvariablen Messung der AV ○ Erfassung des Merkmals, dass der AV zugrunde liegt Variablen Unabhängige Variable (UV) ○ ein- oder mehrfaktoriell Abhängige Variable(n) ○ uni- oder multivariat Störvariablen ○ theoretische Ausarbeitung von Kausalbeziehungen auf AV ○ Konstanthalten: keine Anpassung der Merkmalsausprägung von SV ○ Menschen = Individuen → keine Konstanthaltung möglich Randomisierung → zufällige Verteilung der SV bei Wiederholung Arten wissenschaftlicher Untersuchungen Korrelative A B Experimentelle A → B Quasi-Experimentelle ○ Randomisierung auf Gruppenebene ○ zum Erhalt sozialer Strukturen latente Merkmale nicht direkt beobachtbar ○ trotzdem unterscheiden sie sich zwischen Probanden → hypothetische Konstrukte → erfassbar durch Indikatoren ○ keine Beeinflussung des Verhaltens Problem es können unendlich viele ausgedacht werden, ohne dass sie existieren müssen ○ kein empirischer Zugang ○ "Pseudo-Erklärung" Lösung keine Einführung von Konstrukten ohne Begründung ○ Situation mit Ergebnissen nicht erklärbar ohne Konstrukt Neurowissenschaften neuronale Aktivität als Manifestation latenter psychologischer Variablen ○ Identifikation neuronaler Aktivität → Debatte: neuronale Aktivität wirklich eine Manifestation oder neuer/weiterer Indikator? Messen und Kategorisieren Formalisierung Operationalisierung = Messen Modellierung → Modellbildung ○ möglichst viel Information enthalten Merkmal → Variable Relationen zwischen Merkmalen → Modell math. Modell viel Information über Merkmale ○ Aussagen über Merkmale, nicht über Modelle/Variable Variable beliebige Merkmale/Eigenschaften Messen Daten = Ergebnis von Messungen Ziel: Merkmalsausprägung “Messen besteht in der Zuordnung von Zahlen zu Objekten oder Personen Alltagsverständnis Messwert: Feststellung der Merkmalsausprägung Messinstrument: Messwertbestimmung durch richtige Anwendung Merkmalsausprägung: Messwertergebnisse ○ versehen mit Einheit Formal Ausprägung des Merkmals → Zahlen (Repräsentation der Merkmalsausprägung) ○ Messwerte ○ Aussagen über Art oder Stärke der Ausprägung ○ Vergleiche zwischen verschiedenen Merkmalsausprägung ○ Informationen über Merkmalsausprägung Messungen ohne Messinstrumente Relationen zwischen Merkmalsausprägung ○ Vergleiche schaffen ○ Zahlen Zuordnung nach Ausprägung Vergleichsoperation = Definition des Merkmals Messtheorie empirisches Relativ → numerisches Relativ Probleme 1. Repräsentationsproblem notwendige bzw. hinreichende Bedingungen für Konstruktion einer Skala ○ Zuweisung von Zahlen 2. Eindeutigkeitsproblem Zulässige Transformationen 3. Bedeutsamkeitsproblem Welche Aussagen auf der Basis einer Skala bedeutsam sind, also ihren Wahrheitswert nicht durch zulässige Transformationen verändern ○ welche Aussage über Merkmale kann man treffen 4. Skalierungsproblem Vorgehen bei einer Konstruktion einer konkreten Skala ○ Zuweisung nach einer Regel (Eindeutigkeitsproblem) ○ Klassifizierung Skalenniveaus Skala Aussage Transformation Beispiele Lagemaße Nominal Gleichheit ein-eindeutige Studienort, Modus Ungleichheit Parteizugehörigk eit, Geschlecht Ordinal Größer-Kleiner-R monoton Single-Charts, + Median elationen steigende Windstärke Intervall Gleichheit von lineare Temperatur in + arithmetisches Differenzen y=a*x+b Celsius, Mittel IQ-Werte Verhältnis Gleichheit von proportionale Längenmaße, + geometrisches Verhältnissen y=a*x Temperatur in Mittel Kelvin, Einkommen Absolut zusätzlich; keine Häufigkeiten natürliche Maßeinheit = metrische Skala Äquivalenzrelation Ausprägungen gleich oder ungleich (≈, ≉) ○ gleich: gleiche Zahlen ○ nicht gleich: ungleiche Zahlen Betrachtung von zwei Mengen Skala: konkrete Zuordnung von Skala Nominalskalen: (f(a) = f(b)) ⟷ (f’(a) = f’(b)) bedeutsame Aussagen: Wahrheitswert ändert sich nicht bei verschiedenen Skalen ○ Aussage über Information der Merkmalsausprägung zulässige Transformationen: Definition der möglichen Skala Beispiele bedeutsamer Aussagen Merkmalsausprägung a ist genau so wie/anders als Merkmalsausprägung b a ist genauso häufig wie/häufiger als b a ist die häufigste (Modalwert) Merkmalsausprägung a tritt x mal auf a tritt in x prozent der Fälle Merkmale einer Nominalskala Reflexivität Symmetrie Transitivität Messbegriff ist nicht trivial Alltagssprache und Alltagsverständnis unterscheidet sich stark von der theoretischen Bedeutung in empirischen (Natur-)Wissenschaften Merkmalsebene und Variablenebene sind klar zu unterscheiden Vergleichsoperation definiert Merkmal Invarianzbedingungen: Frage nach Messbarkeit ○ Invarianz = Unveränderlichkeit ○ Raum, Zeit, Spezies, Kultur ○ (Rand-)Bedingungen Ordnungsstrukturen und metrische Skalen Ordinalskalen strenge Ordnungsrelation: >, < schwache Ordnungsrelation: ≥, ≤ (a > b) ↔ (f(a) > f(b)) ○ wobei f(a), f(b) ∈ ℝ wieder die a und b zugeordneten Zahlen sein sollen ○ keine konkrete Zahlenzuordnung für alle a, b ∈ 𝛀 gilt: (a > b) ↔ (f(a) > f(b)) für zwei verschiedene Skalen: (f(a) > f(b)) ↔ (f’(a) > f’(b)) ○ Ordinalskalen erweitern Nominalskalen um (strenge) Ordnungsrelation ○ Erweiterung um (streng) monotone Transformationen Beispiele bedeutsamer Aussagen Merkmalsausprägung a ist stärker als Merkmalsausprägung b Merkmalsausprägung a liegt zwischend en Merkmalsausprägungen b und c Der Median der Skalenwerte entspricht der Merkmalsausprägung a Der Interquartilabstand liegt zwischen den Merkmalsausprägungen a und b Merkmale Konnexität für alle a, b ∈ 𝛀 gilt genau eine der drei Aussagen: (a ≈ b), (a ≻ b), (b ≻ a) Asymmetrie für alle a, b ∈ 𝛀 gilt: (a ≻ b ) → ¬(b a ≻ a) Transitivität für alle a, b ∈ 𝛀 gilt: ((a ≻ b) ⋏ (b ≻ c)) → (a ≻ c) Probleme Repräsentationsproblem Notwendige bzw. hinreichende Bedingungen für die Konstruktion einer Skala: Reflexivität bzw. Konnexität Symmetrie bzw. Asymmetrie Transitivität Eindeutigkeitsproblem Alle für die - für alle a, b ∈ 𝛀 - gilt: (f(a) = f(b)) ↔ (f’(a) = f’(b)) und (f(a) > f(b)) ↔ (f’(a) > f’(b)) Bedeutsamkeitsproblem Welche Aussagen sind auf der Basis einer Skala bedeutsam, verändern also ihren Wahrheitswert nicht durch zulässige Transformationen Gleiche/ungleiche Ausprägung stärkere/schwächere Ausprägung Skalierungsproblem Vorgehen bei der Konstruktion einer konkreten Skala vollständiger Paarvergleich Zuweisung nach Regeln Rangierung Skalenart abhängig von Merkmal, was gemessen wird → Ordinalskala sagt mehr über Merkmale aus, wenn bei Merkmalen möglich Konkatenation - zusammengefügt Summe einzelner Merkmalsausprägung (a ⊕ b) → f(a ⊕ b) = f(a) + f(b) Verhältnisskalen 0 (Nullpunkt): Merkmalsausprägung o ○ (a ⊕ o) ≈ a für zwei verschiedene Skalen muss gelten: ○ f’(a) = kf(a) |k = Konstante Die Konstante k ist abhängig davon, welcher Merkmalsausprägung der Wert 1 zugewiesen wird → Einheit der Skala Intervallskala: frei gewählter Nullpunkt Absolutskala: Zuordnung der 1 (Einheit) Definition - Messen “Messung wird verstanden als Homomorphismus (strukturerhaltende Abbildung) aus einem empirischen Relativ (Menge von Merkmalsausprägungen und darauf definierten Relationen) in ein numerisches Relativ (Zahlenmenge und darauf definierte Relationen).” → Repräsentation des empirischen durch das numerische Relativ Extensive Messung Archimedisches Axiom für alle a, b ∈ 𝛀 gilt ∃an > b Standardsequenz a0 ≈ a a1 ≈ (a0 ⊕ a) a2 ≈ (a1 ⊕ a) a3 ≈ (a2 ⊕ a) … an ≈ (an-1 ⊕ a) Schwache Ordnung für alle a, b, c, d ∈ 𝛀 Monotonie (a ≼ b) ⋎ (b ≽ a) ((a ≽ b) ⋏ (b ≽ c) → (a ≽ c) Beschränkte Lösbarkeit ((a ≽ b) ⋏ (c ≽ d) → ((a ⊕ c) ≽ (b ⊕ d) Positivität (a ≻ b) → ∃z ∈ 𝛀 (a ≻ b ⊕ z) Assoziativität (a ⊕ (b ⊕ c)) ≈ ((a ⊕b) ⊕ c) Problem in der Psychologie subjektive Eindrücke können nicht konkateniert werden Stevens: Verhältnisskalierung ohne zugrundeliegende Konkatenation ○ Problem wurde ignoriert und geleugnet Skalenart Zulässige Transformationen metrisch Nullpunkt Einheit Nominalskala Äquivalenzerhaltende nein nicht nicht Transformationen anwendbar anwendbar Ordinalskala Streng monotone nein nicht nicht Transformationen anwendbar anwendbar Intervallskala Lineare Transformationen ja beliebig beliebig f’(a) = k1 f(a) + k2 Differenzenskala Additive Transformationen ja beliebig fix f’(a) = f(a) + k Verhältnisskala Multiplikative Transformationen ja fix beliebig f’(a) = kf(a) Absolutskala Identitätstransformation ja fix fix f’(a) = f(a) Normierung und Psychologische Messmodelle Exkurs I: Latente Variablen, Indikatoren und Skalenwerte für Aussagen über latente Merkmale benötigt man Indikatoren: manifeste Merkmale ○ Annahme: Zusammenhang zwischen Indikatoren + latenten Merkmalen → nicht spezifiziert Unterscheidung zwischen Skalenniveau der Messung des Indikators selber und Skalenniveau der Messung des Indikators für latente Merkmal Exkurs II: Normierung von Tests und Skalenarten Ergebnis psychologischen Tests: Rohwerte → absolutskaliert ○ Zusammenhang mit latenten Merkmal nicht spezifiziert Transformation in nicht-linear in populationsabhängige Prozentränge ○ Zuordnung der Zahl in relativen Position der Stärke dieser Merkmalsausprägung in entsprechenden Population ○ → nicht-linear inverse Prozentrangtransformation → normalverteilte Werte ○ lineare Transformation → Normalverteilung → Kritik: keine Vergleichsoperation für psychologische Merkmale → keine Definition des Merkmals resultierende Normwerte: intervallskaliert aus Standardnormalverteilung ○ ordinalskaliert für Prozentränge Rohwerte ordinalskaliert für Ausprägung auf latenten Merkmal intervallskaliert für Merkmalsausprägung wegen nicht-linearen Transformationen ○ keine Annahme dass Normwerte intervallskaliert für Merkmalsausprägung sind (vice versa) → keine Intervallskala mehr → Problem: Annahme muss sein, dass Merkmal normalverteilt ist Psychologische Messmodelle Merkmale ermöglichen, ohne dass die Möglichkeit der Extensiven Messung besteht Messmodelle sollen Messung axiomatisch begründen ○ Semiordnung, Mittenbildungs-System, Additiv-Verbundene Messung Skalierungsmodelle setzen Messung voraus → Zuweisung von Zahlenwerten zu Merkmalsausprägungen ○ Annahme: Merkmal existiert und kann skaliert werden Semiordnung → empirisches Relativ ( , ≻) für das folgende drei Annahmen für alle a, b, c, d ∈ gelten S1 ¬(a ≻ a) S2 (a ≻ b) ∧ (c ≻ d) → (a ≻ d) ∨ (c ≻ b) S3 (a ≻ b) ∧ (b ≻ c) → (a ≻ d) ∨ (d ≻ c) Dann gelten für alle a, b ∈ (a ≻ b) ↔ f(a) > f(b) + δ δ: (konstante) Unterschiedsschwelle → Genauigkeit für Aussagen über Unterschiede Mittenbildung → empirisches Relativ ( , ≿) bei dem für alle a, b ∈ ein eindeutiges Element M(a, b) ∈ definiert ist, das als Mittenbildungspunkt zwischen a und b interpretiert wird und für das die Annahmen M1 bis M4 für alle a, b, c, d ∈ gelten M1 Reflexivität M(a, a) ≈ a M2 Monotonie (a ≿ b) → M(a, c) ≿ M(b, c) M3 Stetigkeit M ist in beiden Argumentenbereichen stetig M4 Bisymmetrie M(M(a, b), M(c, d) ≈ M(M(a, c), M(b, d) dann gilt für alle a, b ∈ (a ≿ b) ↔ f(a) ≥ f(b) f(M(a, b)) = pf(a) + qf(b) | p, q → gewichtet p + q = 1 und p, q ≥ 0 → Intervallskala Additiv-Verbundene Messung betrachten schwach geordnete Mengenprodukte AxB mit typischen Elementen (ax, bu) M(ax, bu) ist ein (ordinales) Maß des Effekts der Kombination (ax, bu) Datenmatrix heißt additiv bzw. hat eine additive Repräsentation, wenn Funktionen f und g über A bzw. B und eine Funktion ø über AxB definiert sind, so dass ø(ax, bu) = f(ax) + g(bu) und ø(ax, bu) ≥ ø(ay, bv) ↔ M(ax, bu) ≥ (ay, bv) gegebenen Werte können monoton transformiert werden → Additivität für transformierten Zellenwert erfüllt ist, wenn für alle a ∈ A und alle b ∈ B gelten A1 Aufhebung (Cancellation) A2 Lösbarkeit jede Datenmatrix die A1 und A2 erfüllt hat eine additive Repräsentation, die eindeutig ist bis auf eine positiv lineare Transformation → empirisch prüfbar Wenn A1 und A2 erfüllt sind, existieren Funktionen f und g derart, dass für alle a ∈ A und alle b ∈ B gilt: f(ax) + h(bu) ≥ f(ay) + g(bv) ↔ M(ax, bu) ≥ (ay, bv) sind beliebige f’ und g’ gegeben, die diese Gleichung erfüllen, dann gibt es Konstanten k1, k2 und k3, wobei k1 > 0, so dass für alle a ∈ A und alle b ∈ B gilt: f’(ax) = k1f(ax) + k2 g’(bu) = k1g(bu) + k3 Psychologische Skalierungsmodelle Grundannahme: keine Probleme bei Skalen → Zusammenhang zwischen latenten Dimensionen (Merkmalen) + beobachtbares Verhalten Voraussetzung: Messung → Zuweisung von Zahlenwerten zu Merkmalsausprägungen Thurstones Modell des Paarvergleichs → the law of comparative judgment (Gesetz vom Vergleichsurteil) Dominanzmatrix - Dominanzrelationen von Reizen ○ jeder Reiz muss mit jedem anderen beurteilt werden → dominiert ○ unabhängige Wiederholung der Reizpaare → Anzahl der Urteile ○ Datenmatrix zeigt Häufigkeiten (Maß des subj. Unterschieds) qk ≥ qj ↔ k ≿ j qj: Größe des Reizes j ○ k ≿ j bzw. qk - qj ≥ 0: k wird von j nicht dominiert Annahme: Normalverteilung zwischen Diskriminanzprozessen der Reize j und k ○ Versuchsperson hat aus Verteilung zufallsmäßig eine Differenz gezogen pr(qk - qj ≥ 0) = pr(k ≿ j) ○ k & j sind immer gleich → ungleiche Wahrnehmung ○ alle Einschätzungen/Wahrnehmungen liegen im Modell spezifiziert latente Merkmale mit Verhalten ○ stark spezifisch + eingeschränkt ○ Skala nur konstruierbar bei Annahme: Merkmal ist messbar 0 Punkt abhängig von Differenz ○ je weiter rechts, desto größer die Wahrscheinlichkeit, dass k über j dominiert Annahme: Wiederholungen müssen experimentell unabhängig sein Fall I mehrfache Wiederholungen bei derselben Versuchspersonen über Ereignissen Fall II einmalige Antwort einer Versuchsperson zu Ereignissen Fall V Annahme: alle Paare = Konstante → Gleichsetzung mit 1 qk - qj = zkj n: Skalenwerte für Reize → Nullpunkt hat freien Parameter → n -1 Parameter bestimmen n2: Anzahl der Beobachtungen Coombs Unfolding-Theorie (eindimensional) → Abbildung von Präferenzen, Rückschlüsse von Reizen auf latente Dimension Verfahren: Bevorzugungswahlen ○ Rangordnung der Präferenzen jeder Versuchsperson für eine Menge alternativer Reize ○ Reiz verknüpft mit Reizpunkt → verknüpft mit Idealpunkt J-Skala: Joint-Skala → Repräsentation des Eigenschaftskontinuums ○ I-Skala: Ideal-Skala → aus J-Skala der Befragten Zusammensetzung der I-Skalen → Mittelpunkt auf J-Skala ○ metrische Informationen (Ordnungsrelationen) über Abstandspaare Annahme: Abstände sind transitiv, Erfüllung von partieller Ordnung der Mittelpunkt einer Menge geordneter Punkte für Tripel A, X, Y gilt A|X ist Vorgänger von A|Z ↔ x Vorgänger von y Das Rasch-Modell Notwendige und hinreichende Bedingungen Rasch-Skalierbarkeit endliche Menge dichotomer Items Itemparameter σ ○ nur binäre Antworten (0/1) ○ Schwierigkeit homogener Test Personenparameter θ ○ eine latente Dimension ○ Fähigkeit ICCs monoton steigend und Gültigkeit der Modellgleichung f(θ) ≠ 0 oder 1 fσ(θ) = exp (θ - σ)/1+ exp(θ - σ) lokale stochastische lim f(θ) = 0 Unabhängigkeit θ → -∞ lim f(θ) = 1 θ→∞ lokale stochastische Unabhängigkeit ○ voneinander unabhängige Antworten Summenscore erschöpfende Statistik für θ ICC und Modellgleichung Modellgleichung fσ(θ) = exp (θ - σ)/1+ exp(θ - σ) Daraus folgt: fσ(θ) → 0 wenn θ → -∞ fσ(θ) → 1 wenn θ → ∞ fσ(σ) = 0.5 → Wendepunkt Gibt die Wahrscheinlichkeit einer “1” an: fσ(θ) = P(x = 1| θ, σ) ICCs verschiedener Items (unterschiedliches σ) sind gegeneinander verschoben, haben aber gleiche Form PCC und Modellgleichung Modellgleichung gθ(σ) = exp (θ - σ)/1+ exp(θ - σ) Daraus folgt: gθ(σ) → 1 wenn σ → -∞ gθ(σ) → 0 wenn σ → ∞ gθ(σ) = 0.5 → Wendepunkt Gibt die Wahrscheinlichkeit einer “1” an: gθ(σ) = P(x = 1| σ, θ) PCCs verschiedener Personen (unterschiedliches θ) sind gegeneinander verschoben, haben aber gleiche Form Datenmatrix → Zeitpunkt, in dem Person ein Item dominiert → 1 und 0 als Antwort Likelihood-Funktion → Schätzung wie wahrscheinlich es auf Population zutrifft → Wahrscheinlichkeit Daten zu erhalten bei Bedingungen: θ, σ Suche derjenigen θ, σ zu ermitteln, die Likelihoodfunktion maximieren → Werte dann bezeichnet L(θ’, σ’) → für alle gilt dann L(θ, σ) ≤ L(θ’, σ’) Unconditioned Maximum Likelihood UML θ’, σ’ → Datenmatrix wird “am wahrscheinlichsten machen” = “wahrer” Parameter → Maximum-Likelihood-Schätzer (bzw. unbedingte Maximum-Likelihood-Schätzer) UML Anwendung Begriff der suffizienten Schätzer Iteratives Lösungsverfahren für “normale” Datenmatrizen existieren in der Regel eindeutige Lösungen UML-Schätzungsmethode nur angemessen, wenn sowohl die Personenstichprobe als auch die Anzahl der Items hinreichend groß ist ((K - 1)/K ≈ 1) die beiden extremen Rohwertklassen (r = 0/r = K) liefern keine Schätzungen von Personenparametern Diskriminationsfähigkeit eines Items → Wie gut werden Personen auseinander gehalten? in Region des Wendepunkt am besten Unterscheidung zwischen verschiedenen Personen möglich ○ Trennschärfe eines Items Items müssen an Personenfähigkeiten angepasst werden, damit man gut untereinander unterscheiden kann Item Information Curve I = Ableitung → bei Wendepunkt maximale Steigung: Diskrimination am Besten Test Information Curve (TIC) → anschauen, wo man gut diskriminieren kann, wo vielleicht nicht Gütemaß: je höher die Stellen, desto besser performt der Test Vertrauensintervall für θ Grafischer Modelltest von Rasch Population → 2 Teilstichproben ○ gleiches Ergebnis: gilt für gesamte Population ○ unterschiedlich: Kontrolle/Korrektur des Tests an Winkelhalbierende sollten Items liegen ○ gilt dann für Population ○ je weiter weg: nicht gut performt Messfehlertheorie grundlegender Begriff der KTT: “true score” xij: Testwert der Person i im Test j tij: “wahrer Wert” der Person i im Test j einfachstes Modell wäre: xij = tij, für alle i, j ○ jede Person in jedem Test immer gleich dem wahren Wert wäre ○ Person muss im Test dann immer gleichen Messwert (wahrer Wert) produzieren dagegen: Annahme der Fehlerbehaftetheit der Messwerte ○ Fehler kann zufällig verschiedene Werte (Zufallsfehler) realistisches Modell xij = tij + “zufälliger Fehler” Interpretationen des “true scores” platonisch der Fehler stellt eine Abweichung vom wahren Wert dar statistisch der wahre Wert ergibt sich erst aus der Verteilung des Fehlers → durchschnittliche Testleistung bei gleichen Bedingungen bei Mehrfachwiederholungen Definition des wahren Wertes über die Konstruktion einer Zufallsvariablen xij, die den möglichen Testwerten einer Person in in einem test j zugrunde liegt Annahmen xij hat endlichen Erwartungswert und endliche Varianz eine besondere Verteilungsform wird erstmal nicht angenommen ○ keine Annahme, dass Fehler normalverteilt ist Definitionen tij: E(xij) wahre Wert = Erwartungswert der Zufallsvariable Xij ○ der am ehesten gezogene Wert Verteilung der Variablen Xij bei unendlich ofter Testwiederholung Mittelwert der Verteilung = Erwartungswert von Xij = true score tij eij: xij - tij Fehler = DIfferenz zwischen Testwert xij und wahren Wert tij Varianz schmal genaue Bestimmung des true scores breit ungenaue Bestimmung des true scores → keine unendliche Testwiederholungen möglich Annahme: Fehler unabhängig und normalverteilt → Lösung: testet mehrere Personen → Messtheorie (für eine Population) V(x) = V(T) + V(E) V(T): unterschiedliche true scores V(E): Messfehler Reliabilität: (V(T)/V(X) = (V(T)/V(T)+V(E)) = [0, 1] abhängig von true scores in Population Populationsebene Unterschied Xvi vs. X*i bzw. Xi bzw. X analog T*i bzw. Ti bzw. T analog E*i bzw. Ei bzw. E X = T + E bzw. E = X - T E(E) = 0 p(E, T) = 0 p(Ei, Tj) = 0 p(evi, evj) = 0, falls Xvi, Xvj lokal stochastisch unabhängig unterscheide p(X*i, X*j) und p(Xvi, Xvj) Punktwolken: keinen Zusammenhang → lokal stochastisch unabhängig Regressionsrate: Zusammenhang auf Populationsebene Reliabilität und Validität Rekapitulation: X = T + E E(E) = 0 p(T, E) = 0 p(E1, E2) = 0 E(X) = E(T) = μx = μT E(E|T) = 0 σ²(X) = σ²(T) + σ²(E) Die Regression der manifesten Testvariable X auf die true-score Variable T ist linear, die Regressionslinie ist die 45°-Gerade durch den Ursprung (COV:) σ(X, T) = σ²(T) Reliabilität:= σ²T/σ²X = p²(X, T) Reliabilität → σ²T/σ²X = p²(X, T) Reliabilitätsindex: Wurzel aus Reliabilität Varianzverhältnis und Korrelation lassen sich nicht berechnen ○ benötigt true scores → Schätzungen ○ dient zur Interpretation der Reliabilität = Populationsabhängigkeit der Reliabilität → Eigenschaft der Population (abhängig von true scores) Konzept der Paralleltests: Berechnung der Reliabilität ○ Zusammenhang zwischen Reliabilität und manifesten Variablen zweier Test mit bestimmten Eigenschaften Zwei Tests parallele Tests = Schätzung für Messfehler ○ je größer Fehler, desto weniger gehören die Tests zusammen/weniger parallel → Unabhängigkeitsannahme kann nicht herausfinden ob Tests parallel sind (T1 = T2) ○ Plausibilitätsargumente = Basis für Reliabilität Schätzungsmethode für Reliabilität Retestmethode Personendurchführung ändert nichts an true score ○ eine Reliabilität pro Person/Population Paralleltestmethode Konstruktion: doppelte Menge an ähnlichen Items ○ Erstellung von 2 Tests = parallel Transfereffekt! Testhalbierung über beide Testhälften behalten selber true score ○ Betrachtung der Korrelationsstärke Anpassung der geschätzten Reliabilität mit der Spearman-Brown-Formel Auswirkung der Testlänge auf Reliabilität ○ je mehr Items, desto bessere true score Schätzung ○ kleinere Fehlervarianz → bessere Reliabilität Formel: Korrektur der wenigen Items pro Testhälfte Cronbachs Alpha 1 Test unterteilt in so viele Tests, wie Items ○ jedes Item = paralleler Test eigene Varianz (oben im Bruch) alle Items Varianz (unten im Bruch) ꭤ = Reliabilität → paralleler Test ꭤ ≠ Reliabilität → untere Schranke → Schätzmethode abhängig von Testart und zu messenden Items Vertrauensintervalle Schätzung für Messfehlervarianz σ²T/σ²X = pXX’ σ²E/σ²X = 1 - pXX’ σE = σX (1 - pXX’)¹/² Vertrauensintervall auf der Basis des Standardmessfehlers → Wie gut ist der true score? X - 2,58 σE ≤ tau ≤ X + 2,58σE Vertrauensintervall auf der Basis des Standardschätzfehlers Schätzfehlervarianz: σε = σT (⁻ pXX’)¹/² σε = σE (pXX’)¹/² Arten äquivalenter Messungen zwei Messungen Xi, Xj in einer Population P heißen experimentell unabhängig, wenn Fvij(Xvi, Xvj) = Fvi(Xvi) * Fvj(Xvj), für alle v ∈ P linear experimentell unabhängig, wenn E(Xvi|Xvj = xvj) = E(Xvi) und E(Xvj|Xvi = xvi) = E(Xvj), für alle v ∈ P Replikation, wenn Tvi = Tvj und F(evi) = F(evj), für alle v ∈ P damit Xvi = Xvj (zwei unabhängige Realisierungen der gleichen Zufallsvariable) → Messwiederholung bei gleichen Bedingungen → nur Zufallsfehler unterschiedlich → true scores + Fehlerverteilung sind gleich für alle Personen aus Population zwei Messungen Xi, Xj in einer Population P heißen parallel, wenn E(Xvi) = E(Xvj) und σ²(evi) = σ²(evj), für alle v ∈ P damit σ²(Xvi) = σ²(Xvj) parallele Tests messen Eigenschaft gleich gut + gleiche Fehler tau-äquivalent, wenn E(Xvi) = E(Xvj), für alle v ∈ P damit Tvi = Tvj messen Eigenschaft gleich gut, keine gleichen Fehler essentiell tau-äquivalent, wenn E(Xvi) = E(Xvj) + aij, für alle v ∈ P damit Tvi = Tvj + aij nur noch gleiche Eigenschaften messen + Konstante Validität → Korrelation des Tests X mit einem Kriterium > je Population: eine Reliabilität, so viele Validitäten wie Kriterien Validität von X in Bezug auf > = p(X, Y) Validität in Bezug auf einen Paralleltest = Reliabilität Zusammenhang zwischen Reliabilität von Test und Kriterium und der Validität → Verdünnungsformel (durch Messfehler) p(X, >) = p(X, TX) p(TX, TY) p (TY, Y) p(TX, TY) = p(X, Y) / (pXX’ PYY’)¹/² Validität größer als Reliabilität, wenn p(X, TX), p(TX, TY) p(TY,Y) > p²(X, TX) p(TX, TY) p(TY, y) > p(X, TX) → Validität eines Tests ist kleiner oder gleich dem Reliabilitätsindex Alle Definitionen Eine Person, ein Test Eine Population, ein -Test tij = E(xij) Xj vs. xij eij = xij - tij Tj vs. tij Ej vs. eij E(xij) = tij Xj = Tj + Ej V(Xij) = V(Xij) Ej = Xj - Tj E(tij) = tij E(Xj) = E(Tj) V(tji) = E(tij²) - E(tij)² = 0 E(Ej) = 0 COV(Ej, Tj) = 0 E(eij) = E(xij - tij) = 0 V(Xj) = V(Tj) + V(Ej) V(eij) = V(xij - tij) = V(xij) COV(Ej=j1, Tj=j2) = 0 E(Xj)= E(E(Xij)) = E(tij) COV (xij, tij) = 0 COV(eij, tij) = 0 E(Ej) = E(Xj - Tj) = 0 COV(xij, eij) = V(xij) Modellierung von kategorialen und stetigen Merkmalen Univariate Deskriptivstatistik → nur eine Variable betrachtet → betrachtet nur erhobene Daten Datenmatrix Darstellungsform für Variablen (Merkmale), Objekte (Merkmalsträger) und Messwerte (Merkmalsausprägungen) ○ Matrix: System von n*p Größen, die in einem rechteckigen Schema von n Zeilen (waagerecht) und p Spalten (senkrecht) angeordnet sind ○ Spaltenvektor: Matrix mit p = 1 (Merkmale) ○ Zeilenvektor: Matrix mit n = 1 (Merkmalsträger) ○ Zellen: Matrizen mit n = p = 1 (Messwerte) Häufigkeitsverteilung Absolute Häufigkeiten Relative Häufigkeiten Abhängigkeit von Stichprobengröße Anteil der Personen mit Merkmal aus Anzahl der Personen mit Merkmal aus Gesamtheit der Stichprobe Stichprobe * 100 → Prozentwerte Grafische Darstellung von Häufigkeitsverteilung Säulendiagramm Absolute oder relative Häufigkeiten verschiedene weitere Formen, wenn mehrere Datenreihen gemeinsam angezeigt werden Kreis- bzw. Kuchendiagramm Absolute bzw. relative Häufigkeiten Balkendiagramm Absolute bzw. relative Häufigkeiten verschiedene weitere Formen, wenn mehrere Datenreihen gemeinsam angezeigt werden Statistische Kennwerte beschreiben zusammenfassend Häufigkeitsverteilung formale Repräsentation von Merkmalseigenschaften, die mit der Variabilität der Merkmalsausprägungen zusammenhängen ○ abhängig von Skalenart/-niveau Maße der zentralen Tendenz Maße der Dispersion versuchen, die Gesamtheit der versuchen, die Unterschiedlichkeit der Merkmalsausprägungen durch einen Wert Merkmalsausprägungen in einem Wert zu zu repräsentieren repräsentieren → typischen Wert → Streuung Deskriptivstatistik für nominalskalierte Variablen formale Repräsentation von Eigenschaften der Verteilung von kategorialen Merkmalen ohne sinnvolle Ordnungsrelation → freie Wertzuweisung → Äquivalenz: gleiche Ausprägung → gleiche Zuweisung Modalwerte (Modus) relativer Informationsgehalt entspricht dem Wert derjenigen maximal, wenn alle Kategorien gleich häufig Kategorie, welcher die meisten besetzt sind bei Gleichverteilung Merkmalsträger angehören minimal, wenn nur eine Kategorie besetzt ist → NICHT die absolute Häufigkeit selbst ln: natürlicher Logarithmus hj: relative Häufigkeit k: Anzahl der Merkmalsausprägung Deskriptivstatistik für ordinalskalierte Variablen formale Repräsentation der Eigenschaften von Verteilungen von kategorialen Merkmalen mit sinnvoller Ordnungsrelation singulär kategorial jedem Untersuchungsobjekt wird ein z.B. auch gruppierte metrische Variablen Rangplatz zugewiesen → mehrere Leute in einer Kategorie → ein Rang hat nur eine Person Kumulierte Häufigkeiten sukzessive Addition der absoluten bzw. relativen Häufigkeiten Prozentrang Skalierung, die den Merkmalsausprägungen ihre relative Position in der Ordnung zuweist Prozentrangwert eines Merkmalsträgers m entspricht demjenigen Prozentsatz von Merkmalsträgern, die eine gleich große oder eine kleinere Merkmalsausprägung aufweisen. ohne Rangbindungen mit Rangbindung Deskriptivstatistik für ordinalskalierte Variablen Median mind. 50% der Daten sind kleiner oder gleich dem Median mind. 50% der Daten sind größer oder gleich dem Median bei singulären Daten bei singulären Daten: bei kategorialen Daten, Messwerte nach Größe ordnen ungerades n Auszählen: unterhalb und oberhalb (n-1)/2 n = 11, (11-1)/2 = 5 → 5. Position 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3 bei kategorialen Daten, Messwerte nach Größe ordnen → 2 Hälften gerades n Mittelwert des größten Messwerts aus unteren Hälfte und kleinsten Messwert aus oberen Hälfte = Median n = 10 1, 1, 1, 2, 2, 2, 2, 3, 3, 3 (2+2)/2 = 2 Quartile → bestimmte Prozentränge Fallunterscheidung: n/4 ganzzahlig oder nicht Bestimmung der Quartile analog zur Regel bei Bestimmung des Medians erstes Quartil: Q1 Wert, der von mind. 25% der Merkmalsträger erreicht oder unterschritten wird und der von mind. 75% der Merkmalsträger erreicht oder überschritten wird zweites Quartil: Q2 Wert, der von mind. 50% der Merkmalsträger erreicht oder unterschritten wird und von mind. 50% der Merkmalsträger erreicht oder überschritten wird → Median drittes Quartil: Q3 Wert, der von mind. 75% der Merkmalsträger erreicht oder unterschritten wird und von mind. 25% der Merkmalsträger erreicht oder überschritten wird. Interquartilabstand (IQA) Differenz zwischen dem dritten und ersten Quartik IQA = Q3 - Q1 → Median Deskriptivstatistik für metrisch-skalierte Variablen → Formale Repräsentation von Eigenschaften der Verteilung von Merkmalen, für die eine sinnvolle Zusammenfügungsoperation definiert ist Häufigkeitsverteilung Rohwerte → Urliste ○ Aufführungen, wie in der Untersuchung vorgekommen ○ unsortiert Gruppierte Urliste ○ nach Größe sortiert ○ Zusammenführung der selben Werte Primäre Häufigkeitsverteilung Sekundäre Häufigkeitsverteilung Auszählung der Häufigkeit des Zusammenfassung von Rohwerten in Vorkommens Kategorien (Gruppierung) → alle möglichen Merkmalsausprägungen, → gleich breit die nicht vorgekommen sind Kategorien Anzahl trade-off zwischen Übersichtlichkeit und Differenziertheit Grenzen Kategoriengrenzen: zwischen größten und kleinsten Messwert liegen benachbarte Kategorien bei stetigen Merkmalen: entscheiden, welchem Intervall die Intervallgrenzen zugeordnet werden sollen → üblich: untere Intervallgrenze Breite Kategorienbreite d = Differenz zwischen Kategoriengrenzen Mitte Kategorienmitte a = (unteren + oberen Kategoriengrenze)/2 Grafische Darstellungen sekundärer Häufigkeitsverteilungen Histogramm geläufigste Darstellung bei metrischen Daten Breite (und Fläche) der Säulen sinnvoll interpretierbar ○ unterschiedliche Breite: Fläche nur bei angepasster Höhe interpretierbar → Angabe der Mitte der Kategorie Polygonzug hebt Stetigkeit hervor beginnt halbe Kategorienbreite links neben der linken Randsäule und endet halbe Kategorienbreite rechts von der rechten Randsäule (jeweils mit dem Wert 0) Verteilungsformen symmetrisch vs. asymmetrisch symmetrisch links von einem Wert genau gleiche Form wie rechts (spiegelverkehrt) asymmetrisch Schwerpunkt (Modalwert) ist verschoben linksgipflig bzw. linkssteil bzw. rechtsschief Modalwert links von der Mitte rechtsgipflig bzw. rechtssteil bzw. linksschief Modalwert rechts von der Mitte Wölbung und Gipfelanzahl stumpf- bzw. breitgipflig um Modalwert: großer Bereich von Messwerten → flach schmal- bzw. steilgipflig um Modalwert: kleinen Bereich von Messwerten → spitz unimodal ein Gipfel bimodal zwei Gipfel multimodal mehrere Gipfel U-, V-, L- und J-Verteilung U- bzw. V-förmig extreme Ausprägungen kommen häufiger vor als mittlere L-förmig niedrige Ausprägungen sind sehr häufig J-förmig hohe Ausprägungen sind sehr häufig Box-Whisker-Diagramm → Darstellung wesentlicher Eigenschaften Box-Plot → Ableitung des Aussehens der Verteilung ○ Median mittig in Box: metrisch ○ Median oben/unten in Box: links-/rechtsgipflig Ausreißer kleiner als Q1 - 1,5 * IQA oder größer als Q3 + 1,5 * IQA Extremwerte kleiner als Q1 - 3 * IQA oder größer als Q3 + 3 * IQA → Umgang mit Ausreißern und Extremwerten schwierig (ignoriert) Fünf-Punkte-Zusammenfassung → wesentliche Informationen über die Verteilung Maximum, Minimum der Werte oberes Quartil (Q3), Median (Q2), unteres Quartil (Q1) Stamm-Blatt-Diagramm Stamm Werte in der ersten Stelle Blätter Werte in der zweiten bzw. weiteren Stellen Stammbreite Einheit des Stamms Kennwerte der zentralen Tendenz Modus primäre Häufigkeitsverteilungen: Modus = häufigster vorkommender Messwert sekundäre Häufigkeitsverteilung: Modus = häufigste besetzte Messwertkategorie gruppierte Daten: Modus = Klassenmitte der häufigsten besetzten Klasse Modalwert markiert Gipfel der Verteilung = Kennwert der zentralen Tendenz nur bei unimodalen Verteilungen sinnvoll Median Messwert, der die Häufigkeitsverteilung halbiert ○ mind. 50% kleiner oder gleich und mind. 50% größer oder gleich gruppierte Daten: Median = Medianklasse ○ mittleren Wert der Medianklasse Eigenschaft: Die Summe der absoluten Abweichungen aller Messwerte von diesem Wert ist kleiner als die Summe der absoluten Abweichungen aller Messwerte von irgendeinem anderen Wert. Arithmetisches Mittel x̄ → Summe aller Werte geteilt durch deren Anzahl bei kategorisierten Daten → man multipliziert die einzelnen Kategorienhäufigkeiten nj mit der jeweiligen Kategorienmitte aj, summiert diese Produkte auf und dividiert die Produktsumme durch die Gesamtzahl der Merkmalsträger n Kriterium der kleinsten Quadrate Summe der Abweichungen aller Messwerte vom Mittelwert beträgt stets 0 Summe der quadrierten Abweichungen der Messwerte vom Mittelwert ist stets kleiner als die Summe der quadrierten Abweichungen von irgendeinem anderen Wert lineare Transformation der Daten führt zu gleicher Transformation des Mittelwerts Wird zur Variablen X (d. h. zu jedem Messwert Xm) eine Konstante a addiert, verändert sich der Mittelwert additiv um eben diese Konstante a. Wird die Variable X (d. h. jeder Messwert Xm) mit einer Konstanten b multipliziert, verändert sich der Mittelwert multiplikativ um eben diese Konstante b. Vergleich von Modus, Median und Mittelwert bei symmetrischen unimodalen Verteilungen: alle drei Kennwerte identisch symmetrisch bi- bzw. multimodalen Verteilungen: Median = Mittelwert linksgipfligen unimodalen Verteilungen: Mo < Md < x̄ rechtsgipfligen unimodalen Verteilungen: Mo > Md > x̄ Modus reagiert sensibel auf leichte Veränderungen der Verteilung im Gipfelbereich ist unsensibel gegen Ausreißer (Extremwerte) ist bei Gleichverteilungen und bei multimodalen Verteilungen nicht definiert Median ist auch bei Gleichverteilungen definiert ist gegenüber Ausreißern (Extremwerten) unsensibel Mittelwert ist auch bei Gleichverteilungen definiert ist gegenüber Ausreißern (Extremwerten) sensibel Gewogenes (gewichtetes) arithmetisches Mittel Will man Mittelwerte aus mehreren Messwertreihen mitteln, die aus einer unterschiedlichen Anzahl von Objekten (n) bestehen, muss man auf das gewogene oder gewichtete arithmetische Mittel (GAM) zurückgreifen Die Messwertreihen werden mithilfe des Laufindex r ∈ {1, …, s} durchgezählt. Jede Messwertreihe hat einen eigenen (xr). Diese Mittelwerte werden dabei mit der Größe nr der jeweiligen Messwertreihe gewichtet. Geometrisches Mittel mindestens verhältnisskalierte Variablen nützlich, wenn sich der Unterschied zweier Merkmalsausprägungen besser durch ihr Verhältnis als durch eine Differenz beschreiben lässt entspricht dem Produkt aller Werte, aus welchem dann die n-te Wurzel gezogen wird Robuste Kennwerte der zentralen Tendenz getrimmtes Mittel streicht Prozentsatz → kleinsten + größten ist gleich viel Bei dem δ-getrimmten Mittel x̄t wird eine bestimmte Anzahl der kleinsten und größten Werte entfernt und das arithmetische Mittel der verbleibenden Werte bestimmt. Der relative Anteil δ der zu entfernenden Werte wird angegeben. winsorisiertes Mittel ersetzt Daten Bei der Berechnung des δ-winsorisierten Mittels x̄w werden die Extremwerte nicht wie beim getrimmten Mittel entfernt, sondern auf einen bestimmten Wert festgelegt. Die unteren Extremwerte werden dabei auf den niedrigsten “gezählten” (d. h. nicht entfernten) Wert gesetzt; die oberen Extremwerte auf den höchsten “gezählten” Wert gesetzt. Kennwerte der Dispersion Variationsbreite (Range) Differenz zwischen dem größten und dem kleinsten beobachteten Messwert: v = xmax - xmin → Anfällig für Ausreißer Interquartilabstand Differenz zwischen dem dritten und ersten Quartil IQA = Q3 - Q1 Semiquartilsabstand halber Interquartilabstand; gibt an, in welchem Abstand zum Verteilungszentrum das obere und untere Viertel der Verteilung durchschnittlich liegen SQA = (Q3 - Q1)/2 → unempfindlich gegenüber Ausreißern Mittlere Abweichung absolute Mittelwertsabweichung oder AD-Streuung: durchschnittliche absolute Differenz der Messwerte von ihrem Mittelwert Absolute Medianabweichung wird verwendet, wenn der Median als Kennwert der zentralen Tendenz dem Mittelwert vorgezogen wurde, etwa weil Ausreißer den Mittelwert stark beeinflussen würden oder die Verteilung sehr schief ist → durchschnittliche absolute Abweichung aller Einzelwerte vom Median Varianz mittlere quadrierte Abweichung aller Einzelwerte vom Mittelwert → im Zähler steht eine Quadratsumme (QS) → große Abweichungen vom Mittelwert bei Bildung der QS wird stärker gewichtet Standardabweichung positive Quadratwurzel aus der Varianz → zurück zur ursprünglichen Metrik hohe Sensibilität für Ausreißer und Extremwerte wird zur Variablen X (d. h. zu jedem Messwert Xm) eine Konstante a addiert, bleiben Varianz und Standardabweichung gleich wird die Variable X (d. h. jeder Messwert Xm) mit einer positiven Konstante b multipliziert, verändert sich die Varianz um den Faktor b², die Standardabweichung um den Faktor b Variationskoeffizient Vx Quotient aus Standardabweichung und Mittelwert einer Variablen x bei verhältnisskalierten Werten invariant gegenüber einem multiplikativen Faktor ○ invariant gegenüber Einheitenwechseln ○ nicht invariant gegenüber linearen Transformationen Robuste Kennwerte → relative Unabhängigkeit gegenüber Ausreißern und Extremwerten Alle Streuungsmaße, die als Mittelwert von absoluten oder quadrierten Merkmalsabweichungen definiert werden sind wenig robust gegenüber Ausreißerwerten weniger sensibel reagieren Streuungsmaßen die nicht das Gesamtspektrum aller Werte umfassen Auch für das getrimmte Mittel und das winsorisierte Mittel lassen sich Streuungsmaße definieren. Ein solcher Kennwert ist die winsorisierte Varianz. Sie ist robust gegenüber Ausreißerwerten Schiefe bei symmetrischen Verteilungen: 0 linksgipflig: positiv rechtsgipflig: negativ Kurtosis und Exzess (Ku2) verschiedene Berechnungsformen nur für unimodale Verteilungen sinnvoll interpretierbar Exzess von 0: exakt die Kurtosis der Normalverteilung positiver Wert: schmalgipfliger mit breiteren Enden negativer Wert: breitgipfliger mit kürzeren Enden einfachste Form zum Vergleich mit Normalverteilung Standardwerte und z-Transformation Zentrierung → zentrierte Variablen haben einen Mittelwert von 0 und die ursprüngliche Varianz z-Standardisierung → standardisierte Variablen haben einen Mittelwert von 0 und eine Varianz von 1 → Vergleichbarkeit zwischen unterschiedlichen Studien Modellierung der Zusammenhänge von Merkmalen Korrelations- und Assoziationsmaße Formale Repräsentation der Zusammenhänge zwischen Merkmalen bzw. deren Merkmalsausprägungen Begriffe Kovariation/Korrelation: Zusammenhang zwischen zwei Variablen, variieren abhängig voneinander ○ von einer Ausprägung einer Variablen auf Ausprägungen anderer Variablen schließen Assoziation: kategoriale Variablen Korrelation gleichsinnig bzw. positiv gegenläufig bzw. negativ zwei Merkmale ähnlich ausgeprägt hohe Ausprägung einer Variablen Zusammenhang der Ausprägungen mit niedriger Ausprägung anderer in beiden Variablen Variablen → Körpergröße - Schuhgröße → sensation seeking - Lebenserwartung Tabellarische und grafische Darstellung von bivariaten Messwertreihen Bivariate Urliste Liste mit Merkmalsausprägungen, unsortiert Punktediagramm “Punkteschwarm” bei vielen Punkten Form abhängig von Art und Stärke des Zusammenhangs “Streudiagramm” bzw. “scatterplot”, weil Streuung der Werte in Bezug auf Variablen ersichtlich ist Punkteschwarm und Zusammenhang Tabellarische und grafische Darstellung von bivariaten Messwertreihen Punktediagramm: bedingte Verteilung der metrischen Variable ○ Merkmal unter Bedingung eines anderen Bivariates Säulendiagramm neue Dimension im Diagramm: ablesen der Menge von Merkmalsausprägungen ○ Anzahl der Säulen = Vorkommen der Messwertpaare Kontingenztafeln Kontingenztabelle Kreuztabelle Vierfeldertafel (2x2, einfachster Fall) Korrelationskoeffizienten Formale Repräsentation der Zusammenhänge zwischen Merkmalen bzw. deren Merkmalsausprägungen ○ alle Merkmale wären unabhängig voneinander für verschiedene Skalenniveaus verschiedene Korrelationskoeffizienten verschiedene mathematische Möglichkeiten den Zusammenhang zwischen zwei Variablen zu quantifizieren gemeinsame Referenz: Unabhängigkeit der Variablen Kreuzproduktsumme und Kovarianz zentrale Konzepte beim Zusammenhang metrischer Variablen positive Korrelation: hohe/niedr. Messwerte auf X mit hohen/niedr. Messwerten auf Y ○ niedrig und hoch ersetzen mit unter-/überdurchschnittlich → Kreuzproduktsumme kann Art und Enge des Zusammenhangs zwischen X und Y mathematisch beschreiben Kreuzproduktsumme Summe der Abweichungsprodukte zweier Variablen X und Y multiplizieren Abweichungswerte = Einzelwerte mit selben Messwertträger Eigenschaften Produkt der Merkmalsträgern positiv: beide Variablen über-/unterdurchschnittliche Werte Produkt der Merkmalsträgern negativ: eine Variable überdurchschnittliche Werte, andere Variable unterdurchschnittliche Werte positive Produkte in Summe → KPS positiv ○ positive KPS → positive Korrelation ○ je mehr positive Produkte der Summe, desto größer wird KPS negative Produkte in Summe → KPS negativ ○ negative KPS → negative Korrelation ○ je mehr negative Produkte der Summe, desto kleiner wird KPS positive und negative Produkt ca. gleich häufig: KPS (ca.) 0 ○ kein/geringer linearer Zusammenhang KPS abhängig von Anzahl der Merkmalsträger (n) und Streuung der Variablen Kovarianz → Standardisierte KPS (keine Abhängigkeit von n mehr) Mittel der Abweichungsprodukte “gemeinsame” Varianz “Information” der einen Variable über die andere Kovarianz einer Variablen mit sich selbst = Varianz der Variablen Eigenschaften eine der beiden Variablen = Konstante: Kovarianz = 0 sensitiv auf Ausreißerwerten Addition von Konstanten a und b → keine Veränderung der Kovarianz Multiplikation von Konstanten a und b → Veränderung um Faktor a * b Vergleich zwischen unterschiedlich große Stichproben möglich ○ KPS wird durch n geteilt ○ nur sinnvoll bei gleichen Maßeinheiten (Metrik) Produkt-Moment-Korrelation → am häufigsten genutzt zum Vergleichen von Ergebnissen standardisierte Kovarianz ○ Anteil “gemeinsamer” Varianz Kovarianz der standardisierten Variablen Pearson bzw. Brayais-Pearson-Korrelation Kovarianz z-transformierter Variablen Eigenschaften beide z-Werte positiv/negativ → Produkt positiv ein z-Wert positiv, anderer negativ → Produkt negativ positive z-Werte überwiegen → Korrelation positiv negative z-Werte überwiegen → Korrelation negativ positive und negative z-Werte ca. gleich häufig: Korrelation = 0 sensitiv für Ausreißer Wertebereich -1 bis +1 Stärke des linearen Zusammenhangs ○ 0,10: schwacher Zusammenhang ○ 0,30: mittlerer Zusammenhang ○ 0,50: starker Zusammenhang → Relevanz auf Untersuchungsbereich, schwach kann auch wichtig sein Korrelation von 1: alle Personen auf einer Variablen haben gleichen z-Wert, wie auf anderer Variablen ○ Punkteschwarm: Linie Korrelation von -1: Beiträge der beiden z-Werte einer Person gleich, Vorzeichen gegensätzlich eine Variable = Konstante → keine definierte Korrelation → keine definierten z-Werte Korrelationskoeffizient = invariant gegenüber linearen Transformation → Addition und Multiplikation von Konstanten ändert nichts an Korrelation ○ Maß für linearen Zusammenhang zwischen zwei Variablen ○ nicht linear → nicht maximaler Wert ○ Korrelation rxy = 0 → kein linearer Zusammenhang ○ erst Punktediagramm betrachten, dann Produkt-Moment-Korrelation interpretieren Interpretation je größer der Wert des Absolutbetrags, umso stärker ist Zusammenhang Nullkorrelation → nicht unbedingt voneinander unabhängige Variablen ○ Unabhängigkeit zweier Variablen jedoch Nullkorrelation (Inter)Korrelationsmatrix Betrachtung mehrer Variablen symmetrische Matrix unterer Dreiecksmatrix: Korrelationen obere Dreiecksmatrix: Kovarianzen häufig ergänzt durch Angabe von Mittelwerten und Standardabweichungen Multitrait-Multimethod-Matrix Betrachtung mehrer Methoden, mehrere Merkmale zu erfassen Konvergente Validität: hohe Korrelation verschiedener Methoden, die das gleiche Merkmal erfassen sollen Diskriminante Validität: geringe Korrelation zwischen Merkmalen, unabhängig von angewandten Methoden Zusammenhangsmaße bei ordinalen Variablen Kendalls τ bei singulären Daten ohne Rangbindungen 𝛄-Koeffizient geordnete Kategorien mit Rangbindungen e-Koeffizient singuläre Daten mit Rangbindungen Rangkorrelation nach Spearmann problematisch Rangkorrelation nach Kendall (ordinal/ordinal) nK: Anzahl von Konkordanzen, nD: Anzahl von Diskordanzen vollständiger Paarvergleich aller Merkmalsträger im Hinblick auf jeweiligen Rangplätze ○ für jedes mögliche Personenpaar Ermittlung des Ranges auf einer Variablen ○ Ergebnisse für beide Variablen vergleichen ○ für alle möglichen Paarungen: konkordantes/diskordantes Ergebnis konkordante > diskordante Paare → positiver Zusammenhang Anordnung der Merkmalsträger in Bezug auf beide Merkmale identisch → nur konkordante Paare rangfolgen perfekt gegenläufig → nur diskordante Paare ohne Rangbindung 𝛄-Koeffizient für kategoriale Daten mit Rangbindungen (ordinal/ordinal) Rangbindung für Bestimmung des Zusammenhangs uneindeutig Differenz der Anzahl der konkordanten und diskordanten Paare (nK - nD) wird nur auf die Anzahl der Paare bezogen, die eindeutig in einer konkordanten oder diskordanten Beziehung stehen = 𝛄 = 0: konkordante Paare gleich häufig, wie diskordante Paare ○ kein Zusammenhang der Merkmale 𝛄 positiver: konkordate > diskordante, negativer: konkordate < diskordante -1: alle nicht gebundenen Paare diskordant, 1: alle nicht gebundenen Paare konkordant Berechnung nicht alle individuellen Paarvergleiche berechnen Polychorische Korrelation → Zusammenhangsmaß, geeignet für kategorialen Variablen mit geordneten Antwortkategorien jede der beiden kategorialen Variablen: kontinuierliche, normalverteilte Variable jede latente kontinuierliche Variable: Zerteilung in Schwellenparameter in Teilbereiche ○ Bestimmung durch Häufigkeiten der Kategorien = Normalverteilung polychorische Korrelation: latente Variablen folgt bivariaten Normalverteilung → Schätzung der Produkt-Moment-Korrelation e-Koeffizient für singuläre Daten mit Rangbindungen (ordinal/ordinal) zwei Arten von Rangbindungen: nur auf eines der beiden Merkmale oder beide Merkmale gleichzeitig überschätzen des empirischen Zusammenhangs, wenn man Rangbindung auf einem Merkmal nicht berücksichtigt Rangbindung auf einem Merkmal in Verbindung mit unterschiedlichen Rangwerten auf einem anderen Merkmal → Zusammenhang nicht so strikt ausgeprägt, wie möglich Anzahl der Paare, an der nK - nD relativiert wird, ergibt sich also aus ○ Anzahl der Paare, die in einer konkordanten Beziehung stehen (nK), plus ○ Anzahl der Paare, die in einer diskordanten Beziehung stehen (nD), plus ○ Anzahl der Paare, die nur in Bezug auf das Merkmal X in einer Rangbindung stehen (nB(X)), plus ○ Anzahl der Paare, die nur in Bezug auf das Merkmal Y in einer Rangbindung stehen (nB(Y)) Kendalls τ für singuläre Daten mit Rangbindungen (ordinal/ordinal) häufige Berechnung von Statistikprogrammen nK + nD + nB(X): Anzahl der Paarvergleiche ohne Rangbindung auf Merkmal Y nK + nD + nB(Y): Anzahl der Paarvergleiche ohne Rangbindung auf Merkmal X → Nenner: mittlere Anzahl (geometrisches Mittel) von Paarvergleichen ohne einseitige Rangbindungen Zusammenhang zwischen einer singulären Variablen und einer Variablen mit geordneten Antwortkategorien (ordinal/ordinal) → Unterschied zwischen beiden Koeffizienten kommt dadurch zustande, dass sie für gerichtete Beziehungen entwickelt wurden, in denen die Unterscheidung zwischen abhängiger Variable Y und unabhängiger Variable X von Bedeutung ist X: kategoriale Variable mit geordneten Kategorien, Y: singuläre Variable mit Rangbindungen → Koeffizient dYX Y: kategoriale Variable mit geordneten Kategorien, X: singuläre Variable mit Rangbindung → Koeffizient dY*X Rangkorrelation nach Spearman (ordinal/ordinal) Produkt-Moment-Korrelation der Rangwerte Spearman’s Rho wenn keine Rangbindungen vorliegen d: Rangplatzdifferenz eines Merkmalsträgers m zwischen seiner Rangzahl im ersten Merkmal und seiner Rangzahl im zweiten Merkmal ○ je größer d, desto mehr geht der Quotient nach dem Minuszeichen gegen 2 und Korrelationskoeffizient gegen -1 ○ je kleiner d, desto mehr geht der Quotient gegen 0 und die Korrelation gegen +1 Voraussetzung: LInearität der Ränge nutzt nicht nur reine Ordnungsrelation, die auf dem Vergleich der Anzahl der konkordanten und diskordanten Paare basieren Analyse von Ratingskalen (ordinal/ordinal) Annahme: gleichabständige Antwortkategorien Berechnung der Produkt-Moment-Korrelation ○ Unterscheiden sich beide Ratingskalen in Verteilung → keine Maximalwerte möglich (auch für metrische Variablen) ○ häufig keine Repräsentation der zu erwartenden Art des Zusammenhangs durch evtl. nicht angemessen Repräsentation der ordinalen Abhängigkeit zwei dichotome nominalskalierte Variablen (nominal/nominal) bei dichotomen: binär kodierte Variablen Mittelwert und Varianz interpretierbar h1: relative Häufigkeit der “0” (oft auch 1-p) h2: relative Häufigkeit der “1” (oft auch p) → Mittelwert ○ h1 + h2 = p + (1-p) Varianz: h1 * h2 Produkt-Moment-Korrelation bei dichotomen Variablen: Der ϕ-Koeffizient (nominal/nominal) Zähler: Differenz der Anzahl von Konkordanzen und Diskordanzen ○ dann 0, wenn gleich häufig konkordante wie diskordante Paare Nenner: Wurzel aus dem Produkt aller vier Randsummen Wertebereich von [-1; +1] ○ -1 und +1: beide Variablen gleiche Verteilung ○ je stärker der Unterschied der beiden Randverteilungen, desto geringer ist mögliche absolute Wert Vorzeichen: nicht invariant unten zulässigen Transformationen Yules Q anderes Korrelationsmaß für dichotome Variablen Zähler von Q = Zähler von ϕ Nenner von Q: Summe der konkordanten und diskordanten Paare ○ Koeffizient Q = Koeffizient 𝛄 negativer Wert bei gegensinnigen Paare > gleichsinnige Paare Absolutbetrag = 1, wenn mind. 1 Zelle der 2x2 Tabelle nicht besetzt ist ○ ϕ = 1, wenn eine Diagonale nicht besetzt ist (n11 & n22 oder n12 & n21 = 0) ○ wenn ϕ = 1, dann auch Q = 1 (umgekehrt nicht) Q-Koeffizient = ϕ-Koeffizient, wenn beide Variablen gleichverteilt sind ○ jede Kategorie hat relative Häufigkeit von 0,50 ϕ ≠ 1 und sind beide Variablen nicht gleich verteilt → ϕ-Koeffizient < Yules Q Odds-Ratio = Verhältnis (ratio), das zwei Chancen (odds) miteinander vergleicht OR = 1, wenn kein Unterschied zwischen Chancen ○ Variablen sind unabhängig voneinander → kein Zusammenhang OR > 1: gleichsinniger Zusammenhang OR < 1: gegensinniger Zusammenhang Yules Q -1 bis +1 → normiertes OR Tetrachorische Korrelation rtet → Spezialfall der polychorischen Korrelation für dichotome Variablen Näherung: je größer Kreuzproduktverhältnis bzw. OR, desto größer wird Nenner, desto kleiner der Quotient, desto mehr geht rtet gegen +1 je kleiner OR, desto mehr geht Nenner gegen 1, Quotient gegen 180°, rtet gegen -1 ist OR = 1 wird Nenner 2, Quotient beträgt 90°, rtet = 0 undefiniert, wenn OR nicht definiert ist → n12 * n21 = 0 Wertebereich von -1 bis +1 X²-Koeffizient (nominal/nominal) → Vergleich der beobachteten Häufigkeiten mit den Häufigkeiten, die zu erwarten wären, wenn beide Merkmale unabhängig wären Assoziationsmaß V nach Cramér (nominal/nominal) → Standardisierung von X² an Stichproben- & Tafelgröße n: Stichprobengröße s: Anzahl von Messwertkategorien der Variablen mit der geringeren Zahl von Messwertkategorien Anwendung auf dichotome nominalskalierte Variablen (s = 2) → Absolutbetrag von ϕ Punktbiseriale und Biseriale Korrelation → eine dichotome und eine metrische Variable natürlich dichotom dichotomisierte punktbiserial biserial X: metrische Variable ○ 1 und 2: indizieren Kategorien der dichotomen Variablen Wertebereich: -1 bis +1 u: Ordinatenwert desjenigen z-Wertes der Standardnormalverteilung, der n2/n bzw. n1/n Anteile der Fläche abschneidet Rangbiseriale Korrelation → eine dichotome und eine singuläre ordinalskalierte Variable ohne Rangbindungen nK und nD: Anzahl von Konkordanzen und Diskordanzen n1 und n2: Anzahl von Fällen in den beiden Kategorien der dichotomen Variablen bei dichotomen und einer ordinalen Variable mit geordneten Kategorien: 𝛄-Koeffizient bei dichotomen und einer singulären ordinalen Variable mit Rangbindungen: dYX nach Somers und dY*X nach Kim Weitere Skalenkombinationen eine dichotome dichotome Variablen können wie polytome Variablen behandelt und eine polytome werden nominalskalierte → Zusammenhang zweier polytomer nominalskalierter Variablen Variable behandelten Maße lassen sich direkt auf diese Variablenkombination übertragen eine polytome Zusammenhangsmaß: η² → Effektmaß, bei dem Varianzen nominalskalierte verglichen werden Variable und eine Quadratwurzel aus n²: Korrelationsmaß metrische Variable im Falle einer dichotomen nominalskalierten Variablen = punktbiseriale Korrelation eine polytome bei kategorialen Variable mit geordneten Antwortkategorien Variable und eine kann Variable wie nominalskalierte Variable behandeln ordinale Variable ○ Verlust von Information der Ordnung singuläre ordinalskalierte Variable kann wie Variable mit geordneten Antwortkategorien behandeln ○ wenn Objekte auf Basis ihrer Ränge gruppiert werden eine ordinale bei kategorialen Variable mit geordneten Kategorien: Variable und eine polyseriale Korrelation, wenn ordinale Variable “eigentlich” metrische Variable metrisch bei singulär ordinalen Variable: metrisch Variable ordinaltransformieren oder Rangwerte gruppieren Wahl eines Korrelationskoeffizienten → Überblick über Kombinationen unterschiedlicher Skalenniveaus