Statystyka opisowa 2024/2025 PDF
Document Details
Uploaded by ExtraordinarySimile
2024
Marcin Wojtasiński
Tags
Summary
This document is a script on descriptive statistics for 2024/2025, prepared for Professor Marcin Wojtasiński. It outlines the key stages in the research process, from the formulation of research questions to analysis and conclusions. It also explains differences between experimental and correlational approaches. This is likely part of a university course.
Full Transcript
Statystyka opisowa 2024/2025 – skrypt do prof. Marcina Wojtasińskiego1 1. Jakie są najważniejsze etapy procesu badawczego? Kolejne kroki procesu badawczego to: 1. Postawienie pytania badawczego (co nas interesuje i co chcemy zbadać), 2. Postawienie hipotez (możliwe rozwiązania problemu, które ch...
Statystyka opisowa 2024/2025 – skrypt do prof. Marcina Wojtasińskiego1 1. Jakie są najważniejsze etapy procesu badawczego? Kolejne kroki procesu badawczego to: 1. Postawienie pytania badawczego (co nas interesuje i co chcemy zbadać), 2. Postawienie hipotez (możliwe rozwiązania problemu, które chcemy sprawdzić – robocze odpowiedzi możliwe), 3. Dobór odpowiedniego schematu badawczego (ze względu na hipotezy dobieramy metodę, czyli szukamy takich schematów badań, które pozwalają na przetestowanie tych hipotez; najlepszy jest oczywiście eksperyment, ale nie zawsze da się go zorganizować), 4. Dobór narzędzi badawczych i operacjonalizacja (określamy zmienne, operacjonalizujemy je, dobieramy miejsce testów i określamy jak przebiegną, jak je będziemy obserwować i notować itd.), 5. Zbieranie danych (po prostu przeprowadzamy badania, kodujemy wyniki, organizujemy je w bazę danych), 6. Analiza danych (trzeba wrzucić dane w maszynkę, jaką jest SPSS, i on da jakieś tabelki i wykresy), 7. Opis wyników i wyciągnięcie wniosków (te tabelki i wykresy z programu statystycznego trzeba teraz opisać, żeby były zrozumiałe dla laika, i następnie wyciągnąć wnioski, które będą bardziej konkluzywne, niż kilka liczb). 2. Jak się formułuje pytania badawcze i jakie są ich najważniejsze rodzaje? Nie wszystkie pytania warto zadawać, ale w takim razie pojawia się pytanie: „Jakie pytania mają sens?”. Miernikiem wartości pytania badawczego jest możliwość rozwiązania jakiegoś nowego problemu za pomocą odpowiedzi na to pytanie. Ze względu na samą strukturę formalną pytania, można wyróżnić dwa rodzaje pytań, kolejno pytania rozstrzygnięcia (inaczej: zamknięte; rozpoczynają się od „czy”, a odpowiedzią jest „tak” bądź „nie”, np. „Czy dziecko w wieku trzech lat jest zdolne do myślenia abstrakcyjnego?”) oraz pytania dopełnienia (inaczej: otwarte; odpowiedzią nie jest proste „tak” bądź „nie”, a bardziej rozbudowana formuła, np. „Od którego roku dzieci są zdolne do abstrakcyjnego myślenia?”). Z kolei ze względu na treść, wyróżnić można wiele różnego rodzaju pytań, najważniejsze to m.in. pytanie o istnienie („Czy noworodek jest świadomy?”), pytanie o deskrypcję i klasyfikację („Jak zachowuje się człowiek chory na depresję?”), pytanie o elementy składowe („Jakie są aspekty ekstrawersji?”), pytania o relacje między zjawiskami („Jaki jest wpływ X na Y?”), pytania porównujące („Czy X jest lepszym predyktorem A, niż Y?”), pytania o przyczynowanie („Czy X wpływa na Y?”). Jeszcze inne pytania to pytania o różnicę (jakie są różnice między kobietami a mężczyznami) oraz pytania o związek (czy istnieje związek między dwoma zmiennymi, np. ekstrawersją a neurotyzmem, i jaki ten związek jest: korelacja ujemna czy dodatnia, a może związek przyczynowy). Sposób sformułowania pytania determinuje nas do użycia konkretnej metody statystycznej – bo różne metody pozwalają odpowiedzieć na różne pytania. Ponadto, sposób sformułowania pytania na ogół nasuwa jakieś pierwsze hipotezy. 3. Czym się różni problem badawczy od hipotezy? Jakie kryteria powinna spełniać dobrze sformułowana hipoteza? Problem badawczy to ogólna kwestia, która nas interesuje – natomiast hipotezy to roboczo określone, możliwe odpowiedzi na pytania, które stawiamy w ramach tego problemu badawczego. To z problemu 1Dla porządku dodam, że złączyłem ze sobą część tez powiązanych treściowo, przez co ich ilość jest inna, niż ta w pliku od prof. Wojtasińskiego, a niektóre brzmią inaczej. Ponadto, zmieniłem ich kolejność, żeby nie były tak rozrzucone po całym pliku, i żeby układały się we względnie logiczną całość, a nie były chaotycznym workiem na zagadnienia. Źródła do skryptu to: wykład, prezentacje, podręcznik Liczby nie wiedzą skąd pochodzą, wykłady z metodologii u prof. Jankowskiego. str. 1 badawczego wynikają hipotezy, nie odwrotnie. Hipoteza to twierdzenie, które określa przewidywany konkretny układ zależności – co na co wpływa, co jest od czego i w jaki sposób różne itd. Hipotezy mogą być bądź kierunkowe (np. mężczyźni są średnio wyżsi od kobiet, albo też waga koreluje dodatnio ze wzrostem), bądź niekierunkowe (inaczej: dwustronne, np. mężczyźni średnio różnią się wzrostem od kobiet, albo też waga koreluje ze wzrostem). A zatem obydwie hipotezy zakładają jakieś różnice między zmiennymi, bądź związek między nimi, jednak hipotezy kierunkowe wskazują kierunek tego związku bądź charakter różnicy, zaś hipotezy niekierunkowe nie robią tego. Obydwa rodzaje hipotez są uzasadnione metodologicznie, w zależności od charakteru badań (eksploracyjne to raczej hipotezy niekierunkowe, a konfirmacyjne to raczej hipotezy kierunkowe). Dobra hipoteza to taka, na którą nie ma prostej odpowiedzi, a zatem która jest niepewna. Hipoteza jest, bo mamy pewne przewidywania, mniej lub bardziej naukowe, ale jest niepewna dlatego, że pytanie jest trudne i nie można na nie odpowiedzieć bez przeprowadzania badań. Przykładowo: czy osoby o niskim poczuciu samooceny dobierają sobie jako partnera osoby miłe, czy niemiłe? Bo albo chcą sobie podnieść samoocenę, więc dobiorą sobie miłą osobę, albo będą chciały się utwierdzić w swoich przekonaniach, więc wybiorą osobę niemiłą – przed badaniami obydwie te odpowiedzi były równie prawdopodobne. Dopiero po badaniach okazało się, że wybierają niemiłe osoby – bo to co prawda nie jest miłe, ale jest znane, a skoro jest znane, to wiadomo jak się zachowywać, tymczasem jeśli ktoś zacznie być dla nas miły, to pojawia się strach i dysonans poznawczy, bo do tej pory tak nie było, więc nie do końca wiadomo, co robić. Inne wyznaczniki dobrej hipotezy to np.: (1) zawieranie informacji o zmiennych, które będą mierzone, (2) ścisłe posługiwanie się terminami odpowiednio zoperacjonalizowanymi, (3) ścisły związek z pytaniem badawczym, (4) weryfikowalność bądź falsyfikowalność (gdyż nie jest problemem postawić hipotezy spekulatywne na tyle, że nie da się ich ani potwierdzić, ani obalić). 4. Czym się różni schemat badań eksperymentalnych od korelacyjnych? Schemat badań eksperymentalnych Elementy eksperymentu to: 1. Manipulacja (co najmniej jedną zmienną niezależną – czasami nazywa się to manipulacją czynnikiem eksperymentalnym, ale chodzi o to samo), 2. Kontrolowanie (wszystkich pozostałych zmiennych ubocznych i zakłócających), 3. Pomiar (zmienności zmiennej zależnej w kontekście zmian zmiennej niezależnej). Kluczowa dla eksperymentu jest randomizacja. Wyróżnia się dwa stopnie randomizacji – stopień I to losowy dobór osób do badania, zaś stopień II to losowy dobór osób z ogólnej puli badanych do prób eksperymentalnych. Chodzi o to, że najpierw (stopień I) trzeba dobrać losowe 1000 osób do badania, a następnie (stopień II) trzeba te 1000 osób uczciwie podzielić na mniejsze grupy. Jest to bardzo ważne zwłaszcza w schemacie quasi-eksperymentalnym – nie da się przecież losowo dobrać ludzi z całej populacji do grup różnicowanych ze względu na płeć, bo mężczyzna nigdy się tam nie dostanie. Ale gdy nielosowo dobierzemy osoby do grup różnicowanych ze względu na płeć, to wówczas z tych grup można losowo utworzyć podgrupy. Schemat badań korelacyjnych W badaniach eksperymentalnych badacz pyta o związki przyczynowo-skutkowe – i chce pomierzyć dokładne zależności między aplikacją zmiennej a skutkiem. Pyta wprost: „czy i na ile zmienna niezależna wpływa na zmienną zależną?” („wpływ” w sensie ścisłym oznacza warunkowanie przyczynowe). Natomiast w badaniach korelacyjnych chodzi o uchwycenie luźnych zależności o koincydentalnym charakterze – dwie zmienne współwystępują ze sobą i jakoś są powiązane. Badacz pyta co najwyżej: „Czy i na ile badane zmienne są ze sobą powiązane i które zmienne niezależne są istotne dla przewidywania str. 2 wartości zmiennych zależnych?” (powiązanie w sensie ścisłym oznacza koincydentalne współwystępowanie, a nie wpływ przyczynowy). Dlatego mówi się, że korelacja to miara siły związku między zmiennymi – może być pozytywna (gdy jedna wzrasta, druga też wzrasta) bądź negatywna (gdy jedna wzrasta, druga maleje). W przypadku korelacji albo A może wpływać na B, albo B wpływać na A, albo coś trzeciego wpływać na A i B. Korelacja oznacza zatem tyle, że „coś w tym może być”, ale jednak nie oznacza nic pewnego – powoływanie się na zależności korelacyjne jako autorytatywne wyniki badań jest śmieszne (a większość badań psychologicznych to badania korelacyjne). Schemat międzyosobowy a wewnątrzosobowy Jest to inny podział schematów badawczych – nie ze względu na sposób badania, a ze względu na przedmiot badania. Otóż, jeśli badamy wpływ alkoholu na rozwiązywanie zadań, to możemy to zrobić w schemacie wewnątrzosobowym, czyli jednemu człowiekowi najpierw na trzeźwo dać jakieś zadania, później go upić i niech te zadania rozwiąże jeszcze raz. Możemy też jednak zrobić to w schemacie międzyosobowym, czyli jednej grupie dać badania na trzeźwo i wypuścić jak je rozwiąże, a drugą grupę upić i dopiero wtedy dać im zadania do rozwiązania. Obydwa rozwiązania mają zalety. Schemat wewnątrzosobowy pozwala pominąć analizę różnic indywidualnych, co zwiększa rzetelność pomiaru. Schemat międzyosobowy pozwala natomiast przeprowadzić badania szybciej, bo między pomiarami nie trzeba czekać, aż człowiek będzie gotowy rozwiązać ten test drugi raz (bo przecież trzeba dać mu czas, aż zapomni o co tam chodziło w tym teście itd. – a to powoduje już chociażby wykruszanie się grupy). Obydwa rozwiązania mają problemy. Schemat wewnątrzosobowy jest problematyczny, bo człowiek mógł zapamiętać pytania – a jeśli je zmienimy, to mogą być one prostsze lub trudniejsze, niż poprzednie, a zatem pomiar nie będzie dokładny. Natomiast schemat międzyosobowy ma ten problem, że ilość różnic indywidualnych zwiększa się, co komplikuje przeliczanie wyników. 5. Jaka jest różnica między próbą a populacją? Populacja to zbiór wszystkich elementów zróżnicowanych ze względu na daną cechę. Można powiedzieć, że jest to zbiór elementów, o którym ostatecznie chcemy wyciągnąć wnioski. Z kolei próba to podzbiór elementów wybrany w określony sposób z populacji, badany ze względu na posiadaną cechę. Całą populację da się zbadać tylko wtedy, gdy jest nieliczna, np. gdy badamy osoby z rzadką odmianą raka, co łącznie daje może kilkaset osób, a do tego wszystkie znajdziemy w szpitalach onkologicznych. Jest to wówczas próba spisowa, czyli cała populacja jest uwzględniona i spisana, a informacje zbiera się o każdym jej członku. Ale na ogół tak się nie da, bo ludzi jest po prostu za dużo i nie wszyscy chcą być badani, a my chcemy wiedzieć coś o wszystkich ludziach, bez żadnego wyjątku. Dlatego dobieramy odpowiednią próbę (reprezentatywną dla populacji), badamy ją i wyniki generalizujemy. Od reprezentatywności próby zależy trafność zewnętrzna całych badań – a więc jest to kluczowa rzecz. Należy najpierw zadbać o nią przed badaniem, a potem najlepiej sprawdzić ją jeszcze po badaniu. Aby próba była reprezentatywna, powinna dokładnie odzwierciedlać rozkład istotnych zmiennych (np. wiek, płeć, miejsce zamieszkania, charakter itd.) w populacji. Chodzi o to, że jeśli w populacji jest 40% introwertyków i 60% ekstrawertyków, to w próbie ten rozkład też powinien taki być, bo inaczej próba będzie nic nie warta. Sytuacja, gdy wyniki uzyskane po przebadaniu próby są inne, niż wyniki, które uzyskałoby się po przebadaniu populacji, to tzw. błąd próbkowania – czyli ze względu na zły dobór próby, nie możemy generalizować wyników. Problem polega na tym, że sytuacja taka jest bardzo ciężka do wykrycia, gdyż nie mamy możliwości tego sprawdzić, skoro badania przeprowadziliśmy tylko na jednej str. 3 próbie. Dlatego też takie same badania najlepiej replikować na innych próbach, ale to jest na ogół bardzo ciężkie ze względów finansowych. Co jednak ważne – nie każda zmienność między wynikami próby a populacji jest błędem próbkowania – chodzi o to, że istnieje pewna zmienność próbkowania, od której nie da się uciec, gdyż wynika ona z różnic indywidualnych, drobnych różnic w okolicznościach przeprowadzenia badania itd.: jest to po prostu suma wpływu niekontrolowalnych zmiennych ubocznych. Co więcej, próba powinna być tak dobrana, aby można było od niej w ogóle uzyskać wyniki – a zatem, kolejno: 1. Ludzie ci muszą być zdolni do udzielenia odpowiedzi (bo np. człowiek w śpiączce tego nie zrobi), 2. Ludzie ci muszą chcieć udzielić odpowiedzi (bo jeśli nie będą chcieli, np. w jakiś sposób ich do siebie zrazimy, albo będziemy badać coś, co jest tematem tabu, to nic się nie dowiemy), 3. Ludzie ci muszą być dostępni fizycznie (bo jeśli nie będziemy mogli się z nimi skontaktować, żeby dać im kwestionariusze czy przeprowadzić badania, bo np. mieszkają w Korei Północnej, to nic z naszego projektu nie wyjdzie). A zatem, proces doboru próby obejmuje kolejne czynności: 1. Zdefiniuj populację (czyli u kogo można się spodziewać występowania zmiennej, którą akurat chcemy badać), 2. Określ ramę (zakres) próby (czyli wskaż konkretny operat losowania – rama próby to lista jednostek doboru próby, która będzie procesowana za pomocą technik doboru próby), 3. Wybierz techniki doboru próby (więcej o nich w kolejnych tezach), 4. Określ wielkość próby (chodzi o to, jak dużo ludzi musimy przebadać, żeby uzyskać zadowalającą moc efektu), 5. Przeprowadź proces doboru próby (just do it). 6. Jaka jest różnica między estymatorem a parametrem? Definiując, estymator to numeryczna reprezentacja próby, zaś parametr to numeryczna reprezentacja populacji. Natomiast po ludzku mówiąc, estymator to wynik badań na próbie, i służy do oszacowania realnego parametru dla całej populacji. Czyli: 1. Jakiś czynnik istnieje, 2. Jego pomiar to pomiar parametru, 3. Jednak nie możemy mierzyć na całej populacji, gdyż jest ogromna, 4. A zatem mierzymy na próbie, 5. Przez co nie mierzymy samego parametru, a tylko estymujemy go poprzez generalizację wyników z próby, 6. Przez co mamy do czynienia nie z parametrem, a jego estymatorem. Z parametrem możemy mieć do czynienia wtedy, gdy przebadamy całą populację, co jest możliwe, jeśli ta populacja jest niewielka, np. wszyscy chorzy na jakiś bardzo rzadki typ raka. Jednak jeśli ktoś nowy zachoruje, albo ktoś z tej populacji umrze, to wówczas status metodologiczny pomiaru zmienia się znów z parametru do estymatora. Można powiedzieć (nawiązując do poprzedniej tezy), że błąd próbkowania to (znaczna) różnica między estymatorem a parametrem. 7. Czym jest operat losowania? Czym różni się operat od jednostki losowania? A czym jednostka losowania od jednostki populacji? Operat losowania (inaczej: zakres próby, ramy próby) to spis wszystkich osób danej populacji, spośród których wybierane są osoby do próby. Są to np. spisy mieszkańców miasta, lista studentów KUL itd. Próbę wybiera się z takiego operatu losowania, bo to po prostu wygodne i mniej zawodne. Nie zawsze jednak istnieje operat losowania, gdyż nie ma jednej wielkiej listy, która uwzględniałaby wszystkich mieszkańców Europy albo Azji. Jednostka losowania (inaczej: jednostka doboru próby) to niezachodzące na siebie obiekty, tworzące próbę, czyli każda wartość, która może zostać wylosowana z operatu. Co ważne, w operacie mogą znajdować się także grupy, a zatem jednostką losowania może być i grupa – przecież jeśli chcemy coś powiedzieć o populacji I Liceum Ogólnokształcącego im. Marcina Kromera w Gorlicach, to możemy albo str. 4 spisać wszystkich uczniów i spośród nich losować, albo spisać tylko klasy, które zostały utworzone, i to je rozlosować, a następnie przebadać całe klasy. Natomiast jednostka populacji (inaczej: element) to obiekt, który tworzy obserwację, czyli to, co chcemy badać, a zatem w psychologii jest to na ogół konkretny człowiek (na ogół, gdyż czasami może być to jakieś zwierzę). Bo nawet jeśli wylosujemy z operatu kilka klas licealnych, to ostatecznie kwestionariusz dostanie jakiś konkretny człowiek – i też ostatecznie to o tym konkretnym człowieku coś chcemy wiedzieć. A zatem, operat losowania od jednostki losowania różni w ten sposób, jak zbiór różni się od własnego elementu, a jednostka losowania od jednostki populacji różni się tym, że jednostka populacji może być zakodowana i reprezentować całą grupę, zaś populacja to zawsze przedmioty jednostkowe i skonkretyzowane. 8. Jakie są metody losowego i nielosowego doboru próby? Dobór może być albo losowy (inaczej: probabilistyczny) albo nielosowy (inaczej: nieprobabilistyczny). Co ważne, czym innym jest losowość (każdy element operatu losowania ma równą szansę bycia wylosowanym), a czym innym przypadkowość (pewien element operatu losowania został wybrany, ponieważ akurat była to karteczka leżąca najbliżej mnie i po nią sięgnąłem jako pierwszą – ona znalazła się tam przypadkiem, ale nie jest to losowość, gdyż miała większą szansę na zostanie wybraną, niż wszystkie inne karteczki). Dobór losowy Jest to zdecydowanie najlepszy sposób doboru próby, ale nie jest on idealny, gdyż czasami i losowo można wyciągnąć samych np. introwertyków. Dlatego też należy dobrać odpowiednio dużą próbę, gdyż jeśli rzucę monetą 10 razy, z czego 8 razy wyrzucę orła, to nie jest to wielkie odstępstwo od normy w sensie statystycznego prawdopodobieństwa, choć potrafiłoby to zapewne zaburzyć wyniki całego eksperymentu – jeśli jednak wezmę 1000 osób do badania, to wyniki się mniej więcej uśrednią. Pokazuje to, że wartość losowania wzrasta wraz z wielkością próby, choć trzeba też pamiętać, aby nie była ona zbyt duża, bo od pewnego momentu jej zwiększanie nie przynosi już rezultatów. Dlatego mówimy, że losowy dobór próby zapewnia reprezentatywność, że wszystkie zmienne zakłócające się dzięki niemu uśredniają, przez co później można będzie generalizować wyniki. Rodzaje doboru losowego to kolejno: (1) prosty losowy, (2) warstwowy losowy, (3) systematyczny losowy, (4) losowy dobór próby z grup oraz (5) wielostopniowy losowy. Prosty losowy dobór próby. Jest to sytuacja, gdy maszyna losująca dostaje operat losowania i wyrzuca z siebie określoną przez badacza ilość pozycji. Każda pozycja miała dokładnie taką samą szansę, że zostanie wybrana. Inny sposób to np. wrzucenie karteczek do miski, porządne ich przemieszanie i losowanie z tego operatu. Co do zalet, próba tak wylosowana jest najbardziej reprezentatywna. Co do wad natomiast, pojawia się ogromna trudność w podaniu dobrego operatu losowania, wszakże dobranie próby w ten sposób jest możliwe tylko wtedy, gdy taki operat będzie pełny i trafny, czyli będzie zawierał wszystkie pozycje i żadna się nie powtórzy ani nie będzie błędna. Nawet jeśli weźmiemy oficjalny spis ludności miasta, to nie stanowi on dobrego operatu losowania, gdyż nie każdy człowiek mieszkający w Lublinie ma tutaj zameldowanie, więc jest mieszkańcem, a nie ma go w spisie. Warstwowy losowy dobór próby. Najpierw całą populację należy podzielić na różne podgrupy (warstwy), np. ze względu na płeć, a następnie z obydwu grup wybiera się proporcjonalną ilość osób w losowy sposób; co ważne, grupy te nie mogą się na siebie nakładać i muszą być możliwie jasno określone. A zatem w praktyce ostateczna próba to suma kilku podpróbek (subsamples). Ten sposób doboru próby zapewnia pewien rodzaj kontroli, np. wiemy, że depresja częściej dotyczy osób młodych, toteż różnicujemy całą str. 5 populację ze względu na wiek, ustalamy jaką chcemy mieć ilość badanych (np. 1000 osób) i uznajemy, że aby zachować reprezentatywność dla grupy osób z depresją, wybieramy do badania 800 osób z grupy młodych i tylko 200 z grupy starych. Co do zalet, to w pewnych przypadkach zwiększa to reprezentatywność, gdyż pozwala uwzględnić tych, których rzeczywiście powinno się uwzględnić, i pominąć tych, których rzeczywiście powinno się pominąć. Ponadto, jeśli dana osoba nie będzie chciała wypełnić nam ankiety, to można ją po prostu zastąpić inną osobą z tej samej podgrupy. Są też jednak pewne wady i zagrożenia, a mianowicie sam proces układania grup jest ciężki i można się w nim pomylić, zwłaszcza jeśli nie ma się informacji o dokładnych cechach konkretnych jednostek losowania w operacie, bo wtedy grupy mogą nie być rozłączne. Systematyczny losowy dobór próby. Jest to użycie pewnego schematu do wyboru próby, np. posegregowanie operatu alfabetycznie i następnie wybór co piątej osoby. Co do zalet, jest to szybkie i wygodne, zaś co do wad, niestety nie wszystkie pozycje mają równą szansę na wybór, a także systematyczność może po prostu wprowadzić jakiś systematyczny błąd, którego nie zauważymy, bo może akurat co piąta osoba jest przypadkiem odstającym na tle reszty?. Losowy dobór próby z grup (inaczej: próbkowanie losowe klastrowe/obszarowe). Zamiast w operacie losowania podawać każdego człowieka z osobna, można po prostu utworzyć odpowiednie grupy, np. zamiast wypisywać z imienia i nazwiska każdego ucznia w Lublinie, wystarczy wypisać wszystkie szkoły. Wówczas drogą doboru prostego losowego można wybrać kilka z tych szkół. Wówczas można albo uzyskać listy uczniów tych szkół, albo listy klas – jeśli uzyska się listy klas, to też należy je rozlosować i wówczas uzyskać listy uczniów tych klas, i dopiero to rozlosowanie doprowadzi ostatecznie do wyboru próby. Co do zalet, sposób ten pozwala ominąć trudności związane z ułożeniem pełnego i trafnego operatu losowania, a także można go użyć, gdy nie posiada się żadnej wiedzy o cechach populacji, oraz gdy populacja jest rozproszona na dużym obszarze geograficznym, np. w całym mieście czy kraju. Co do wad natomiast, istnieje ryzyko nakładania się prób, np. niektórzy studiują dwa kierunki, przez co w badaniu mogliby zostać uwzględnieni dwa razy. Wielostopniowy losowy dobór próby. Losowanie jednostopniowe to wybór elementów bezpośrednio z całej populacji, czyli po prostu losowanie proste, zaś losowanie wielostopniowe to losowanie najpierw z całości populacji, a potem jeszcze raz z tej próby, którą wylosowaliśmy, aby badaną populację od razu podzielić na mniejsze grupy eksperymentalne. Dobór nielosowy Rodzaje doboru nielosowego to kolejno: (1) dogodny/wygodny, (2) celowy/selektywny, (3) kwotowy, (4) metodą kuli śnieżnej, (5) ciągły. Dobór dogodny/wygodny. Jest to wybór tych osób, które są akurat łatwo dostępne i wyrażają chęć do wzięcia udziału w badaniu, np. student robiący badania do pracy magisterskiej może wygodnie dać swój kwestionariusz kolegom z roku. Co do zalet, metoda ta przydaje się zwłaszcza w badaniach eksploracyjnych, aby wstępnie określić jakieś cechy populacji. Co do wad, bardzo silna jest tu stronniczość badania – dobry człowiek na ogół zna dobrych ludzi, więc gdy da im kwestionariusz dotyczący ryzykownych zachowań seksualnych, wyniki nie będą trafne środowiskowo. Problem jest też taki, że na ochotników zgłasza się konkretny typ psychiczny, na ogół mający wyższy poziom wykształcenia, większą socjalizację, wyższy poziom potrzeby aprobaty społecznej, wyższą inteligencję czy wyższy status społeczno-ekonomiczny: a zatem ich odpowiedzi będą „mądrzejsze” i będą się oni starać wypaść lepiej, żeby zyskać aprobatę – a zatem nie-ochotnicy dali by rzetelniejsze wyniki, ale ich nie zapytano. Poza tym, ochotnicy często przychodzą po prostu po nagrodę – a ludzie motywowani wewnętrznie funkcjonują inaczej, niż motywowani zewnętrznie. str. 6 Dobór celowy. Badacz świadomie i celowo wybiera konkretne jednostki do swojego badania, kierując się określonymi kryteriami, np. daje kwestionariusz tylko osobom z diagnozą raka płuc, gdyż interesuje go jak ludzie ci przeżywają swoją chorobę. Dobór kwotowy. Jest to nielosowy odpowiednik wielowarstwowego losowego doboru próby. Polega on na tym, że populację dzieli się na podgrupy (z jakiegoś powodu tym razem nazywane „kwotami”), a następnie wybiera z tych podgrup odpowiednie podpróbki, aby uzyskać proporcjonalną reprezentację w ostatecznej próbie. Różnica między doborem kwotowym a wielowarstwowym losowym jest taka, że w doborze kwotowym wybór osób z podgrup jest nielosowy, czyli przeprowadza się go albo celowo, albo dogodnie. Dobór metodą kuli śnieżnej. Jeśli poszukujemy populacji wyróżnionej ze względu na jakąś rzadką cechę, np. rzadki rodzaj raka, to można znaleźć kilka takich osób, a następnie poprosić, aby powiedzieli oni o badaniu swoim znajomym, posiadającym te samą cechę, gdyż to oni znają swoje środowisko najlepiej. Co do zalet, wyszukiwanie takie jest tanie i wygodne, jednak co do wad, pozyskana w ten sposób próba jest mniej reprezentatywna, gdyż ludzie dobierają się na znajomych ze względu na przeróżne kryteria, a nie tylko tę jedną cechę. Dobór ciągły. Ustalamy jakieś kryterium, np. wejście na KUL, i wielkość próby, np. 1000, i cały dobór polega na tym, że pierwsze 1000 osób, które wejdzie na KUL (i zgodzi się na badania) zostanie przebadana. Kryterium może być dowolne, np. pierwsze 100 osób, które przejdzie daną ulicą, albo zgłosi się na pogotowie z bólem w klatce piersiowej, albo kupi małe żelki Haribo itd. Tabelka: Kryteria oceny Dobór probabilistyczny Dobór nieprobabilistyczny Rozstrzygający Dla jakiego charakteru badań Eksploracyjny (konfirmacyjny) Dla jakiej względnej Gdy większe błędy Gdy mniejsze błędy próbkowania wielkości błędu próbkowania Dla jak silnej zmienności w Gdy wysoka (heterogeniczna) Gdy niska (homogeniczna) populacji Często konieczność stosowania Efektywne wykorzystanie technik odpornych i Uwagi statystyczne statystyk o wysokiej mocy nieparametrycznych odpowiedników silnych statystycznej testów Potrzebny poziom Wysoki Niski zaawansowania (wiedzy) Czas realizacji Relatywnie dłuższy Krótszy Wymagany budżet Wysoki Niski str. 7 9. Kiedy możemy precyzyjnie określić liczebność próby, aby była ona wystarczająca przy przyjętych założeniach? Od czego zależy liczebność próby w takim przypadku? Główne powody, dla których wielkość grupy powinna być optymalnie dobrana, są dwa, kolejno: 1. Zapewnienie wystarczającej mocy badania (chodzi o to, aby mieć względnie wysoką pewność, że nie pominie się żadnego związku między zmiennymi, czyli uzna za nieistniejące coś, co tak naprawdę istnieje, ale nasza próba była zbyt mała, żeby to wykazać), 2. Zwiększenie pewności dotyczącej wielkości szacowanych efektów (w niewielkiej grupie pewne efekty mogą wyjść bardzo znaczące, a mimo tego badania te nie będą replikowalne, zaś na wielkiej grupie – efekt ten zniknie; zatem zwiększając ilość grupy, można być pewnym, że ten efekt rzeczywiście jest taki, jaki wyszedł). Optymalną wielkość próby określa się na podstawie oszacowania „mniej więcej”, pilotażu albo przeglądając wcześniejszą literaturę na ten temat. Badacz zakłada sobie jaką chce osiągnąć wielkość mocy, następnie jaki efekt chce mierzyć, a znając nieco ten efekt, jest w stanie stwierdzić, czy jest to efekt raczej powszechny, czy raczej rzadki – toteż na tej podstawie może dokonywać szacunków. Pokazuje to, że już na wejściu do analiz statystycznych, obrabiane dane są zanieczyszczone silnymi założeniami – nieraz może to całkowicie przekreślić badania, a co najmniej zwiększa to probabilistyczny charakter sformułowanego na ich podstawie prawa. Liczebność próby można określić możliwie precyzyjnie, gdy: 1. Znane są parametry populacji (wiemy jak konstrukty podobne do tych, które chcemy badać, się w tej populacji rozkładają; musimy też znać jej liczebność, bo przy małych populacjach każde wahanie liczebności próby jest spore, zaś przy ogromnych nie ma to aż takiego znaczenia; powinniśmy też wiedzieć, czy grupa ta jest zróżnicowana, czyli po prostu czy jest pełna jednostek odstających, czy raczej nie – im więcej obserwacji odstających, tym większa próba potrzebna), 2. Zdefiniowano poziom istotności i moc testu (poziom istotności p niech wynosi 0,05, tak jak się standardowo przyjmuje), 3. Ustalono dopuszczalny błąd oszacowania (powiedzmy, że +- 5%; im większą chcemy mieć ufność do wyników i im mniejszy błąd popełnić, tym większej potrzebujemy próby), 4. Przyjęto odpowiedni model statystyczny (np. rozkład normalny). 10. Czym jest zmienna? Zmienna to taka własność rzeczy bądź zjawiska, która przyjmuje różne wartości – albo dla różnych obiektów (wzrost między ludźmi), albo wobec tego samego obiektu w różnym czasie (wzrost między młodością a dorosłością). To taka cecha rzeczy, która może przyjmować co najmniej dwie różne wartości w danym zbiorze elementów. Zmienne czysto psychologiczne to np. emocje, sprawności intelektualne itd. – poziom stresu jest różny dla wszystkich na wykładzie i może się w różny sposób zmienić dla każdego z nas, gdy profesor wspomni o egzaminie. Z kolei stała to taka własność rzeczy bądź zjawiska, która nie przyjmuje różnych wartości wewnątrz danego zbioru – w fizyce jest to np. stała grawitacji, czyli siła, z jaką przedmioty przyciągają się, niezależnie od jakichkolwiek zmiennych. Jest to „stała” w znaczeniu ścisłym, bo nie znamy żadnego wyjątku od tej reguły – w psychologii „stałe” rozumie się w znaczeniu nieco bardziej luźnym, np. cecha jest uznawana za wartość stałą wewnątrz danego wydarzenia, choć oczywiście cechy mogą się zmieniać na przestrzeni lat. Dlatego „cechę” definiuje się jako względnie stałą właściwość podmiotu. 11. Co to jest zmienna losowa? Czym różni się zmienna ciągła od zmiennej skokowej? Na czym polega dychotomizacja (politomizacja) zmiennej ciągłej? Termin zmienna losowa oznacza, że dana zmienna nie daje się przewidzieć z deterministyczną pewnością, a tylko z pewnym prawdopodobieństwem. Zmienna losowa może być dyskretna (skokowa) bądź ciągła (ilościowa). str. 8 Zmienna ciągła – inaczej: ilościowa. Między 0 a 1 można przypisać tej zmiennej wiele innych wartości, np. ½, ¼ itd. Można je dzielić na nieskończenie wiele wartości. Są wartości 1, 2, 3 itd., ale między nimi też są pewne wartości, wyrażane ułamkiem. Zmienne ciągłe można graficznie przedstawić na rozkładzie normalnym. Natomiast zmienna skokowa – inaczej: dyskretna. Między 0 a 1, 2 i 3 nie ma możliwości dalszej dyferencjacji na mniejsze komponenty; zmienna dyskretna to np. teny czy steny. Każda skala porządkowa to skala dyskretna. Każda wartość to albo 1, albo 2, albo 3 itd. – i nie ma wartości między nimi. Dwuwartościowe zmienne skokowe można graficznie przedstawić na rozkładzie dwumianowym. Natomiast dychotomizacja (politomizacja) zmiennej ciągłej to sprowadzenie zmiennej ciągłej do zmiennej o strukturze dyskretnej. Otóż, jeśli mamy zmienną ciągłą, np. wzrost, to możemy zrobić dwie grupy niski-wysoki i wówczas jest to nowa zmienna, mianowicie zmienna dyskretna (skokowa) – i jest to właśnie dychotomizacja zmiennej ciągłej. Politomizacja to proces sprowadzenia zmiennej typu ciągłego do zmiennej typu skokowego. Jeśli zmienna skokowa ma dwie wartości, to jest to dychotomizacja, a jeśli więcej, to politomizacja do więcej niż dwóch wartości. Zmienna ciągła generalnie daje nam większą precyzję, niż zmienna skokowa – lepiej gdy mamy dokładną relację między wzrostem a kilogramami, niż relację między grupą niskich a chudych. Ale jednak jak podajemy wyniki do informacji publicznej, to wtedy nie podamy za bardzo dokładnych liczb, więc trzeba je zdychotomizować. 12. Czym są zmienne nominalne, porządkowe, przedziałowe i stosunkowe, oraz jak różnią się między sobą? Pomiar to procedura przyporządkowania liczb różnym wartościom zmiennej według ustalonej zasady. Jeśli dokonamy obserwacji wartości danej zmiennej i wyrazimy to za pomocą jednostek – to to jest pomiar. Skale pomiarowe mogą być czworakiego rodzaju – nominalnego, porządkowego, przedziałowego i ilorazowego (stosunkowego). Rodzaj skali wskazuje na dopuszczalne operacje i przekształcenia matematyczne na danych, które zgromadziliśmy – a zatem to od rodzaju użytej skali zależy metoda statystyczna, którą możemy użyć w opracowywaniu danych. Rodzaj skali dobiera się, jak każdą metodę, ze względu na przedmiot badania – jeśli coś da się zapisać tylko za pomocą terminów jakościowych, to wybierzemy skalę nominalną, a jeśli coś da się uszeregować, to porządkową itd. Jeśli coś da się zmierzyć na skali wyższego typu, to nie powinno się tych informacji przepisywać na skalę niższego typu; wzrost można zapisać albo w stosunku „ten jest wyższy od tamtego o X”, albo liczbowo „ten ma X, a ten Y wzrostu” – albo nominalnie „ten jest taki sam jak ten”. Po co przedstawiać tę treść na skali nominalnej, skoro lepiej jest na skali stosunkowej. Skala nominalna i przykład zmiennej mierzonej przy użyciu tej skali Skala nominalna (z łac. nomen – „nazwa”; skala nazwowa/nazewnicza) pozwala jedynie na stwierdzenie różnic jakościowych między przedmiotami – powiedzieć „czy coś jest takie samo jak coś drugiego, czy jest inne”. Nie da się na tej skali wyrazić żadnych relacji, np. „większy/mniejszy”. Przykładem takiej wartości jest kolor oczu/włosów – co prawda barwa to długość fali, ale nie chodzi o pomiar fizyczny, tylko o to, jak nam się kolor jawi w polu naszej świadomości. Niebieski nie jest „czerwonym bardziej”, tylko „innym niż czerwony”. Tak samo jest z płcią – albo mężczyzna, albo kobieta i nic więcej, nic mniej, nic pomiędzy. Na pewnym ogólnym poziomie, pod skalę tę podpadają także typy osobowości – przejawiasz wzorzec zachowania typu A albo wzorzec osobowości typu B itd. Nie da się jednak na tej skali zmierzyć np. poszczególnych cech osobowości – jesteś introwertykiem w jakimś stopniu, nie da się nie mieć w sobie introwersji, toteż masz ją, a pytanie dotyczy natężenia tej cechy: a zatem nie jest to własność jakościowa. str. 9 Skala nominalna pozwala na 1. Nazwanie (wskazanie istoty rzeczy), 2. Sklasyfikowanie (dzielenie rzeczy ze względu na podobieństwa między sobą). Wartość skali nominalnej to nazwa (Polak, Niemiec, szklanka). Jeśli coś da się policzyć, to nie przynależy to do skali nominalnej. A my chcemy liczyć. A zatem, skala nominalna jest najmniej informacyjna. Skala porządkowa i przykład zmiennej mierzonej przy użyciu tej skali Skala porządkowa pozwala na uszeregowanie obiektów ze względu na natężenie danej zmiennej – to na tej skali mówimy „coś jest więcej w tym przedmiocie, a mniej w tym”. Na tej podstawie szeregujemy się od najmniejszego do największego – nie znamy dokładnych wartości wzrostu poszczególnych osób, ale wiemy kto jest wyższy, a kto niższy. Wiemy kto ma wyższy poziom lęku, a kto niższy. Większość pomiarów psychologicznych odbywa się na tej skali, bo kwestionariusze formułujemy na zasadzie: „W skali 1-5 oceń, na ile podoba ci się ten obraz”, a następnie na podstawie tego wyprowadzamy ogólną ocenę estetyczną: ale w istocie rzeczy jedyne co mówimy to „X podoba się bardziej, niż Y”. Psychologowie często błędnie uznają, że to skala przedziałowa, i stosują metody statystyczne właściwe dla skali przedziałowej – bo przecież wartości od 1-5 stanowią przedział liczbowy; to prawda, ale jednak jedyne co robimy to szeregujemy oceny „to mi się bardziej podoba, a to mniej” – nie wiadomo jaka jest dokładna różnica między 4 a 5 na skali, bo przecież między „podoba mi się” a „bardzo mi się podoba” różnicą jest „bardzo”, które nie do końca wiadomo co znaczy. Tymczasem przecież skala przedziałowa zakłada istnienie równych, mierzalnych różnic między poszczególnymi jednostkami. W większości przypadków nie dysponujemy dokładnymi jednostkami – jedynie przy zmiennych fizjologicznych (czas reakcji, tętno itd.) oraz zmiennych behawioralnych (ile alkoholu wypijasz dziennie itp.) możemy używać skali wyższego typu, bo tylko to da się zmierzyć precyzyjnie. Problem polega na tym, że jeśli wzrost jednego to 140, a wzrost drugiego to 190, to przypisujemy im wartość porządkową 1, 2; a jeśli różnica wynosi nie 50cm, tylko 2cm, czyli jeden ma 140, a drugi 142, to dalej mają oni wartości porządkowe 1, 2. A zatem gubimy ważną informację: dokładną wielkość różnic wartości między własnościami. Skala interwałowa (przedziałowa) i przykład zmiennej mierzonej przy użyciu tej skali Skala ta zawiera równe jednostki (interwały – stałe przedziały, z łac. intervallum – „miejsce pomiędzy [szańcami]”), które pozwalają zobiektywizować wyniki pomiarów; nie ma już w skali „dobrze”, „bardzo dobrze” itd., tylko konkretna wartość liczbowa, np. „36,6 stopni C”, „39,2 stopni C”. Pozwala to dokładnie uporządkować badane obiekty w zależności od relatywnych wartości natężenia danej cechy, ale także stwierdzić o ile nasilenie cechy jest mniejsze bądź większe pomiędzy porównywanymi obiektami (więc w stosunku do poprzedniej skali zyskujemy kolejną informację – dokładne wartości liczbowe). Temperaturę w stopniach Celsjusza poprzez termometr mierzy się za pomocą skali przedziałowej – kreska jest narysowana równo co jeden stopień, a zaczyna się od arbitralnie ustanowionej wartości 0, które oznacza zamarzanie wody; w psychologii jest to np. IQ (określamy jaki wynik, ale w stosunku do populacji, a nie względem zera bezwzględnego – cechą tej skali jest relatywność, a nie bezwzględność). Skala ilorazowa (stosunkowa) i przykład zmiennej mierzonej przy użyciu tej skali Ta skala jest bliźniaczo podobna do skali interwałowej, ale różni się tym, że zawiera zero bezwzględne, które stanowi początek skali pomiarowej – umożliwia to nie tylko uszeregowanie obiektów i wskazanie o ile natężenie cechy jest większe bądź mniejsze pomiędzy obiektami, ale także ile razy nasilenie cechy jest większe bądź mniejsze między porównywanymi obiektami (np. X popełnił dwa razy więcej błędów, niż Y). Są to zmienne, których wartości się zlicza, np. liczba popełnionych błędów, czas reakcji itd. Wynik 0 oznacza nieistnienie danej zmiennej, tak jak nie ma przedmiotu o długości 0mm – a także nie można na tej skali podawać wyników ujemnych, gdyż nie ma odcinka o odległości -10km. Cechą tej skali jest str. 10 bezwzględność, czyli odnosimy się do obiektywnego punktu 0. O ile Celsjusz wprowadził podział temperatur ze względu na punkt zamarzania wody, co jest arbitralne, przez co jego skala jest interwałowa – tak Kelvin wprowadził podział temperatur ze względu na hipotetyczny całkowity brak ruchu cząstek, co jest zerem absolutnym, toteż jego skala jest ilorazowa. Podsumowując Jeśli psychologa interesuje tylko podział osób badanych na te, które „zdały” i „nie zdały” egzaminu, to do pomiaru wystarczy skala nominalna. Jeśli zacznie te osoby różnicować ze względu na ocenę: „bardzo dobrze”, „dobrze”, „dostatecznie” itd., to ma do czynienia ze skalą porządkową. Jeśli powie, że ktoś zdał na 5; 4,5; 4; 3,5; 3 itd., to posługuje się skalą przedziałową. Gdy natomiast zacznie podawać, że ktoś dostał 0 punktów, inny 4, a jeszcze inny 16 – to będzie posługiwał się skalą stosunkową. To, którą skalę naukowiec dobierze, zależy od sytuacji badawczej – głownie od tego, czy dysponuje odpowiednimi narzędziami pomiarowymi, aby gromadzić dane przedziałowe i stosunkowe; w obrębie tej samej cechy zawsze bowiem da się skorzystać ze skali nominalnej i porządkowej, a tylko do pozostałych dwóch trzeba odpowiednich narzędzi pomiarowych. Co ważne, skala nominalna i porządkowa to obydwie skale jakościowe, zaś skala przedziałowa i ilorazowa to skale ilościowe. 13. Czym jest zmienna zależna i niezależna? Wyróżniamy dwojakiego rodzaju zmienne, kolejno: 1. Zmienne zależne (są przedmiotem naszego badania, których związki z innymi zmiennymi chcemy określić i wyjaśnić, np. poziom strachu), 2. Zmienne niezależne (są one wprowadzane przez badacza, aby wpływały na zmienne zależne – tak, aby obserwując związek między zmianą zmiennej niezależnej a zmianą zmiennej zależnej, dało się powiedzieć od czego zależy zmienna zależna). Klasyczny przykład to zjawisko dyfuzji odpowiedzialności, czyli opis zależności między ilością osób (zmienna niezależna) w zdarzeniu tragicznym a ich gotowością do niesienia pomocy (zmienna zależna) – im więcej ludzi, tym mniejsza gotowość do niesienia pomocy. Co ważne – zmienne mogą mieć albo charakter ilościowy, albo jakościowy. Jeśli da się jej nadać wartość liczbową, to jest zmienną ilościową, np. wzrost (być wyższym to mieć wzrost niższego + X, o ile X > 0), a jeśli tej wartości liczbowej nadać się nie da, to jest zmienną jakościową, np. kolor włosów (być rudym nie znaczy być blondynem + X; znaczy raczej być innym, niż blondyn) albo płeć (być mężczyzną nie oznacza być kobietą + X, tylko oznacza być kimś innym, aniżeli kobieta). Zmienne jakościowe dzielą się dalej na n-wartościowe, np. dwuwartościowe (mogą przyjmować tylko dwie wartości, np. płeć – mężczyzna albo kobieta, i nic pomiędzy, nic poza tym; inny przykład to bycie w ciąży – jesteś w ciąży bądź nie jesteś), albo trójwartościowe (mogą przyjmować tylko trzy wartości, np. wynik rzutu monetą – może być albo orzeł, albo reszka, albo moneta stanie na sztorc); nie ma górnej granicy ilości wartości jakości. Wśród zmiennych wyróżnia się dalej moderatory, czyli zmienne, których wartości określają warunki konieczne do wystąpienia danego efektu (kto, kiedy, w jakich warunkach?), czyli takie, bez których dane zjawisko nie wystąpi, choć moderatory nie są przyczyną a koincydentalnie współwystępują z danym zjawiskiem. Wyróżnia się też mediatory, czyli zmienne pośredniczące, które definiują dlaczego dane zjawisko występuje – jest to bezpośrednia przyczyna sprawcza. Powiedzmy, że osoby wyższe mają krótsze włosy na głowie od kobiet (moderatorem jest zatem wzrost – aby wystąpiły krótkie włosy, trzeba być wyższym). Ale wzrost nie wpływa na długość włosów w sensie przyczynowym, a jedynie koincydentalnie współwystępuje. Jednocześnie jednak wiemy, że osoby wyższe to na ogół mężczyźni, a niższe to kobiety. A ta zmienna, płeć, wpływa już na długość włosów (mediatorem jest zatem płeć, gdyż związek występuje str. 11 z racji różnicy płci). W skrócie: moderator to to, po czego zaobserwowaniu możemy stwierdzić występowanie danego zjawiska, zaś mediator to to, co przyczynuje sprawczo dane zjawisko. Wyróżnić też można zmienne niezależne po pierwsze klasyfikacyjne, czyli gdy tworzymy grupy ze względu na daną zmienną, ale nie możemy jej spreparować, np. płeć – grupa jest bądź mężczyzn, bądź kobiet, i w tych grupach mierzymy wzrost, co jest zmienną zależną. Po drugie zaś, zmienne niezależne manipulacyjne, czyli takie, które możemy modyfikować jako eksperymentatorzy, np. czy badany w eksperymencie dostanie kawę zimną, czy ciepłą, a następnie pytamy go o coś, np. jak szacuje temperaturę w pokoju, i to jest zmienna zależna (okazuje się, że ci, którzy dostają zimną kawę, szacują temperaturę niżej – i też gorzej mówią o swoich relacjach z ludźmi, bo im się ta kawa kojarzy z „zimnem emocjonalnym”). Mówi się też o czymś takim, jak zmienne współwystępujące – nie ma wówczas zmiennej niezależnej i zależnej, a tylko dwie zmienne zależne, które na siebie wzajemnie wpływają. Wówczas nie ma schematu eksperymentalnego, a tylko badania korelacyjne. Mamy np. poziom ekstrawersji i poziom neurotyczności, mierzymy te dwie zmienne i określamy korelację między nimi – ale nie wiemy która wpływa na którą, a tyle tylko, że one współwystępują. Inny jeszcze podział zmiennych to podział na zmienne teoretyczne (latentne, czyli ukryte) oraz zmienne obserwowalne (odkryte, dające się ujrzeć). Więcej o nich przy operacjonalizacji. 14. Jaka jest różnica pomiędzy zmiennymi głównymi a ubocznymi? Zmiennych niezależnych wyróżniamy wiele rodzajów. Ze względu na istotność dla badania (czyli siłę wpływu zmiennej niezależnej na zmienną zależną) wyróżniamy zmienne ważne (główne, uboczne) i zmienne zakłócające (tzw. szum badawczy). Ze względu na ważność, są to kolejno: 1. Główne zmienne niezależne (to one są zawarte w problemie badawczym i hipotezie, np. ilość osób w zdarzeniu tragicznym), 2. Uboczne zmienne niezależne (wszystkie, które nie są uwzględniane w problemie badawczym i hipotezie – pora dnia, poziom sytości badanych, nastrój przechodnia obok, efekt znajomości itd.; musimy je uwzględnić, czyli starać się je ujednolicać we wszystkich sytuacjach eksperymentalnych, tak, aby zawsze oddziaływały tak samo, albo aby zawsze je znać i uwzględnić w opracowaniu wyników, np. wspomnieć, że ten badany był wściekły, a ten spokojny – zasada ogólna brzmi: lepiej coś kontrolować, aniżeli nie kontrolować). Obok tego istnieją też zakłócające zmienne niezależne, czyli niemierzalne dystraktory, np. różnice indywidualne, czynniki sytuacyjne bądź błędy proceduralne, np. inaczej zareaguje ekstrawertyk a inaczej introwertyk, inaczej zareagujemy w zależności od pory dnia, oraz inaczej zareagujemy jak nam eksperymentator patrzy na ręce, niż gdy w ogóle nie ma go obok nas. Z kolei ze względu na możliwość kontroli, uboczne zmienne niezależne oraz zakłócające zmienne niezależne dzielimy na kolejno 1. Kontrolowalne (dają się kontrolować, czyli możemy albo je mierzyć, albo je ujednolicać w każdej sytuacji eksperymentalnej), 2. Niekontrolowalne (nie dają się kontrolować – wiemy, że są, ale nic z tym nie zrobimy, np. czy kolor włosów pokrzywdzonego wpływa na gotowość do niesienia mu pomocy? Być może rudym pomaga się rzadziej?). Co ważne – to jak klasyfikujemy daną zmienną niezależną nie wynika z obiektywnej konstytucji zjawiska, a z arbitralnie postawionego problemu badawczego: w jednym badaniu ekstrawersja będzie zmienną zakłócającą, a ktoś inny może spróbować zbadać gotowość do niesienia pomocy w zależności od poziomu ekstrawersji, toteż wówczas będzie ona zmienną główną. Na schemacie wygląda to następująco: str. 12 15. Na czym polega operacjonalizacja zmiennych? W nauce używa się terminów teoretycznych (latentnych), czyli tych, za pomocą których najwygodniej prowadzić procesy myślowe (np. cecha, otwartość na doświadczenie, miłość itd.). Problem polega na tym, że rzeczywistych odpowiedników tych pojęć nie da się zobaczyć. Trzeba więc przetłumaczyć je na terminy empiryczne (obserwowalne), czyli tych, za pomocą których można opisać sytuację obserwowaną, np. podniósł zabawkę, uderzył się w głowę itd. Na początku typowego psychologicznego artykułu musi być część metodologiczna, gdzie zawarte są wyłącznie zdania teoretyczne (złożone z terminów teoretycznych) – następnie musi być podrozdział wyróżniania i operacjonalizacji zmiennych, a dopiero wówczas można przejść do części empirycznej: tak, aby wiedzieć, jakiej rzeczywistości teoretycznej dotyczą zdania empiryczne. Operacjonalizacja to powiązanie terminów teoretycznych z obserwacją poprzez terminy empiryczne. Same terminy teoretyczne to domysły (tak jak Freud – on sobie coś powiedział o ego i koniec) – a same terminy empiryczne to z kolei zbiór niepowiązanych ze sobą pojedynczych obserwacji, czysty fenomenologiczny opis zjawiska, który nie ma mocy wyjaśniającej ani predyktywnej. Dopiero termin teoretyczny powiązany z terminem empirycznym może być sprawdzony, i jednocześnie można za jego pomocą wyjaśniać i przewidywać zjawiska. Operacjonalizacja to, definiując, poszukiwanie empirycznych odpowiedników (wskaźników) terminów teoretycznych – zajmuje się tym psychometria (która szuka dróg pomiaru zmiennych psychologicznych). A zatem operacjonalizacja to wszystkie działania, które badacz musi podjąć, aby ustalić, w jaki sposób zjawisko opisane przez dane pojęcie przejawia się na poziomie obserwacji. Z kolei wskaźnik to taka zmienna jawiąca się w doświadczeniu empirycznym, której spostrzeżenie pozwala uznać, że postulowana zmienna utajona zmysłom zaiste wystąpiła. Widząc A, wnioskuję o B – choć B nie widzę. Przykładowo: samoocenę mierzy się wypowiedziami na swój własny temat (pytania sprawdzające samoocenę to np.: „Lubię się”, „Czuję się wartościowy”, „Gdybym był kimś innym, to zazdrościł bym obecnemu sobie” itd.). Jeden wskaźnik to na ogół zbyt mało, bo samoopis jest nieobiektywny, a i każdy wskaźnik wskazuje na więcej niż jedno tylko zjawisko psychiczne, np. wskaźnikiem depresji jest bezsenność – ale bezsenność to też wskaźnik wielu innych zaburzeń, np. pracoholizmu; toteż trzeba wprowadzić więcej wskaźników, np. poziom anhedonii, poczucia winy, poczucia smutku itd. Problem ze wskaźnikami polega więc na tym, że mogą być one nietrafne – wiele wskaźników występuje, a to nie depresja, tylko żałoba; więc mimo dokładnego pomiaru, może być on nietrafny (nie wskazywać na to, na str. 13 co powinien wskazywać). Kolejny problem jest taki, że gdy pomiar zachodzi drogą kwestionariuszową, to po prostu badany może kłamać albo konfabulować – bądź nie zrozumieć pytania i zaznaczyć byle co; i wówczas w teście wychodzi, że wskaźnik występuje, więc wnioskujemy o czymś, mimo, że to realnie nie występuje. 16. Na czym polega kontrola zmiennych w trakcie badań psychologicznych? Kontrola zmiennych w badaniu psychologicznym polega (1) na odpowiednim odróżnianiu od siebie różnych rodzajów zmiennych (które są główne, które uboczne, na jakich skalach pomiarowych są wyrażane itd.), (2) na odpowiedniej operacjonalizacji zmiennych, (3) na kontrolowaniu, poprzez odpowiednią konstrukcję badania, możliwie największej liczby zmiennych kontrolowalnych wszystkich rodzajów, w możliwie największym stopniu i zakresie, (4) na używaniu odpowiednich narzędzi pomiarowych wobec badanego konstruktu, (5) na wybieraniu odpowiednich form badania wobec badanego konstruktu, np. wywiadu, eksperymentu, obserwacji, ankiety online itd., (6) na używaniu odpowiednich metod statystycznych przy obróbce wyników, aby niepotrzebnie nie utracić wartościowych danych. 17. Jakie są najważniejsze miary tendencji centralnej? Kiedy się je stosuje i dlaczego? Miary tendencji centralnej to różne sposoby wskazania na dominującą tendencję w danej grupie. Wyróżniamy trzy rodzaje miar tendencji centralnej. Po pierwsze, moda [Mo] (inaczej: wartość modalna albo dominanta – jest to wartość pojawiająca się najczęściej w danym ciągu liczb). W ciągu 1, 2, 3, 3, 3, 4, 5, moda wynosi 3, gdyż ta wartość pojawia się najczęściej; pod „3” może kryć się zarówno odpowiedź 3 w skali Likerta, jak i „zupa grzybowa”, zakodowana pod znakiem 3; może być dwie bądź więcej mód, gdy różnych wartości jest tyle samo, np. w ciągu 2, 2, 3, 3, 4, 5, moda to 2 oraz 3. Modę można stosować także dla skali nominalnej. Na różnych wykresach, moda to po prostu najwyższy słupek, gdyż to on wskazuje na najczęstsze natężenie danej zmiennej. Po drugie, mediana [Me] (jest to wartość dzieląca dany, uporządkowany zbiór danych na pół). Jeśli mamy ciąg liczb 1, 2, 3, 4, 5, 6, 7, to mediana to 4, gdyż jest to środkowa wartość. Dla nieparzystych wartości, mediana jest po prostu na środku. Ale kiedy liczba obserwacji jest parzysta, to trzeba wziąć dwie wartości środkowe i wyliczyć z nich średnią, np. dla ciągu 1, 2, 3, 4, 5, 6, mediana to (3 + 4) / 2 = 3,5. Medianę można policzyć dla wszystkich skal poza nominalną, bo w skalach nominalnych nie ma porządku, tylko jest to worek z nazwami, a zatem zmienne nominalne nie spełniają założenia o uporządkowanym charakterze ciągu. Co ważne – zanim przystąpimy do wyznaczania mediany, należy uporządkować dany ciąg liczb; jest to ważne, bo na egzaminie może być podchwytliwe pytanie na zasadzie: „Wskaż medianę dla ciągu liczb 6, 3, 2, 14, 8, 3, 6”; wówczas trzeba napisać ten ciąg w formie 2, 3, 3, 6, 6, 8, 14 i dopiero wtedy można wskazać, że mediana to 6. Wskazanie 14 (dla ciągu nieuporządkowanego) będzie błędem. Po trzecie, średnia [M] (jest to przeciętny wynik w danej grupie). Dla uzyskania średniej arytmetycznej, czyli najprostszej z możliwych, po prostu sumujemy wszystkie elementy i dzielimy uzyskaną wartość przez ilość dodanych elementów. Dla uzyskania średniej ważonej natomiast, najpierw należy nadać każdej wartości określoną wagę, tak, że do obliczenia ostatecznego wskaźnika niektóre wartości liczyć będą się bardziej, niż inne, np. w szkole kartkówka powinna mieć mniejszą wagę, niż sprawdzian, czyli 5 z kartkówki powinno wpływać na ocenę końcową mniej, niż 5 ze sprawdzianu. Średnią ważoną liczy się poprzez kolejno: (1) pomnożenie każdej wartości przez jej wagę, (2) dodanie wyników otrzymanych z mnożenia, (3) podzielenie tych wyników przez sumę przyjętych wag (nie przez sumę wartości, jak w przypadku średniej arytmetycznej, a sumę ich wag – przy czym każdą wagę liczy się osobno, czyli jeśli kilka wartości ma wagę 2, to do sumy wag dodajemy owe 2 kilka razy, a nie tylko raz, np. jeśli wartości to 2, 3, 4, 5, a wagi dla nich to kolejno 2, 2, 2, 4, to średnia ważona to 14 / 10 = 1,4). Co się tyczy obydwu str. 14 tych rodzajów średniej, to: (1) średnią można obliczyć tylko dla skali przedziałowej i ilorazowej, nigdy zaś dla nominalnej i porządkowej; (2) średnia jest miarą bardzo podatną na wartości skrajne (czyli po prostu przypadki odstające), podczas gdy mediana jest na te przypadki odporna. 18. Jakie są miary zmienności (rozproszenia)? Miary zmienności (inaczej: rozproszenia, dyspersji) to różne sposoby wskazania na zakres zmienności wartości danej zmiennej. Wyróżniamy cztery rodzaje miar zmienności. Po pierwsze, rozstęp (jest to miara dystansu między ekstremami). Wskazuje on na to, jaka jest odległość między pierwszą a ostatnią wartością zmiennej – i wtedy sprawdzamy, czy wpisaliśmy gdzieś zmienną, która ma większą odległość, i jeśli tak, to znaczy, że jest ona źle wpisana, np. jak na skali Likerta z 5 pozycjami rozstęp wynosi 7, to znaczy, że ktoś coś źle wpisał. Jest to także sposób sprawdzania, czy istnieją jakieś przypadki odstające – jeśli rozpiętość w wynikach IQ wynosi 1000 jednostek, to znaczy, że ktoś przesadził. Rozstęp oblicza się, od najwyższej uzyskanej wartości odejmując najniższą uzyskaną wartość, np. jeśli najmniej to 20 a najwięcej to 400, to rozstęp wynosi 380. Co ważne – pojęciem podobnym do rozstępu jest rozpiętość; można ją rozumieć bądź jako ścisły synonim rozstępu, bądź nieco inaczej, czyli jako przedział, czyli w tym przypadku od 20 do 400, a rozstęp to odległość między ekstremami, czyli 380. Po drugie, wariancja [X] (jest to miara rozproszenia wyników wokół średniej). Wskazuje ona na to, jak bardzo wyniki odstają od średniej: im większa wariancja, tym bardziej rozstrzelone są wyniki, czyli średnia to niby 10, ale niektóre wyniki to 0, a inne to 30. Im wszystkie poszczególne wyniki znajdują się bliżej średniej, tym mniejsza jest wariancja, czyli dla średniej 10 przy małej wariancji, konkretne wyniki osób badanych to 9 i 11. Można obliczyć coś podobnego dla konkretnego wyniku, czyli sprawdzić jak bardzo konkretna osoba odbiega od średniej. Po trzecie, odchylenie standardowe [SD] (jest to pierwiastek z wariancji); inna nazwa to odchylenie przeciętne. Odchylenie standardowe liczy się w dużej mierze dla wygody, bo wariancja to wynik uzyskany poprzez podniesienie pewnej wartości do kwadratu. Podając więc wariancję, mówimy, że X zarabia od Y o aż 3,5 kwadratu złotego więcej, co jest nieczytelne dla przeciętnego człowieka; tymczasem gdy wariancję wsadzimy pod pierwiastek i wyliczymy ile ten pierwiastek wynosi, to mamy jednostki proste i wówczas wiemy, że dla wariancji 3,5, odchylenie standardowe wynosi 1,87 i to tyle razy więcej X zarabia od Y, co jest już bardzo czytelne, bo to po prostu „prawie dwa razy tyle”. A zatem, wariancja i odchylenie standardowe to w zasadzie ta sama informacja, tylko SD jest eleganckie i zrozumiałe. Po czwarte, kwantyle (są to punkty dzielące zbiór na jakąś ilość części). Tak jak mediana dzieli zbiór na dwie równe połowy, tak kwantyle pozwalają podzielić go na dowolną ilość części, np. kwartyle dzielą go na ćwiartki (od 0 do pierwszego kwartyla jest 25%, od pierwszego do drugiego 25%, od drugiego do trzeciego 25% i od trzeciego do końca 25%), tercyle na trzy części, kwintyle na pięć, decyle na dziesięć, percentyle na sto itd. A zatem kwantyle to nazwa ogólna, odnosząca się do danego narzędzia statystycznego, a kwartyle to nazwa konkretna, odnosząca się do pewnego sposobu zastosowania kwantyli, wzięta od czterech części (z łac. quattuor – cztery), na które zbiór został podzielony. Co ważne – kwartyli jest trzy a str. 15 nie cztery, gdyż na narysowanym odcinku wystarczy zaznaczyć trzy punkty, aby podzielić go na cztery równe części – a zatem decyli jest 9 a nie 10, a percentyli 99 a nie 100. Należy jeszcze wspomnieć o odchyleniu ćwiartkowym oraz rozstępie ćwiartkowym. Są to zupełnie zwykłe odchylenia i rozstępy, z tym tylko, że podaje się je dla przestrzeni między dwoma dowolnymi kwartylami, między którymi znajduje się 25% (ćwierć) wyników. 19. Co to rozkład normalny i jakie są najważniejsze miary kształtu rozkładu oraz ich własności? Czym różnią się od siebie rozkład empiryczny i teoretyczny? Czym jest dystrybuanta? Rozkład normalny (inaczej: krzywa Gaussa, krzywa normalna) to ciągły rozkład prawdopodobieństwa. Ze względu na idealność tego rozkładu, jego krańce nigdy nie dotkną osi poziomej X, gdyż dla zmiennych ciągłych zawsze może być jakaś wartość mniejsza od poprzedniej (jest to tzw. asymptotyczność rozkładu normalnego). Największa liczba obserwacji powinna znajdować się przy średniej, gdyż średnia wskazuje właśnie przeciętny wynik w danej wartości – i, co oczywiste, im dalej od średniej i im większe odchylenie standardowe, tym mniej powinno być obserwacji. Dlatego też rozkład normalny Gaussa to hipotetyczny rozkład, zachowujący idealną symetrię, tak, że rzeczywiście najwięcej pomiarów jest przy średniej. W rozkładzie normalnym średnia, mediana i moda są sobie równe. Im większe odchylenie standardowe, tym w danym miejscu krzywa jest szersza i niższa, gdyż tam, gdzie odchylenie standardowe wynosi 0, czyli na dokładnej osi symetrii rozkładu (w punkcie średniej), krzywa jest najwyższa i najwęższa (co oznacza, że kształt rozkładu normalnego zależy od średniej i odchylenia standardowego). A zatem, operując bądź konkretną obserwacją (dającą się umiejscowić na osi X), bądź odchyleniem standardowym od średniej dla tej konkretnej wartości, możemy odnotować bądź to, jaki procent populacji mieści się na danym punkcie pod krzywą, czyli dla ilu obserwacji zmienna przyjmuje tę konkretną wartość, bądź też to, jaki jest procent skumulowany do tego momentu. Idealny rozkład normalny ma tak, że ponad 68% obserwacji leży przy średniej, w odległości jednego odchylenia standardowego od niej, a od pierwszego do drugiego odchylenia, mieści się znowu łącznie ponad 27%, w tym 13,6% na minus, a drugie tyle na plus od średniej. Odchylenie standardowe oznacza się znakiem σ, czyli sigma, a przypadki, które znajdują się 3 odchylenia standardowe od średniej są uznawane za skrajne – stąd nazwa zasada trzech sigm, gdyż przypadki o trzech odchyleniach standardowych nie są uwzględniane w żadnych obliczeniach i należałoby je przebadać osobno. Miary kształtu rozkładu to różne sposoby wskazania na sposób rozkładu wyników w populacji, oraz na zbieżność realnego rozłożenia danej zmiennej z rozkładem idealnym (założonym, normalnym w sensie statystycznym). Wyróżniamy dwie miary kształtu rozkładu. Po pierwsze, skośność [AS albo S] (jest to miara symetrii krzywej normalnej). Symetria krzywej może być złamana tak na prawo, jak i na lewo, i to właśnie jest skośność wykresu. Im większa skośność, tym większe odstępstwo od normy, czyli ideału Gaussa. Jeśli skośność jest większa od 0, to rozkład jest prawoskośny, czyli ogon funkcji jest wydłużony po prawej stronie, a zatem po lewej stronie koncentruje się większość wyników, co oznacza, że większość obserwacji przyjmuje wartości niskie. Jeśli skośność jest mniejsza od str. 16 0, to odwrotnie – rozkład jest lewoskośny, czyli wyniki są skumulowane po prawej stronie, co oznacza, że większość obserwacji przyjmuje wartości wysokie. W przypadku układu normalnego, skośność wynosi idealnie 0, a więc większość obserwacji przyjmuje wartości średnie. Dla rozkładu idealnie normalnego, średnia = mediana = moda; w przypadku skośności na lewo, średnia < mediany < mody; zaś w przypadku skośności na prawo jest odwrotnie, czyli średnia > mediana > moda. Po drugie, kurtoza (jest to miara koncentracji wyników wokół średniej). O ile skośność to miara określająca wymiar prawo-lewo, tak kurtoza określa wymiar góra-dół. Im większy szpic przy średniej, tym większe skupienie wyników przy wartości centralnej, zaś im mniejszy szpic (czyli im większe wypłaszczenie wykresu), tym więcej jest pomiarów w innych miejscach, oddalonych od średniej, przez co wykres jest spłaszczony, gdyż na krańcach wykresu jest tyle samo osób, co przy średniej. Jeśli kurtoza jest większa od 0, to rozkład jest leptokurtyczny, czyli szpic jest ogromny, a zatem wyniki koncentrują się wkoło średniej. Jeśli kurtoza jest mniejsza od 0, to rozkład jest platokurtyczny, czyli bardzo wypłaszczony, a zatem wyniki nie koncentrują się wkoło średniej. W przypadku układu normalnego, kurtoza wynosi idealnie 0. Należy jeszcze wspomnieć, że rozróżniamy także po pierwsze rozkład teoretyczny, czyli ten przewidywany przy założeniu idealnych warunków (bez zmiennych ubocznych), który wynika z rachunku prawdopodobieństwa, czyli że z rzutu monetą wyjdzie, że 50% było reszki i 50% orła; spełnia on założenia krzywej Gaussa w idealny sposób, ale też wszystkich innych rozkładów, np. dwumianowego. Do jego określenia nie potrzeba badań empirycznych, gdyż jego kształt jest określany za pomocą wzorów matematycznych. Po drugie natomiast rozkład empiryczny, czyli ten faktycznie zmierzony, który wynika z badań empirycznych, czyli jak rzucimy X razy monetą, to może nam wyjść 30% orłów i 70% reszek; jest to zatem prawdziwy pomiar, wyrażony na histogramie albo wykresie kołowym, albo na krzywej odbiegającej od krzywej Gaussa (z niezerową kurtozą i skośnością). Do określenia rozkładu teoretycznego konieczne są badania empiryczne. str. 17 Po każdych badaniach przeprowadzamy porównanie rozkładu empirycznego z teoretycznym – i szukamy przyczyn różnic, o ile takie wystąpiły, czyli zastanawiamy się dlaczego np. aż 80% osób miało wyniki zbliżone do średniej. Przypadek? Błąd w badaniu? Błąd w zapisywaniu wyników? Czegoś nie przewidzieliśmy, gdy podejmowaliśmy namysł nad rozkładem teoretycznym, a to coś wystąpiło, gdy badaliśmy rozkład empiryczny (bo wówczas w praktyce mierzyliśmy coś innego, niż to, co rozważaliśmy)? Statystyka polega na testowaniu, na ile rozkład teoretyczny jest podobny do empirycznego. Im większa wartość skośności i kurtozy (wartość tak dodatnia, jak i ujemna), tym dalej od normalności rozkładu – jednak nie każde odstępstwo od 0 oznacza nienormalność rozkładu, gdyż czasami są to wyniki nieistotne statystycznie; uznaje się, że dopiero przekroczenie 2 lub -2 przez kurtozę lub skośność oznacza złamanie normalności rozkładu. A zatem: o odstępstwie od normalności rozkładu decyduje skośność i kurtoza. Generalnie jest tak, że rozkład empiryczny zbliża się do rozkładu teoretycznego, zwłaszcza wtedy, gdy liczba pomiarów wzrasta (jest to tzw. prawo wielkich liczb – jeśli nasza próba będzie odpowiednio duża, to różne czynniki ostatecznie się mniej więcej uśrednią, a zatem nie wpłyną na wyniki końcowe. Nie zachodzi to na grupie 10 osób, ale na grupie 5000 już tak. Ponadto, prawo to polega także na tym, że w odpowiednio dużej grupie, zauważymy różne związki efektu, niezależnie od tego, jak małe one są – o ile tylko są realne, to je dostrzeżemy). Tabelka: Cechy Rozkład teoretyczny Rozkład empiryczny Model matematyczny lub Obserwacje i rzeczywiste dane Źródło danych funkcja probabilistyczna. z eksperymentów. Zależny od liczby prób Idealny i oparty na Dokładność i rzeczywistego założeniach matematycznych. procesu losowego. Histogram wzrostu 100 Rozkład normalny dla wzrostu Przykład osób zbadanych w w populacji. rzeczywistości. Charakter Abstrakcyjny i uniwersalny. Rzeczywisty i zależny od danych. A tutaj rozkład empiryczny (histogram) nałożony na rozkład teoretyczny (linia) – jak widać, nie pokrywają się one na siebie, lecz jednak są podobne: Dystrybuanta to miara prawdopodobieństwa, która mówi, jaka jest szansa, że zmienna losowa X przyjmie wartość mniejszą lub równą danej wartości x, którą sobie wyznaczymy (X wielkie oznacza konkretną str. 18 zmienną, np. ekstrawersję, natomiast x małe oznacza konkretną wartość tej zmiennej, np. 12 punktów). Wartość x może być zawarta w jakimś przedziale, np. ile obserwacji znajdzie się między -1 a 1 odchyleniem standardowym. Dzięki temu wiemy, że dla rozkładu normalnego między -1 a 1 odchyleniem standardowym powinno znaleźć się 68% obserwacji, a zatem im bardziej nasz wynik odbiega od tej wartości przy badaniach empirycznych, tym mniej normalny jest nasz rozkład. Podsumowanie Skośność wskazuje na natężenie wartości danego typu (wysokich, średnich, niskich), zaś kurtoza na skupienie wartości wkoło średniej. Ze względu na skośność wyróżnia się dwa rodzaje rozkładów, kolejno: 1. Rozkład prawoskośny (najwięcej obserwacji znajduje się po lewej stronie, czyli jest on skośny od lewej do prawej strony; cyfra skośności w SPSS jest dodatnia), 2. Rozkład lewoskośny (najwięcej obserwacji znajduje się po prawej stronie, czyli jest on skośny od prawej do lewej strony; cyfra skośności w SPSS jest ujemna). Można dodać, że rozkład normalny jest symetryczny, a zatem ma zerową skośność. Podsumowując stosunek średniej, mediany i mody do skośności, należy pamiętać, że: 1. Gdy M = Me = Mo (jest to rozkład normalny, czyli i skośność = 0), 2. Gdy M > Me > Mo (jest to rozkład prawoskośny, czyli dodatnioskośny), 3. Gdy M < Me < Mo (jest to rozkład lewoskośny, czyli ujemnoskośny). Ze względu na kurtozę wyróżnia się dwa rodzaje rozkładów, kolejno: 1. Rozkład Leptokurtyczny (najwięcej obserwacji znajduje się w centralnym punkcie, przez co wykres jest szpiczasty; cyfra kurtozy w SPSS jest dodatnia), 2. Rozkład platokurtyczny (większość obserwacji znajduje się sporej szerokości osi poziomej, przez co wykres jest spłaszczony; cyfra kurtozy w SPSS jest ujemna). Ze względu na modalność natomiast, wyróżnia się rozkłady kolejno: 1. Monomodalny (czyli z jedną modą; jest to po prostu rozkład normalny, gdyż posiada jeden tylko szczyt – jedną wartość dominującą), 2. Polimodalny (z większą ilością mód; gdy wykres obrazuje kilka zmiennych na raz, bądź jest podzielony na grupy, a zatem gdy po prostu posiada kilka szczytów, czyli gdy patrząc na niego, można wskazać kilka wartości dominujących – po jednej dla każdej zmiennej. Może być też kilka mód dla wykresu z jedną zmienną, czyli wówczas, gdy dwie różne wartości zostały zaobserwowane dokładnie taką samą ilość razy; jest to jednak przypadek rzadki). 20. Czym jest rozkład dwumianowy? Obok rozkładu normalnego istnieje jeszcze rozkład dwumianowy, czyli wykres, który nie jest ciągły i asymptotyczny, a dyskretny i skończony. Wyniki, które można otrzymać, nie rozciągają się od minus do plus nieskończoności, a między konkretnymi wartościami, np. sukces/porażka albo reszka/orzeł. I, co ważne, dla każdej z tych wartości istnieje jakieś prawdopodobieństwo P. Jeśli prawdopodobieństwo to jest znacząco mniejsze bądź większe od 0,5 (czyli 50%), to rozkład dwumianowy zawsze będzie skośny, niezależnie od wielkości próby. Zaś jeśli prawdopodobieństwo to jest bliskie bądź równe 0,5, to wówczas: przy małych próbach rozkład dwumianowy dalej wykazuje tendencję do asymetrii, czyli chybotliwości, i dopiero przy dużych próbach rozkład staje się bardziej symetryczny i przypomina rozkład normalny, co nazywamy prawem granicznym (wedle którego im P jest bliższe 0,5 oraz im większa próba, tym bliżej rozkładowi dwumianowemu do normalnego). Dla rozkładu dwumianowego, dystrybuanta będzie wyliczana odpowiednio do P, a zatem także odpowiednio wskaże, jaka jest szansa dla każdego pomiaru do przyjęcia jakiejś konkretnej wartości. Poniżej teoretyczny rozkład dwumianowy – dla próby n = 10, szansa na 5 sukcesów i 5 porażek to blisko 25%, zaś na 4 sukcesy i 6 porażek to po 20% itd. str. 19 Co ważne – nie można mylić P, o którym mowa przy rozkładzie dwumianowym, z P, które jest wskaźnikiem istotności w SPSS. W tej tezie, P określa poziom prawdopodobieństwa wystąpienia danego rozstrzygnięcia zdarzenia losowego (albo sukces, albo porażka). 21. Jaka jest różnica między proporcją, stosunkiem i procentem? Procent to część całości, wyrażona jako liczba od 0 do 100. Proporcja to ułamek, wyrażający stosunek części do całości, który mieści się między 0 do 1. Stosunek natomiast to relacja między dwoma liczbami, pokazująca ile razy jedna wartość mieści się w drugiej, np. przy liczbach 2 do 6, stosunek między nimi to 3, gdyż 3 razy mieści się 2 w 6. 22. Jakie są właściwości skali standardowej? Jak się oblicza wyniki standaryzowane? W jakim celu? Problem statystyka polega na tym, że badacz raz zbiera dane o wadze i wzroście, a za chwile o ugodowości, a za chwile o miejscu pracy – i do tego używa innych skal pomiarowych, np. raz na skali Likerta ustala wartości od 1 do 5, a innym razem od 1 do 7. Problem polega na tym, że jednostki te odnoszą się do zupełnie innych aspektów życia, są wyrażone w innych jednostkach i na innych skalach – a zatem: są po prostu nieporównywalne względem siebie. To, że ktoś lubi jeść zupę grzybową daje się porównać do tego, że ktoś inny tej zupy nie lubi – ale nie daje się porównać do tego, że ma 13 punktów na skali ugodowości. Trzeba więc sprowadzić te dane do wspólnego mianownika, żeby móc podzielić np. wynik testu z matematyki i testu z polskiego poprzez tę samą rzeczywistość, bo tylko wówczas będzie to jakkolwiek informatywne. Wyliczamy zatem odchylenie standardowe, i to nim się posługujemy. Jeśli ktoś ma 20 punktów na skali ugodowości, która była od 0 do 30, oraz 653 punkty na innej skali ugodowości, która była od 0 do 1000, to same te surowe wyniki nic nam nie mówią. Jeśli jednak wyliczymy, że w pierwszym teście jego odchylenie standardowe to, przykładowo, 0,3, a w drugim 0,2 – to okazuje się, że wyniki te są bardzo zbliżone do siebie, zatem obydwa te testy zmierzyły to samo i tak samo. Podobnie rzecz się ma przy porównywaniu wyników różnych osób, a także z różnych dziedzin, np. oceny z polskiego i oceny z matematyki – gdyż jeśli ktoś ma 3 z polskiego i 5 z matematyki, to wydawałoby się, że jest o wiele lepszy z matematyki, ale jeśli odchylenie standardowe z polskiego i matematyki jest podobne, to oznacza to, że polskiego uczy po prostu nauczyciel z większymi wymaganiami, przez co cała klasa ma str. 20 gorsze wyniki. Albo inny przykład: jeśli ktoś odstaje o 1 odchylenie standardowe w teście z matematyki i -4 odchylenia w teście z polskiego, to wiemy, że jest dobry z matematyki, ale z polskiego bardzo słaby. Odchylenia standardowe to zatem tzw. wartości standaryzowane. Podobnie robi się zresztą ze średnią, otóż: jeśli w jakichś testach wychodzi jakaś średnia, np. na maturze jest to 18,2 lat i 30 punktów z matematyki, to zamieniamy te średnie na 0, i wówczas średnia1 = 0, i średnia2 = 0, dzięki czemu znając czyjąś średnią z testu i w wieku, możemy wyliczyć ile on ma lat i ile ma punktów, co daje standaryzowane jednostki, np. ktoś ma średnią1, tą dotyczącą wieku, na poziomie 3, czyli jest o wiele starszy od średniej ogólnej (pisze maturę wiele lat po szkole średniej), i ma średnią2, tą dotyczącą wyniku z testu matematyki, na poziomie -2, czyli poszło mu bardzo słabo w teście z matematyki. I możemy teraz policzyć dla całej grupy o ile zmienia się wynik w matematyce dla zmiany wieku – i sprawdzić, czy jest to przypadek odstający, czy rzeczywiście ludzie piszący maturę z matematyki po wielu latach od skończenia szkoły średniej mają słabsze wyniki. 23. Czym jest normalizacja? Po co się ją dokonuje, na jakie możliwe sposoby i jakie są wyniki tego procesu (skale tenowe, stenowe i staninowe)? O ile standaryzacja to sprowadzanie różnych zmiennych do wspólnego mianownika, aby je porównać, tak normalizacja (inaczej: przekształcanie normalne) to tworzenie nowej zmiennej (gdyż wyrażonej na nowej skali), która daje się porównać do innych znormalizowanych danych, które do tej pory były zupełnie odmiennymi. Normalizację stosuje się zwłaszcza wtedy, gdy zmienne mają zupełnie inne wartości, np. jedna mieści się w przedziale od 1 do 10, a druga od 100 do 1000 – wówczas większość metod statystycznych przypisuje większą wartość do dużych liczb, co jest problematyczne, gdyż nie powinno tak być. Dlatego też trzeba po prostu te dwie skale do siebie wzajemnie sprowadzić, czy też mówiąc to samo inaczej – trzeba podać nową skalę, na którą bez ubytku w danych można przeliczyć obydwa te przedziały. I to właśnie jest normalizacja: przekształcanie wartości mierzonych na różnych skalach do wspólnych skal (tenowych, stenowych, staninowych i im podobnych). Normalizować dane należy wtedy, gdy rozkład danych albo jest nieznany, albo nie przypomina rozkładu Gaussa. Są różne sposoby normalizacji, kolejno: 1. Min-max (skalujemy wielkości, aby mieściły się w przedziale od 0 do 1, gdzie 0 oznacza najmniejszy reprezentowany pomiar, a 1 najwyższy – a zatem na starej skali od 1-10, wartość 5 będzie teraz 0,5), 2. Logarytmiczny (stosujemy logarytmy, co pozwala zmniejszyć wpływ wielkich wartości na ostateczny wynik), 3. Dziesiętny (dostosowanie wartości przez przesunięcie przecinka dziesiętnego, dzięki czemu łatwiej zauważyć różnice między nimi), 4. Centrowanie względem średniej (wyliczamy średnią ze wszystkich wartości i następnie otrzymany wynik, np. 12, odejmujemy od wszystkich konkretnych pomiarów, dzięki czemu widzimy, które wyniki są wyżej, a które niżej od średniej, np. gdy uzyskana w ten sposób wartość będzie wynosić -3, to wiemy, że jest to wynik poniżej średniej, gdyż jest ujemny). Należy jeszcze dodać, że standaryzacja i normalizacja to coś innego, choć mają dużo cech wspólnych, gdyż obydwie służą ułatwieniu porównywania i odczytywania wyników. Inny jeszcze sposób standaryzacji, niż w poprzedniej tezie, jest związany z normalizacją. Jest to tzw. skalowanie z-score (inaczej: centrowanie i skalowanie). Celem tego przekształcenia jest przekształcenie danych do średniej = 0 oraz odchylenia standardowego = 1, gdyż to pozwoli usunąć wpływ średniej i odchylenia standardowego, które są bardzo odmienne dla różnych zmiennych, na dalsze procesowanie danych. Aby w ten sposób wystandaryzować dane, najpierw należy zrobić normalizację przez centrowanie względem średniej, a później jeszcze odjąć odchylenie standardowe. Tabelka: str. 21 Cecha Standaryzacja Normalizacja Skala danych Nieograniczona Ograniczona (np. [0,1], [−1,1]. Usunięcie wpływu średniej Dopasowanie danych do wspólnego Cel i odchylenia standardowego. zakresu. Wartości odstające mogą nadal istnieć Wartości odstające mogą Wpływ na wartości odstające (choć zmniejszony wpływ). silnie wpłynąć na zakres [0,1]. Nie zmienia kształtu, ale Nie zmienia kształtu rozkładu Kształt rozkładu wartości odstające mogą wpłynąć (np. skośność pozostaje taka sama). na zakres. Normalizacja w dużej mierze jest po to, aby nie pozostawić człowieka badanego z takim poczuciem, że dostał jakąś cyferkę i nie wie co to oznacza, ale już ma sobie pójść. Aby tego uniknąć, podajemy mu wygodne skale, na których umieścimy jego wynik i podamy mu jak bardzo podobny jest do innych, czyli jak bardzo trafia w normę empiryczną. Skale takie ustala się dla zmiennych standaryzowanych z-score, poprzez dodatkowe przekształcenie usuwające wartości ujemne. Skale te to kolejno: 1. Skale tenowe (standaryzacja z-score, a potem wyskalowanie do średniej 50 i odchylenia 10, co umiejscawia wynik konkretnego badanego na skali od 1 do 100), 2. Skale stenowe (standaryzowane z-score i potem wyskalowane do średniej 5,5 i odchylenia 2, aby umiejscowić wyniki konkretnego badanego od 1 do 10), 3. Skale staninowe (dane są standaryzowane z-score, a potem wyskalowane do średniej 5 i odchylenia 2, aby umiejscowić wyniki konkretnego badanego na skali od 1 do 9). Co ważne w kontekście powyższych rodzajów skal – im węższa skala (o mniejszym rozstępie), tym łatwiej ją interpretować, ale tym mniejsza jest jej precyzja. Teny to od 1 do 100, a zatem można uzyskać wynik 61 albo 69 i widać różnicę, natomiast steny to od 1 do 10, a zatem obydwa te wyniki zapiszemy jako 7 i nie wiadomo, czy jest to 7 bliżej 6, czy 7 bliżej 8 (dlatego właśnie zmienna dyskretna nazywa się „dyskretną” gdyż nie wiemy jaka jest dokładna różnica między dwoma osobami, które mają taki sam wynik). 24. Czym jest rozkład liczebności i przedziały klasowe? Istota Rozkład liczebności to po prostu histogram (albo inny wykres z przedziałami, np. wykres kołowy albo tabelka), czyli graficzny sposób przedstawienia danych, polegający na podzieleniu całego zakresu danej zmiennej na konkretne grupy (czyli właśnie przedziały klasowe) i następnie zestawieniu tych przedziałów obok siebie w postaci słupków, których wysokość uzależniona jest od ilości obserwacji poczynionych w danym przedziale. Najważniejsze zasady posługiwania się przedziałami klasowymi Najważniejsze zasady posługiwania się przedziałami klasowymi to kolejno: 1. Rozłączność (zakresy poszczególnych przedziałów nie powinny na siebie nachodzić, gdyż wówczas jedna obserwacja byłaby liczona dwa razy – nie może być tak, że pierwszy przedział jest od 1 do 10, a drugi od 5 do 15), 2. Wyczerpywalność (przedziałów klasowych powinno być tyle, że zagospodarują one cały zakres wyników, czyli jeśli rozpiętość pomiaru to od 1 do 500, to przedziały klasowe nie zagospodarują od 100 do 200, tylko wszystko od 1 do 500), 3. Czytelność (liczba przedziałów powinna być tak dobrana, aby dane były czytelne, czyli ani zbyt ogólne, ani zbyt szczegółowe – jeśli rozpiętość pomiaru to od 1 do 500, to przedziały po 10 wartości byłyby nieczytelne, gdyż byłoby ich zbyt dużo, zaś przedziały po 100 byłyby zbyt ogólne i str. 22 nic by nie mówiły, więc zapewne po 25 albo 50 byłyby odpowiednie), 4. Równość (przedziały powinny mieć równe szerokości, czyli jak przyjmiemy, że przedział ma mieć 25, to każdy przedział ma mieć 25 – są pewne odstępstwa od tej reguły, zwłaszcza w przypadku, gdy chcemy uwzględnić na takim rozkładzie także przypadki odstające, ale nie powinno się tego robić za często). Granice dokładne przedziałów klasowych Granice ogólne przedziałów to np. od 0 do 10, od 11 do 20 itd. – ale jak łatwo daje się tu zauważyć, w przypadku zmiennych ciągłych istnieje pewna luka, gdyż od 10 do 11 jest cała gama ułamków, które nie zostały zagospodarowane w przedziale, przez co nie jest on wyczerpujący. A zatem, aby uwzględnić i te połowiczne wartości, od dolnej granicy należy odjąć 0,5, zaś do górnej granicy dodać 0,5 – i w ten sposób granice dokładne przedziałów to 10,5-20,5, a następny przedział to 20,5-30,5 itd., dzięki czemu wszystkie wartości zmiennej zostaną uwzględnione na rozkładzie. Rozkład wyników w obrębie przedziału klasowego Realnie rzecz ujmując, w przedziale od 0 do 10 może być 100 wyników z 9 i żadnego wyniku z 7 – w takim wypadku trzeba to wyraźnie zaznaczyć w opisie. Jednakże na ogół tak nie jest, więc w celu uproszczenia graficznej prezentacji wyników i dalszych obliczeń zakłada się po prostu, że rozkład wyników w obrębie każdego przedziału jest równomierny, czyli dla każdej wartości między 0 a 10 odnotowano tyle samo obserwacji. Założenie to stosuje się automatycznie, chyba, że rzeczywiście nierównomierność jest widoczna gołym okiem – wówczas trzeba dokonać dokładniejsze, odrębne obliczenia. Rozkład liczebności skumulowanych Rozkład liczebności skumulowanych widać w SPSS-ie, gdy wygeneruje się dla jakiejś zmiennej tabele częstości – wówczas obok kolumny „procent” i „procent ważnych” znajduje się jeszcze kolumna „procent skumulowany”, i to o to chodzi. A zatem, rozkład liczebności skumulowanych to po prostu podawana przy każdej kolejnej wartości suma wszystkich dotychczasowych wartości. Wygląda to w ten sposób: Przedział Liczebność Liczebność skumulowana 0–10 5 5 10-20 8 13 20-30 7 20 25. Jakie są najważniejsze zasady rysowania wykresów? Jak się rysuje histogramy, wykresy rozrzutu, wykresy kołowe i wykresy skrzynkowe? Najważniejsze zasady rysowania wykresów to po prostu (1) uwzględnianie kurtozy i skośności (warto zaznaczyć, czy wykres jest skośny, i w którą stronę oraz jak bardzo, i tak samo rzecz się ma z kurtozą), (2) szukanie normalności rozkładu (warto linią zaznaczyć, jak wyglądałby rozkład normalny, aby można było rzutem oka zobaczyć, jak bardzo uzyskany rozkład empiryczny odbiega od rozkładu teoretycznego), (3) zadbanie o czytelność wykresów (np. nie używamy wykresu kołowego dla 40 zmiennych, bo po prostu nie będzie wiadomo o co na nim chodzi), (4) zadbanie o adekwatność wykresów (nie wszystkie zmienne da się wyrazić na wszystkich wykresach, np. na histogramie nie przedstawimy zmiennych nominalnych). Histogram rysuje się wtedy, gdy mamy jednakową jednostkę na osi poziomej X (np. od 1 do 50, ale w przedziałach co 5, czyli 5, 10, 15 itd.) oraz również jednakową ilość obserwacji na osi pionowej Y (np. 10, 20, 30, 40 itd.). Wówczas im wyższa tabelka, tym więcej pomiarów – a jej miejsce na osi poziomej X wskazuje na to, jaka wartość pomiaru jest wspólna dla tej ilości obserwacji. Mówiąc prościej, wysokość to str. 23 częstość a szerokość to wartość, i na każdej wartości jest słupek, oznaczający jak często dana wartość występowała, np. jak często zmienna przyjmowała wartość 3, a jak często 5 – a zatem jest to ilustracja rozkładu danych, która pozwala oszacować, czy jest to rozkład normalny Gaussa, czy nie. Nie da się histogramu narysować dla zmiennych nominalnych, gdyż nie różnicują się one ze względu na wartość. Wykresy rozrzutu to chmura punktów dla dwóch zmiennych, czyli każdy punkt niesie informacje dotyczące natężenia zmiennej z osi X i zmiennej z osi Y. Jeśli punkty są rozrzucone losowo, to znaczy, że nie da się wskazać żadnego związku między tymi dwoma zmiennymi – a jeśli nie są rozrzucone losowo, tylko układają się w ładną linię, to znaczy, że jeśli jedna zmienna rośnie/maleje, to druga też rośnie/maleje, co daje pewien związek (jest to przesłanka do tego, że można wyliczyć korelację Pearsona). Jeśli natomiast przyrost nie jest liniowy, tylko np. na początku wzrost jednej zmiennej powoduje gwałtowny wzrost drugiej, a później wzrost jednej nie powoduje wzrostu drugiej, to nie należy wyliczać korelacji, bo są do takich sytuacji odrębne narzędzia. Linia narysowana na środku to tzw. linia dopasowania, która przebiega dokładnie przez środek chmury punktów – stanowi ona punkt odniesienia do oceny jak daleko od średniej znajdują się poszczególne punkty. Wykres kołowy rysuje się poprzez podzielenie koła na pomniejsze części, z których każda odpowiada natężeniu danej zmiennej. Im więcej zmiennych, tym mniej czytelny jest taki wykres – a zatem jest on użyteczny tylko wówczas, gdy zmiennych tych jest kilka. Im większą część koła zajmuje dana zmienna, tym większe jest jej natężenie w stosunku do innych zmiennych. str. 24 Wykres skrzynkowy. Najpierw dla danej zmiennej należy wyznaczyć kwartyle, a następnie na wykresie między pierwszym a trzecim kwartylem narysować „skrzynkę”, która obejmuje dzięki temu połowę przypadków – owe 50% obserwacji nazywa się rozstępem międzykwartylnym [IQR]. Wówczas wewnątrz tej skrzynki należy zaznaczyć medianę – ale mediana ta jest medianą dla całego zbioru, a nie tylko dla obserwacji wewnątrz skrzynki. Następnie należy narysować wąsy górny i dolny, co robi się poprzez dodanie 1,5 IQR do kwartyla górnego i odjęcie 1,5 IQR od kwartyla dolnego (czyli jeśli rozstęp między pierwszym a trzecim kwartylem wynosi np. 20 jednostek, to 1.5 x 20 = 30, a zatem wąs górny będzie kończył się na wartości wyznaczonej za pomocą wzoru „wartość kwardyla trzeciego + 30”). Wszystkie obserwacje, które znajdują się poniżej dolnego i powyżej górnego wąsa, są obserwacjami skrajnymi i należy je odrzucić z dalszych analiz; czymś innym jest wartość ekstremalna, gdyż jest to wartość oddalona o aż 3 IQR od kwartyla krańcowego skrzynki – takie wartości tym bardziej należy odrzucić z badania, jednak warto zainteresować się daną jednostką i zrobić na niej analizę przypadku, aby sprawdzić z czego wynika tak wielkie odstępstwo. Wykres skrzynkowy zawiera w sobie tzw. pięcioliczbowe podsumowanie danych, czyli kolejno: medianę, kwartyl dolny, kwartyl górny, najwyższe ekstremum i najniższe ekstremum. Do tego warto dołączyć jeszcze liczebność próby, średnią i odchylenie standardowe, co ładnie podsumuje całe badania. Co, wedle zapowiedzi, będzie na egzaminie Grupy tematyczne, na które bardziej trzeba zwrócić uwagę przy powtórce to: 1. Zmienne i ich rodzaje (trzeba je umieć rozróżniać w praktyce), 2. Schematy badawcze (eksperymentalny, korelacyjny, międzyosobowy i wewnątrzosobowy), 3. Skale pomiarowe (nominalna, porządkowa, przedziałowa, stosunkowa), 4. Miary: tendencji centralnej, rozproszenia, kształtu rozkładu, 5. Wykresy skrzynkowe, 6. Dobór próby (losowy, nielosowy, konkretne techniki). Grupy tematyczne, na które mniej trzeba zwrócić uwagę przy powtórce: 1. Metoda naukowa vs nienaukowa, badania idiograficzne a nomotetyczne, 2. Proces badawczy (nie trzeba go znać na pamięć, tylko kojarzyć), 3. Podejścia badawcze (cała prezentacja nr 3 jest tylko do pobieżnego przeczytania), 4. Data cleaning (cała prezentacja nr 6 jest tylko do pobieżnego przeczytania). Prezentacji 3 i 6 nie ma nawet w tezach, więc wypada je po prostu raz przeczytać dzień przed egzaminem i nic więcej; ma z nich być maksymalnie 2-3 pytania. Przykładowe pytania podawane na wykładzie: 1. Skośność wynosi 4, a kurtoza 15, więc jaka miara tendencji centralnej byłaby odpowiednia do opisania tych danych – średnia czy mediana? 2. Wskaż, na jakiej skali (nominalnej itd.) jest zadane konkretne pytanie na załączonym obok kwestionariuszu. str. 25 3. W podanym ciągu liczb wskaż modę. 4. W podanym ciągu liczb wskaż medianę. 5. Wskaż obserwacje ekstremalne na załączonym wykresie skrzynkowym. 6. Jak jest konstruowana linia dopasowania? (wybierz abcd) 7. *Opis sytuacji. Czy w tej sytuacji lepiej zastosować schemat eksperymentalny, czy korelacyjny? 8. Czy na histogramie można zamieścić dane nominalne? (nie) 9. Ile jest zmiennych w załączonym pytaniu kwestionariuszowym? (tyle jest zmiennych, ile razy badany może przyłożyć długopis do kartki – jeśli może zaznaczyć 5 odpowiedzi, to jest to 5 zmiennych). str. 26