Full Transcript

Statystyka: - nauka, która zajmuje się ilościowymi metodami badania zjawisk masowych - służy do matematycznego opisu zmienności oraz do badania procesów i zależności w otaczającym nas świecie - dzieli się na elementarną i matematyczną Elementarna (podstawowa) – zajmuje się badaniem próby. Wyniki obl...

Statystyka: - nauka, która zajmuje się ilościowymi metodami badania zjawisk masowych - służy do matematycznego opisu zmienności oraz do badania procesów i zależności w otaczającym nas świecie - dzieli się na elementarną i matematyczną Elementarna (podstawowa) – zajmuje się badaniem próby. Wyniki obliczeń na podstawie danych z próby to statystyki lub estymatory (oznaczane literami łacińskimi). - estymator – właściwość próby pobranej z populacji (np. s – odchylenie standardowe; ang. SD) - wartość uzyskana przy badaniu próby jest estymatorem odpowiedniego parametru populacji Matematyczna – zajmuje się wnioskowaniem o populacji generalnej na podstawie próby. Wyniki, które dotyczą populacji generalnej to parametry (oznaczane literami greckimi, np. σ – sigma – odchylenie standardowe w populacji) Zależności – statystyki pozwalają szacować parametry Populacja a próba - populacja generalna (nie w sensie biologicznym) – zbiór wszystkich elementów (jednostek, organizmów, osobników), które podlegają badaniu np. populacja stonki ziemniaczanej w Polsce - badanie obejmujące wszystkie elementy populacji nazywa się wyczerpującym – z wielu względów nierealne do przeprowadzenia (wiąże się z całkowitym zniszczeniem materiału lub z dużymi kosztami) - próba – grupa jednostek (elementów) wchodząca w skład populacji generalnej. Elementy wybrane do próby powinny reprezentować ogół elementów badanej całej zbiorowości (populacji generalnej) i spełniać określone warunki Próba – właściwości: odpowiednia liczebność, dobrana losowo Odpowiednia liczebność próby – liczebność – im większa próba tym lepsza (lepiej opisuje populację generalną) - ograniczenia możliwości zbierania materiału: techniczne, finansowe, czasowe - minimum statystyczne – wynosi 30 elementów -> próba musi mieć co najmniej 30 elementów - liczebność – jeśli badana cecha zaznacza się silnie z dużą powtarzalnością, a czynniki przypadkowe nie występują lub są mało istotne – można poprzestać na próbie niezbyt licznej - gdy cecha manifestuje się w sposób ulotny lub na wynikach obserwacji prowadzonych dla różnych pacjentów b silnie ważą ich cechy osobnicze lub inne czynniki losowe – potrzebujemy liczną próbę Losowość próby – dobór jednostki do próby powinien być przypadkowy (każdy element powinien mieć jednakowe szanse wejścia do próby), nie powinien być wyselekcjonowany. Jednostki powinny dobrze charakteryzować zmienność występującą w populacji generalnej - losowość doboru elementów może być jednak ograniczona jedynie do ostatniego etapu doboru materiału - wybór celowy – selekcjonowanie (celowe) grupy przebiega na wczesnych etapach doboru materiału Techniki losowania: - losowanie niezależne (zwrotne) – po każdym losowaniu jednostka wraca do zbiorowości generalnej; liczebność N jest stała - losowanie zależne (bezzwrotne) – po każdym losowaniu element nie bierze już udziału w dalszym losowaniu - jeśli zbiorowość generalna jest liczna, to jest obojętne, jaką z technik zastosujemy. Jeżeli jest niewielka – losowanie zależne Próba spełniająca warunki liczebności i losowości jest reprezentatywna -> wyniki uogólnione na całą populację Rodzaje błędów podczas zbierania materiału: - tendencyjne (systematyczne) - wynikające z jednokierunkowej tendencji do zniekształcania badanej rzeczywistości, źródłem jest zwykle przyrząd pomiarowy, obserwator lub przyjęta metoda pomiaru (np. źle zaokrąglać) - przypadkowe (niesystematyczne) – popełniane nieumyślnie, wynikające z nieuwagi, nieumiejętnego podania informacji, niedbalstwa - błędy grube – wynik znacznie odbiega od wartości prawidłowej; łatwo zauważalny, możliwy do wyeliminowania np. pomyłka przy odczycie wyniku pomiaru, źle wykalibrowany przyrząd, zła metoda pomiarowa - błędy losowe – wynikające z czynników losowych, na które eksperymentator nie ma wpływu np. zmienność indywidualna obiektów (nie będąca przedmiotem badań) Błąd próbkowania - rozkład częstości danych (zmienność próby) nawet w dobrze dobranej próbie jest nieco inny niż w populacji generalnej. Zjawisko to nazywamy zmiennością próbkowania. Im mniejsza próba, tym większe prawdopodobieństwo, że rozkład zmienności próby i populacji są różne. Rodzaje cech statystycznych - Cechy stałe (CS) – własności wspólne dla wszystkich jednostek danej zbiorowości statystycznej - definiują badaną grupę – określają elementy: rzeczowo (co?), czasowo (kiedy?), przestrzennie (gdzie?) - wspólne dla całego materiału, nie będą podlegały badaniu, decydują o zaliczeniu jednostki do odpowiedniej zbiorowości (podgrupy) np. data badania, miejsce, obiekt – konieczne do opisania materiału - Cechy zmienne – własności dzięki, którym poszczególne jednostki różnią się między sobą - cechy jakościowe (niemierzalne, dyskretne) – nie można ich zmierzyć a jedynie opisać słownie, wariantów tej cechy nie da się uporządkować, np. kolor oczu, płeć, obywatelstwo, miejsce zamieszkania,  - cechy ilościowe (mierzalne, ciągłe) – dają się wyrazić za pomocą tzw. liczb mianowanych (o określonych jednostkach), np. wysokość ciała, wiek, sztuki - zmienne skokowe – wartości można wyrazić określonymi liczbami zmieniającymi się skokowo, bez wartości pośrednich (np. liczba studentów w Sali) - zmienne ciągłe – mogą przyjmować każdą wartość z określonego przedziału liczbowego (np. masa ciała w kg i ułamkach kilograma) - zmienne „quasi-ciągłe” – rodzaj zmiennej skokowej o bardzo dużej liczbie wariantów (np. ceny wyrażone z dokładnością do jednego grosza) Wariant cechy statystycznej jest informacją uzyskaną o jednostce statystycznej w trakcie badania statystycznego. Z uwagi na liczbę możliwych wariantów, cechy statystyczne dzieli się na: - cechy dychotomiczne (zero-jedynkowe) – cecha może przyjąć tylko 2 warianty - cechy wielodzielne (politomiczne) – przyjmują więcej niż 2 warianty Organizacja danych – skale pomiarowe Skala nominalna (SN) – najprostszy rodzaj klasyfikacji; stosuje opis słowny dla potrzeb identyfikacji badanego elementu; dotyczy cech jakościowych!! - podział zbioru danych dokonywany jest na odpowiednie kategorie – podstawowa operacja pomiarowa!!! - UWAGA: niezmiernie ważne jest, aby podział na kategorie i klasyfikacja były przeprowadzone jednoznacznie – umożliwia zupełną i rozłączną klasyfikacje wyników, np. podział na blondynów, brunetów i rudych Skala dychotomiczna – szczególny przypadek SN; podział tyko na 2 kategorie np. płeć Skala porządkowa – dane uporządkowane są w określonym rankingu; wg określonej zasady, cechy ilościowe - skala dokładniejsza niż nominalna - umożliwia podział na kategorie i określenie kierunku wzrostu natężenia cechy (np. pozycja na zawodach sportowych) - każdy osobnik ma przypisaną rangę (pierwszy, drugi, trzeci); każda pozycja w rankingu oddalona jest o taką samą jednostkę!!!!! - pomiar porządkowy nie daje żadnych informacji o wielkości kolejnych różnic między elementami. Wiemy, że coś jest większe lub mniejsze, ale nie wiemy o ile!! - przekształcając relacje porządkowe w liczby nie możemy na nich wykonywać działań arytmetycznych Ranga wiązana (nie musi być liczbą całkowitą) – gdy kilka badanych elementów posiada taką samą rangę przypisuje im się rangę będącą średnią arytmetyczną rang, które zajęłyby analizowane elementy gdyby wartości ich cech były różne - kolejny element w zbiorze ma taką rangę, jakby osobniki o rangach wiązanych były traktowane osobno - skala ta nie daje informacji o wielkości różnic między elementami, wiemy tylko że coś jest większe lub mniejsze Skala interwałowa (przedziałowa; ilorazowa) – skala najdokładniejsza np. wysokość i ciężar ciała, pomiary długościowe różnych parametrów itp. - umożliwia porządkowanie elementów i określenie „odległości” pomiędzy poszczególnymi pomiarami - zmienna na skali interwałowej, gdy różnice między dwiema jej wartościami dają się obliczyć - możliwe jest określenie przedziału liczbowego – interwału, w którym zawierają się informacje - każdy element ma przypisaną określoną wartość wyrażoną w odpowiednich jednostkach - umożliwia stosowanie dowolnych metod statystycznych (zawsze w miarę potrzeb można taką skalę uprościć)  Przekształcenia w obrębie skal: 1. skala nominalna dychotomiczna - gniazda o małej liczbie jaj 4 i 5 - gniazda o dużej liczbie jaj 6 i 7 2. skala nominalna, ale nie dychotomiczna: - gniazda o małej liczbie jaj 4 - gniazda o średniej liczbie jaj 5 - gniazda o dużej liczbie jaj 6 i 7 - skala porządkowa -> skala nominalna - skala interwałowa -> skala porządkowa lub nominalna Organizacja badań: 1. przygotowanie do badania - pomysł - kwerenda biblioteczna – obczytać się - określenie celu (określa, co i dlaczego jest przedmiotem badania) i przygotowanie badania - zebranie materiału (reprezentatywność) i przygotowanie do opracowania - opracowanie materiału statystycznego - prezentacja danych statystycznych i analiza statystyczna Rodzaje materiałów wykorzystywanych w badaniach: materiał ciągły (materiał longitudinalny) obserwujemy materiał w kolejnych jednostkach czasu analizując zmiany, które dotyczą tych samych elementów w kolejnych jednostkach czasu; analizujemy te same elementy naszej zbiorowości statystycznej liczebność w kolejnych badaniach jest taka sama materiały przekrojowe obserwujemy materiał w określonym momencie czasu nie ma możliwości śledzenia zmian w czasie – można jedynie badać uchwycony obraz materiału materiał półciągły obserwujemy te same elementy materiału pod względem tej samej zmiennej po ustalonym okresie czasu 2. zbieranie danych - badania pilotażowe - ewentualna modyfikacja metod - badania właściwe 3. opracowanie i prezentacja materiału statystycznego - usystematyzowanie - pogrupowanie - zestawienie zebranych danych (obliczanie odpowiednich statystyk i prezentacja graficzna – bardzo ważne!!!!!) - celem tego jest przejście od danych indywidualnych do danych zbiorowych!!!! 4. analiza i opis uzyskanych wyników 5. ocena wyników - UWAGA: opis wyników to nie to samo co ocena/dyskusja wyników!!!!!!! 6. formułowanie wniosków - jeśli próba była reprezentatywna można pokusić się o uogólnianie uzyskanych wyników na populację generalną OSTROŻNIE: zwracać uwagę na ograniczenia i poczynione założenia Praca końcowa: wstęp cel pracy materiał metody wyniki (=analiza) dyskusja wnioski (podsumowanie) literatura zaokrąglanie 1. Ostatnia cyfra nie zmienia się, jeśli po niej następuje cyfra mniejsza od 5: 3,5739 -> 3,57 2. Ostatnia cyfra nie zmienia się, jeśli następuje po niej 5, a wszystkie polejne to 0 lub są nieokreślone a ostatnia jest parzysta: 3,565 -> 3,56; 3,565000 -> 3,56 3. Ostatnia cyfra zwiększa się o 1 jednostkę, jeśli po niej następuje cyfra większa od 5: 3,5783 -> 3,58 4. Ostatnia cyfra zwiększa się o 1 jednostkę, jeśli po niej następuje cyfra 5 a po niej następują inne cyfry większe od 0 5. Ostatnia cyfra zwiększa się o 1 jeśli po niej następuje 5, dalej jest 0 lub nieokreślone a ostatnia jest nieparzysta: 3,575 -> 3,58 Proporcje - metoda klasyfikacji jest rozłączna i wyczerpująca – badana jednostka znajduje się w jednej i tylko jednej kategorii!!!! - proporcję przypadków określa się jako wynik podzielenia liczby przypadków przez całkowitą liczbę przypadków!!!! - dodając proporcję przypadków znajdujących się we wszystkich kategoriach otrzymujemy jedność!!!! - N1+N2+N3+N4=N - N1/N + N2/N + N3/N + N4/N=1 Odsetki – „od stu” otrzymujemy je z proporcji pomnożonej przez 100! częściej niż proporcje stosowane w prezentacji danych! muszą się zsumować do 100! Stosunki liczbowe stosunkiem liczby A do liczby B nazywamy wynik podzielenia A przez B – liczba poprzedzająca słowo „do” znajduje się w liczniku, a następująca po tym wyrazie – w mianowniku  może być liczbą większą od 1! stosunek liczby mężczyzn do kobiet wynosi 3:2 wśród każdych 5 osób jest 3 mężczyzn i 2 kobiety – tym samym proporcja mężczyzn + 3/5, czyli 0,6 Miary tendencji centralnej/przeciętności Mierniki typowości = miary przeciętne: średni arytmetyczna mediana (to i średnia najważniejsze!!!!!!!!) modalna = moda = dominanta Średnia arytmetyczna:$\frac{X + x + \ldots}{\text{Xn}} = \Sigma x/N$ X (z daszkiem) – symbol średniej XN – wartość zmiennej i-tej jednostki w szeregu szczegółowym liczebność obserwowanej zbiorowości jeden z najważniejszych i najlepszych mierników tendencji centralnej, bardziej rozpowszechniony niż mediana (ale!!!! – tylko w odniesieniu do zbiorowości jednorodnych o niewielkim zróżnicowaniu wartości zmiennej) określa się ją jako iloraz sumy pomiarów przez ich liczbę i oblicza w odniesieniu do cech w skali interwałowej jest wypadkową wszystkich wartości zmienne i spełnia nierówność: Xmin < X < Xmax stosowana jako miara zrównoważenia rozkładu na jej poziom silnie wpływają wartości skrajne (niejednokrotnie przypadkowo włączone do próby) suma odchyleń poszczególnych wartości zmiennej od średniej jest równa zeru 🡪 najważniejsza (Σ (Xi -x(śr)) =0) suma wartości zmiennej jest równa iloczynowi średniej arytmetycznej i liczebności zbiorowości (ΣXi = N*x(śr)) jeśli wszystkie wartości zmiennej powiększymy o pewną stałą, to średnia arytmetyczna = sumie (różnicy, ilorazowi, iloczynowi) średnich arytmetycznych wyjściowych zmiennych i tej stałej średnia dąży do wartości oczekiwanej w populacji wraz ze wzrostem liczności próby!!!! Średnia ważona – (x* waga w liczniku; N-mianownik) ważenie średniej stosuje się, gdy trzeba podać średnią z różnych prób (pod względem sposobu zbierania materiału, liczebności) lub zbiera się próbki w różnych jakościowo środowiskach Średnia harmoniczna stosowana przy obliczaniu efektywnej wielkości populacji w genetyce populacyjnej stosuje się ja, gdy wartości zmiennej podane są w jednostkach względnych: km/h, kg/osobę (prędkość pojazdu, gęstość zaludnienia, spożycie artykułu Y na 1 osobę) stosuje się ją do liczb dodatnich (nie można np. dzielić przez 0) pozwala nadać większe znaczenie mniejszym wartościom szeregu statystycznego Średnia geometryczna pierwiastek n-tego stopnia z iloczynu n wartości danej zmiennej znajduje zastosowanie w badaniu średniego tempa zmian zjawiska jej obliczanie ma sens dla liczb nieujemnych stosowana przy współczynnikach reprodukcji netto Porównanie średnich: gdy wszystkie pomiary szeregu statystycznego są identyczne (gdy nie ma zmienności) – średnia arytmetyczna = śr. geometrycznej = śr. harmonicznej gdy elementy szeregu różnią się między sobą, średnia arytmetyczna ma największą wartość (zależy od liczebności); śr. geometryczna ma wartość mniejszą, a harmoniczna najmniejsza!!!! Mierniki pozycyjne – MEDIANA: wartość określająca środek szeregu statystycznego – połowa otrzymanych pomiarów jest mniejsza od tej wartości lub równa w połowa od niej większa lub równa podaje pozycję pewnego typowego przypadku w stosunku do innych gdy liczba pomiarów jest nieparzysta, medianą jest środkowy pomiar gdy liczba pomiarów jest parzysta, medianą jest średnia arytmetyczna dwóch środkowych pomiarów aby ją obliczyć lub wyznaczyć, należy uporządkować szereg statystyczny w kolejności rosnącej lub malejącej i wybrać wartość środkową!!!! w odróżnieniu od średniej jest nieczuła na wartości skrajne!!!! w przypadku rozkładów symetrycznych mediana jest równa lub bardzo bliska wartości średniej; przy rozkładzie prawoskośnym Me jest mniejsza od średniej; przy lewoskośnym – większa!!!!!! obliczając średnią korzystamy ze wszystkich pomiarów; mediana jest tylko pojedynczym pomiarem!!! zmiany wartości pomiarów ekstremalnych wpływają na wartość średniej, nie wpływają na wartość mediany – dopóki nie zmienia się wartość pomiaru środkowego!!!! gdy mamy wątpliwości, jaki miernik jest bardziej rzetelny przy przechodzeniu z jednej próby do drugiej – stosujemy średnią!!!! gdy rozkład jest silnie skośny (gdy z jednej strony rozkładu jest wyraźnie więcej krańcowych pomiarów niż z drugiej) – mediana jest odpowiedniejszym miernikiem!!! obliczenie średniej wymaga skali interwałowej, medianę można wyznaczyć dla skali porządkowej, dzieląc pomiary na 2 grupy: powyżej i poniżej mediany NIE MOŻNA OBLICZYĆ MEDIANY WAŻONEJ!!!!! Mierniki pozycyjne – MODALNA moda lub dominanta – przypadek najczęstszy czyli wartość cechy statystycznej, która w rozkładzie występuje najczęściej może być wyrażona dla wyników pomiarów w skali porządkowej i interwałowej jej wyznaczenie jest uzasadnione, gdy rozkład jest jednomodalny – ma 1 ośrodek dominujący jeśli wszystkie wartości zmiennej mają jednakową liczebność równą lub większą niż 1 – nie da się obliczyć wartości modalnej: 2;7;16;19;20;27;41 Kwantyle: wartości cechy badanej, które dzielą zbiorowość na określone części pod względem liczby jednostek    szeregi, z których się wyznacza kwantyle muszą być uporządkowane (rosnąco lub malejąco) do najczęściej stosowanych zalicza się: kwartyle decyle centyle Kwartyle: kwartyl pierwszy = dolny = Q1 dzieli zbiorowość na dwie części: 25% jednostek ma cechy niższe, a 75% wyższe od kwartyla pierwszego kwartyl drugi = środkowy = mediana = Q2 dzieli zbiorowość na dwie równe części: 50% ma wartości cech niższe i 50% ma wartości cechy wyższe od mediany kwartyl trzeci = górny = Q3 dzieli zbiorowość na dwie części: 75% jednostek ma wartości cechy niższe a 25% ma wartości wyższe od kwartyla trzeciego Decyle i centyle: decyle – dzielą zbiorowość na 10 części: jest ich 9, piąty jest medianą! centyle – dzielą zbiorowość na 100 części, jest ich 99, 50 centyl to mediana! Dyspersja – zróżnicowanie jednostek zbiorowości statystycznej ze względu na wartość badanej cechy Miary dyspersji: miary klasycznej zmienności (oparte na średnich klasycznych), do których zalicza się wariancję, odchylenie standardowe, odchylenie przeciętne oraz współczynnik zmienności miary pozycyjne zmienności (oparte na średnich pozycyjnych), do których zaliczamy rozstęp, odchylenie ćwiartkowe oraz współczynnik zmienności współczynnik zmienności, w zależności od sposobu obliczania, może być miarą klasyczną albo pozycyjną istotą klasycznych miar zmienności jest obliczenie różnic pomiędzy poszczególnymi wartościami cechy Inny praktyczny podział miar zmienności rozróżnia: miary bezwzględne, czyli absolutne (wyrażone są w konkretnych jednostkach, takich samych jak badane zmienne): rozstęp, wariancja, odchylenie – przeciętne, standardowe, ćwiartkowe miary względne, czyli stosunkowe (nieokreślone w jakichkolwiek jednostkach naturalnych, wyrażone np. w odsetkach): współczynniki zmienności Miary pozycyjne Rozstęp jest najprostszym miernikiem zmienności i wyraża różnicę między pomiarem największym i najmniejszym rozstęp podaje się zwykle w postaci różnicy lub dwóch ekstremalnych pomiarów: R = xmax – xmin 72, 81,86,69,57 🡪 R= 86-57=29 lub R=57-86 wady – opiera się tylko na dwóch pomiarach i to ekstremalnych (te rzadko pojawiają się w badaniach empirycznych!!!!) stad ograniczenie jedynie do wstępnej orientacji!!!! nie powinno się porównywać rozpiętości, gdy: rozkłady obejmują bardzo różną liczbę przypadków gdy są różne jednostki miary Odchylenie ćwiartkowe = odchylenie kwartylowe jest rodzajem rozstępu, lecz określany jako połowa różnicy między trzecim i pierwszym kwartylem!!! mierzy poziom zróżnicowania tylko części jednostek, pozostałej po odrzuceniu 25% jednostek o wartościach najmniejszych i 25% jednostek o wartościach największych!!!! Q1 i Q3 są mniej zależne od wahań próby niż wartości pomiarów ekstremalnych – odchylenie ćwiartkowe jest bardziej stabilnym miernikiem niż rozstęp!!! nie wykorzystuje jednak wszystkich informacji!!!!! nie można uchwycić zmienności w środkowej połowie przypadków!!!! Miary klasyczne: Odchylenie średnie odchylenie przeciętne jest średnią arytmetyczną bezwzględnych odchyleń wartości cechy od jej średniej arytmetycznej jest przeciętną odległością między pomiarem a średnią!!!!!! wygodne jedynie dla celów czysto opisowych Wariancja jest to suma kwadratów odchyleń poszczególnych wartości badanej cechy od średniej arytmetycznej tych wartości podzielona przez (N-1) jest bardzo ważnym parametrem, który wykorzystuje się do konstrukcji wielu innych miar natomiast w analizie dyspersji bezpośrednio nie jest często wykorzystywana ze względu na reprezentowanie wyższego stopnia (druga potęga) niż wartości badanej cechy Odchylenie standardowe aby więc otrzymać miarę dyspersji o walorach wariancji, ale mianie zgodnym z mianem badanej cechy, wprowadzono parametr będący pierwiastkiem kwadratowym z wariancji, nazywany odchyleniem standardowym obok średniej arytmetycznej jest najczęściej stosowaną miarą statystyczną o.s. jest obliczane na podstawie wszystkich wartości analizowanego szeregu!!!!!!! wielkość o.s. jest tym większa, im zbiorowość jest bardziej zróżnicowana stopień rozproszenia pomiarów wokół średniej arytmetycznej!!!!! mówi o kształcie rozkładu danej cechy!!!! podobnie jak ś.a. jest miarą bardzo wrażliwą nawet na pojedyncze wartości wyraźnie odbiegające od reszty zbiorowości. Jest to związane z podnoszeniem do kwadratu poszczególnych odchyleń w początkowej fazie obliczeniowej oznacza to, że znaczne odchylenia, nawet pojedynczych wartości od wartości średniej, mogą prawo spowodować zawyżenie poziomu odchylenia standardowego (szczególnie, gdy tych pomiarów jest zaledwie kilka) w takich przypadkach celowe jest stosowanie odchylenia przeciętnego jako miary dyspersji a Me jako miernika tendencji centralnej   Sigma – odchylenie standardowe dla populacji Prawo trzech sigm: mówi o znikomym prawdopodobieństwie wystąpienia wartości cechy wykraczającej poza przedziały: <-1s, +1s> zawiera 68,3% osobników <-2s, +2s> zawiera 95,5% osobników <-3s, +3s> zawiera 99,7% osobników przeciętnie 6 odchyleń standardowych (po 3s z każdej strony) pokrywa się z prawie całym zakresem zmienności cechy!!!! tylko ok. 32% obserwacji wykracza poza typowy przedział wyznaczony przez średnią arytmetyczną i odchylenie standardowe, tylko 5% obserwacji wykracza poza obszar wyznaczony przez średnią arytmetyczną i dwa odchylenia standardowe i tylko 0,3% obserwacji wykracza poza obszar wyznaczony przez ś.a. i trzykrotność o.s.!!!!!! Typowy obszar zmienności w obszarze tym mieszczą się wartości cechy około 2/3 wszystkich jednostek badanej zbiorowości Współczynnik zmienności ponieważ wielkość odchylenia standardowego zależy od średniej – nie można badać zmienności szeregów statystycznych różniących się średnią!!!! Należy zastosować wskaźnik, który pozwala porównywać grupy osobników pod względem różnych cech, wyrażonych w różnych jednostkach!!!! WYKŁAD V Podsumowanie Miary pozycyjne i odchylenie ćwiartkowe zaleca się stosować, jeśli jedynym dostępnym parametrem spośród miar centralnych jest mediana oraz gdy rozkład badanej zbiorowości jest otwarty lub niedokładny na krańcach szeregu odchylenie standardowe wykorzystujemy, jeśli chcemy precyzyjnie określić poziom rozproszenia w stosunku do średniej arytmetycznej oraz gdy miara ta będzie potrzebna przy dalszej analizie współzależności cech i jej interpretacji Współczynnik skupienia – kurtoza względna miara koncentracji i spłaszczenia rozkładu określa rozmieszczenie i koncentrację wartości (zbiorowości) w pobliżu średniej im wyższa kurtoza tym większe skupienie zbiorowości wokół wartości średniej – większa smukłość krzywej rozkładu mała jej wartość daje efekt odwrotny – większy rozrzut wartości, słabą koncentrację i spłaszczenie krzywej liczebności Kurtoza dla K=0 rozkład ma kształt normalny (rozkład mezokurtyczny) K>0 – rozkład jest bardziej wysmukły niż normalny – rozkład leptokurtyczny, większe skupienie wartości wokół średniej K<0 – rozkład jest mniej wysmukły niż normalny (rozkład platykurtyczny), większe spłaszczenie rozkładu Miary asymetrii Współczynnik asymetrii informuje jaką część odchylenia standardowego stanowi różnica między średnią arytmetyczną a dominantą znak współczynnika określa kierunek a wartość siłę asymetrii skośność >0 – rozkład skośny w prawo skośność <0 – rozkład skośny w lewo im wartość współczynnika bliższa 0, tym większa symetria rozkładu skośność między -1 a 1 świadczy o rozkładzie symetrycznym Zmienność biologiczna cech ciągłych Rozkład normalny – rozkład Gausa Rozkład normalny: podstawowa własność: niezależnie od konkretnych wartości średniej i odchylenia standardowego, powierzchnia pod krzywą (czyli proporcja przypadków) w przedziale od średniej do jakiegokolwiek punktu zależy tylko od odległości tego punktu od średniej, jeśli odległość tę wyrazimy w jednostkach odchylenia standardowego Podsumowanie: krzywa jest symetryczna; średnia, mediana, modalna zbiegają się w jednym punkcie – ta sama wartość najwyższa rzędna krzywej występuje w punkcie średniej, czyli gdy z=0 i w jednostkowej krzywej normalnej równa jest 0,3989 krzywa jest asymptotyczna – zbliża się do osi poziomej, lecz nigdy do niej nie dochodzi i rozciąga od – nieskoń. do + niskoń mniej więcej 68% powierzchni pod krzywą mieści się w granicach + lub – jednej jednostki odchylenia standardowego od średniej w jednostkowej krzywej normalnej granice z=+- 1,96 obejmują 95%, a granice z=+-2,58 obejmują 99% całkowitej powierzchni pod krzywą, przy czym odpowiednio 5% i 1% powierzchni mieści się poza tymi granicami Rozkład standardowy: standaryzowany rozkład normalny jest określany w całości przez dwa parametry: średnią arytmetyczną = 0 i odchylenie standardowe = 1 wyniki pomiarów uzyskane z dowolnej skali w postaci jednostek odchylenia standardowego = wyniki standaryzowane Rozkład standaryzowany: całe pole pod krzywą rozkładu standaryzowanego jest równe jedności !!!!!! zastosowanie skal standaryzowanych: porównywanie wyników uzyskanych na dwóch (lub więcej) skalach pomiarowych o odmiennych właściwościach i przez to bezpośrednio nieporównywalnych – wspólna skala porównawcza!!!!   można również dokonać prostego liniowego przekształcenia wyników standaryzowanych na skalę o dowolnej wartości średniej i odchylenia standardowego. dokonuje się tego, mnożąc wynik standaryzowany przez wartość pożądanego odchylenia standardowego i dodając wartość pożądanej średniej Testowanie hipotez statystycznych etapy testowania hipotezy hipoteza – założenie dotyczące zdarzenia przyszłego lub takiego, którego wynik jest nieznany w momencie predykcji, jest tak sformułowana, że można ją odrzucić, jej testowanie przebiega według schematu: przyjęcie założeń otrzymanie rozkładu z próby wyznaczenie poziomu istotności i obszaru krytycznego wyliczenie statystyki testu podjęcie decyzji Testowanie hipotez hipoteza zerowa: H0 jest zwykle tą, którą chcemy odrzucić – powinna być w sposób prosty i czytelny sformułowana często zakłada, że nie ma związku pomiędzy cechami, nie ma różnic między grupami stwierdza, że ewentualne występująca różnica między średnimi jest niepowtarzalna i wynika wyłącznie z błędu związanego z pobieraniem próby hipoteza alternatywna: H1 zbudowana jako przeciwstawienie H0 Błąd I rodzaju – polega na odrzuceniu hipotezy zerowej, mimo że jest prawdziwa. Prawdopodobieństwo błędu I rodzaju nazywa się poziomem istotności i oznacza jako alfa/p. Najczęściej przyjmowane wartości alfa: p<0,05 – w 5 przypadkach na 100 mamy szansę popełnienia błędu I rodzaju p<0,01 p<0,001 Błąd II rodzaju – polega na przyjęciu hipotezy zerowej, mimo że jest fałszywa. Prawdopodobieństwo popełnienia błędu II rodzaju oznacza się jako beta: wartość alfa i beta są ze sobą powiązane – zmniejszenie prawdopodobieństwa alfa zwiększa prawdopodobieństwo beta! Przykład H0 – brak choroby H1 – obecność choroby badacz popełniający błąd I stwierdziłby, że pacjent jest chory i zatrzymałby go w szpitalu błąd II polegałby na stwierdzeniu, że chory pacjent jest zdrowy i pozbawiony by został opieki Co zwiększa szanse na popełnienia błędu I rodzaju? mała liczebność osób zbyt duża analiz = porównań Co zwiększa szanse popełnienia błędu II rodzaju? mała liczebność osób duże rozproszenie wyników w próbie 1-beta = moc testu = określa prawdopodobieństwo uznania H1 za prawdziwą, gdy jest ona rzeczywiście prawdziwa im bardziej obniżymy wartość błędu I, tym mniejsze grozi niebezpieczeństwo stwierdzenia istotności różnicy średnich, podczas gdy różnica ta jest w rzeczywistości nieistotna! im bardziej obniżymy wartość błędu I, tym większa jest istotność statystyczna ewentualnej różnicy między średnimi! niemożliwe jest jednoczesne minimalizowanie ryzyka popełnienia obu błędów???? ZWIĘKSZENIE LICZEBNOŚCI!!!! jeśli dwa przedziały ufności pokrywają się choćby w części = różnica między średnimi arytmetycznymi jest nieistotna statystycznie na określonym poziomie istotności! jeśli skonstruowane przedziały ufności są całkowicie odseparowane = to odpowiadające im średnie arytmetyczne istotnie różnią się na określonym poziomie istotności!!!!!!! im niższa wartość p (czyli im wyższa istotność statystyczna), tym mniej prawdopodobne jest, że rejestrowana różnica spowodowana jest błędem losowym, a nie badanym przez nas czynnikiem parametr p kwantyfikuje prawdopodobieństwo tego, że uzyskany wynik jest wyłącznie dziełem przypadku jeśli wartość funkcji testowej leży poza obszarem krytycznym, to na przyjętym poziomie istotności p nie ma podstaw do odrzucenia H0 jeśli wartość ta „wpadnie” do obszaru krytycznego, to na przyjętym poziomie istotności p należy odrzucić H0 i przyjąć H1!!! WYKŁAD 7 Testy nieparametryczne - nie wymagają normalności rozkładu cechy – niezależne od rozkładu, zatem wymagają słabszych założeń! - są słabsze (mają mniejszą moc) niż ich odpowiedniki parametryczne co oznacza że prawdopodobieństwo popełnienia błędu II rodzaju β jest większe!!! - im wyższa moc testu, tym mniejsze jest ryzyko nieodrzucenia hipotezy fałszywej. Im wyższa jest zdolność testu do odrzucania hipotez fałszywych, tym wyższa jest jego moc! - zawsze gdy to możliwe, powinniśmy wybierać testy parametryczne! Testy nieparametryczne 1. testy dla 2 niezależnych prób (nieparametryczne odpowiedniki testu t-studenta dla zmiennych niepowiązanych): - test serii Walda-Wolfowitza - test U Manna-Whitneya - test Kołmogorowa-Smirnowa 2. testy dla 2 zależnych prób (nieparametryczne odpowiedniki testu t-studenta dla zmiennych powiązanych): - test znaków - test kolejności par Wilcoxona/test McNemary 3. testy dla n próbek (nieparametryczne odpowiedniki analizy wariancji): - test Kruskala-Wallisa - test Friedmana - test Q Cochrana 4. korelacje nieparametryczne: - R spearmana - Tau Kendalla - test χ2 (chi kwadrat) 5. testy zgodności: test Kołmogorowa-Smirnowa i test χ2 Test chi kwadrat Liczba stopni swobody - liczba stopni swobody df jest równa liczbie wartości, które mogą być określone arbitralnie w ramach definicji danego systemu - np. próba o stałej i znanej nam liczebności n podzielona na k przedziałów ma k-1 stopni swobody, ponieważ jeśli są wyspecyfikowane k-1 częstości, to ostatnia częstość jest określona przez ogólną liczebność próby n - oznacza liczbę niezależnych porównań, które mogą być zrobione między elementami próby! Test chi-kwadrat - 1900r. – Karl Pearson - analizuje skale nominalne o dowolnej liczbie kategorii - bada, czy liczebności empiryczne różnią się istotnie od oczekiwanych Liczebność oczekiwana dla danej komórki jest równa iloczynowi odpowiadających jej liczebności brzegowych podzielonemu przez N: Tablica testu chi-kwadrad; tablica 2x2 (dwa na dwa); tablica asocjacyjna. Test chi-kwadrat 2x2; szybsza formuła. Ale szybsza jest tylko gdy liczby w tabeli są naturalne i rzędu jedności lub dziesiątek (maksymalnie). Interpretacja testu chi-kwadrat Gdyby nie było żadnej zależności pomiędzy zmiennymi, wówczas powinniśmy oczekiwać mniej więcej takich samych liczebności oczekiwanych i obserwowanych. W miarę odchodzenia od tego rośnie wartość testu χ2. Wartość testu χ2. Zależy od liczby obserwacji i liczby komórek w tabeli kontyngencji. Jeśli jakieś liczebności teoretycznie są <5, to wartość testu może być nieprecyzyjna! <- Poprawka yatesa: Test chi-kwadrat sprawdza, czy dwie zmienne są ze sobą powiązane. Jednak poza stwierdzeniem związku między cechami interesuje nas, jak silne jest to powiązanie. Samej wartości testu chi-kwadrat jako miary siły związku nie można powiązanezastosować, zależy ona od liczebności grupy N i rośnie wraz z jej wzrostem. W oparciu o tę wartość zbudowano szereg miar siły związku: współczynnik φ Yula – miara korelacji pomiędzy 2 zmiennymi jakościowymi w tabeli 2x2; przyjmuje wartości od 0 do 1; współczynnik V-Cramera; współczynnik kontyngencji Pearsona - interpretacja wszystkich współczynników jest taka sama - jeśli posiada on wartość 0, to cechy X i Y są niezależne - im bliższa 1 jest wartość tych współczynników, tym silniejsze jest powiązanie pomiędzy analizowanymi cechami Modele regresyjne – wprowadzenie Modelowanie zależności między zmiennymi ciągłymi (mierzonymi na skali interwałowej i ilorazowej): - ocena siły zależności - modelowanie zależności – związek między zmiennymi opisywany jest funkcją liniową w modelach regresji liniowej i nieliniową w modelach regresji logistycznej - w modelach regresyjnych można określić kierunek zależności, ponieważ w modelach tych jedna ze zmiennych jest zmienną objaśnianą (zależną), a pozostałe (lub jedna tylko) są zmiennymi objaśniającymi i współczynnik regresji ma określony znak Miary zależności między zmiennymi ciągłymi - korelacja Miary korelacji -> Korelacja - 2 zmienne mogą być ze sobą powiązane zależnością funkcyjną lub zależnością statystyczną (korelacyjną). Związek funkcyjny odznacza się tym, że każdej wartości jednej zmiennej niezależnej (będziemy ją oznaczać jako X) odpowiada tylko jedna, jednoznacznie określona wartość zmiennej zależnej (Y). - wiadomo na przykład, że obwód kwadratu jest funkcją jego boku (O = 4a) Na podstawie analizy merytorycznej należy logicznie uzasadnić występowanie związku, a dopiero potem przystąpić do określenia siły i kierunku zależności. Znane są bowiem w literaturze badania zależności (nawet istotnej statystycznie) między: - liczbą zajętych gniazd bocianich a liczbą urodzeń na danym obszarze - liczbą zarejestrowanych odbiorników TV a liczbą chorych umysłowo Liczbowe stwierdzenie występowania zależności nie zawsze oznacza występowanie związku przyczynowo-skutkowego między badanymi zmiennymi. Współwystępowanie 2 zjawisk może również wynikać z bezpośredniego oddziaływania na nie jeszcze innego, trzeciego zjawiska. W analizie korelacji badacz jednakowo traktuje obie zmienne – nie wyróżniamy zmiennej zależnej i niezależnej. Korelacja między X i Y jest taka sama, jak między Y i X. mówi nam ona, na ile obie zmienne zmieniają się równocześnie w sposób liniowy. Precyzyjna definicja zaś brzmi: - korelacja między zmiennymi X i Y jest miarą siły liniowego związku między tymi zmiennymi 1. analizę związku korelacyjneg o między badanymi cechami rozpoczynamy zawsze od sporządzenia wykresu!!! 2. Wykresy, które reprezentują obrazowo związek pomiędzy zmiennymi, nazywane są wykresami rozrzutu (scatterplot). Wzrokowa ocena ułatwia określenie siły i rodzaju zależności 3. Przyjmijmy że zbiorowość jest badana ze względu na 2 zmienne X i Y, a wartości tych zmiennych w populacji lub próbie n-elementowej są zestawione w postaci 2 szeregów szczegółowych lub rozdzielczych. W prostokątnym układzie współrzędnych na osi odciętych (X) zaznaczamy wartości jednej zmiennej, a na osi rzędnych (Y) – wartości drugiej zmiennej. Punkty odpowiadające poszczególnym wartościom cech tworzą korelacyjny wykres rozrzutu. 4. Rzadko zdarza się że zaznaczone punkty leżą dokładnie na linii prostej (pełna korelacja); częściej spotykana konfiguracja składa się z wielu zaznaczonych punktów leżących mniej więcej wzdłuż konkretnej krzywej (najczęściej linii prostej). Taka sytuacja przedstawiona jest jako przypadek 1 i 2 na rysunku 1. Przy silnie skorelowanych zmiennych odnosimy wrażenie, jakby te punkty równocześnie się poruszały. 5. Gdy korelacja staje się coraz słabsza, wówczas punkty zaczynają się rozpraszać i przesuwać, tworząc w pewnym momencie bezkształtną chmurę punktów (brak korelacji). Taka sytuacja ma miejsce w przypadku 3 na rys 1. korelacja dodatnia – występuje wtedy, gdy wzrostowi wartości jednej zmiennej odpowiada wzrost wartości drugiej zmiennej (1 na rys 1) korelacja ujemna – występuje wtedy gdy wzrostowi wartości jednej zmiennej odpowiada spadek wartości drugiej zmiennej (2 na rys 1) Współczynniki korelacji liniowej pearsona Siłę współzależności 2 zmiennych można wyrazić liczbowo za pomocą wielu mierników. Najbardziej popularny jest współczynnik korelacji liniowej pearsona, oznaczony symbolem rXY i przyjmujący wartości z przedziału [-1; 1]. Współczynnik korelacji Pearsona wyliczamy wówczas, gdy obie zmienne są mierzalne i mają rozkład zbliżony do normalnego, a zależność jest prostoliniowa (stąd nazwa). Przy interpretacji należy pamiętać, że wartość współczynnika bliska 0 nie zawsze oznacza brak zależności, a jedynie brak zależności liniowej! Znak współczynnika korelacji informuje o kierunku korelacji, natomiast jego bezwzględna wartość – o sile związku. Oczywiście rXY jest równe rYX. Jeśli rXY = 0, oznacza to zupełny brak związku korelacyjnego między badanymi zmiennymi X i Y (3 rys 1.) Im wartość bezwzględna współczynnika korelacji jest bliższa jedności, tym zależność korelacyjna między zmiennymi jest silniejsza!! Gdy rXY = 1, to zależność korelacyjna przechodzi w zależność funkcyjną (funkcja liniowa). W analizie statystycznej zwykle przyjmuje się następującą skalę współczynnika korelacji: - rXY = 0 zmienne nie są skorelowane - 0 < rXY < 0,1 korelacja niska - 0,1 =< rXY < 0,3 korelacja słaba - 0,3 =< rXY < 0,5 korelacja przeciętna - 0,5 =< rXY < 0,7 korelacja wysoka - 0,7 =< rXY < 0,9 korelacja bardzo wysoka - 0,9 =< rXY <1 korelacja prawie pełna Współczynnik korelacji rang spearmana Własności współczynnika korelacji rang: - rs = 1, gdy pary rang uszeregowane są w tym samym porządku -rs= -1, gdy pary rang uszeregowane są w odwrotnym porządku - rs = 0 w przypadku czysto losowego ułożenia się rang Współczynnik korelacji liniowej pearsona służy do oceny zależności liniowej, natomiast współczynnik korelacji rang spearmana do oceny zależności monotonicznej (rosnącej lub malejącej, niekoniecznie liniowej!) Ponieważ każda zależność liniowa jest monotoniczna, a nie każda monotoniczna jest liniowa – współczynnik korelacji rang jest nieco ogólniejszy niż współczynnik pearsona Jeśli zależność między badanymi zmiennymi jest zależnością liniową – wartości obu współczynników będą podobne Jeśli zależność krzywoliniowa (ale monotoniczna), to wartość współczynnika korelacji rang będzie większa niż współczynnika korelacji liniowej R2 – kwadrat współczynnika korelacji = współczynnik determinacji: jest to opisowa miara dokładności dopasowania regresji do danych empirycznych. Przyjmuje wartości z przedziału <0, 1> lub w ujęciu odsetkowym (0, 100%> i informuje (zgodnie z zapisem), jaka część zaobserwowanej w próbie całkowitej zmienności Y została wyjaśniona (zdeterminowana) regresją względem X. im większe R2, tym powiązanie jest lepsze i można mieć większe zaufanie do ewentualnej linii regresji Jeśli R2 jest równy 0, niekoniecznie oznacza to że nie ma zależności między zmiennymi. Oznacza to iż model liniowy jest nieodpowiedni do opisu zależności między zmienną objaśnianą i objaśniającą (gdyż zależność ta może być nieliniowa i wówczas model liniowy nie pasuje = jest źle dopasowany do danych empirycznych Możemy również mieć do czynienia ze skorygowanym współczynnikiem determinacji (adjusted R2)! Został wprowadzony (szczególnie w SPSS), aby lepiej odzwierciedlać jakość dopasowania modelu w populacji generalnej! Testy parametryczne - służą do weryfikacji hipotez parametrycznych, odnoszących się do parametrów rozkładu badanej cechy w populacji generalnej - najczęściej weryfikują sądy o takich parametrach populacji jak: średnia arytmetyczna, wskaźnik struktury i wariancja - testy te konstruowane są przy założeniu znajomości postaci dystrybuanty w populacji generalnej - biorąc pod uwagę zakres ich zastosowań, testy te można podzielić na 2 grupy - testy parametryczne służące do weryfikacji własności populacji jednowymiarowych oraz testy służące do porównania własności 2 populacji Testy parametryczne służące do weryfikacji własności populacji jednowymiarowych: - testy dla średniej - test dla proporcji (wskaźnika struktury) - test dla wariancji w testach tych oceny parametrów uzyskane z próby losowej są porównywane z hipotetycznymi wielkościami parametrów, traktowanymi jako pewien wzorzec Testy parametryczne służące do porównania własności 2 populacji: - test dla 2 średnich - test dla 2 proporcji - test dla 2 wariancji testy te porównują oceny parametrów uzyskane z 2 prób losowych. Porównywanie 2 średnich Kolejne kroki testowania statystycznego -> Porównywanie średnich może dotyczyć średnich dla prób: - niezależnych – porównujemy średnie 2 różnych grup – wyniki pomiaru jednej grupy nie są zależne wobec pomiaru drugiej grupy - zależnych – gdy oceniamy skutek pewnych działań przeprowadzonych na tej samej grupie; wówczas porównujemy wartość sprzed działań ze średnią po działaniach np. badanie efektywności terapeutycznej leku i porównywanie stanu pacjentów przed podaniem leku i po podaniu - dla jednej próby – porównanie ze sobą średniej i odchylenia standardowego zbadanej jednej grupy osób badanych z założoną z góry wartością Próby niezależne – przykład: - chcemy sprawdzić czy studenci UWr mają wyższy poziom inteligencji niż studenci UM. W tym celu badamy jedną i drugą grupę testem na inteligencję. Aby porównać wyniki obydwu grup stosujemy test t-studenta (jeżeli założenia tego testu zostały spełnione) dla prób niezależnych Próby zależne – przykład: - chcemy sprawdzić czy nowy lek obniżający poz cukru jest skuteczny. Przed zastosowaniem leku każdemu pacjentowi oznaczamy poz cukru. Po 2-tygodniowym stosowaniu leku ta sama grupa pacjentów jest badana ponownie. Aby stwierdzić czy lek jest skuteczny należny zastosować test t dla prób zależnych Test dla 1 próby – przykład: - średnia wartość IQ w populacji wynosi 100; studenci uzyskali śr wynik 116. Korzystając z testu t-studenta dla jednej próby oceniamy czy wynik studentów jest wyższy (ze statystycznego pkt widzenia) niż średni poz IQ w populacji William sealy gosset (1876-1937) – statystyk angielski. Publikował pod pseudonimem student (stąd nazwa wprowadzonego przez niego w 1908r rozkładu podobieństwa – rozkładu studenta). Przez większość życia pracował w browarach guinnessa w dublinie i w londynie. Zajmował się tam m.in. kontrolą jakości piwa i surowców do jego produkcji, co doprowadziło go do rozważań nad statystyką i szacowaniem nieznanych parametrów. Nie miał gruntownego wykształcenia matematycznego, posługiwał się jednak genialną intuicją (porównywano go pod tym względem do fizyka Michaela Faradaya), co sprawiło że wniósł wielki wkład w rozwój metod statystycznych (estymacji, testowania hipotez statystycznych) i wiedzy o projektowaniu eksperymentów. rozkład t-studenta -> test t-studenta - wyniki pomiarów w skali interwałowej - najwyżej 2 grupy do porównania - dane powinny pochodzić populacji o rozkładzie normalnym - jednorodność (homogeniczność) wariancji obu porównywanych grup (nie jest to warunek konieczny) - wygodny i użyteczny dla małych prób; można stosować do dużych prób rodzaje testów t -> wzory testów t-studenta - błąd standardowy próby – Sx; SE (standard error) – błąd standardowy różnicy między 2 średnimi określa rozproszenie średnich - zależy od liczebności próby: im większa liczebność, tym mniejszy błąd! - określa granice przedziału zamykające określoną liczbę charakterystyk statystycznych Zróżnicowanie testów t: Test cochrana-coxa (1950) – stosowany w przypadku niespełnienia warunku o homogeniczności wariancji Test u manna-whitneya (test sumy rang wilcoxona) (1914) Jedna z najpopularniejszych nieparametrycznych alternatyw dla testu t-studenta dla prób niezależnych. Zmienna zależna musi być mierzona na skali co najmniej porządkowe (może być również mierzona na skali ilościowej). Jest to podstawowy warunek dla zastosowania tego testu. Możemy z niego korzystać również, gdy zmienna jest mierzona na skali dychotomicznej (czyli 0-1), dlatego że jest to przypadek zmiennej nominalnej, która jest zarazem zmienną porządkową. Zastosowanie testu u manna-whitneya nie wymaga równoliczności grup, rozkładu normalnego czy też homogenicznych wariancji Test u manna-whitneya polega na rangowaniu wyników zmiennej zależnej (od najmniejszej do największej) w badanych grupach, a następnie grupy są ze sobą porównywane. - np. chcemy sprawdzić, czy kobiety różnią się od mężczyzn pod względem poziomu wykształcenia mierzonego na skali (podstawowe, zawodowe, średnie, wyższe). Ponieważ zmienna zależna (poziom wykształcenia) jest mierzona na skali porządkowej stosujemy test U manna-whitneya do sprawdzenia różnic pomiędzy badanymi grupami. Test Z – stosowany w przypadku spełnienia podstawowych założeń homogeniczności wariancji oraz dużych prób (>30) a także w przypadku 1 próby! WZORY I INNE ZJAWISKA POGODOWE Średnia harmoniczna: Średnia geometryczna: Współczynnik zmienności: = parametr określający miarę zróżnicowania cechy (odchylenie standardowe / średnia * 100%) Z-score / wynik standardowy: -> wynik dający wyobrażenie jak daleko jest on od wartości średniej punktu danych ([wartość - średnia] / odchylenie standardowe) -> Tablica standardowego rozkładu normalnego (Z) Współczynnik skupienia - kurtoza: = względna miara koncentracji i spłaszczenia rozkładu (m^4 = średnia arytmetyczna)? Współczynnik asymetrii: -> służy do określania jak wygląda rozkład, tzn. czy dane są w miarę równo rozłożone po obu stronach wykresu ([średnia arytm. - dominanta] / odchylenie standardowe) As>0 -> prawostronna; As<0 -> lewostronna Kwartyle: Q2 = 50% = *wartość mediany* Q1 = 25% = ½ * Q2 Q3 = 75% = 3 * Q1 Chi kwadrat: 1) liczymy wartości oczekiwane (E) 2) podstawiamy wartości do wzoru (O - liczebność obserwowana, E - liczebność oczekiwana) 3) porównujemy z wartościami dla p=0,05 / 0,01 / 0,001 i odpowiednich stopni swobody (df) Df = (liczba rzędów - 1)(liczba kolumn - 1) -> tablica dla chi kwadrat Korelacja liniowa Pearsona: 1) Wykonujemy tabelkę i podstawiamy wartości do jednego z wzorów lub 2) Obliczamy df [ df = N-2 ] (-> to, co będzie w liczniku) 3) Obliczamy t (współczynnik korelacji / (pierwiastek z 1 - r^2) * pierwiastek z df) 4) Wynik porównujemy z wartością z tablicy rozkładu t studenta Korelacja Spearmana: 1) Wykonujemy tabelkę i podstawiamy wartości do wzoru: (di = różnica między dwiema rangami danej obserwacji; n = liczba obserwacji) 2) Obliczamy df [ df = N-2 ] (-> to, co będzie w liczniku) 3) Obliczamy t (współczynnik korelacji / (pierwiastek z 1 - r^2) * pierwiastek z df) 4) Wynik porównujemy z wartością z tablicy rozkładu t-studenta Test t-studenta dla prób zależnych: 1) Σx2i = Σd^2 - (Σd)^2 / N (d = X1 - X2) 2) Obliczamy wariancję s^2 = Σx2i / N − 1 3) Pierwiastkujemy wariancję 4) Obliczamy błąd standardowy, d średnie i stopnie swobody Sx = s / √N d(śr) = Σd / N df = N-1 5) Obliczamy t t = | d(śr) / Sx | z tablic dla t -> t-alfa (jeśli t > t-alfa = odrzucamy H0) Test t-studenta dla prób niezależnych: 1) Obliczamy wariancję 2) F = (wariancja większa) / (wariancja mniejsza) -> tabela dla F (z lewej do prawej -> N-1 gdzie wariancja była większa, z góry do dołu -> N-1 gdzie wariancja była mniejsza) [ F-alfa < F => test jednostronny ] 3) Obliczamy błąd standardowy próby dla wariancji homogenicznych 4) df = N1+N2-2 t = | Xśr.1 - Xśr.2 | / Sx t-alfa -> z tabeli dla t