Tema 3 Introduction to Hypothesis Testing PDF

Summary

This document introduces the topic of hypothesis testing. It details the contents of the topic, different approaches and examples. The document is suitable for students studying statistics at an undergraduate level.

Full Transcript

Tema 3 Introducción al contraste de hipótesis Parte II Contenidos 1.- Introducción. 2.- La lógica del contraste de hipótesis. 2.1.- Hipótesis estadísticas. 2.2.- Supuestos. 2.3.- Estadístico de contraste. 2.4.- Regla de decisión. 2.5.- Decisión. 3.- Errores Tipo I y Tipo II. 4.- Potencia de un con...

Tema 3 Introducción al contraste de hipótesis Parte II Contenidos 1.- Introducción. 2.- La lógica del contraste de hipótesis. 2.1.- Hipótesis estadísticas. 2.2.- Supuestos. 2.3.- Estadístico de contraste. 2.4.- Regla de decisión. 2.5.- Decisión. 3.- Errores Tipo I y Tipo II. 4.- Potencia de un contraste. 5.- Nivel crítico 6.- Estimación por intervalos y contraste de hipótesis 7.- Inferencia paramétrica 8.- Inferencia no paramétrica 5.2 Tamaño del efecto • Se trata de la magnitud de un efecto, una manera de cuantificar un efecto experimental • Se cuantifica la decisión tomada en el contraste de hipótesis • Existen distintos indicadores o estadísticos del tamaño del efecto • Los que están estandarizados se pueden interpretar en términos absolutos (sabemos si su valor es grande o pequeño sin comparar con otros valores) • Se relaciona con la potencia. Cuanto mayor es la potencia del contraste, mayor será el tamaño del efecto • Son importantes para meta-análisis 5.2 Tamaño del efecto ejemplos • En diferencia de medias se usa la d de Cohen • Para correlación se usa eta cuadrado (η2 ) y 𝑟𝑟 2 • Cuando deseamos comparar distintos grupos en alguna variable se puede usar omega cuadrado (𝜔𝜔2 ) o también η2 6.- Estimación por intervalos y contraste de hipótesis Podemos construir un intervalo de confianza en torno a un parámetro con la idea de realizar contrastes de hipótesis puesto que delimita las regiones críticas de la H0 6.- Estimación por intervalos y contraste de hipótesis Podemos establecer un IC para μ: p(� X-ZcσX� ≤ μ ≤ � X+ZcσX� ) = 0,95 ¿Para qué sirve? Para contrastar hipótesis sobre una 𝑋𝑋� dada 6.- Estimación por intervalos y contraste de hipótesis Si H0: μ = 50; y dos resultados posibles 𝑋𝑋�1 𝑦𝑦 𝑋𝑋�2 (ver figura) Sabiendo la desv típica de la distribución podemos establecer un IC para μ: � 𝜎𝜎𝑋𝑋� )=0,95 ; ¿Qué resultado apoya H0? � 𝜎𝜎𝑋𝑋� ≤ μ ≤ 𝑋𝑋+Zc p(𝑋𝑋-Zc 𝑋𝑋�1 𝑋𝑋�2 6.- Estimación por intervalos y contraste de hipótesis Para 𝑋𝑋�1 acepto H0 pero para 𝑋𝑋�2 la rechazo Evidentemente este razonamiento vale para cualquier valor que atribuyamos a μ 𝑋𝑋�1 𝑋𝑋�2 6.- Estimación por intervalos y contraste de hipótesis • Vamos a trabajar un ejemplo: Sabemos que el cociente intelectual de la población de estudiantes de psicología en España era de 105 en 1999. Sabemos que la varianza de esta población es de 12. Hacemos una nueva investigación para investigar este dato en 2023 y con una muestra de 22 participantes obtenemos una media de 96. Con un nivel de confianza del 95% ¿Podemos concluir que la inteligencia de los estudiantes de psicología ha disminuido en dos décadas? 7.- Inferencia paramétrica Breve introducción: • Cuando los contrastes de hipótesis los hacemos tal como se ha venido exponiendo hasta ahora, los llamamos paramétricos • Sus características son • Conocemos la distribución muestral de los estadísticos de contraste • Existen supuestos sobre la distribución de la población o poblaciones de las que se extraen los estadísticos de contraste • Las medidas están en escala de intervalo o razón • Vamos a ver los contrastes más frecuentes 7.- Inferencia paramétrica ¿Qué información necesitamos para escoger un estadístico de contraste apropiado? a) Características de la distribución de la población características del estadístico sobre el que queremos hacer el contraste b) ¿Conocemos la varianza de la población? c) ¿Son las observaciones dependientes o independientes? 7.- Inferencia paramétrica Una vez que escogemos el estadístico de contraste… a) Necesitamos tener la información sobre cómo se distribuye b) Para realizar la decisión final tenemos que definir si el contraste es unilateral o bilateral c)Finalmente podemos construir un intervalo de confianza que nos ayude a entender mejor el proceso de decisión CUADRO RESUMEN PARA CONTRASTES DE HIPÓTESIS PARA LA MEDIA UNA MEDIA CARACTERÍSTICAS DE LA POBLACION CARACTERÍSTICAS DE LA MUESTRA ESTADISTICO DE CONTRASTE Conocida σ2 Desonocida σ2 N(µ, σ2) N(µ, σ2) N(0,1) N(µ, σ12) y N(µ, σ22) n1 y n2 observaciones aleatorias e independientes T= X1 − X 2 ~ ~ (n1 − 1)S12 + (n 2 − 1)S22 1 1 · + n1+ n 2 − 2 n1 n 2 N(0,1) n1 y n2 observaciones aleatorias e independientes Z= N(µd, σd2) N(µd, σd2) n diferencias independientes n diferencias independientes X1 − X 2 ~ ~ S12 S22 + n1 n 2 Z= N(0,1) t n1 + n 2 − 2 D σd D Z= ~ Sd n n N(0,1) tn-1 Z ≤ zα / 2 T≤ α / 2 t n −1 Z ≤ zα / 2 T≤ α / 2 t n1 + n 2 − 2 Z ≤ zα / 2 Z ≤ zα / 2 T≤ α / 2 t n −1 bilateral t n −1 Desconocidas σ21 y σ22 pero ≠ N(µ, σ12) y N(µ, σ22) DOS MEDIAS (muestras dependientes) Conocida σ2 Desonocida σ2 y Z ≥ z1− α / 2 y T≥1− α / 2 t n −1 y Z ≥ z1− α / 2 y T≥1− α / 2 t n1 + n 2 − 2 y Z ≥ z1− α / 2 y Z ≥ z1− α / 2 y T≥1− α / 2 t n −1 unilateral REGIÓN CRÍTICA Conocidas σ21 y σ22 N(µ, σ12) y N(µ, σ22) n n n1 y n2 observaciones observaciones observaciones Aleatorias e independientes independientes independientes X − µ0 X − µ0 X1 − X 2 Z= T= Z= ~ σ S σ12 σ 22 + n n n1 n 2 DISTRIBUCION DEL ESTADISTICO DOS MEDIAS (muestras independientes) Desconocidas σ21 y σ22 pero = Ó INTERVALO DE CONFIANZA Z ≤ zα Z ≥ z1− α  σ  X ± z α / 2 ·  n  ó T≤ α t n −1 T≥1− α t n −1 ~  S X ± α / 2 t n −1 ·  n   ó Z ≤ zα ó Z ≥ z1− α   σ12 σ 22  ( X − X ) ± z · + α /2 2  1 n1 n 2    T≤ α t n1 + n 2 − 2 T≥1− α t n1 + n 2 − 2  ~ ~   1   (n1 − 1)S12 + (n 2 − 1)S22 1 ( X − X ) ± · t · + α / 2 n1 + n 2 − 2  2  1 n1 n 2  n1+ n 2 − 2     [ ] ó Z ≤ zα Z ≥ z1− α   ~ 2 ~ 2  ( X − X ) ± [z ]· S1 + S2  α /2    1 2  n1 n 2     Ó Z ≤ zα ó Z ≥ z1− α  σ  D ± zα / 2 · d   n     T ≤ α t n −1 T ≥1− α t n −1   S~   D ± α / 2 t n −1 · d   n     Contraste de hipótesis para la VARIANZA CARACTERÍSTICAS DE LA POBLACION CARACTERÍSTICAS DE LA MUESTRA ESTADISTICO DE CONTRASTE X= bilateral unilateral REGION CRITICA INTERVALO DE CONFIANZA DOS VARIANZAS (muestras independientes) DOS VARIANZAS (muestras dependientes) N(µ, σ2) N(µ, σ12) y N(µ, σ22) N(µ, σ12) y N(µ, σ22) n observaciones independientes N1 y n2 observaciones independientes n1 y n2 observaciones relacionadas nS2 X= σ 02 σ 02 χ n2−1 X ≤ α / 2 χ 2n −1 X ≤ α / 2 χ 2n −1 y X ≥ 1− α / 2 χ 2n −1 X≥ Ó 2 1− α / 2 χ n −1 X ≤ α χ 2n −1 X≥ 2 1− α χ n −1  nS2  ,  1− α / 2 χ 2n −1  nS  2 χ n − 1 α/2  2 Ó ~2 S F = ~12 S2 ~ (n − 1)S 2 χ n2−1 DISTRIBUCION DEL ESTADISTICO y UNA VARIANZA X ≤ α χ n2 −1 X≥ 2 1− α χ n −1 ~2 ~2    (n − 1)S , (n − 1)S   χ2 χ2   1−α / 2 n −1 α / 2 n −1  T= (S12 − S22 ) n − 2 2S1S2 1 − r12, 2 t n −2 F( n 1 −1), ( n 2 −1) y F≤ α / 2 Fn1 −1, n 2 −1 F≥ 1− α / 2 Fn1 −1, n 2 −1 Ó F ≤ α Fn1 −1, n 2 −1 F≥ 1− α Fn1 −1, n 2 −1 ~2  ~ S S2  ~1 α / 2 Fn 2 −1, n1 −1 , ~1 1−α / 2 Fn 2 −1, n 2 −1    S22 S22 y T≤ α / 2 t n − 2 T≥1− α / 2 t n − 2 Ó T≤ α t n − 2 T≥1− α t n − 2 No es fácil de determinar Contraste de hipótesis para la PROPORCIÓN UNA PROPORCION DOS PROPORCIONES (muestras independientes) Desconocidas Π1 y Π2 pero iguales Desconocidas Π1 y Π2 pero distintas Las dos de Bernouilli Las dos de Bernouilli Bernouilli CARACTERÍSTICAS DE LA POBLACION CARACTERÍSTICAS DE LA MUESTRA ESTADISTICO DE CONTRASTE n observaciones independientes Z= X P= n n1 y n2 observaciones aleatorias e independientes P −π 0 π 0 (1 − π 0 ) n Unilateral REGIÓN CRÍTICA Bilateral DISTRIBUCION DEL ESTADISTICO INTERVALO DE CONFIANZA   n  2 n + z   z2   P + 2n ± zα / 2    P(1 − P) z 2  +  n 4n 2    P1 − P2  n1 P1 + n 2 P2   n1 + n 2  n1 P1 + n 2 P2 1 − n1 + n 2  N(0,1) B(n,Π0) Xi y Xs,, donde Xi es el número entero positivo máximo que verifica que P(X ≤ Xi) ≤α/2 y Xs es el número entero positivo mínimo que verifica P(X ≥ Xs) ≤α/2 Xi y Xs,, donde Xi es el número entero positivo máximo que verifica que P(X ≤ Xi) ≤α y Xs es el número entero positivo mínimo que verifica P(X ≥ Xs) ≤α Z=  1 1   +  n n 2   1 n1 y n2 observaciones aleatorias e independientes Z= ( P1 − P2 ) P1 (1 − P1 ) P2 (1 − P2 ) + n2 n1 N(0,1) DOS PROPORCIONES (muestras dependientes) Bernouilli para B + D personas b + d observaciones independientes Z= N(0,1) Pb − Pd (b + d) n2 N(0,1) Z ≤ zα / 2 Z ≤ zα / 2 Z ≤ zα / 2 Z ≤ zα / 2 y Z ≥ z1− α / 2 y Z ≥ z1− α / 2 y Z ≥ z1− α / 2 y Z ≥ z1− α / 2 Ó Z ≤ zα Ó Z ≥ z1− α  ·P ± zα / 2  P(1 − P)   n  {(P1 − P2 ) ± z α / 2 · Z ≤ zα Z ≥ z1− α  n1·P1 + n 2 ·P2  n1·P1 + n 2 ·P2  1 1     + 1 −  n1 + n 2  n1 n 2    n1 + n 2   Ó {(P1 − P2 ) ± z α / 2 · Z ≤ zα Z ≥ z1− α  P1 (1 − P1 )   P2 (1 − P2 )     +    n1 n2      Ó Z ≤ zα Z ≥ z1− α {(Pb − Pd ) ± zα / 2 · b + d   n 2  Contraste para coeficiente correlación Supuestos: -Las variables son cuantitativas de razón -Se distribuyen según distribución normal -La relación es lineal 𝑡𝑡𝑛𝑛−2 = H0 se rechaza si 𝑟𝑟𝑥𝑥𝑥𝑥 𝑛𝑛 − 2 2 1 − 𝑟𝑟𝑥𝑥𝑥𝑥 𝑡𝑡𝑛𝑛−2 ≤ 𝑡𝑡𝛼𝛼,𝑛𝑛−2 ó 𝑠𝑠𝑠𝑠 𝑡𝑡𝑛𝑛−2 ≥ 𝑡𝑡1−𝛼𝛼,𝑛𝑛−2 2 2 Ejemplo 1 • Un Psicofisiólogo afirma que la media de respuesta cortical consciente ante cierto estímulo eléctrico aplicado en un dedo del pie se produce a los 1500 ms. Sin embargo, una estudiante que trabaja con él piensa que No. Para investigarlo eligen aleatoriamente a 81 alumnos y obtienen un tiempo medio de 1450 ms. Suponiendo que la desviación típica de la población es de 180 ms ¿con qué hipótesis son compatibles estos datos a un α=0,01? Además de hacer el contraste, calcula el intervalo de confianza para la media poblacional. Ejemplo 2 • Escogemos cinco pares de personas. Cada par de personas fue escogido de modo que tenían el mismo cociente intelectual. Les pasamos una prueba de creatividad con los resultados que aparecen en el cuadro. ¿Existen diferencias entre los dos grupos en medidas de creatividad a un α=0,05? Miembro1 del par Miembro2 del par 4 0 9 4 7 8 10 6 15 12 Nota: necesitas trabajar con las diferencias y calcular varianza insesgada de las diferencias Ejemplo 3 • Nuestro objetivo es comprobar si los pacientes con esquizofrenia presentan más varianza en las respuestas a un test de atención ejecutiva (A1) que en un test de atención selectiva (A2). Seleccionamos dos muestras: Para A1 de 61 pacientes y para A2 de 41 pacientes. La varianza insesgada de A1 es 20 y la de A2 es 10. ¿Podemos decir con un α=0,05 que las varianzas son iguales en las dos poblaciones? Ejemplo 4. • Deseamos conocer la postura de los profesores de la UJA sobre la posibilidad de suprimir los exámenes en todos los grados. Se plantea una encuesta a 100 profesores donde responden a favor o en contra. Se manifestaron a favor un total de 56. Al día siguiente del estudio, los diarios publicaron: el 50% de los profesores de la uja a favor de eliminar los exámenes. ¿Podemos decir que este enunciado es estadísticamente acertado? Ejemplo 5. • Realizamos una investigación donde queremos saber si la impulsividad correlaciona con la ansiedad en la población española. Pasamos dos tests midiendo estos constructos a 52 personas elegidas aleatoriamente, y encontramos que la correlación de Pearson es de 0,30. ¿podemos decir que la impulsividad y la ansiedad correlacionan en la población? Inferencia no paramétrica Tema 3, Parte 3 Introducción Hasta ahora: • La distribución poblacional de la variable de interés era conocida • La distribución muestral de los estadísticos de contraste era conocida (por ejemplo la distribución muestral de la media es una curva normal) • Las medidas usadas estaban al menos en escala de intervalo (cuantitativa) • Las inferencias se hacían sobre parámetros poblacionales Introducción • Existen casos en los que no se cumplen las condiciones anteriores • Se introducen nuevas técnicas denominadas No paramétricas o “de distribución libre” • Características más importantes: • No exigen que la distribución poblacional sea conocida ni impone condiciones sobre estas distribuciones (varianza conocida etc) • La distribución muestral de los estadísticos no está sometida a restricciones muy exigentes. Ello no quiere decir que sea caótica sino que habrá exigencias pero más laxas. • El nivel de medida no tiene que ser cuantitativo Ventajas e inconvenientes Ventajas • Son válidas cuando las medidas poblacionales no son normales • Son válidas a nivel de medida ordinal y cualitativo • Se pueden usar muestras pequeñas • Los cálculos numéricos son más sencillos Inconvenientes • No se opera con las puntuaciones directas sino con ordenaciones o puntuaciones divididas en categorías • Son contrastes menos potentes Algunas técnicas no paramétricas • UNA SOLA MUESTRA: PRUEBA DE KOLMOGOROV-SMIRNOV • Se usa para comprobar si las puntuaciones de una determinada muestra pertenecen a una distribución poblacional conocida • La hipótesis que se plantea es sobre la forma de la distribución de los datos • Se trata de una prueba de bondad de ajuste entre la distribución empírica y una distribución teórica Kolmogorov-Smirnov UNA SOLA MUESTRA: PRUEBA DE KOLMOGOROV-SMIRNOV K-S Población No difieren significativamente Muestra vs. Distribución teórica Aceptamos que la población sigue la distribución que le atribuye la hipótesis Comparar las dos distribuciones Difieren significativamente La población NO se distribuye como se había hipotetizado (más probable)) Rechazar hipótesis propuesta UNA SOLA MUESTRA: PRUEBA DE KOLMOGOROV-SMIRNOV K-S Contraste: • H0: Los datos siguen una distribución M • H1: Los datos no siguen una distribución M • Muestra: n observaciones independientes • Estadístico de contraste: D. Distancia máxima entre distribución empírica y teórica • Si los valores observados y los teóricos son similares D presenta una magnitud pequeña UNA SOLA MUESTRA: PRUEBA DE KOLMOGOROV-SMIRNOV K-S PRUEBA DE MANN – WHITNEY (Diferencias en tendencia central, 2 muestras independientes) Esta prueba sirve para comprobar si existen diferencias significativas en medidas de tendencia central de 2 muestras con observaciones independientes. Está considerada una de las más potentes dentro del contexto no paramétrico, para dos muestras independientes. La escala de medida debe ser al menos ordinal. Constituye una buena alternativa para la prueba paramétrica t Student. PRUEBA DE MANN – WHITNEY (Diferencias en tendencia central, 2 muestras independientes) H0: no hay diferencias. H1: sí hay diferencias. En general hay dos procedimientos: Para n1 y n2 ≤ 10 sujetos. Se calcula el estadístico U y se busca su significación en tablas Para n1 y n2 > 10 sujetos. El proceso de análisis resulta en un estadístico Z que se distribuye como N(0,1) DOS MUESTRAS RELACIONADAS: PRUEBA DE WILCOXON La prueba más potente para dos grupos relacionados en el contexto no paramétrico. No hace supuestos sobre las distribuciones de las dos variables Este procedimiento considera las diferencias entre cada par de puntuaciones relacionadas. Si el número de diferencias positivas y negativas entre cada par es aproximadamente el mismo, entonces las muestras son iguales El estadístico de contraste se denomina W y para n > 20 se puede transformar en una Z que se distribuye como N(0,1) K MUESTRAS INDEPENDIENTES: PRUEBA DE KRUSKAL-WALLIS • Es la generalización de la prueba de Mann-Whitney • Esta prueba se utiliza cuando tenemos K muestras aleatorias simples, extraídas de una misma población o de K poblaciones con idéntica distribución • Las observaciones de cada muestra son independientes • El nivel de medida es ordinal • El estadístico que se obtiene es T que se distribuye como una 2 con (k – 1) grados de libertad PRUEBA DE FRIEDMAN (Diferencias en tendencia central, k muestras dependientes) • H0: Las poblaciones son iguales • H1: Las poblaciones son distintas. • Las puntuaciones de n personas bajo k condiciones distintas • El estadístico que se obtiene es una 2 con k grados de libertad Un caso especial: la 2 de Pearson • Se usan variables cualitativas o categóricas • Para usarlas de un modo cuantitativo se computan frecuencias de ocurrencia en las variables • Es decir, las variables se definen por categorías y se computan las personas que se sitúan en cada categoría • Por ejemplo: variable tipo de emotividad dominante; categorías→ bondad; agresividad; empática • Herramienta básica de análisis TABLA DE CONTINGENCIA Tabla de contingencia Y Y1 Y2 ni. X1 n11 n12 n1. X2 n21 n22 n2. n.j n.1 n.2 n.. X Ejemplo: Dos variables con dos categorías cada una 2x2 La prueba de 2 de Pearson permite estudiar distintos aspectos del análisis de datos de variables cualitativas, tales como: bondad de ajuste, independencia de variables y homogeneidad o igualdad de proporciones Bondad de ajuste Interviene una única variable y se pone a prueba si unos datos empíricos se ajustan a una determinada distribución teórica. Independencia Intervienen dos variables y se pone a prueba si son independientes o están relacionadas. Igualdad de proporciones u homogeneidad Intervienen dos variables y se pone a prueba si los distintos grupos definidos por las categorías de una de las variables, se distribuyen por igual en las categorías de la otra variable. Independencia vs Homogeneidad • Independencia: 1. Se toma una muestra. 2. Se observan las dos variables. 3. El contraste determina si están relacionadas o no • Igualdad de proporciones u homogeneidad: 1. Se toma una variable. 2. Para cada categoría o valor se selecciona una muestra 3. Se observa la otra variable en cada persona 4. Contrastamos si la distribución en la variable 2 es la misma para cada categoría de la variable 1 Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba • Se desea construir una prueba de psicomotricidad en la que no presenten diferencias significativas las personas ciegas de nacimiento con respecto a las videntes. • Se toman al azar dos ciegos de nacimiento y tres videntes, todos de la misma edad, el mismo sexo y educación similar. Los datos obtenidos en la prueba fueron: • Ciegos:16, 19 • Videntes:20, 17, 25 • ¿Hay evidencia suficiente para afirmar que ambos grupos son iguales en la prueba? (α = 0,05) Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba • Las puntuaciones obtenidas por una muestra de sujetos en una prueba de habilidad lectora han sido las siguientes: • 48,1; 47,8; 45.1; 46,3; 45,4; 47,2; 46,6; y 46,0 • Sabiendo que la media en dicha prueba es 40 y su desviación típica es 3, ¿podemos afirmar que la distribución de las puntuaciones sigue una distribución normal, con un α = 0,01? Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba • Un psicólogo está interesado en comprobar si las puntuaciones en una prueba de razonamiento abstracto se modifican o se mantienen constantes entre los 7, 8 y 9 años de edad. • Con este fin, selecciona una muestra aleatoria de 10 niños y mide su razonamiento abstracto cuando tienen 7 años y vuelve a realizar el registro con estos niños cuando tienen 8 y 9 años. Las puntuaciones obtenidas han sido las siguientes: Niños 5 6 Edad 1 2 3 4 7 8 9 10 7 70 81 74 65 80 90 68 71 62 88 8 78 80 79 71 82 91 69 75 62 95 9 77 83 81 69 84 93 69 79 64 93 De acuerdo con estos datos, ¿Qué se puede concluir a un nivel de significación del 0,05? Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba Un investigador hipotetiza que los gemelos univitelinos, dentro de cada par, no son igualmente agresivos. Para comprobarlo aplica una prueba de agresividad a 15 pares de gemelos obteniendo los siguientes resultados. Indicar utilizando un alfa de 0.05 si el investigador tiene razón. Nacido 1º 76 80 86 87 85 95 97 75 87 96 98 77 80 87 89 Nacido 2º 70 75 84 90 81 95 87 72 92 85 88 76 85 81 85 Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba Para estudiar la relación entre la lateralidad manual y la visual, un psicólogo seleccionó una muestra de 200 sujetos con problemas de lateralidad y los clasificó según la tabla. Utilizando un alfa del 5% indicar si se puede afirmar que ambas lateralidades están relacionadas. lateralidad visual (Y) lat. manual (X) izquierda ambiocular derecha izquierda 16 30 14 ambidextra 12 13 15 derecha 32 47 21 60 90 50 60 40 100 200 Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba Deseamos estudiar si la distribución del CI en niños de educación primaria es la misma dependiendo de la localización de los centros educativos en los que se educan. Una orientadora seleccionó tres muestras de 60 estudiantes en cada tipo de centro. A continuación se detallan las personas pertenecientes a cada categoría. Localización Centro educativo (X) Centro ciudad Periferia ciudad Pueblo bajo 17 16 13 46 CI (Y) medio alto 28 15 28 16 30 17 86 48 60 60 60 180 Ejemplos ¿qué análisis no paramétrico usarías? Sólo determinar qué prueba • Un psicólogo está interesado en el efecto producido por una terapia conductual y una cognitiva sobre las conductas de autoestimulación en niños entre 2 y 4 años. Para ello, prepara un experimento con 22 niños y los asigna aleatoriamente a los dos grupos experimentales y a un grupo control. Después de 15 días de tratamiento obtuvo los resultados que aparecen en la tabla. ¿Hay evidencia para concluir que existen diferencias significativas entre los tratamientos con un nivel de confianza del 99%? Control n=5 Conductual n=8 Cognitivo n=9 12 13 13 16 18 14 14 14 7 2 13 8 7 3 6 2 4 5 9

Use Quizgecko on...
Browser
Browser