Full Transcript

Prueba binomial • Objetivo: Conocer si una proporción es igual/menor/mayor a un valor de referencia en la población. • Variables requeridas: Una categórica (para obtener la proporción muestral) • Tipos de hipótesis: • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contrast...

Prueba binomial • Objetivo: Conocer si una proporción es igual/menor/mayor a un valor de referencia en la población. • Variables requeridas: Una categórica (para obtener la proporción muestral) • Tipos de hipótesis: • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: (o Z en el caso de que se haga la transformación a la normal) • Distribución del estadístico de contraste: (Distribución binomial con parámetros n y ) [aunque cuando se usa la transformación a la normal se usa la distribución normal, ] • Supuestos: Muestra aleatoria. • Medida de tamaño del efecto: La diferencia de proporciones en sí misma. • Interpretación de resultado: • Se ha encontrado que la proporción de votos obtenida para el candidato del partido Prueba T para una muestra • Objetivo: Conocer si una proporción difiere de un valor de referencia en la población. • Variables requeridas: Una cuantitativa (para obtener la media muestral) • Tipos de hipótesis: • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución T de Student con n-1 grados de libertad) • Supuestos: La variable se distribuye de forma normal en la población (pierde importancia con muestras grandes) • Medida de tamaño del efecto: d de Cohen • Interpretación de resultado: • Se ha encontrado que la media en satisfacción obtenida en el presente estudio es Correlación de Pearson • Objetivo: Evaluar la presencia y grado de asociación entre dos variables cuantitativas (X e Y) en la población. • Variables requeridas: Dos variables cuantitativas. • Tipos de hipótesis: • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: (Jamovi nos da solamente la R, aunque realmente el estadístico de contraste es una T) • Distribución del estadístico de contraste: (Distribución T de Student con n-2 grados de libertad) • Supuestos: La variable se distribuye de forma normal en la población (pierde importancia con muestras grandes) • Medida de tamaño del efecto: El coeficiente de correlación Prueba de independencia • Objetivo: Conocer si dos variables categóricas (ej. A y B) están relacionadas en la población • Variables requeridas: Dos variables categóricas (para crear la tabla de contingencias) • Tipos de hipótesis: La pregunta es si existe relación o no. Esto lo podemos plantear de dos formas: • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución chi-cuadrado, donde I = nº de filas y J = nº de columnas) • Supuestos: No hay más de un 20% de casillas con frecuencia esperada de cero. • Medida de tamaño del efecto: Coeficiente de contingencia y V de Cramer • Interpretación de los efectos: Tabla de residuos tipificados corregidos • Interpretación de resultado: (ej. Diapositiva 86 del tema 4) • Se ha encontrado que la cantidad de grasa ingerida en la dieta está fuertemente relacionada con la presencia de enfermedad cardiovascular (). Una inspección de los residuos tipificados corregidos ha mostrado que la presencia de enfermedad cardiovascular es significativamente Prueba T para muestras relacionadas • Objetivo: Conocer si las medias de dos variables cuantitativas medidas en los mismos sujetos difieren en la población. • Variables requeridas: Dos variables cuantitativas (que pueden provenir de un pre-post, dos variables en la misma métrica, o una variable medida en dos gemelos, madre/hija, marido/mujer, etc.) • Tipos de hipótesis: (derecha e izquierda es equivalente, según en que dirección sea la resta) • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución T de Student con n-1 grados de libertad) • Supuestos: La variable de diferencias se distribuye de forma normal en la población. • Medida de tamaño del efecto: d de Cohen Prueba T para muestras independientes • Objetivo: Conocer si las medias de dos grupos en una variable cuantitativa difieren en la población. • Variables requeridas: Una dicotómica (para formar los grupos) y una cuantitativa (para obtener las medias) • Tipos de hipótesis: (derecha e izquierda es equivalente, según en que dirección sea la resta) • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución T de Student con n-2 grados de libertad) • Supuestos: 1) La variable se distribuye de forma normal en la población y 2) las varianzas de los dos grupos son iguales en la población. Prueba T de Welch • Igual que la prueba T para muestras independientes. Se interpreta igual. • Se utiliza cuando no se cumple el supuesto de igualdad de varianzas. Al ser las varianzas desiguales, esta prueba lo que hace es calcular una especie de “varianza combinada” de los dos grupos, que es la que luego utiliza para calcular el error típico. Este error típico (como en todos los análisis) nos sirve para transformar la diferencia de medias a puntuación T, y así obtener las p que nos permitirán tomar una decisión sobre la H0. Prueba de McNemar • Objetivo: Conocer si hay diferencias entre las proporciones de dos muestras relacionadas. • Variables requeridas: Dos variables dicotómicas. • Tipos de hipótesis: Se puede plantear de dos maneras (como un contraste sobre si el chi cuadrado es 0 o mayor de cero, o como un contraste de diferencia de proporciones marginales). • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución Chi cuadrado con grados de libertad • Supuestos: Muestra aleatoria. • Medida de tamaño del efecto: La propia diferencia de proporciones es el tamaño del efecto. • Interpretación de resultado: ANOVA A-CA • Objetivo: Conocer si las medias de dos o más grupos, o de dos o más variables, difieren en la población. • Variables requeridas: Una categórica de más de dos niveles (para formar los grupos) y otra cuantitativa (para obtener las medias) • Tipos de hipótesis: La pregunta es si hay diferencias entre al menos uno de los pares posibles de medias o no. • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución F de Fisher-Snedecor) • Supuestos: Muestra aleatoria, normalidad y homocedasticidad. • Medida de tamaño del efecto: y (omega cuadrado y eta cuadrado) • Interpretación de resultado: • Supongamos un factor A (dificultad de la tarea: fácil, media, difícil) y una VD (rendimiento). Hemos encontrado que el rendimiento no es igual para los distintos ANOVA AB-CA • Objetivo: Si hacemos un ANOVA AB es porque queremos averiguar si existe un efecto de interacción en la población. También podemos evaluar los efectos principales de A y B por separado, como en el ANOVA A-CA. • Variables requeridas: Dos categóricas (pueden ser dicotómicas) y otra cuantitativa. • Tipos de hipótesis: El ANOVA AB-CA realiza un contraste para cada efecto principal y otro para la interacción. • Estadístico de contraste: (efecto principal de A), (efecto principal de B) y (efecto de la interacción). • Misma distribución, supuestos y tamaños del efecto que el ANOVA A-CA. • Interpretación de resultado: • Ej. Si A = Dificultad de la tarea, B = ansiedad y VD = rendimiento. Hemos encontrado un efecto significativo de la interacción (, lo cual indica que los niveles bajos de ansiedad se asocian a un menor rendimiento pero sólo cuando la tarea es fácil (no cuando es difícil). ANOVA A-MR • Objetivo: Conocer si las medias de dos o más medidas repetidas difieren en la población. • Variables requeridas: Una categórica de más de dos niveles (para formar los grupos) y otra cuantitativa (para obtener las medias). • Tipos de hipótesis: La pregunta es si hay diferencias entre al menos uno de los pares posibles de medias o no. • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución F de Fisher-Snedecor) • Supuestos: Muestra aleatoria, normalidad y esfericidad. • Medida de tamaño del efecto: y (omega cuadrado y eta cuadrado) • Interpretación de resultado: • Hemos encontrado que el nivel de ansiedad no es igual en los distintos momentos de medida (). ANOVA AB-CA-MR • Objetivo: Generalmente será conocer el efecto de la interacción, pero también podemos hacer hipótesis sobre los efectos principales del factor CA o del factor MR por separado. • Variables requeridas: Una categórica (factor A), otra de medidas repetidas (factor B) y una variable cuantitativa (que es la que se está midiendo repetidamente). • Tipos de hipótesis: El ANOVA AB-CA-MR realiza un contraste para cada efecto principal y otro para la interacción. • Estadístico de contraste: • Distribución del estadístico de contraste: (efecto principal de A), (efecto principal de B de medidas repetidas) y (efecto de la interacción). • Supuestos: Muestra aleatoria, normalidad, igualdad de varianzas (para A) y esfericidad (para B). • Interpretación de resultado: (ej. Una interacción) • Ej. A = Grupo, B = pre-post, VD = satisfacción. Hemos encontrado que la mejora pre-post Prueba de Tukey • Objetivo: Realizar comparaciones múltiples entre varios pares de grupos sin que aumente la probabilidad de error tipo I. Se suele utilizar en el contexto de los ANOVAS, una vez el ANOVA nos ha informado de que hay alguna diferencia significativa entre los grupos. • Variables requeridas: Una categórica (generalmente con más de dos niveles) y una cuantitativa, o bien varias cuantitativas. • Tipos de hipótesis: Las mismas que en la prueba T para muestras independientes o relacionadas. • Estadístico de contraste: • Distribución del estadístico de contraste: La distribución T de Student con n-1 o n-2 grados de libertad según las comparaciones sean entre medidas repetidas o entre grupos separados. • Supuestos: Muestra aleatoria, normalidad e igualdad de varianzas. • Interpretación de resultado: Igual que en cualquier prueba T para muestras independientes o relacionadas (según se comparen medias de grupos separados o de medidas repetidas) Prueba de normalidad de Shapiro-Wilk • Objetivo: Conocer si distribución de una variable difiere o no de la distribución normal en la población. • Variables requeridas: Una cuantitativa. • ¿Cuándo la usaremos?: Cuando el tamaño muestral sea pequeño, antes de hacer pruebas T (cualquiera de ellas) y ANOVAs (es decir, previo a cualquier análisis que implique variables cuantitativas). • Tipos de hipótesis: : La variable se distribuye de forma normal en la población  : La variable no se distribuye de forma normal en la población  • Estadístico de contraste: • Distribución del estadístico de contraste: No tiene. Es una prueba no paramétrica. • Interpretación de resultado: • Ej. 1: Podemos asumir que la variable se distribuye de forma normal en la población Prueba de homocedasticidad de Levene • Objetivo: Conocer si las varianzas de dos o más grupos, o de dos o más variables, difieren en la población. • Variables requeridas: Una categórica y una cuantitativa. • ¿Cuándo la usaremos?: Independientemente del tamaño muestral, antes de las pruebas T para muestras independientes y los ANOVA A-CA (o cualquier ANOVA que tenga al menos un factor completamente aleatorizado) • Tipos de hipótesis: : : • Estadístico de contraste: • Distribución del estadístico de contraste: (Distribución F de Fisher-Snedecor) • Interpretación de resultado: • Ej. 1: No podemos asumir que las varianzas de los grupos sean iguales a nivel poblacional (F=23, p<0.001) Prueba de esfericidad de Mauchly • Objetivo: Comprobar si las varianzas de las medidas repetidas y sus covarianzas son iguales para todas las medidas. • Variables requeridas: Cuantitativas (medidas repetidas) • ¿Cuándo la usaremos?: Antes de hacer un ANOVA que implique al menos un factor de medidas repetidas. • Tipos de hipótesis: : Las varianzas y covarianzas son iguales en la población : Las varianzas y covarianzas no son iguales en la población La idea es básicamente ver si se cumple el supuesto o no. Si no se cumple, se aplicaría una corrección a los grados de libertad. Jamovi nos ofrece dos. Se llaman Greenhouse-Geisser y Huynh-Feldt. Los nombres no son importantes. Lo importante es saber que si no se cumple el supuesto de esfericidad, tenéis que marcar una de esas dos correcciones e interpretar los resultados según la p que os proporcionan. La interpretación de los resultados no Prueba de Wilcoxon • Alternativa no paramétrica de: La prueba T de Student para una muestra y la prueba T de Student para muestras relacionadas. • Objetivo: Igual que las pruebas T. La usamos cuando no se cumple el supuesto de normalidad (o la variable está en escala ordinal) y la muestra es pequeña. • Variables requeridas: Igual que las pruebas T. • Tipos de hipótesis: Igual que las pruebas T. • Estadístico de contraste: o . • Distribución del estadístico de contraste: No tiene. Se suelen usar tablas, o la aproximación a la distribución normal . No hay que saber esto. • Interpretación de resultado: • Hemos encontrado que el peso de los recién nacidos de madres fumadoras está por debajo del peso considerado “normal” para la población general (). • Se ha encontrado una mejora de las puntuaciones en satisfacción con la vida familiar tras la intervención sistémica (). Correlación de Spearman • Alternativa no paramétrica de: La correlación de Pearson. • Objetivo: Evaluar la presencia y grado de asociación entre dos variables cuantitativas (X e Y) en la población cuando no se cumple el supuesto de normalidad o cuando el nivel de escala de las variables es ordinal. En principio, no hace falta usarla si el tamaño muestral es grande. • Todo lo demás es idéntico a la R de Pearson. Prueba U de Mann-Whitney • Alternativa no paramétrica de: La prueba T para muestras independientes. • Objetivo: Igual que la prueba T para muestras independientes. La usaremos cuando el supuesto de normalidad no se cumple (o la escala de medida es ordinal) y el tamaño muestral sea pequeño. • Tipos de hipótesis: Igual que la prueba T para muestras independientes. • Unilateral derecha: • Unilateral izquierda: • Bilateral: • Estadístico de contraste: o . No hay que saber esto. • Distribución del estadístico de contraste: No tiene. Se suelen usar tablas, o la aproximación a la normal . No hay que saber esto. • Interpretación de resultado: • Hemos encontrado una diferencia significativa en satisfacción con la vida entre las personas con diagnóstico de depresión y las personas sin diagnóstico Prueba de Kruskal-Wallis • Alternativa no paramétrica de: El ANOVA A-CA • Objetivo: Igual que ANOVA A-CA. Se usa cuando no se cumplen los supuestos de normalidad (o cuando la escala es ordinal) e igualdad de varianzas y las muestras son pequeñas. • Variables requeridas: Igual que ANOVA A-CA • Tipos de hipótesis: Igual que ANOVA A-CA • Estadístico de contraste: o . No hay que saber esto. • Distribución del estadístico de contraste: Se suelen usar tablas, o la aproximación a la chi-cuadrado: (Distribución chi-cuadrado con grados de libertad, donde J es el número de niveles del factor). No hay que saber esto. • Interpretación de resultado: Idéntico al ANOVA A-CA. Prueba de Friedman • Alternativa no paramétrica de: El ANOVA A-MR • Objetivo: Igual que ANOVA A-MR. Se usa cuando no se cumple el supuesto de normalidad (o la escala de medida es ordinal) y las muestras son pequeñas. • Variables requeridas: Igual que ANOVA A-MR • Tipos de hipótesis: Igual que ANOVA A-MR • Estadístico de contraste: . No hay que saber esto. • Distribución del estadístico de contraste: No tiene. Se suelen usar tablas, o la aproximación a la distribución (Distribución chi-cuadrado con grados de libertad, donde J es el número de niveles del factor (i.e., el número de medidas repetidas). No hay que saber esto. • Interpretación de resultado: