T1 - Validez de la Investigación PDF
Document Details
Uploaded by UnabashedPluto
Tags
Summary
This document provides an overview of research validity, focusing on internal, external, and statistical conclusion validity. It explores concepts and examples related to evaluating the rigor and quality of research studies. The text is organized in a structured way examining critical aspects for research design and implementation.
Full Transcript
T1 - VALIDEZ DE LA INVESTIGACIÓN - Laginketa → muestreo - N → poblacion total - n → grupo de la poblacion que se va a usar en la investigacion, muestra significativa. CONCEPTO Es el objetivo de toda INVESTIGACIÓN CIENTÍFICA: Realizar inferencias, deducciones, conclusiones (cuándo ha...
T1 - VALIDEZ DE LA INVESTIGACIÓN - Laginketa → muestreo - N → poblacion total - n → grupo de la poblacion que se va a usar en la investigacion, muestra significativa. CONCEPTO Es el objetivo de toda INVESTIGACIÓN CIENTÍFICA: Realizar inferencias, deducciones, conclusiones (cuándo hacemos una investigación, nos interesa que los resultados se pueden generalizar y aplicar a otros casos) y obtener conclusiones precisas, fiables y válidas. Validez: (relación causal, directa) TERAPIA ------------------------------> DEPRESIÓN Normalmente hay dos grupos: un grupo experimental y control La CONCLUSIÓN que hemos sacado de este estudio es: La terapia es efectiva y se puede utilizar en Osakidetza para tratar a todos los pacientes diagnosticados de depresión. Cuando hablamos de validez, nos preguntamos sobre la confianza de la conclusión, y esa validez depende en gran medida de las decisiones que han ido tomando las investigadoras y como lo han desarrollado. DEFINICIÓN → mirar si los resultados son congruentes con toda la investigacion Mejor aproximación posible a la autenticidad de las proposiciones (Campbell, 1957). Las investigaciones serán más o menos válidas en la medida en la que permiten distinguir sin ningún tipo de error entre la hipótesis verdadera y las falsas (Gottsdanker, 1978). Grado de confianza que puede adoptarse sobre la veracidad de la información obtenida en una investigación (Ato, 1991). Grado en que una investigación presenta una fuerte consistencia desde el punto de vista técnico (Arnau, 1990). Grado en que el diseño de investigación nos permite obtener conclusiones convincentes y verosímiles (Maxwell y Delaney, 1990). VALIDEZ: CATEGORIZACIÓN. MODELO DE COOK Y CAMPBELL VALIDEZ DE CONCLUSIÓN ESTADÍSTICA (O validez inferencial) Precisión con la que podemos afirmar que los resultados obtenidos en un análisis estadístico reflejan realmente una relación/diferencia significativa entre las variables de un estudio. Evalúa si las conclusiones sobre la relación entre las variables estan bien fundamentadas en términos estadísticos. Grado de confianza con que podemos inferir (voy a querer generalizar a la población) o concluir que existe covariación/correlación (cuando las dos variables implicadas varían conjuntamente) entre dos (o más) variables en base a pruebas estadísticas de significación. Está vinculado a la sensibilidad del diseño (potencia). Tiene que ver con los análisis (de datos), podríamos enmarcar la validez al final del estudio ya que he decidido todo lo anterior (donde, como...), pero las decisiones que hemos tomado antes ahora podrían afectar. “¿Cuál es la magnitud del efecto y qué sensibilidad tiene el estudio para detectar la covariación entre variables?” EJEMPLO: METOLOGIA DOCENTE ----> ¿Pueden afectar en el rendimiento académico? ¿Estamos seguros de que existe relación entre las variables metodología docente y rendimiento? METODO TRADICIONAL X= 6,5 METODO ACTIVO X=7 Si hay covariación VALIDEZ INTERNA → que sea causado por algo INTERNO y no por factores externos. Se centra en la certeza de que el efecto observado en un estudio es realmente causado por la variable INdependiente (la que se manipula) y no por factores externos o de confusión. Grado de confianza que puede alcanzarse con respecto a la existencia de una relación causal entre X e Y, teniendo en cuenta la forma en que han sido manipuladas y/o medidas operacionalmente las variables. En una investigación pueden darse diversas amenazas a la validez interna como la historia o la maduración (cambios en los participantes con el paso del tiempo). “¿Los resultados pueden explicarse única y exclusivamente como consecuencia del tratamiento? ¿Pueden eliminarse las hipótesis rivales?” ¿Realmente es la Metodología docente de un determinado tipo la que provoca un mejor rendimiento? VALIDEZ DE CONSTRUCTO DE CAUSAS Y EFECTOS Precisión con la que los constructos teóricos (es decir, las ideas o conceptos abstractos) están representados en las variables del estudio. Constructo: concepto abstracto que no se puede ver físicamente; se infiere a través de comportamientos, respuestas o manifestaciones en situaciones específicas. Grado de confianza con que podemos establecer generalizaciones a constructos, conceptos abstractos (una variable a nivel teórico después de ya haber diseñado la investigación) de orden superior a partir de indicadores (lo que uso para medir; por ejemplo, un examen, un test) o de definiciones operacionales tanto de variables manipuladas como de variables medidas. Se pasa de constructo a indicadores y de indicadores a constructo para poder generalizar. Para conseguir una buena validez de constructo, es importante, entre otros aspectos, realizar una buena reflexión sobre la definición de los constructos y determinar los indicadores adecuados (manipulación y medida). “¿Cuál es el referente conceptual (constructo teórico) que subyace al efecto?” Necesidad de adaptación de instrumentos que provienen de otros contextos culturales y/o lingüísticos. Ejemplo: WISC-V. ¿Qué tipo de metodologías docentes hemos utilizado en el estudio? ¿Cómo se ha evaluado el rendimiento? VALIDEZ EXTERNA Capacidad de generalizar los resultados del estudio a otras personas, contextos, tiempos y situaciones. Si un estudio tiene una alta validez externa, significa que no solo los resultados serán aplicables en el entorno donde se realizó la investigacion, sino que se podrán aplicar incluso en otras circunstancias. Grado de confianza con que una presumible relación causal entre variables puede generalizarse a otras personas, contextos y ocasiones diferentes a los originalmente utilizados. “¿Pueden generalizarse los resultados a otros sujetos, contextos y ocasiones diferentes a las del estudio original?” ¿Podemos generalizar los resultados a la población de universitarios? COMO LOGRAR LA VALIDEZ EXTERNA: Hace referencia a la posibilidad de generalizar la relación causal observada en un estudio aparte de las circunstancias en las que se ha obtenido esta relación: - Relacion causal: vínculo entre variables en el que un cambio en una variable (VI) puede generar un cambio en la otra (VD) → la variable independiente influye directamente en la variable dependiente de manera que podemos afirmar que la primera es la causa de la segunda. Generalización a la población de sujetos, contextos y momentos temporales. Se da cuando ya podamos generalizar en una investigación, para ello, necesito trabajar con una muestra representativa de la población. o Requiere definir claramente una población objetivo y seleccionar aleatoriamente muestras representativas. o Nos permite comprobar si los objetivos de la investigación se han cumplido en relación con poblaciones específicas. o Es difícil de conseguir debido a la dificultad de utilizar extracciones muestrales aleatorias o probabilísticas. Generalización mediante replicación con distintas personas, contextos y ocasiones. Este caso se da cuando, en el 1. estudio no conseguimos una muestra tan representativa por lo que tenemos que hacer nuevos estudios para recoger datos y poder generalizarlos. o Se refiere a la posibilidad de generalizar los resultados obtenidos mediante replicación con diversas muestras. o Proporciona información acerca de las distintas subpoblaciones que han resultado afectadas por los tratamientos. o Es más fácil que la utilización de muestras aleatorias (generalización “a”). EJEMPLO: POBLACIÓN: PERSONAS MAYORES. Variable --> bienestar psicológico PROBLEMAS MOVILIDAD NO PROBLEMA MOVILIDAD Muestra 1: muestra representativa Muestra 2a: muestra no representativa Muestra 2b: muestra no representativa TIPOS DE VALIDEZ EXTERNA: 3 1. VALIDEZ POBLACIONAL Posibilidad de generalizar los resultados a la población objeto de referencia. 1. Capacidad de generalizar los resultados de un estudio a toda la población de interés, más allá de la muestra específica utilizada. Se basa en dos conclusiones: 1. Muestra → Población accesible 2. Población accesible → Población referencia 2. VALIDEZ ECOLÓGICA Se refiere a la posibilidad de generalizar los resultados a otras condiciones ambientales. Capacidad de generalizar los resultados de un estudio a contextos y entornos reales y naturales, fuera del contexto controlado del estudio. Existe v. ecológica cuando las condiciones de la investigación se asemejan a las naturales. Control: Seleccionar ambientes representativos de la población. o Un estudio con alta validez ecológica podría empezar en un laboratorio y luego replicarse en un entorno real, como en la calle. 3. VALIDEZ HISTÓRICA/TEMPORAL Grado en el que los resultados pueden generalizarse a otros períodos del pasado y del futuro. Capacidad de generalizar los resultados de un estudio a otras épocas o momentos en el tiempo. Es especialmente relevante en estudios que examinan fenómenos sociales, psicológicos o culturales, ya que los resultados podrían cambiar si se realizan en una época distinta debido a cambios en los contextos históricos, sociales o tecnológicos. Control: replicar el experimento a lo largo de distintos períodos u ocasiones temporales. VALIDEZ DE CONCLUSIÓN ESTADÍSTICA CONCEPTO: Se centra en las inferencias respecto a la presumible covariación entre dos (o más) variables de acuerdo con un determinado nivel de significación (cierto nivel de probabilidad) y en función de las varianzas obtenidas, es decir, en la correcta inferencia de la hipótesis a nivel estadístico (Vallejo, 1991). Precisión con la que se puede determinar, mediante técnicas estadísticas, si existe una relación significativa entre las variables estudiadas. CONCEPTOS IMPORTANTES: Significación estadística: asociada a la verificación de una hipótesis. La inferencia está sometida a dos tipos de errores: Cuando un resultado es estadísticamente significativo, podemos inferir que hay una alta probabilidad de que la relación o efecto observado sea real y no solo una coincidencia. - Error de tipo I (falsos positivos) → rechazar Ho, cuando es verdadera - Error de tipo II (falsos negativos) → aceptar H0, cuando es falsa Alpha (α): Probabilidad que corresponde al error de tipo I. **Error de tipo I: Rechazar la hipótesis nula cuando esta hipótesis es verdadera → rechazar una hipótesis nula verdadera Beta (β): Probabilidad que corresponde al error de tipo II. **Error de tipo II: Aceptar la hipótesis nula cuando esta hipótesis es falsa → no rechazar una hipótesis nula falsa - Una medida estandarizada es un instrumento para medir dos variables de la misma manera; se mide de forma estándar sin tener en cuenta que es cada uno. Nivel de confianza (1 - α): Probabilidad de no rechazar una hipótesis nula cuando ésta es verdadera → no hay efecto, hemos acertado; suele ser 1-at=1-0.05 = 0,95 o Si tienes un nivel de confianza del 0.95 (95%) significa que estas segura al 95%, pero eso no quiere decir que la respuesta correcta sea esa; deja un pequeño margen por si algo salió así por casualidad. Potencia (1 - β): Probabilidad de rechazar la hipótesis nula cuando ésta es falsa o de aceptar la hipótesis alternativa siendo ésta verdadera → verdadero positivo, detectar un efecto que realmente existe. Tamaño del efecto: Magnitud de la diferencia entre dos (o más) condiciones experimentales expresada en una métrica común para diferentes medidas y estudios → nos permite cuantificar la información que nos da la prueba estadística y la toma de decisión basada en la H0. Se refiere a la situación investigacional, diferencia o comparación d la media de los grupos en una métrica común. Desviación típica: Medida de la variación o variabilidad de las puntuaciones respecto de la media o varianza → la variabilidad de las puntuaciones tiene su importancia a la hora de saber si hay efecto o no, hay covariación o no. o Medida que nos dice cuánto se alejan, en promedio, los datos de un conjunto respecto a su valor medio o promedio. o Ayuda a entender que tan dispersos estan los datos. EJEMPLO 1 ¿Cuál de las dos está más cerca del alberge? NO HAY VARIANZA DE ERROR, todos estan a la misma distancia, aunque hay tamaño de efecto (diferencia entre A y B, los A estan más lejos) Hemos incrementado la varianza de error (la variabilidad), ahora todos los miembros del grupo B no están a la misma distancia del albergue --> amaño de efecto pequeño, y varianza de error (más difícil ver el efecto). Aquí incrementa el tamaño del efecto, hemos incrementado la distancia entre los grupos, y ahora es más fácil ver que de promedio el grupo B está más cerca de albergue (el efecto) aun habiendo varianza de error EJEMPLO 2 Puntuaciones de dos grupos de estudiantes, imaginamos que no hay diferencias. No hay variabilidad (varianza error) dentro de cada grupo, por lo que a simple vista podemos decir que los activos tienen mejor media Aquí en cambio, si hay variabilidad (varianza de error sí) → dificulta el tamaño del efecto Aquí también hay variabilidad (varianza erro) --> aquí es más fácil ver que las puntuaciones son más altas en el actico, eso hace que incremente el tamaño del efecto Conclusión de los dos ejemplos: cuando queremos detectar la potencia, el tamaño del efecto lo favorece → contra mayor tamaño de efecto mayor potencia A mayor varianza de error → más difícil ver el tamaño del efecto → menor potencia AGENTES DE VARIABILIDAD - Muestreo - Procedimiento de investigación - Medición - Otro Todo esto puede afectar a la variabilidad. CUESTIONES BÁSICAS A LAS QUE RESPONDE LA VALIDEZ DE CONCLUSIÓN ESTADÍSTICA Lo primero que determina que prueba estadística utilizar es el CONTEXTO, y una vez situados en una, venia la elección de la prueba 1. ¿EXISTE UNA RAZONABLE EVIDENCIA EMPÍRICA PARA INFERIR QUE HAY COVARIACIÓN DE CAUSA Y EFECTO? La Ho nos dice que → no hay efecto, ni covariación a no ser que la muestra nos demuestre lo contrario, entonces buscamos evidencia de que si hay diferencia: ELECCIÓN DE PRUEBAS ESTADÍSTICAS. Criterios objetivos para la elección: - Potencia estadística de la prueba; elegiremos las pruebas más potentes para poder detectar la covariación. o Significa tener una alta probabilidad de detectar un efecto o diferencia real cuando realmente existe. - Modelo estadístico postulado (supuestos); características de nuestros datos de nuestra investigación, de las puntuaciones que hemos recogido en la investigación (ej. nivel de medida de las puntuaciones, ¿escala cuantitativa o no?), (ej. distribución de curva normal o no) o El modelo es una suposición inicial sobre la relacion entre variables, sin que todavía se hayan comprobado los datos. Además de saber cuál es la situación de investigación (si estoy comparando grupos: investigacion comparativa, o busco relación entre variables: investigacion correlacional) → LIBRETA Hay 2 tipos de pruebas estadísticas: - Paramétricas: o Tienen más potencia estadística → si hay covariación o efecto, sería más fácil detectarlo con este tipo de prueba. o Es más fácil acertar. o Para ello las puntuaciones deben cumplir supuestos más estrictos o Los datos deben parecerse a una campana (distribución normal), y el tamaño de la muestra debe ser suficiente. o Si los datos cumplen con estas reglas, las pruebas paramétricas son mejores porque te dan resultados más precisos. (pruebas t) **Veloz, pero necesidad de buena carretera - No paramétricas: Tienen menos potencia estadística, es menos probable detectar un efecto Deben cumplir supuestos menos estrictos No tienes por qué usar cosas específicas, puedes seguir la prueba con lo que tienes a mano. **Carretera mala, pero se adapta Ejemplo 2. EN CASO DE QUE EXISTA EVIDENCIA EMPÍRICA, ¿CUÁL ES LA MAGNITUD O EL GRADO DE COVARIACIÓN ENTRE LAS VARIABLES? Tamaño del efecto: información adicional → que tamaño tiene ese efecto, complementa lo que nos dice la Ho. Si ya hemos establecido que hay evidencia en la población, ¿Cuál es la magnitud? AMENAZAS A LA VALIDEZ DE CONCLUSIÓN ESTADÍSTICA 1. TRANSGRESIÓN DE LOS SUPUESTOS DEL MODELO ESTADÍSTICO (datos paramétricos) Después de la elección de la prueba estadística y de la estrategia → si es paramétrica o no, hay que revisar estos supuestos si se cumplen o no, si se cumplen → es paramétrica. Son 4 de los más usuales, pero puede que haya otros… 1. ESCALA CUANTITATIVA EN LA VD (el recuerdo de texto es la vd, la inteligencia emocional depresión son las dos vd). Cuando hablamos de variables cualitativas: NOTA (metodo año pasado) a. Escala categórica (nominala): Solo se puede establecer igualdad-desigualdad entre las categorías. (Sexo: Hombre, mujer, otro). No cumple el supuesto de escala cuantitativa. Solo se puede decir si está en la misma categoría o no, no se puede decir que 2 es el doble que 1. i 2 no significa que sea el doble de 1, simplemente estan nombrando variables, pero sin ningún tipo de orden ni criterio. b. Escala ordinal: Además, se puede establecer un orden entre las categorías. (Nivel socioeconómico: bajo, medio, alto). No cumple el supuesto. además de decir que están en diferentes categorías, se pueden ordenar. i En este caso, 1 puede significar más que 2 o al revés. Aquí los números sí que tienen un significado previamente pensado. c. Escala de intervalo (tartekakoa): Además, se puede establecer igualdad- desigualdad entre intervalos. (Nivel de autoestima: puntuaciones 20-100). Cumple el supuesto. ¿Puedo decir que 20-40=40-60? SI, pero no puedo decir que el que puntúa 40 en autoestima tiene el doble de autoestima que el que puntúa 20, esto es debido a que no hay 0 ABSOLUTO (porque el 0 no indica ausencia). i Se nombran cantidades mediante números. ii 0 no significa que no haya nada. iii Temperatura d. Escala de razón (arrazoizkoa): Además, se puede establecer igualdad desigualdad de razones o proporciones. (Tiempo de reacción). Cumple el supuesto. Sí tiene 0 ABSOLUTO, el 0 significa la ausencia, en este ejemplo se refiere a que no ha tardado nada, y el que tarde 20s ha tardado el doble de tiempo que el que ha tardado 10. i 0 significa que no hay nada, ausencia: he estado 0 veces en NY 2. NORMALIDAD DE LA DISTRIBUCION DE LAS PUNTUACIONES DE LA VD (una vez que tengamos una escala CUANTITATIVA (Intervalo/razón), miramos si se destruye con normalidad) Afecta a la probabilidad de cometer error de tipo II. Cuando no se cumple el supuesto de normalidad, no funcionará de manera adecuada → afecta al error tipo II, más probable que haya falsos negativos. Comprobación del supuesto de normalidad basada en la Ho: - Test de Shapiro-Wilk (n < o = 50) - Prueba Kolmogorov-Smirnov (n>50) y corrección de Lilliefors cuando µ y δ 2 son desconocidas. - Representaciones gráficas como p.e. gráfico de probabilidad normal P-P plot. NORMALIDAD: la distribución de las puntuaciones debería tener esta forma Una campana normal EJEMPLO (LIBRETA) 3. HOMOCEDASTICIDAD/HOMOGENEIDAD DE VARIANZAS ENTRE LOS GRUPOS Uso este supuesto cuando este COMPARANDO GRUPOS, para poder comparar medias en una prueba paramétrica, la varianza tiene que ser equivalente. Afecta a la probabilidad de cometer error de tipo I y a la potencia de la prueba = afecta a los falsos positivos y negativos EN EL CASO DE RECUERDO DE TEXTO SI; esquemas o subrayado en INTELIGENCIA EMOCIONAL- DEPRESIÓN no Comprobación del supuesto de homocedasticidad: - Prueba de Hartley. - Prueba de Cochran. - Prueba de Bartlett. - Prueba de Levene: La más robusta ante el incumplimiento de la normalidad. EJEMPLO (LIBRETA) 4. INDEPENDENCIA ENTRE LAS OBSERVACIONES (no confundir con correlación entre variables) Ausencia de correlación entre las observaciones/puntuaciones. Aquí buscamos que no haya correlación entre las puntuaciones de nuestra variable. Queremos que las variables no tengan relacion alguna que todas sean independientes de todas. Su incumplimiento afecta al nivel de significación y a la potencia de la prueba. Se ha demostrado incremento en las tasas de error de tipo I y II. Comprobación del supuesto de independencia entre las observaciones: - Prueba Durbin-Watson (valor 1,5-2,5). → hay que fijarnos en el estadístico, si este está entre este rango, indicaría que no tenemos problemas con este supuesto de independencia, no miraríamos a la P. ▪ Estadistico: es el valor que se calcula a partir de la muestra que se obtiene de la poblacion. Lagina: populazioaren azpi-talde adierazgarria → muestra Estatistikoa: bertan kalkulatzen den ezaugarri deskriptiboa. - Pruebas de esfericidad en diseños intrasujetos (Pruebas Mauchly, Box) → comparamos al mismo grupo en distintas ocasiones o variables. ej. estamos viendo el nivel de inteligencia emocional en enseñanza primaria, hay alumnos de diferentes centros, y puede que en algunos se hayan hecho actividades para fomentar, por lo que puede que ciertos alumnos del mismo centro estén correlacionados → mal interesa que las puntuaciones sean independientes, pero puede que estén correlacionadas ej. una de clase y otra sacan una nota, en un principio son independientes, pero puede tener correlación debido a que han trabajo juntas → mal Algunas soluciones ante las infracciones de los supuestos paramétricos: hay estrategias para intentar que los supuestos se cumplan Detección y corrección de valores outliers (valores que se alejan de las puntuaciones de la muestra), para ello se puede: Eliminación del caso, transformación de los datos, cambio de la puntuación. Soluciones a la no normalidad y heterocedasticidad: o Transformación de datos: logarítmica, raíz cuadrada, recíproca, etc. 2. ESCASA POTENCIA DE LA PRUEBA ESTADÍSTICA - Potencia (1- β): Complementaria al error de tipo II. Probabilidad de rechazar la H0 cuando es falsa. - Depende del tamaño del efecto, de α y del tamaño muestral. - La variabilidad de las observaciones (v. Error → depende de la fiabilidad de las variables, het....) (fiabilidad V.D., heterog. muestra) incide en la potencia. o Fiabilidad de las variables: consistencia y estabilidad de una variable al ser medida repetidamente. Una variable es fiable cuando se mide varias veces y todas ellas, los resultados son parecidos o coherentes. Análisis de la potencia → Se pueden realizar análisis de potencia a priori o a posteriori. Estrategia que examina las relaciones entre: - Tamaño del efecto Error de tipo I (α) - Error de tipo II (β) - Tamaño muestral 3. TAMAÑO DEL EFECTO - Grado en que el fenómeno objeto de estudio se halla presente en la población o Grado en que la H0 es falsa (Cohen, 1988). - Magnitud de la diferencia entre condiciones (Kazdin, 1992). - Índices estandarizados: es importante para la interpretación, no dependen de la escala de medida en la que se han medido las variables Estimaciones del tamaño del efecto - Diferencias entre medias estandarizadas: los índices son d de Cohen, d’ de Glass, g de Hedges, etc. Cohen (1988) propone los valores de 0,20, 0,50 y 0,80 varemos como valores pequeño, medio y grande para interpretar la diferencia entre medias estandarizada. El tope de este índice no es 1. - Se basan en el porcentaje de varianza o variabilidad explicada: r2, R2, η2 (eta2), ε 2 (épsilon2) y ω2 (omega2). Los valores oscilan entre 0 y 100. Se usan en análisis como el de la regresión → modelo explicativo la correlación la podemos situar aquí → es un caso especial r= 0,01 pequeña r= 0,03 media r= 0,05 grande Decisiones acerca del tamaño del efecto (el tamaño del efecto podemos decir que no podemos incidir directamente. La diferencia es la que es. No se puede influir). - Lo que debemos tener en cuenta es que debemos realizar la comparación con tamaños del efecto (que ya se han definido con la d de Cohen) convencionales asociados a las pruebas más utilizadas en ciencias del comportamiento. - NO se debe confundir entre magnitud del efecto y su relevancia sustantiva o significación práctica. Principales factores con los que se relaciona el tamaño del efecto - Si realizamos múltiples estudios manteniendo constantes α y N: Habrá una relación directa entre tamaño del efecto y potencia. - Si realizamos múltiples estudios manteniendo constantes α y β: Cuanto mayor sea el tamaño del efecto, menor N necesitaremos para detectar dicho efecto. 4. TAMAÑO DE LA MUESTRA Importancia respecto a la potencia estadística y a la estimación del tamaño del efecto. - Cuanto más restrictivo es α, mayor N es necesaria para detectar un efecto. PARA QUE NO HAYA ERROR TIPO 2 - Si deseamos obtener mayor potencia estadística → incrementar N. Necesitamos mantener constantes también el alfa y tamaño de efecto. - El número necesario de N disminuye a medida que aumenta el tamaño del efecto. 5. TASA DE ERROR DE TIPO I Incrementa a medida que aumenta el número de comparaciones entre µ. Procedimiento para ajustar la tasa de error: Comparaciones no planificadas a posteriori o post hoc (HSD de Tukey, Scheffé, etc.). : 0.05 2 grupos → 1 comparación 3 grupos → 3 comparaciones 4 grupos → 6 comparaciones 6. BAJA FIABILIDAD Y VALIDEZ DE LA MEDIDA DE LA VARIABLE DEPENDIENTE Incremento de los errores experimentales: - Puede que, si no tomamos la medida adecuada, tengamos errores. 7. PRESENCIA DE PUNTUACIONES “OUTLIERS” o atípica Indica qué tan atípico/diferente es un dato respecto al resto de los datos de un conjunto. Valores que se destacan del resto de un conjunto de datos, y su presencia puede ser relevante para el análisis estadístico, ya sea porque revelan información importante o porque deben tratarse para evitar sesgos en los resultados **Pueden deberse a: Errores al registrar los datos Algunas observaciones son realmente diferentes al resto → puede ser que realmente un sujeto puntúe más alto de lo que esperábamos. Estrategias de control para valores atípicos: - Corregir el dato (si es un error de registro) - Eliminarlo (si es un error en los instrumentos); hay veces que los datos no pueden ser eliminados, entonces se usan otras estrategias… - Utilizar la mediana como MTC (Medida de tendencia central) ▪ Medidas de tendencia central: valores estadísticos que resumen o describen un conjunto de datos indicando su valor central o promedio. Estas muestran el punto alrededor del cual se agrupan los datos y son útiles para entender el "centro" o medidas principales de una distribución. Media/promedio, mediana, moda. - Utilizar estimadores robustos (medias recortadas y varianzas winsorizadas) → para hacer análisis descriptivos, mejor la mediana que la media (si la muestra no es muy grande). - Realizar dos análisis: incluyendo y eliminando estos valores 8. PRESENCIA DE VALORES “MISSING” → los tenemos casi siempre y hay que ver porque se producen. Sí damos un cuestionario a los participantes, a veces el formato produce estos valores (si las líneas están muy juntas...). literalmente son valores que faltan; igual se han borrado y hay que saber por qué. Disminución del tamaño muestral. Problemas de representatividad de la muestra por pérdida de sujetos. Estimar el valor promedio que le corresponde al valor omitido a partir del resto de las puntuaciones (imputación)