Segundo Parcial De Psicometría PDF

Summary

Este documento cubre conceptos de psicometría. Se centra en la fiabilidad y validez de las pruebas, con una descripción general de las diferentes formas y la influencia de los errores en la medición. Los conceptos explorados son relevantes para estudiantes de psicología u otras disciplinas relacionadas.

Full Transcript

SEGUNDO PARCIAL DE PSICOMETRÍA ¿Que implica una buena prueba? - Fiabilidad (Test - Retest, Formas Alternas, División por Mitades, Spearman - Brown, Kuder y Richardson, Alfa, Kappa). - Validez (Contenido, Criterio, Constructo). - Normas y Sistemas de Medidas (Edad del Sujeto...

SEGUNDO PARCIAL DE PSICOMETRÍA ¿Que implica una buena prueba? - Fiabilidad (Test - Retest, Formas Alternas, División por Mitades, Spearman - Brown, Kuder y Richardson, Alfa, Kappa). - Validez (Contenido, Criterio, Constructo). - Normas y Sistemas de Medidas (Edad del Sujeto, Percentiles, Puntuaciones Típicas). Fiabilidad: Sinónimo de seguridad o consistencia. Atributo de consistencia en la medición. Un coeficiente de confiabilidad es un índice de confianza. Confiabilidad: Proporción de la varianza total atribuida a la varianza verdadera. Mayor es la proporción de la varianza total atribuida a la varianza verdadera, la prueba es más confiable. Error en la medición: Error se refiere al componente de la puntuación observada en la prueba de capacidad que no tiene que ver con la capacidad de quien responde la prueba. Una fuente de error sistemático no cambia la variabilidad de la distribución ni afecta la confiabilidad. Fuentes de varianza de error: ★ Construcción de la prueba: el muestreo de reactivos o muestreo de contenidos. ★ Administración de la prueba: ○ En la aplicación de la prueba. Ej. La atención, motivación, ambiente. ○ De quien responde la prueba. Ej. Incomodidad física, ansiedad, fármacos, etc. ★ Calificación e Interpretación de la prueba: ○ Examinados, respuestas a estímulos como palabras, dibujos, manchas de tinta. ○ Examinador, subjetividad, respuestas que caen en un área gris para la calificación, observación conductual, etc. ★ Error No Sistemático, Accidentales o al azar. ○ Es el resultado erróneo debido al azar. Fuentes de variación desconocida. ○ Fuentes de variación con la misma probabilidad de alterar los cálculos del estudio en una u otra dirección. Entre las diferentes técnicas para reducir la influencia del error debido al azar, la más simple y mejor conocida consiste en aumentar el tamaño de la muestra. ★ Error sistemático, sesgo o constante: Es un resultado erróneo debido al sesgo. Fuente de variación que alteran los datos del estudio en una dirección. Sesgo: puede definirse como un factor inherente dentro de una prueba que de manera sistemática impide la medicación precisa e imparcial. ❖ Errores de diseño: si la muestra pretendida y la variables no representan a la población y los fenómenos de interés, estos errores pueden alterar las inferencias sobre lo que realmente ocurre en la población (Validez externa). ❖ Errores de realización: si los participantes y las mediciones reales no representan la muestra y las variables propuestas, estos errores pueden alterar las inferencias sobre lo que realmente ocurre en el estudio (Validez interna). Tipos de Confiabilidad: ➔ Prueba y Posprueba: ◆ Utiliza el mismo instrumento para medir lo mismo en dos puntos en el tiempo. ◆ Pretende medir algo relativamente estable a lo largo del tiempo. Ej. Pers, Intelig. ◆ Obtenida al correlacionar pares de puntuaciones de las mismas personas en dos aplicaciones diferentes de la misma prueba. ◆ El paso del tiempo puede ser una varianza de error. ◆ Cuando el intervalo entre las pruebas es mayor que seis meses,“Coeficiente de estabilidad”. ➔ Formas Alternas o Equivalentes: ◆ Grado de relación entre varias formas de una prueba puede evaluarse por medio de un coeficiente de confiabilidad de formas alternas o equivalentes, el cual a menudo se denomina “coeficiente de equivalencia". ◆ Son versiones diferentes de una prueba que se han construido con el fin de ser equivalentes. Equivalentes con respecto a variables como contenido y dificultad. ◆ Son similares a una estimación de la confiabilidad de test-retest en: 1° Se requieren dos aplicaciones de la prueba con el mismo grupo. 2° Las puntuaciones pueden ser afectadas por factores como la motivación, fatiga, eventos como la práctica, el aprendizaje o terapia. ◆ Desventaja: es de índole financiera y temporal. ◆ Ventaja primordial: minimiza el efecto de la memoria para el contenido de una forma de prueba aplicada con anterioridad. ➔ Consistencia Interna: ◆ Grado de correlación entre todos los reactivos en una escala. ◆ La consistencia entre reactivos se calcula a partir de una sola aplicación de una forma única de una prueba. ◆ Índice de consistencia interna entre reactivos evalúa la homogeneidad de la prueba. ◆ Las pruebas homogéneas contienen reactivos que miden un solo rasgo. ◆ Grado en que la prueba mide un solo factor (reactivos son unifactoriales). ◆ Entre más homogénea es la prueba, hay más consistencia entre reactivos. ◆ Herramienta insuficiente para medir variables psicológicas multifacéticas como la inteligencia o personalidad. ◆ Varianza de error: 1° El muestreo de reactivos. 2° La heterogeneidad del área de contenido. ➔ Fiabilidad de División por Mitades: ◆ Confiabilidad de consistencia interna. ◆ Obtenida correlacionando dos pares de puntuaciones obtenidas de mitades equivalentes de una sola prueba aplicada una sola vez. ◆ Es una medida de confiabilidad útil cuando es poco práctico o indeseable evaluar la confiabilidad con dos pruebas o hacer dos aplicaciones de una prueba. ◆ Implica tres pasos: 1° Dividir la prueba en mitades equivalentes. 2° Calcular una r de Pearson entre las puntuaciones en las dos mitades de la prueba. 3° Ajustar la confiabilidad de la mitad de la prueba usando la fórmula de Spearman-Brown. ◆ No recomendable: dividir la prueba por la mitad, este procedimiento elevará o disminuirá en forma falsa el coeficiente de fiabilidad. ◆ Formas de dividir la prueba: 1°al azar, 2° pares y nones y 3° por contenido. ◆ El objetivo al dividir la prueba en mitades es crear “miniformas paralelas”. ➔ Fiabilidad de Spearman - Brown: ◆ Deriva de la Fiabilidad de División por Mitades y consta de tres pasos. ◆ Los reactivos deben ser equivalentes en contenido y nivel de dificultad. ◆ Al agregar reactivos para incrementar la confiabilidad tiene por regla que los reactivos nuevos deben ser equivalentes en contenido y dificultad, de modo que la prueba más larga todavía mida lo que medía la prueba original. ◆ Inapropiadas para medir la confiabilidad de pruebas heterogéneas y pruebas de velocidad. ➔ Fiabilidad de Kuder - Richardson: ◆ KR 20 es la estadística de elección para determinar la consistencia entre reactivos dicotómicos. ◆ Usado en pruebas que miden un solo factor (homogeneidad) del tipo aptitudinal, con reactivos dicotómicos (correcto o equivocado). ◆ Los reactivos de la prueba deben tener aproximadamente el mismo grado de dificultad. ◆ En el caso en que los reactivos de la prueba son muy homogéneos, las estimaciones de confiabilidad KR 20 y de división por mitades serán similares. ◆ Si los reactivos de prueba son más heterogéneos, la KR 20 producirá estimaciones de confiabilidad inferiores que el método de división por mitades. ➔ Fiabilidad Alfa: ◆ Desarrollado por Cronbach (1951). ◆ Puede considerarse como la media de todas las correlaciones de división por mitades posibles. ◆ Puede ser usado en pruebas con reactivos dicotómicos. ◆ Es apropiado para pruebas que contienen reactivos que pueden calificarse a lo largo de un rango de valores. Ej. Encuesta de opinión y de actitud. ◆ Los reactivos deben presentar un rango de alternativas posibles, donde puede darse un crédito parcial. ◆ “Es la estadística preferida para obtener una estimación de la confiabilidad de consistencia interna”. ➔ Fiabilidad Kappa: ◆ Grado de acuerdo o consistencia que existe entre dos o más observadores. ◆ Denominada como “confiabilidad del evaluador”, “confiabilidad entre evaluadores”. ◆ Kappa fue diseñada en un principio para ser usada en el caso que los evaluadores estimaciones usando escalas nominales de medición (Cohen, 1960) ◆ La estadística Kappa fue modificada después por Fliess (1971) para ser usada con múltiples evaluadores.

Use Quizgecko on...
Browser
Browser