Resumen de Inferencia Estadística PDF
Document Details
![NicerJadeite1439](https://quizgecko.com/images/avatars/avatar-6.webp)
Uploaded by NicerJadeite1439
Universidad de Granada
Álvaro Figueroa Uberos
Tags
Summary
Este documento es un resumen de inferencia estadística, cubriendo la introducción, el muestreo, la estimación y las pruebas de hipótesis. El documento, de la Universidad de Granada, también explica distribuciones asociadas y otros conceptos estadísticos clave.
Full Transcript
Resumen Inferencia Estadística Universidad de Granada Prof. Álvaro Figueroa Uberos 1. Introducción a la Inferencia Estadística La inferencia estadística permite hacer generalizaciones sobre una población con base en una muestra representativa...
Resumen Inferencia Estadística Universidad de Granada Prof. Álvaro Figueroa Uberos 1. Introducción a la Inferencia Estadística La inferencia estadística permite hacer generalizaciones sobre una población con base en una muestra representativa. Sus áreas principales incluyen la estimación de pará- metros, puntual y mediante intervalos de confianza, y el contraste de hipótesis. 1.1. Conceptos básicos Población: Conjunto completo de elementos de estudio. Muestra: Subconjunto representativo de la población (fruto del muestreo). Parámetro: Característica numérica que describe una propiedad de la población, como la media µ o la varianza σ 2 en el caso de la distribución normal. Estadístico: Función de la muestra que depende solo de ella. Se calcula a partir de la muestra para estimar un parámetro poblacional o nos ayuda a tomar decisio- nes sobre distribuciones. Algunos ejemplos de estadísticos muestrales son la media muestral X̄ o la cuasivarianza S 2. 1.2. Muestreo y su importancia en la Inferencia Estadística El muestreo es una técnica fundamental en estadística, utilizada para seleccionar una muestra representativa de una población con el fin de analizar sus características sin la necesidad de estudiar a cada individuo de dicha población. En términos de inferencia es- tadística, el muestreo permite hacer estimaciones y pruebas de hipótesis sobre parámetros poblacionales de distribuciones o sobre distribuciones desconocidas a priori o caracterís- ticas de esta basándose en una muestra, lo que facilita el proceso de toma de decisiones y ahorra recursos en comparación con el estudio exhaustivo de toda la población. Entre los diversos métodos de muestreo, el muestreo aleatorio simple es uno de los más empleados y constituye una base importante para la teoría de la inferencia estadística. Este método consiste en seleccionar una muestra de tamaño n de una población de tama- ño N de tal forma que cada posible conjunto de n individuos tenga la misma probabilidad de ser elegido. Es decir, cada individuo de la población tiene la misma probabilidad de ser incluido en la muestra. Como hemos mencionado, en el muestreo aleatorio simple, una muestra de tamaño n se toma de una población que sigue una distribución dada por una variable aleatoria X. En 1 este caso, cada elemento de la población tiene la misma probabilidad de ser seleccionado, y cada muestra es una realización independiente de la variable aleatoria X. Podemos denotar una muestra aleatoria simple de X como: X1 , X2 , X3 ,... , Xn donde Xi son variables aleatorias independientes e idénticamente distribui- das (i.i.d.) con la misma distribución que X. Matemáticamente, podemos expresar esto así: Muestra de n observaciones: {X1 , X2 , X3 ,... , Xn } ⊂ X Propiedades de independencia e idéntica distribución: Cada Xi es independiente de Xj para i ̸= j. Cada Xi tiene la misma distribución que X, lo cual se expresa como: Xi ∼ X, ∀i = 1, 2,... , n Así, una muestra aleatoria simple (m.a.s.) de tamaño n de una variable aleatoria X consiste en n variables aleatorias X1 , X2 ,... , Xn que son independientes y tienen la mis- ma distribución que X cada una. 1.3. Distribuciones asociadas al muestreo Distribución Chi-Cuadrado (χ2 ): Describe la variabilidad Pn de varianzas mues- trales. Si X1 , X2 ,... , Xn son variables normales estándar, i=1 Xi sigue una dis- 2 tribución χ2n , donde el n indica los grados de libertad. Distribución t de Student: Utilizada cuando se estima la media con una mues- tra pequeña y la varianza poblacional es desconocida. Para muestras grandes, se aproxima a la distribución normal. Distribución F de Snedecor: Se usa para contrastar varianzas de dos poblaciones independientes. 2. Estimación La estimación permite aproximar de alguna forma los valores de los parámetros po- blacionales. 2 2.1. Estimación puntual La estimación puntual consiste en calcular un único valor, llamado estimador pun- tual, para aproximar el valor del parámetro poblacional. Propiedades deseables de los estimadores: Insesgadez: Un estimador es insesgado si el valor esperado del estimador coincide con el parámetro que se estima, es decir, E(θ̂) = θ. Eficiencia: Entre los estimadores insesgados, el más eficiente es el que tiene la menor varianza, lo cual reduce el error en la estimación. Consistencia: Un estimador es consistente si, al aumentar el tamaño de la muestra, el estimador se aproxima al valor real del parámetro. Algunos ejemplos de estimadores puntuales usuales: La media muestral X̄ = n1 ni=1 Xi es un estimador puntual de la media P poblacional µ. La cuasivarianza S 2 = n−1 i=1 (Xi − X̄) es un estimador de la varianza 1 Pn 2 poblacional σ 2. La proporción muestral p̂ = Xn es un estimador de la proporción poblacional p, donde X es el número de éxitos en la muestra de tamaño n. Ejemplo de estimación puntual: Supongamos que deseamos estimar el ingreso promedio de una ciudad. Si tomamos una muestra de 50 personas y encontramos una media muestral de X̄ = 2500 euros, podemos usar X̄ como una estimación puntual de la media poblacional µ del ingreso. 2.2. Estimación por intervalos de confianza A diferencia de la estimación puntual, la estimación por intervalos proporciona un rango de valores dentro del cual, con un cierto nivel de confianza, se espera que se en- cuentre el parámetro poblacional. En nuestro caso haremos inferencia paramétrica sobre una variable aleatoria que sigue una distribucion normal de media µ y varianza σ 2. Antes hagamos una definición e interpretación sobre el nivel de confianza: Nivel de confianza (1 − α): Es la probabilidad de que el intervalo calculado contenga el valor verdadero del parámetro. Los niveles de confianza comunes son 90 %, 95 %, y 99 %. Empezamos con la inferencia sobre los parámetros de la normal: Sea X ∼ N (µ, σ 2 ) Intervalo de confianza para la media: Varianza conocida: Si la varianza poblacional σ 2 es conocida, el intervalo de confianza al nivel (1 − α) para la media poblacional µ es: σ σ X̄ − z1−α/2 √ , X̄ + z1−α/2 √ n n donde z1−α/2 es el valor crítico de la distribución normal estándar. El que deja a la izquierda una probabilidad de 1 − α/2. 3 Varianza desconocida: Si σ 2 es desconocida y el tamaño muestral es peque- ño, se usa la distribución t de Student. El intervalo es: S S X̄ − tn−1;1−α/2 √ , X̄ + tn−1;1−α/2 √ n n donde tn−1;1−α/2 es el valor crítico de la t de Student con n − 1 grados de libertad. El que deja una probabilidad a la iqzquierda de 1 − α/2. Ejemplo: Supongamos que se toma una muestra de 25 estudiantes para esti- mar su puntuación promedio en un examen, y obtenemos X̄ = 70 y S = 10. Para un nivel de confianza del 95 % y asumiendo que la varianza es descono- cida, el intervalo de confianza es: 10 70 ± t24;0,975 √. 25 Usando t24;0,975 ≈ 2,064, el intervalo es (65,872, 74,128). Intervalo de confianza para una proporción: Si queremos estimar la proporción poblacional p a partir de una muestra, el intervalo de confianza al nivel (1 − α) es: r r ! p̂(1 − p̂) p̂(1 − p̂) p̂ − z1−α/2 , p̂ + z1−α/2 n n donde p̂ es la proporción muestral y z1−α/2 es el valor crítico de la distribución normal estándar (de nuevo, el que deja a la izquierda una probabilidad de 1 − α/2. Ejemplo: En una encuesta de 200 personas, 60 indican que prefieren el producto A. La proporción muestral es p̂ = 60/200 = 0,3. Para un nivel de confianza del 95 %, el intervalo es: r 0,3 · 0,7 0,3 ± 1,96 = 0,3 ± 0,065 200 es decir, (0,235, 0,365). Intervalo de confianza para la diferencia de medias (Dos poblaciones): Varianzas conocidas: Si se comparan las medias de dos poblaciones con varianzas conocidas, el intervalo es: r r ! 2 σX σY2 2 σX σY2 (X̄ − Ȳ ) − zα/2 + , (X̄ − Ȳ ) + zα/2 +. n m n m Varianzas Desconocidas e Iguales: Si las varianzas son desconocidas pero iguales, usamos una varianza combinada Sp2 : 2 (n − 1)SX + (m − 1)SY2 Sp2 = n+m−2 y el intervalo de confianza es: s ! 1 1 (X̄ − Ȳ ) ± tα/2,n+m−2 Sp2 +. n m 4 Ejemplo: Dos métodos de enseñanza se prueban en dos grupos de estudiantes. En el grupo 1 (n = 30) la media es X̄ = 75 y SX = 10. En el grupo 2 (m = 25) la media es Ȳ = 70 y SY = 12. Suponiendo que las varianzas son iguales, para un 95 % de confianza el intervalo de la diferencia es: (30 − 1)102 + (25 − 1)122 Sp2 = = 121,4 30 + 25 − 2 s 1 1 (75 − 70) ± t0,025,53 121,4 + = 5 ± 4,15 30 25 es decir, (0,85, 9,15). 3. Tests de Hipótesis Un test de hipótesis es un procedimiento que permite verificar suposiciones sobre parámetros de una población. Los pasos básicos son: 1. Plantear la hipótesis nula (H0 ) y alternativa (H1 ). 2. Elegir un estadístico de prueba adecuado. 3. Establecer el nivel de significación α y definir la región crítica. 4. Calcular el estadístico y tomar la decisión de rechazar o no H0. 3.1. Tipos de Errores en un Test de Hipótesis Error Tipo I: Rechazar H0 cuando es verdadera (probabilidad α). Error Tipo II: No rechazar H0 cuando es falsa (probabilidad β). Potencia del Test: 1 − β, la probabilidad de detectar que H0 es falsa. 3.2. Tipos de Contrastes de Hipótesis Contrastes sobre la Media: Varianza Conocida: Se usa un estadístico Z: X̄ − µ0 Z= √ σ/ n La región de rechazo depende de si el test es unilateral o bilateral: ◦ Test bilateral: Rechazamos H0 si Z > z1−α/2 o bien Z < −z1−α/2. ◦ Test unilateral derecho: Rechazamos H0 si Z > zα. ◦ Test unilateral izquierdo: Rechazamos H0 si Z < −zα. p-valor: Es la probabilidad de obtener un valor tan extremo como el observado bajo H0. Si el p-valor es menor que α, se rechaza H0. 5 Ejemplo: En un proceso de producción, la longitud media de un componente es de 50 mm. Se toman 40 muestras y se encuentra una media de 51 mm con σ = 2. Con α = 0,05, queremos saber si la media es realmente 50 mm. Calculamos: 51 − 50 Zexp = √ = 3,16 2/ 40 Comparando con z0,975 = 1,96, como Zexp > 1,96, rechazamos H0. El p-valor es aproximadamente 0,0016, lo que confirma la decisión de rechazo. Varianza Desconocida: Se usa el estadístico T : X̄ − µ0 T = √ S/ n La región de rechazo es similar al caso de varianza conocida: ◦ Test bilateral: Rechazamos H0 si T > tn−1;1−α/2 o bien T < −tn−1;1−α/2 ◦ Test unilateral derecho: Rechazamos H0 si T > tα, n−1. ◦ Test unilateral izquierdo: Rechazamos H0 si T < −tα, n−1. p-valor: Es la probabilidad de obtener un valor de T tan extremo como el observado bajo H0. Contrastes sobre Proporciones: Para una Proporción: p̂ − p0 Z=q p0 (1−p0 ) n La región de rechazo es: ◦ Test bilateral: Rechazamos H0 si Z > z1−α/2 o bien Z < −z1−α/2. ◦ Test unilateral derecho: Rechazamos H0 si Z > zα. ◦ Test unilateral izquierdo: Rechazamos H0 si Z < −zα. p-valor: La probabilidad de obtener un valor tan extremo como el observado bajo H0. Ejemplo: Una encuesta indica que el 60 % de los clientes están satisfechos. Queremos contrastar si esta proporción es igual al 55 % con α = 0,05. Tomamos una muestra de 100 clientes y encontramos que p̂ = 0,60. Calculamos: 0,60 − 0,55 Zexp = p = 1,11 0,55 × 0,45/100 Como Zexp = 1,11 no supera z0,975 = 1,96, no rechazamos H0. El p-valor es aproximadamente 0,1335, lo que confirma que no hay suficiente evidencia para rechazar H0. Contrastes para la Comparación de Dos Medias: Varianzas Conocidas: Usamos: X̄ − Ȳ Z=q 2 σX σ2 n + mY La región de rechazo es: 6 ◦ Test bilateral: Rechazamos H0 si |Z| > zα/2. ◦ Test unilateral derecho: Rechazamos H0 si Z > zα. ◦ Test unilateral izquierdo: Rechazamos H0 si Z < −zα. p-valor: Es la probabilidad de obtener un valor tan extremo como el observado bajo H0. Ejemplo: Dos medicamentos se comparan en dos grupos de pacientes (n = 30, m = 25) con medias X̄ = 12, Ȳ = 10, y varianzas conocidas σX 2 = 4, σY2 = 3. Calculamos: 12 − 10 Z=q = 2,33 4 3 30 + 25 Con α = 0,05, z0,025 = 1,96, como |Z| > 1,96, rechazamos H0 , indicando que las medias son significativamente diferentes. El p-valor es aproximadamente 0,0198, lo que respalda la decisión de rechazo. Contrastes de Bondad de Ajuste (Chi-Cuadrado): Se utiliza para verificar si los datos observados siguen una distribución teórica esperada. Estadístico: X (Oi − Ei )2 χ2 = Ei donde Oi y Ei son las frecuencias observadas y esperadas, respectivamente. Ejemplo: Se lanza un dado 60 veces y los resultados son: 10, 8, 12, 9, 11, 10. La hipótesis nula es que el dado es justo, con frecuencia esperada Ei = 10. Calculamos: X (Oi − Ei )2 (10 − 10)2 (8 − 10)2 (10 − 10)2 χ2 = = + + ··· + = 1,8 Ei 10 10 10 Con df = 5 y α = 0,05, el valor crítico es 11,07. No rechazamos H0 , conclu- yendo que el dado puede ser justo. Contrastes de Independencia (Chi-Cuadrado): Se utiliza para verificar si dos variables categóricas son independientes entre sí. Estadístico: X (Oij − Eij )2 χ2 = Eij donde Oij y Eij son las frecuencias observadas y esperadas en la celda i, j de una tabla de contingencia. Eij corresponde con el valor esperado de ser cierto que son independientes, es decir ni· n·j Eij = n 7 Así, el estadístico queda como 2 X Oij χ2 = − n. Eij Este estadístico tiene una distribución χ2 con (p−1)·(q −1) grados de libertad, donde p es el número de modalidades de una de las variables y q el número de modalidades e la otra. La región de rechazo es: ◦ Test unilateral derecho: Rechazamos H0 si χ2 > χ21−α, df , donde df = (r − 1)(c − 1), siendo r el número de filas y c el número de columnas. (Análogamente (p − 1) · (q − 1)). p-valor: Es la probabilidad de obtener un valor de χ2 tan extremo como el observado bajo H0. Ejemplo: Se realiza un estudio para verificar si hay independencia entre el género (masculino/femenino) y la preferencia por un producto (sí/no). La tabla de contingencia es la siguiente: Sí No Masculino 30 20 Femenino 20 30 Con α = 0,05, calculamos χ2 y lo comparamos con el valor crítico para df = 1. Si χ2 > χ20,05, 1 = 3,84, rechazamos H0 y concluimos que las variables no son independientes. 3.3. Región Crítica y p-valor La región crítica es el conjunto de valores del estadístico para los cuales se rechaza H0. El p-valor es la probabilidad de obtener un valor del estadístico igual o más extremo que el observado. Si p-valor ≤ α, se rechaza H0. Ejemplo: Si en una prueba obtenemos un p-valor de 0.03 y α = 0,05, rechazamos H0. 8