Análisis e Interpretación de Datos: Probabilidad Condicional y Variables Aleatorias PDF
Document Details
Uploaded by Itan
Universidad Internacional de La Rioja
Tags
Summary
Estas son notas de clase sobre probabilidad y variables aleatorias, que incluyen definiciones, ejemplos, ejercicios y discusiones sobre conceptos como probabilidad condicional, modelos discretos y continuos. El material está dirigido a estudiantes universitarios, posiblemente de un curso de estadística o matemáticas.
Full Transcript
Probabilidad condicional y variables aleatorias [5.1] ¿Cómo estudiar este tema? [5.2] Introducción a la teoría de la probabilidad [5.3] Principios de la teoría de la probabilidad [5.4] Probabilidad condicional e independencia [5.5] Variable aleatoria [5.6] Modelos discretos [5.7] Modelos continuos T...
Probabilidad condicional y variables aleatorias [5.1] ¿Cómo estudiar este tema? [5.2] Introducción a la teoría de la probabilidad [5.3] Principios de la teoría de la probabilidad [5.4] Probabilidad condicional e independencia [5.5] Variable aleatoria [5.6] Modelos discretos [5.7] Modelos continuos TEMA 5 [5.8] Referencias bibliográficas Análisis e Interpretación de Datos Esquema TEMA 5 – Esquema © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Ideas clave 5.1. ¿Cómo estudiar este tema? Para estudiar este tema lee las páginas 106-115 y 123-159 del siguiente libro: Ríus, F. (1998). Bioestadística: Métodos y aplicaciones. Málaga: Universidad de Málaga. Publicaciones. https://www.bioestadistica.uma.es/baron/apuntes/clase/apuntes/pdf/ De los dos intervalos de páginas especificados, el segundo no será necesario que lo estudies íntegro pues algunas de las distribuciones de probabilidad discretas y continuas que tratan en el texto no las impartiremos por resumir esta parte y ser prácticos. Nos limitaremos a las distribuciones que figuran en este tema, de modo que guíate por este criterio para saber si es necesario estudiarlas. Para profundizar de manera opcional puedes consultar el apartado A fondo, donde tienes un enlace a una página en donde se explican otros modelos teóricos de variables aleatorias que te podrían interesar. Para hacerte una idea global de este tema es importante que mires el esquema del tema, el cual te ayudará a hacerte una buena idea de cómo está estructurado. También será clave que practiques con los ejercicios que vienen al final del tema además de poder practicar con los que incluyen el libro de Ríus (1998) a partir de la página 159-162. Del mismo modo presta atención a los ejemplos que acompañan a los diferentes apartados a lo largo del capítulo, pues encierran muchas de las claves que te facilitarán la comprensión del tema. 5.2. Introducción a la teoría de la probabilidad Definimos la probabilidad como una medida que se asocia a la ocurrencia de un suceso aleatorio, donde este es un evento sujeto a incertidumbre (como lanzar un dado, una moneda, etc.). TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Cuando lanzamos un dado, estamos realizando un experimento aleatorio, pues no sabemos a ciencia cierta cuál será el resultado hasta que el dado se detenga. Lo que sí sabemos es que, si repetimos dicha tirada, tarde o temprano obtendremos, por ejemplo, un cinco. La probabilidad es una función que nos va asociar la realización de un experimento aleatorio a un resultado. Este resultado tendrá que estar definido previamente y formará parte del conjunto de resultados posibles del experimento aleatorio que denominamos espacio muestral y cuya notación es Ω. Ejemplo 1: En el caso del lanzamiento de un dado y apuntar su resultado, el espacio muestral, designado por la letra Ω («Omega») es {1,2,3,4,5,6}. De modo que si tiráramos un dado repetidamente obtendríamos, por ejemplo, cincos en una proporción que sabemos se aproximará tanto como queramos a su valor teórico. La probabilidad la contemplaríamos como la frecuencia relativa del suceso «sacar un cinco» (número de veces que sale cinco al lanar el dado respecto al número total de lanzamientos). Esta visión de la probabilidad es la llamada concepción frecuentista de la probabilidad. lim 𝑓𝑟𝑒𝑐. 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑎 (𝐴) = 𝑛→∞ 𝑛𝐴 = 𝑃𝑟𝑜𝑏 (𝐴) 𝑛 Ejemplo 2: si el suceso aleatorio A es «sacar un 5». 𝑃𝑟𝑜𝑏 (𝑆𝑎𝑐𝑎𝑟 𝑢𝑛 5) = lim 𝑓𝑟𝑒𝑐. 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑎 (𝑆𝑎𝑐𝑎𝑟 𝑢𝑛 5) = 𝑛→∞ 𝑛5 𝑛 Un enfoque sencillo de ver la probabilidad es el enfoque clásico, que tiene su origen en los albores de la disciplina probabilística, cuando se generó un interés fuerte por ella a raíz de los juegos de azar. La máxima expresión de este enfoque se da a través de la conocida como regla de Laplace: 𝑝(𝐴) = TEMA 5 – Ideas clave 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Donde el número de casos favorables y el de posibles podríamos ahora calcularlo con las técnicas de conteo vistas en este tema. La limitación que presenta este enfoque es que tenemos que considerar sucesos equiprobables, es decir con la misma probabilidad. Ejemplo 3 Si A es «sacar un par» cuando tiramos un dado. Entonces tenemos que A={2,4,6}, luego tenemos tres casos favorables mientras que los casos posibles son 6, los correspondientes a los seis resultados posibles. De este modo: 𝑝(𝐴) = 3 = 1/2 6 Por otro lado, la noción frecuentista la podemos ver aquí si nos imaginamos la repetición del experimento, esto es, del lanzamiento del dado muchas veces y luego observamos que la frecuencia relativa de A se aproximaría a ½ (matemáticamente hablando diríamos que cuando el número de lanzamientos tiende a infinito la frecuencia relativa converge hacia la probabilidad). 5.3. Principios de la teoría de probabilidad Los principios matemáticos sobre los que descansa una visión más moderna y formal de la probabilidad tienen su origen en los trabajos de Kolmogorov, en los que establece una serie de axiomas que constituyen la base matemática del lenguaje de la probabilidad que manejamos hoy en día. El punto de partida es la función de probabilidad P, que será tal si se cumplen los siguientes cuatro axiomas, y entonces podremos decir que se ha definido correctamente un espacio probabilístico: 1. P(Ω)=1 La probabilidad del suceso seguro es siempre 1. Ocurre siempre. TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 2. 0 ≤ 𝑝(𝐴) ≤ 1 La probabilidad de un suceso está entre 0 y 1. Será cero cuando no puede ocurrir nunca, también denominado, suceso imposible. 3. Si A y B son dos sucesos disjuntos, es decir que 𝐴 ∩ 𝐵 = ∅, entonces: 𝑃 (𝐴 ∪ 𝐵) = 𝑃 (𝐴) + 𝑃(𝐵) 4. Si el espacio muestral está conformado por infinitos (en determinados casos es superfluo este 4º axioma, concretamente cuando es finito el espacio muestral) sucesos disjuntos 𝐴𝑖 entonces: ∞ 𝑃(𝐴1 ∪ 𝐴2 ∪ … ) = ∑ 𝑃(𝐴𝑖 ) 𝑖=1 De los axiomas podemos deducir otros resultados útiles: 5. 𝑃 ( ∅) = 0 6. Si 𝐴̅ es el complementario de 𝐴, entonces 𝑃 (𝐴̅) = 1 − 𝑃(𝐴) 7. Si 𝐴 ⊂ 𝐵 entonces 𝑃(𝐴) ≤ 𝑃(𝐵) 8. 𝑃 (𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃 (𝐵) − 𝑃 (𝐴 ∩ 𝐵) 5.4. Probabilidad condicional e independencia Vamos a comenzar con un caso concreto para explicar la probabilidad condicional. Más adelante la formalizaremos. Ejemplo 4 Durante el año 2012-13 el número de estudiantes matriculados en cierta universidad española fue el siguiente: Derecho Ingeniería Industrial CC. Económicas Total Hombre 389 283 1156 1828 Mujer 483 52 728 1263 Total 872 335 1884 3091 TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Si elegimos al azar un estudiante, la probabilidad de que sea hombre y estudie Derecho es: 𝑃 (𝐷𝑒𝑟𝑒𝑐ℎ𝑜 ∩ 𝐻𝑜𝑚𝑏𝑟𝑒) = 𝟑𝟖𝟗 = 0,126 𝟑𝟎𝟗𝟏 Pero si ya supiéramos que es hombre, entonces la probabilidad de que estudie Derecho se ve modificada, pues la población de referencia ya no es la de todos los estudiantes sino la de los hombres: 𝑃(𝐷𝑒𝑟𝑒𝑐ℎ𝑜 𝑠𝑎𝑏𝑖𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 𝑒𝑠 ℎ𝑜𝑚𝑏𝑟𝑒) = 𝟑𝟖𝟗 389/3091 𝑃(𝐷 ∩ 𝐻) = = 𝟏𝟖𝟐𝟖 1828/3091 𝑃(𝐻) Por tanto, cuando trabajemos con probabilidades como la anterior hablaremos de probabilidad del suceso A condicionado a que ha ocurrido el suceso B. En el ejemplo anterior ocurría que sabíamos que era hombre y por tanto estaba condicionando la probabilidad de que estudiara Derecho. La probabilidad condicionada la especificamos así: 𝑃 (𝐴 𝑠𝑎𝑏𝑖𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 ℎ𝑎 𝑜𝑐𝑢𝑟𝑟𝑖𝑑𝑜 𝐵) = 𝑃(𝐴|𝐵) Que se puede plantear por supuesto a la inversa, porque puede ser que ahora sepamos que ha ocurrido el otro evento y queramos entonces calcular la probabilidad de B: 𝑃 (𝐵 𝑠𝑎𝑏𝑖𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 ℎ𝑎 𝑜𝑐𝑢𝑟𝑟𝑖𝑑𝑜 𝐴) = 𝑃(𝐵|𝐴) La expresión que nos permite el cálculo de la probabilidad condicionada es: 𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) Si sabiendo que ha ocurrido uno de los eventos no modifica la probabilidad del otro diremos que son independientes. Por tanto, a partir de la fórmula anterior deducimos lo siguiente: 𝑆𝑖 𝑃 (𝐵|𝐴) = P(B) por no verse afectado por el hecho de que haya ocurrido A, entonces TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 𝑃 (𝐵) = 𝑃(𝐴 ∩ 𝐵) ↔ 𝑃(𝐴 ∩ 𝐵) = 𝑃 (𝐴) × 𝑃(𝐵) 𝑃(𝐴) Luego si dos sucesos son independientes entonces 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨) × 𝑷(𝑩) Ejemplo 5 Si tiramos una moneda repetidas veces, en principio, cada lanzamiento es un suceso independiente del anterior, pues la probabilidad de obtener una cara en el segundo lanzamiento es ½ y no «importa» que haya sido cara o cruz el resultado del primer lanzamiento. Del mismo modo que si tenemos ya dos hijos varones y vamos a tener un tercero, a priori la probabilidad de que el tercero sea varón es la misma de que sea hembra. Ten en cuenta que la igualdad de que la probabilidad de la intersección de dos eventos sea su producto de probabilidades también implica que son independientes. Por tanto siempre que apliques dicha igualdad cerciórate de que efectivamente los eventos son independientes. 5.5. Variable aleatoria Hasta ahora hemos manejado los resultados de los experimentos aleatorios como «obtener una cara», «lograr un cinco lanzando un dado», etc. Claramente estos resultados son manejables de forma puramente numérica. Así la serie de lanzamientos de monedas que resultan {CCXXXC} podemos resumirla como 3 caras e incluso podemos asociar una variable matemática X al número de caras de modo que decir que X=3 sea equivalente a decir que se han obtenido tres caras, pero con la ventaja de permitir un mejor manejo matemático. Variable aleatoria Variable cuyo valor representa el resultado de un experimento aleatorio. Las variables aleatorias pueden ser de dos clases dependiendo de los valores que puedan tomar: TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos La variable aleatoria discreta que solo puede tomar un número finito (o infinito numerable, puesto que la variable discreta puede tomar cualquier valor que se puede hacer corresponder a los números naturales N que son el 1, 2, 3, …) de posibles resultados. La variable aleatoria continua que puede tomar todos los valores dentro de un intervalo dado. Ejemplo 6 Si X = Número de caras obtenidas en n lanzamientos estamos ante una variable aleatoria discreta pues el número de caras será finito y además un valor entero positivo (un número natural). Si X = Estatura, entonces X es una variable aleatoria continua pues en un intervalo dado puede tomar infinitos valores. Ahora estudiaremos las principales características de estos dos tipos de variables además de los principales modelos de probabilidad discretos y continuos. 5.6. Modelos discretos En un modelo de probabilidad discreto tenemos una probabilidad mayor o igual a cero para cada valor posible de la variable X. Valor de X X1 X2 X3 … Xk Probabilidad de X=xi P1 P2 P3 … Pk Estas probabilidades deben cumplir que la suma de todas ellas sea igual a uno y que cada probabilidad este contenida entre 0 y 1. 0 ≤ 𝑝𝑖 ≤ 1 TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos ∑ 𝑝𝑖 = 1 A la función que asigna una probabilidad a un valor discreto se le denomina función de probabilidad. 𝑷(𝑿 = 𝒙𝒊 ) Ejemplo 7 Si lanzamos una moneda dos veces, podemos obtener de 0 a 2 caras con unas respectivas probabilidades que apreciamos en la tabla siguiente. Número de caras 0 1 2 𝑃 (𝑋 = 𝑥 𝑖 ) 0,25 0,5 0,25 Observamos pues que se trata de un modelo discreto bien definido, ya que todas las probabilidades son mayores o iguales que 0 y, además, 0,25+0,5+0,25=1. Para describir una variable aleatoria discreta se emplea también el concepto de función de distribución, que nos indica la acumulación de probabilidad en un rango de valores discretos hasta uno dado (el xi). 𝑭(𝒙𝒊 ) = 𝑷(𝑿 ≤ 𝒙𝒊 ) = 𝑃 (𝑋 = 𝑥1 ) + 𝑃(𝑋 = 𝑥2 ) + ⋯ + 𝑃(𝑋 = 𝑥𝑖 ) Ejemplo 8 Lanzamos dos dados y anotamos las puntuaciones. Los resultados posibles acompañados de la puntuación y sus respectivas probabilidades son las siguientes: TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Si representamos gráficamente esta distribución de probabilidad a través de un diagrama de barras nos haremos una mejor idea de lo que es la función de distribución: En los gráficos de barras anteriores observamos la función de probabilidad de la variable para todos los valores para a continuación mostrar la función de distribución. Cuando manejamos variables aleatorias también tenemos el interés de resumir su información a través del valor esperado o esperanza matemática y se calcula como sigue: 𝑬(𝑿) = ∑ 𝒙𝒊 𝒑𝒊 A la esperanza también la podemos designar como µx. Ejemplo 9 En el ejemplo de la moneda tenemos que la esperanza matemática (o «esperanza» a secas) o valor esperado es: TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 𝐸(𝑋) = ∑ 𝑥𝑖 𝑝𝑖 = 0 × 0,25 + 1 × 0,5 + 2 × 0,25 = 1 Lo que se interpreta como que el valor medio del número de caras esperado cuando lanzamos dos veces una moneda normal es que obtengamos una. Ejemplo 10 Y en el ejemplo de la suma de puntuaciones al lanzar dos dados la esperanza resulta: 1 2 3 3 2 1 𝐸(𝑋) = ∑ 𝑥𝑖 𝑝𝑖 = 2 × 36 + 3 × 36 + 4 × 36 +.. +10 × 36 + 11 × 36 + 12 × 36 = 7 De modo que el valor esperado lanzando dos dados es 7. Tenemos estas propiedades sobre el valor medio esperado: La esperanza de la suma es la suma de las esperanzas: 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) 𝐸(𝑎 + 𝑏𝑋) = 𝑎 + 𝑏𝐸(𝑋) También definimos la varianza de una variable aleatoria X como: 2 2 2 2 𝜎𝑥2 = ∑(𝑥𝑖 − 𝐸(𝑋)) 𝑝𝑖 = (𝑥1 − 𝐸(𝑋)) 𝑝1 + (𝑥2 − 𝐸(𝑋)) 𝑝2 + ⋯ + (𝑥k − 𝐸(𝑋)) 𝑝k Es habitual designar 𝜎𝑥2 como V(X). Ejemplo 11 En el ejemplo de las suma de los dos datos la varianza resulta: 𝑉(𝑋) = (2 − 7)2 1 (3 − 7)2 2 (4 − 7)2 3 (10 − 7)2 3 (11 − 7)2 2 (12 − 7)2 1 + + + ⋯+ + + 36 36 36 36 36 36 De todos modos la expresión anterior se suele calcular con una variante de la fórmula de la varianza que facilita el cálculo. TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 𝑉(𝑋) = ∑ 𝑥𝑖 2 𝑝𝑖 − 𝐸(𝑋)2 De modo que el cálculo anterior se simplifica: 𝜎𝑥2 = 22 1 32 2 42 3 102 3 112 2 122 1 + + +⋯+ + + − 72 = 54,83 − 49 = 5,83 36 36 36 36 36 36 También tenemos una serie de reglas para la varianza: 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌) que también podemos expresar como 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) + 2𝜌𝜎𝑥 𝜎𝑦 donde 𝜌 es la correlación entre ambas variables, y 𝜎𝑥 , 𝜎𝑦 sus correspondientes desviaciones típicas. 𝑉(𝑎 + b𝑋) = 𝑏 2 𝑉(𝑋) Y si son independientes X e Y entonces la correlación es nula por lo que: 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) = 𝑉(𝑋 − 𝑌) Ejemplo 12 Si quieres estudiar en EEUU (e incluso a nivel laboral) te pueden exigir realizar la prueba conocida como SAT, la cual a su vez consta de varias partes. Dos de ellas miden la aptitud matemática y la lingüística. Si las puntuaciones obtenidas para matemáticas tienen una media de 419 con una desviación típica de 105 y la de lingüística alcanza una media de 407 con una desviación típica de 91 podemos construir la media y varianza de la puntuación obtenida por la suma de ambas pruebas. Para las medias es fácil pues: (siendo M=Matemáticas y L= lingüística) 𝐸(𝑀 + 𝐿) = 𝐸(𝑀) + 𝐸(𝐿) = 826 Sin embargo, para hallar la varianza necesitaríamos saber la correlación 𝜌 entre ambas pruebas. Si además logramos saberla y vale 0,81 entonces podemos calcularla como 𝑉(𝑀 + 𝐿) = 𝑉(𝑀) + 𝑉(𝐿) + 2𝜌𝜎𝑥 𝜎𝑦 → 𝑉(𝑀 + 𝐿) = 1052 + 912 + 2 × 0,81 × 105 × 91 = 34781,1 TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Tras ver las propiedades de las variables aleatorias discretas vamos a pasar al estudio de uno de los modelos discretos más empleados. Este ocurre cuando realizamos un experimento aleatorio en el que queremos contar el número de «éxitos» de una determinada prueba que puede presentar dos resultados posibles (es decir, tendrás que ser dicotómica), entonces esta variable aleatoria diremos que se distribuye como una distribución binomial de parámetros n y p, donde n es el número de realizaciones y p la probabilidad de éxito en cualquiera de ellas. Para abreviar escribimos 𝑋~𝐵𝑖(𝑛, 𝑝). Al ser la probabilidad de éxito p diremos que la del fracaso es 1-p puesto que han de sumar uno entre ambas. La probabilidad del fracaso también se suele indicar con una q. La probabilidad de que una variable aleatoria binomial (n,p) tome un valor concreto, es decir, alcance «k» éxitos es: 𝑛 𝑃(𝑋 = 𝑘) = ( ) 𝑝𝑘 𝑞𝑛−𝑘 𝑘 Ejemplo 13 Precisamente en el ejemplo visto anteriormente la variable aleatoria número de lanzamientos en los que se obtiene «cara» se trataría de una distribución binomial donde «n» es 2 por ser dos lanzamientos y «p» es ½ pues esa es la probabilidad de obtener cara (que es lo que consideramos éxito). De modo que tendríamos X=«Número de caras al lanzar una moneda» siendo 1 𝑋~𝐵𝑖(2, 2). Aquí observamos que el significado de «éxito» es figurado y connota cualquier evento que pueda ocurrir o no, siendo éxito cuando ocurre y fracaso cuando no lo hace. Si quisiéramos calcular, por ejemplo, la probabilidad de obtener dos caras en 6 1 lanzamientos ahora sería 𝑋~𝐵𝑖(6, 2) y procederíamos del siguiente modo: 6 𝑃(𝑋 = 2) = ( ) × 0,52 × 0,54 = 15 × 0,25 × 0,0625 = 0,234 2 En el caso concreto de la distribución binomial la esperanza y varianza resultan: Si 𝑋~𝐵𝑖(𝑛, 𝑝) → 𝐸(𝑋) = 𝑛𝑝 TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Si 𝑋~𝐵𝑖(𝑛, 𝑝) → 𝑉(𝑋) = 𝑛𝑝𝑞 Ejemplo 14 De modo que en el caso de la moneda lanzada tres veces tenemos que: 1 1 1 𝐸(𝑋) = 2 × 2 = 1 𝑐𝑎𝑟𝑎 y 𝑉(𝑋) = 2 × 2 × 2 = 1/2 5.7. Modelos continuos En el caso continuo encontramos una diferencia importante, ya que todas las probabilidades siguen sumando uno, pero ahora ese valor unitario ha de repartirse entre infinitos valores que pueden tomar las xi, por lo que la función de probabilidad será nula en un punto concreto y además en el caso continuo pasa a denominarse función de densidad, y se designa f(x). Al ser nulas estas probabilidades cobra importancia la función de distribución, ya que al acumular estas densidades alcanzará a tomar valores que serán proporcionales al área que encierre la función de densidad (generalmente una curva) entre ella misma y el eje de las x. De modo que ahora la probabilidad es un área: 𝑏 𝑃 (𝑎 < 𝑥 < 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥 𝑎 Siendo 𝑓 (𝑥) la función de densidad. Y según apreciamos en el dibujo el área sombreada correspondería precisamente a la probabilidad acumulada en el intervalo (a,b). TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Si esta probabilidad la acumulamos hasta un punto dado entonces estamos en el caso de la función de distribución acumulada de una variable aleatoria continua: 𝑥 𝐹 (𝑥) = 𝑃 (𝑋 ≤ 𝑥) = ∫ 𝑓 (𝑡)𝑑𝑡 −∞ Hay que tener en cuenta que el área seguirá sumando uno de modo que: +∞ 𝑓(𝑥)𝑑𝑥 = 1 ∫ −∞ Ejemplo 15 Si tenemos que X es un variable aleatoria continua con la siguiente distribución: 𝑥 𝑓 (𝑥) = { 2 0 si 0 ≤ 𝑥 ≤ 2 en cualquier otra parte Y entonces, 2 𝑓 (𝑥)𝑑𝑥 = ∫ 0 2 𝑥 𝑥2 4 [ ] = −0= 1 𝑑𝑥 = 2 4 0 4 Además la función de distribución acumulada resulta: 0 si x < 0 2 𝑥 𝐹 (𝑥) = 𝑃 (𝑋 ≤ 𝑥) = { 𝑠𝑖 0 ≤ 𝑥 ≤ 2 4 1 si x > 2 En el caso continuo la esperanza será análogamente una integral y no una suma como lo era el caso discreto. 𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 Y la varianza de modo similar será: TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 𝑉(𝑋) = ∫ (𝑥 − 𝐸(𝑋))2 𝑓(𝑥)𝑑𝑥 Ejemplo 16 Siguiendo con el ejemplo anterior tendremos: 2 2 𝑥 𝑥3 8 𝐸(𝑋) = ∫ 𝑥 ( ) 𝑑𝑥 = [ ] = = 4/3 2 6 0 6 0 2 2 4 𝑥 𝑥 4 2 16 𝑉(𝑋) = ∫ (𝑥 − )2 ( ) 𝑑𝑥 = ∫ 𝑥 2 ( ) 𝑑𝑥 − ( ) = 2 − = 2/9 3 2 2 3 9 0 0 La distribución de probabilidad teórica más conocida es sin duda la distribución normal. Durante un tiempo se creyó que todas las variables aleatorias eran continuas. Aunque hoy en día sabemos que no es cierto lo anterior, sí lo es que muchas de las variables aleatorias de la naturaleza se distribuyen como una normal (Martín Andrés, 2004). Sin embargo, la función matemática que las describe es compleja y no es práctica para manejarla. 𝑓(𝑥) = 1 𝜎√2𝜋 1 𝑥−𝜇 2 ( ) 𝜎 𝑒 −2 Y tal y como se observa la normal queda caracterizada por dos parámetros: su media 𝜇 y su desviación típica 𝜎. De modo que si X se distribuye como una normal lo anotamos como 𝑋~𝑁(𝜇, 𝜎). La forma de la normal es acampanada y como fue descubierta por Gauss, en ocasiones recibe el nombre de «Campana de Gauss». TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Como se observa, la normal es simétrica respecto a su media y, de este modo, esta también es la mediana y, por la forma, también la moda. Luego media, moda y mediana coinciden en la normal. Debido a la forma que tiene acampanada la mayor parte de masa de probabilidad (el área encerrada entre la curva y el eje de abscisas) se acumula en torno a la media, y cuánto más se aleja de ésta se hace más improbable ─a un ritmo exponencial─ que tome tal valor. Es muy usada como referencia y por fines comparativos entre distribuciones una versión de la normal que se denomina normal estándar: 𝒁~𝑁(0,1), que es entonces una normal con media 0 y desviación típica 1. En el caso de la gráfica anterior sería la que tiene color verde. Podemos observar que cuanto mayor sea 𝜎 la distribución es más achatada. De hecho 𝜎 está presente explícitamente en la gráfica pues es la distancia entre la media y el punto de la curva donde se produce una inflexión. Para transformar una 𝑁(𝜇, 𝜎) en una 𝑁(0,1) empleamos las reglas vistas para la media y la varianza. 𝑋−𝜇 𝜎 TEMA 5 – Ideas clave = 𝑧 ↔ 𝐸( 𝑋−𝜇 𝜎 )= 𝐸(𝑋)−𝜇 𝜎 = 0; 𝑉 ( 𝑋−𝜇 𝜎 )= 𝑉(𝑋) 𝜎2 =1 © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos A esta transformación se le denomina tipificación y una de sus grandes utilidades concretas es la que permite trasladar cualquier valor de cualquier 𝑁(𝜇, 𝜎) en su valor equivalente en una 𝑁(0,1) de modo que se pueda saber su probabilidad al estar tabulada. Esto sobre todo es importante cuando se consulta en las tablas de la 𝑁(0,1) las relaciones entre los valores y sus probabilidades asociada, aunque hoy debido a los ordenadores quizás está algo en desuso el empleo de estas tablas. Apuntes sobre el concepto de «probabilidad» En este vídeo veremos algunos apuntes sobre el concepto de «probabilidad» en el ámbito de la estadística computacional. Accede al vídeo a través del aula virtual 5.8. Referencias bibliográficas Amón, J. (1984). Estadística para Psicólogos. Vol. 2: Probabilidad y Estadística Inferencial. Madrid: Pirámide. Lipschutz, S. (1971). Teoría y problemas de probabilidad. México: McGraw-Hill. Martín, A. (2004). Bioestadística para las ciencias de la salud (1ª ed.). Madrid: Norma-Capitel. TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Moore, D. S. (2006). Introduction to the practice of statistics (5th. ed. ed.). New York: Freeman and Company. Ríus, F. (1998). Bioestadística: Métodos y aplicaciones. Málaga: Universidad de Málaga. Publicaciones. Versión electrónica: https://www.bioestadistica.uma.es/baron/apuntes/clase/apuntes/pdf/ TEMA 5 – Ideas clave © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Lo + recomendado Lecciones magistrales Aproximación de una distribución Binomial a una Normal En esta lección magistral veremos cómo la distribución binomial y la normal están conectadas, ya que a partir de cierto tamaño del «n» la primera puede aproximarse a la segunda con las consiguientes ventajas que esto tiene. La lección magistral está disponible en el aula virtual. TEMA 5 – Lo + recomendado © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos + Información A fondo Modelos de probabilidad Se recomienda que leas algo más sobre modelos de probabilidad, ya que solo hemos tratado los principales en este capítulo. En esta web de CEACES (un interesante proyecto de la Universidad de Valencia para la enseñanza de la Estadística) tienes información sobre más modelos tanto discretos como continuos. Además puedes descargar el material en formato PDF y también emplear una serie de programas online que te permiten calcular las probabilidades de diferentes modelos: binomial, binomial negativo, Poisson y normal. Accede a la página desde el aula virtual o a través de la siguiente dirección web: http://www.uv.es/ceaces/base/modelos%20de%20probabilidad/simple.htm Bibliografía Amón, J. (1984). Estadística para Psicólogos. Vol. 2: Probabilidad y Estadística Inferencial. Madrid: Pirámide. Lipschutz, S. (1971). Teoría y problemas de probabilidad. México: McGraw-Hill. Martín, A. (2004). Bioestadística para las ciencias de la salud (1ª ed.). Madrid: Norma-Capitel. Moore, D. S. (2006). Introduction to the practice of statistics (5th. ed. ed.). New York: Freeman and Company. Ríus, F. (1998). Bioestadística: Métodos y aplicaciones. Málaga: Universidad de Málaga. Publicaciones. Versión electrónica: https://www.bioestadistica.uma.es/baron/apuntes/clase/apuntes/pdf/ TEMA 5 – + Información © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos Test 1. Si los tres primeros lanzamientos de una moneda han resultado cara, la probabilidad de que obtengamos cara en el cuarto lanzamiento es: A. 1/16 B. 1/4 C. 1/2 D. Otro valor entre cero y uno. 2. Dos eventos se dice que son independientes cuando: A. Siempre que ocurra A no tiene por qué ocurrir B. B. La probabilidad de su intersección es nula. C. El hecho de que ocurra uno no afecta a la probabilidad de que ocurra el otro. D. Las respuestas B y C son correctas. 3. 𝐹 (𝑥𝑖 ) es A. La función de redistribución. B. 1 − 𝑃(𝑋 > 𝑥𝑖 ) C. 𝑃(𝑋 > 𝑥𝑖 ) D. Las respuestas A y B son correctas. 4. Si tiramos dos dados y sumamos sus puntuaciones. La probabilidad de obtener un 6,7 o un 8 es: A. La mitad. B. Más de la mitad. C. 0,44. D. F(8) – F(6) 5. La V(X+Y) es igual a: A. 𝑉(𝑋) + V(𝑌) + 2𝜌𝜎𝑋𝜎𝑦 B. 𝑉(𝑋) + 𝑉(𝑌) C. 𝑉(𝑋) + 𝑉 (𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌) D. Las respuestas A y C son correctas. TEMA 5 – Test © Universidad Internacional de La Rioja (UNIR) Análisis e Interpretación de Datos 6. En una distribución binomial el parámetro «q» es: A. 1-P(éxito) B. La probabilidad del fracaso. C. 1/p D. Las respuestas A y B son correctas. 7. La distribución normal está caracteriza por dos parámetros que son: A. 𝜇 𝑦 𝜌 B. 𝜎 2 𝑦 𝜌 C. 𝜇 𝑦 𝑝 D. La media y la desviación típica. 8. Si 𝑋~𝑁(5,2) entonces la variable tipificada Z la obtenemos como… A. 𝑋−5 B. 𝑋−2 C. 𝑋−5 D. 𝑍−𝐸(𝑋) 4 5 2 𝜎 9. Si tenemos un variable aleatoria X que se distribuye como una Bi(10;0,5): A. Su varianza es 2,5. B. σ = 5 C. 𝐸 (𝑋) = 2,5 D. σ = 2,5 10. En una distribución normal a mayor sigma: A. Mayor altura de la función de densidad. B. Más probable es encontrarse datos más dispersos que sigan tal distribución. C. La forma de la campana será más achatada. D. Las respuestas B y C son correctas. TEMA 5 – Test © Universidad Internacional de La Rioja (UNIR)