Folleto TP 2023 Agosto PDF - Probabilidades
Document Details
Uploaded by LikableLime
Universidad de La Habana
2023
José E. Valdés Castro
Tags
Related
- Análisis e Interpretación de Datos: Probabilidad Condicional y Variables Aleatorias PDF
- Distribuciones de Probabilidad PDF
- Respostas dos exercícios - Noções de Probabilidade e Estatística - Pares Cap - PDF
- Estadística y Probabilidad 3º ESO - Apuntes PDF
- Guía Nº 6 Matemática Azar y Probabilidad PDF
- Estatística e Probabilidade - 3ª Edição PDF
Summary
Este folleto presenta una introducción a la teoría de las probabilidades, incluyendo temas como la probabilidad, simulación, combinatoria y elementos de estadística. Se enfoca en conceptos básicos para la asignatura de la carrera de Matemática en la Universidad de La Habana.
Full Transcript
c PROBABILIDADES José E. Valdés Castro PROBABILIDADES J OSÉ E. VALDÉS C ASTRO FACULTAD DE M ATEMÁTICA Y C OMPUTACIÓN U NIVERSIDAD DE L A H ABANA Copyright c 2023 José E. Valdés Castro E STAS N OTAS CONSTITUYEN EL TEXTO CORRESPONDIENTE A LA ASIG - NATURA T EORÍA DE LAS P ROBABI...
c PROBABILIDADES José E. Valdés Castro PROBABILIDADES J OSÉ E. VALDÉS C ASTRO FACULTAD DE M ATEMÁTICA Y C OMPUTACIÓN U NIVERSIDAD DE L A H ABANA Copyright c 2023 José E. Valdés Castro E STAS N OTAS CONSTITUYEN EL TEXTO CORRESPONDIENTE A LA ASIG - NATURA T EORÍA DE LAS P ROBABILIDADES DE LA CARRERA M ATEMÁTICA EN LA U NIVERSIDAD DE L A H ABANA. A CTUALMENTE ES UN TRABAJO EN PROGRESO. N O DUDE EN CONTACTAR AL AUTOR SI DESEA HACER CUAL - QUIER SUGERENCIA SOBRE SU CONTENIDO. Probability... we must carefully distinguish three aspects of the theory: a) the formal logic content, b) the intuitive background, c) the applications. The character, and the charm, of the whole structure cannot be appreciated without considering all three aspects in their proper relation. William Feller (An Introduction to Probability Theory and Its Applications, Volume I) Í NDICE GENERAL Índice general V Prefacio IX I Probabilidad y sucesos 1 1 Probabilidad 2 1.1. Introducción............................. 2 1.2. Probabilidad de un suceso..................... 3 1.3. Definición clásica.......................... 5 1.4. Método geométrico......................... 6 1.5. Método estadístico......................... 10 1.6. Teoría de las probabilidades y estadística matemática..... 15 1.7. Problemas y ejercicios....................... 16 2 Simulación estocástica 18 2.1. Simulación.............................. 18 2.2. Problema de la ruina del jugador................. 20 2.3. Método de Monte Carlo...................... 22 2.4. Problemas y ejercicios....................... 24 3 Elementos de combinatoria 25 3.1. Preliminares............................. 25 3.2. Selección con reposición...................... 27 3.3. Selección sin reposición...................... 28 3.4. Problemas y ejercicios....................... 33 4 Sobre decisión estadística 35 4.1. Un problema de mercadeo..................... 35 V Índice general 4.2. Un ejemplo sobre control de calidad............... 37 4.3. Problemas y ejercicios....................... 38 5 Definición de probabilidad y propiedades 40 5.1. Sucesos y sigma-álgebra...................... 40 5.2. Definición de probabilidad..................... 44 5.3. Propiedades básicas de la probabilidad............. 46 5.4. Modelo discreto........................... 49 5.5. Información contenida en un espacio medible.......... 51 5.6. Continuidad de la probabilidad.................. 53 5.7. Lema de Borel-Cantelli. Parte I.................. 57 5.8. Problemas y ejercicios....................... 58 6 Probabilidad condicional e independencia de sucesos 60 6.1. Probabilidad condicional...................... 60 6.2. Probabilidad total y fórmula de Bayes.............. 63 6.3. Independencia de sucesos..................... 67 6.4. Lema de Borel-Cantelli. Parte II.................. 71 6.5. Problemas y ejercicios....................... 73 7 Espacio producto 75 7.1. Espacio producto.......................... 75 7.2. Modelo de Bernoulli........................ 77 7.3. Modelo multinomial........................ 82 7.4. Sucesión infinita de experimentos independientes....... 83 7.5. Método del primer paso...................... 86 7.6. Probabilidad de extinción de una población........... 87 7.7. Problemas y ejercicios....................... 89 8 Complementos 92 8.1. Conjunto no medible........................ 92 8.2. Sobre un espacio muestral infinito no numerable........ 94 8.3. Infinitos experimentos independientes.............. 95 II Variables aleatorias 98 9 Variable aleatoria discreta 99 9.1. Variable aleatoria. Distribución de probabilidad........ 99 9.2. Valor esperado............................ 109 9.3. Sobre estadística........................... 115 VI Índice general 9.4. Simulación.............................. 117 9.5. Noción sobre la teoría de juegos.................. 122 9.6. Problemas y ejercicios....................... 123 10 Variable aleatoria en general 127 10.1. Introducción............................. 127 10.2. Sigma-álgebra de Borel....................... 128 10.3. Variable aleatoria.......................... 132 10.4. Distribución de probabilidad................... 134 10.5. Independencia de variables aleatorias.............. 136 10.6. Operaciones con variables aleatorias............... 137 10.7. Problemas y ejercicios....................... 143 11 Valor Esperado 145 11.1. Variable aleatoria simple...................... 145 11.2. Variable aleatoria no negativa................... 149 11.3. Variable aleatoria arbitraria.................... 155 11.4. Fórmula de cambio de variable.................. 158 12 Densidad de probabilidad 160 12.1. Integrales de Riemann y de Lebesgue.............. 160 12.2. Densidad de probabilidad..................... 162 12.3. Varianza............................... 166 12.4. Distribución normal........................ 169 12.5. Distribuciones Gamma, Chi-cuadrado y Beta.......... 171 12.6. Covarianza y coeficiente de correlación............. 172 12.7. Problemas y ejercicios....................... 176 13 Función de distribución 179 13.1. Función de distribución...................... 179 13.2. Variable aleatoria mixta...................... 185 13.3. Sobre estadística.......................... 186 13.4. Método de Monte Carlo...................... 189 13.5. Funciones de una variable aleatoria................ 190 13.6. Problemas y ejercicios....................... 192 14 Complementos 194 14.1. Identidad de Wald......................... 194 14.2. Espacio L2 de variables aleatorias................. 197 VII Índice general III Vectores aleatorios 201 15 Vectores Aleatorios 202 15.1. Vectores aleatorios......................... 202 15.2. Distribución de vectores aleatorios................ 204 15.3. Vector de variables aleatorias discretas.............. 208 15.4. Vector de variables aleatorias con densidad de probabilidad. 210 15.5. Simulación de variables aleatorias con distribución normal.. 216 15.6. Distribución condicional. Esperanza condicional........ 218 15.7. Distribución conjunta normal................... 224 15.8. Sobre estadística........................... 227 15.9. Problemas y ejercicios....................... 230 IV Función característica. Teoremas límites 234 16 Función característica 235 16.1. Función característica........................ 235 16.2. Función característica de la distribución normal........ 241 16.3. Función característica de la distribución Gamma........ 242 16.4. Función característica y momentos................ 243 16.5. Problemas y ejercicios....................... 245 17 Convergencias. Teoremas Límites 246 17.1. Desigualdad de Chebyshev.................... 246 17.2. Ley de los grandes números.................... 247 17.3. Convergencia en distribución................... 256 17.4. Teorema Central del Límite.................... 263 17.5. Problemas y ejercicios....................... 265 18 Complementos 267 18.1. Teorema de Rényi.......................... 267 V Nota histórica 270 VIII P REFACIO Estas notas constituyen una introducción a la teoría de las probabilidades, aunque en ellas se consideran también, de forma intuitiva, algunas ideas que conciernen a la estadística. El cálculo de probabilidades se inició en el siglo XVII vinculado a los jue- gos de azar. En la actualidad la teoría de las probabilidades y la estadística matemática se aplican en numerosos problemas de la física, la ingeniería, la economía, la biología, las ciencias sociales y la medicina, por ejemplo: en el diseño de equipos y sistemas con alta confiabilidad y en la planificación de sus mantenimientos; en las decisiones de mercadeo; en el control de la cali- dad de productos; en la organización de redes de comunicación y de compu- tadoras; en la organización de procesos productivos; en los test médicos y ensayos clínicos, etc. Los primeros cuatro capítulos de este texto constituyen una introducción al cálculo de probabilidades, la simulación, y también a algunas nociones sobre estadística. La teoría de las probabilidades como tal se expone a partir del Capítulo 5. La mayoría de los ejercicios que se proponen en el interior del texto com- plementan la teoría y deben ser hechos por los estudiantes. En algunos ejemplos, y en algunos ejercicios y problemas propuestos al fi- nal de cada capítulo de la Parte I, las soluciones se apoyan en ideas intuitivas; pero la intuición puede ser engañosa, por lo tanto debe usarse con cuidado. Varios problemas y ejercicios propuestos al final de los capítulos, que po- drían tener un alto grado de dificultad en sus soluciones, se señalan con el símbolo ∗. A veces se brindan las respuestas de los ejercicios. En la elaboración de este texto ha sido imprescindible la colaboración de la profesora Marelys Crespo Navas. IX Parte I Probabilidad y sucesos 1 CAPÍTULO 1 P ROBABILIDAD En este capítulo se examinan tres métodos de asignación de probabilida- des a los eventos, ampliamente usados en los cálculos de probabilidades. 1.1. Introducción Los tres métodos de asignación de probabilidades que se examinarán tie- nen gran importancia, pues en muchas ocasiones posibilitan la aplicación de la teoría, y facilitan además el desarrollo de la intuición, muy útil en esta área de la matemática. Estos métodos no forman parte de la teoría moderna de las probabilidades, cuyo desarrollo tiene una base axiomática y se inició en el año 1933 por el matemático ruso A. N. Kolmogorov, quien para ello se apoyó en los resultados de la teoría de probabilidades elaborada hasta ese entonces, conjuntamente con los resultados de otras áreas de la matemática que iniciaron su desarrollo a principios del siglo XX. La teoría moderna de las probabilidades se comenzará a exponer a partir del Capítulo 5. En la Parte V de este texto, Nota histórica, se presenta un breve resumen del desarrollo histórico de la teoría de las probabilidades. Señalemos ahora solo cuatro momentos de gran importancia en este desarrollo: la solución de varios problemas de juegos de azar contenidos en cartas escritas en el año 1654 por B. Pascal y P. Fermat, que forman parte de la correspondencia entre estos dos científicos; la publicación en el año 1713 de El Arte de las Conjetu- 2 1.2. Probabilidad de un suceso ras, obra de Jacob Bernoulli, que puede considerarse el primer gran aporte al desarrollo de la teoría; la obra Teoría Analítica de las Probabilidades de P. S. Laplace, editada por primera vez en el año 1812, en la cual se exponen de manera sistemática los resultados obtenidos hasta esa época y se presentan otros nuevos; y la publicación en 1933 de Fundamentos de la Teoría de las Pro- babilidades, de A. N. Kolmogorov, donde este autor, como ya se mencionó, construye la teoría de las probabilidades sobre una base axiomática. 1.2. Probabilidad de un suceso Ejemplo 1.1 Consideremos un experimento que consiste en el lanzamiento al azar de un dado que tiene sus caras numeradas desde el número 1 hasta el 6. Atribuiremos al término azar el significado intuitivo que usualmente se le otorga. En este experimento son posibles seis resultados que se excluyen mutuamente y, si se considera que el dado está equilibrado, o sea, es simétri- co y homogéneo, lo cual por supuesto es una idealización, entonces estos seis resultados son igualmente posibles. El resultado del experimento es aleatorio (casual), pues depende del azar, y por lo tanto impredecible. Sin embargo, a través de la probabilidad puede medirse la posibilidad de que en el experi- mento ocurra algún suceso (evento) de interés. ¿Cuál es la probabilidad del suceso que consiste en que al lanzar el dado aparezca un número par? Una posible respuesta intuitiva a esta pregunta es que la probabilidad de que ocurra ese suceso es igual a 1/2. En efecto, una medida razonable de la posibilidad de aparición del suceso de interés es la proporción del número de casos favorables a su ocurrencia, con respecto al total de posibles resultados del experimento. Puesto que la aparición de cualquiera de los números 2, 4 ó 6 lleva implícita la aparición de un número par, entonces del total de resultados, tres son favorables a la aparición de este suceso; por lo tanto, concluimos que la probabilidad de aparición de un número par es 3/6 = 1/2. De manera similar se calcula la probabilidad de que al lanzar el dado aparezca un número mayor que 4, esta es, 2/6 = 1/3. El experimento del lanzamiento al azar de un dado constituye un ejemplo muy simple de experimento aleatorio. Un experimento o fenómeno se dice que es aleatorio si sus resultados dependen del azar, es decir, son casuales, y, por lo tanto, desconocidos antes de su realización. Un hecho o resultado 3 1.2. Probabilidad de un suceso de interés que puede ocurrir o no en un experimento aleatorio se denomina suceso o evento. Experimentos o fenómenos aleatorios de mayor complejidad y utilidad que el lanzamiento al azar de un dado son: el tiempo de vida de un orga- nismo vivo, o el tiempo hasta el fallo de un equipo; el tiempo de servicio, reparación o procesamiento de un objeto por una persona o dispositivo; el precio de los productos un día determinado en el mercado internacional; el movimiento Browniano de partículas. Desde el punto de vista de las aplicaciones, la probabilidad de un suceso es una medida de la posibilidad de ocurrencia de este suceso. El concepto de probabilidad está presente en numerosos problemas de la actividad humana, por ejemplo: cuando se diseña un equipo, es de interés estimar la probabilidad de que, en un periodo de tiempo dado, este pueda cumplir sin fallar las funciones para las cuales se diseñó; en el tema de segu- ros de vida es importante estimar la probabilidad de que una persona viva, digamos, más de 60 años, dado que actualmente tiene 24 años; en el diseño de un centro de servicios tiene interés determinar el número de unidades de servicio que garantiza que, con una probabilidad dada, el tiempo de espera de un cliente no supere un valor prefijado. Los resultados de un experimento aleatorio se identifican con los elemen- tos de cierto conjunto denominado espacio muestral, y denotado por el sím- bolo Ω. A cada elemento ω ∈ Ω se le llama punto muestral. En el experimen- to del lanzamiento del dado, el conjunto Ω está constituido por seis puntos muestrales correspondientes a la aparición de cada una de las caras del dado, por ejemplo, Ω = {1, 2, 3, 4, 5, 6}. Muchas veces en las aplicaciones el interés no consiste en el resultado concreto ω de un experimento, sino en si este resultado pertenece a uno u otro subconjunto de Ω. Por eso, desde el punto de vista práctico, los sucesos son subconjuntos del espacio muestral Ω para los cuales, a partir de la reali- zación del experimento, es posible decidir sobre su ocurrencia o no, es decir, es posible decidir si el punto muestral pertenece o no a un subconjunto dado. Los sucesos se denotan por las letras mayúsculas A, B, C, etc., sin subíndices o con subíndices, y se identifican con subconjuntos de Ω. En el ejemplo del lanzamiento del dado, el suceso que consiste en la apa- rición de un número par se identifica con el subconjunto A = {2, 4, 6} y el que consiste en la aparición de un número mayor que 4 con el subconjunto B = {5, 6}. 4 1.3. Definición clásica 1.3. Definición clásica El método de asignación de probabilidades a los sucesos utilizado en el Ejemplo 1.1, fue formalizado por P. Laplace a comienzos del siglo XIX, y cons- tituyó la primera definición de probabilidad. Este método recibe el nombre de definición clásica de probabilidad y puede formularse en general de la siguiente manera: Se considera un experimento con un conjunto finito Ω de resultados aleatorios, mutuamente excluyentes e igualmente posibles (equiproba- bles). Denotemos por A un suceso relacionado con estos resultados. La probabilidad del suceso A, denotada por P (A), se calcula por la fórmula |A| P (A) = , |Ω| donde |Ω| denota el número total de resultados posibles del experi- mento, y |A| el número de estos resultados favorables a la ocurrencia del suceso A, es decir, que conllevan la ocurrencia de A. La igualdad de posibilidades de los resultados es una noción intuitiva, que podría asumirse o no de acuerdo a las condiciones específicas del pro- blema que se esté examinando; por ejemplo, podría asumirse debido a con- diciones como simetría u homogeneidad en el experimento o fenómeno. Note que según el método de la definición clásica, la probabilidad de cualquier suceso A satisface 0 ≤ P (A) ≤ 1, en particular, P (Ω) = 1. Para el conjunto vacío se toma P (∅) = 0. En el experimento del lanzamiento del dado, el suceso que consiste en la aparición de un número menor que 8 se identifica con el conjunto Ω, luego su probabilidad es 1; el suceso que consiste en la aparición de un número mayor que 9 se identifica con el conjunto vacío, por lo tanto la probabilidad de este suceso es 0. Al espacio muestral Ω se le llama suceso seguro o suceso cierto. Pues- to que contiene todos los resultados del experimento, este suceso siempre ocurre. El conjunto ∅ no contiene resultados del experimento y se denomina suceso imposible. Sean ahora A ⊂ Ω y Ac = Ω \ A. Usando la definición clásica de probabili- dad se tiene que P (Ac ) = 1−P (A), o de forma equivalente, P (A) = 1−P (Ac ). 5 1.4. Método geométrico Efectivamente, |Ac | |Ω \ A| |Ω| − |A| P (Ac ) = = = = 1 − P (A). |Ω| |Ω| |Ω| Al conjunto Ac , que representa la no ocurrencia de A, se le llama suceso con- trario del suceso A. Ejemplo 1.2 Se realiza el lanzamiento al azar de dos dados equilibrados. ¿Cuál es la probabilidad de que en ambos dados aparezca el seis? Cuál es la probabilidad de que la suma de los puntos de los dos dados sea igual a 3? ¿Cuál es la probabilidad de que en al menos uno de los dados aparezca el seis? El lanzamiento de los dos dados constituye un experimento compuesto por dos experimentos, cada uno de los cuales corresponde al lanzamiento de uno de los dados, y cuyos conjuntos de posibles resultados Ω1 y Ω2 se re- presentan por el mismo conjunto Ω1 = Ω2 = {1, 2, 3, 4, 5, 6}. Al experimento compuesto se le asocian los resultados del conjunto Ω = Ω1 × Ω2. El suceso que consiste en la aparición del seis en ambos dados se asocia con el conjunto A = {(6, 6)}, y el suceso que consiste en que la suma de los puntos es 3 con el conjunto B = {(1, 2), (2, 1)}. Entonces por la definición clásica se tiene que |A| 1 |B| 2 1 P (A) = = y P (B) = = =. |Ω| 36 |Ω| 36 18 El conjunto D = {1, 2,... 5} × {1, 2,... , 5} se asocia con el suceso que consiste en que en ninguno de los dados aparece el 6, contrario al suceso que consiste en la aparición de al menos un 6. Luego la probabilidad del suceso de interés Dc se calcula, 25 11 P (Dc ) = 1 − P (D) = 1 − =. 36 36 1.4. Método geométrico Ejemplo 1.3 Imaginemos que una persona llega en un instante aleatorio a una parada de ómnibus, y que los ómnibus de la ruta de su interés llegan consecutivamente a la parada exactamente cada 20 minutos. ¿Cuál es la pro- babilidad de que la persona tenga que esperar más de 5 minutos para viajar? 6 1.4. Método geométrico El intervalo Ω = [0, 20] puede considerarse el conjunto de los posibles instantes de llegada de la persona a la parada, donde los minutos 0 y 20 representan los arribos de un ómnibus y del siguiente, respectivamente. El conjunto Ω es el espacio muestral. Por otro lado, el tiempo de espera es mayor que 5 minutos cuando la persona llega en el subintervalo A = (0, 15), luego A constituye el conjunto de resultados asociados a la ocurrencia del suceso para el cual se desea calcular la probabilidad. Tanto Ω como A son conjuntos infinitos, y por consiguiente no se puede utilizar la definición clásica para el cálculo. Sin embargo, es posible utilizar una idea análoga a la de la definición clásica, asignando como probabilidad del suceso el cociente entre las longitudes de A y de Ω. En este caso la proba- bilidad es igual a 15/20 = 0,75. El método de asignación de una probabilidad utilizado en el ejemplo an- terior se conoce con el nombre de método geométrico (o probabilidad geo- métrica). A continuación se formula el método de manera general. Sean Ω un subconjunto de Rn que tiene volumen (longitud, área, etc), finito y mayor que 0, y que constituye el total de resultados del experimento aleatorio, y A una región de Ω que también tiene volumen, constituida por los resultados asociados a la ocurrencia de un suceso de interés. Si se puede suponer que la probabilidad de ocurrencia del suceso no depende de la ubicación y forma de la región A, sino solo de su vo- lumen, entonces la probabilidad de A, denotada por P (A), se calcula por la fórmula λ(A) P (A) = , λ(Ω) donde λ(C) denota el volumen de un subconjunto C de Rn. Observe que, similar a la definición clásica, se tiene: 0 ≤ P (A) ≤ 1, P (Ω) = 1 y P (A) = 1 − P (Ac ). Se toma P (∅) = 0. El símbolo λ se utilizará indistintamente para denotar, longitud, área, etc. Según el contexto del problema específico tratado, quedará claro a qué se refiere este símbolo. Es obvio que en los modelos asociados con la probabilidad geométrica, los conjuntos abiertos, y sus correspondientes cerrados que incluyen las fron- teras, proporcionan el mismo resultado en los cálculos. Note, intuitivamente, que de forma análoga a la definición clásica, con la probabilidad geométrica se asume que todos los puntos de Ω tienen “igual 7 1.4. Método geométrico posibilidad” de ser seleccionados (aunque en realidad la probabilidad de se- leccionar un punto determinado es igual a 0). Tampoco se requiere para el cálculo la realización de experimento alguno, pero igualmente se suponen condiciones de homogeneidad y, además, la finitud del volumen del espacio muestral Ω. En lo adelante, las frases “punto aleatorio” y “selección de un punto al azar” de una región de Rn , significarán que se asumen las condiciones re- queridas para el cálculo de la probabilidad geométrica. En los problemas que requieren el cálculo de una probabilidad geométri- ca es conveniente auxiliarse de figuras en las cuales se representen las regio- nes cuyos volúmenes se desea calcular. Ejemplo 1.4 Problema del encuentro. Dos personas acuerdan encontrarse en un sitio dado entre dos instantes de tiempo, digamos, 0 y T ; asumamos que con seguridad ambas personas llegarán en el intervalo [0, T ]. El primero que llegue espera por el otro durante un tiempo τ , 0 < τ < T , y en el caso que el segundo no llegue durante ese tiempo, se marcha. Se asume que los instantes de llegadas de las dos personas son aleatorios y constituyen dos experimen- tos independientes1. ¿Cuál es la probabilidad de que las dos personas no se encuentren? Se tiene un experimento compuesto por dos experimentos, cuyos resul- tados, en cada caso, son los puntos del intervalo [0, T ] = Ωi , i = 1, 2, que representan los instantes en que llegan las personas. Los resultados del expe- rimento compuesto son los puntos del conjunto Ω = Ω1 × Ω2 = [0, T ] × [0, T ]. El suceso que consiste en el encuentro de las dos personas se identifica con el conjunto A = {(x, y) ∈ Ω : |x − y| ≤ τ }. Este conjunto se representa por la región sombreada en el diagrama de la Figura 1.1, y tiene área λ(A) = T 2 − (T − τ )2. De acuerdo con la probabilidad geométrica, se tiene que λ(A) T 2 − (T − τ )2 P (A) = =. λ(Ω) T2 La probabilidad de que no se produzca el encuentro es igual a τ 2 1 − P (A) = 1 −. T 1 El concepto de experimentos independientes intuitivamente significa que los resultados de un experimento no influyen en los resultados de cualquier otro experimento. 8 1.4. Método geométrico T A τ 0 τ T Figura 1.1: Diagrama para el Problema del encuentro. Ejemplo 1.5 Dos puntos seleccionados al azar del intervalo [0, l] lo dividen en tres partes. ¿Cuál es la probabilidad de que las tres partes sean menores o iguales que l/2? Denotemos por x y y los puntos seleccionados del intervalo [0, l]. El con- junto Ω de posibles resultados del experimento puede representarse, Ω = {(x, y) : 0 ≤ x ≤ l, 0 ≤ y ≤ l}. El suceso para el cual deseamos calcular su probabilidad se identifica con el subconjunto A = A1 ∪ A2 de Ω, donde A1 = {(x, y) ∈ Ω : x < y, x ≤ l/2, y − x ≤ l/2, l − y ≤ l/2} A2 = {(x, y) ∈ Ω : y ≤ x, y ≤ l/2, x − y ≤ l/2, l − x ≤ l/2}. El conjunto A se representa por la región sombreada en el diagrama de la Figura 1.2. No es difícil hallar que λ(A1 ) = λ(A2 ) = l2 /8. Entonces, usando la probabilidad geométrica, se tiene que λ(A) 2(l2 /8) 1 P (A) = = 2 =. λ(Ω) l 4 9 1.5. Método estadístico l A1 l/2 A2 0 l/2 l Figura 1.2: Diagrama para el Ejemplo 1.5. 1.5. Método estadístico En muchos fenómenos no están presentes las condiciones requeridas para el uso de la definición clásica o la probabilidad geométrica. Esta es la situa- ción que se presenta cuando una moneda o un dado no están equilibrados, y se desea calcular la probabilidad de que al lanzarlos ocurra determinado suceso. También, en la observación del tiempo de vida de un equipo, donde puede considerarse como espacio muestral el intervalo Ω = [0, ∞) y el sub- conjunto de Ω, A = (a, ∞), a > 0, se asocia con el suceso que consiste en que el fallo del equipo ocurre después del instante a, es evidente que para asignar una probabilidad a A no pueden ser usadas ni la definición clásica ni la probabilidad geométrica. ¿Cómo calcular en casos como estos, al menos aproximadamente, la probabilidad de un suceso? Pudiera parecer que en los experimentos y fenómenos aleatorios no exis- ten leyes, y por lo tanto es imposible realizar predicciones en estos fenóme- nos. Sin embargo, esto no es así, la experiencia acumulada de muchos años demuestra que en numerosas ocasiones la aleatoriedad se somete a leyes, a regularidades, las llamadas leyes o regularidades estadísticas. Si realizamos una gran cantidad de lanzamientos al azar de una moneda, observaremos que a medida que el número de lanzamientos crece, la frecuen- cia relativa de aparición de una cara dada de la moneda, es decir, la propor- ción m/n del número m de apariciones de esta cara con respecto al total n de lanzamientos, tiende a estabilizarse alrededor de cierto valor. Cuando la moneda es equilibrada (lo cual es una idealización) este valor es igual a 1/2. 10 1.5. Método estadístico En la Figura 1.3 se presentan los gráficos correspondientes a las frecuen- cias relativas de aparición de una cara de una moneda equilibrada, para va- rias series de mil lanzamientos, obtenidas por medio de la simulación (vea el Capítulo 2). En el eje de las abscisas se representa el número de lanzamientos y en el eje de las ordenadas la frecuencia relativa correspondiente, además los puntos obtenidos se unieron por segmentos rectilíneos. El gráfico corres- pondiente a una de las series se dibujó en negro, y los correspondientes a las restantes series en gris. 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 0 200 400 600 800 1000 Figura 1.3: Estabilización de la frecuencia relativa. Asumamos que un experimento o fenómeno aleatorio es observado reite- radamente, de manera tal que se obtiene una serie de experimentos iguales e independientes. Supongamos que en cada experimento puede ocurrir o no un suceso A, y que se realizan k series de estos experimentos. Denotemos por ni y mi , respectivamente, el número total de experimentos y el número de experimentos en los cuales ocurre A en la serie i, i = 1, 2,... , k. Resulta que cuando ni es grande, independientemente de los resultados individuales obtenidos en los experimentos de cada serie, las frecuencias relativas mi /ni , i = 1, 2,... , k, de ocurrencia del suceso A en cada una de las k series de experimentos, son aproximadamente iguales entre sí, es decir, m1 m2 mk ≈ ≈ ···. n1 n2 nk Además, estas frecuencias relativas se estabilizan alrededor de cierto núme- ro, digamos p, en general desconocido, con una tendencia a aproximarse a 11 1.5. Método estadístico este número a medida que la cantidad de experimentos de las series crece. El número p caracteriza la posibilidad de ocurrencia de A. Esta propiedad de estabilización de la frecuencia relativa de ocurrencia de A alrededor de un número p, en una serie de experimentos idénticos e in- dependientes, establecida empíricamente, constituye el ejemplo más simple de ley estadística, y permite considerar a p como el valor de la probabilidad del suceso A. Luego, la probabilidad P (A) de un suceso A se puede calcular aproxi- madamente por la fórmula m p = P (A) ≈ , n donde m es el número de experimentos en los cuales ocurrió A en una serie de un número grande n de experimentos idénticos e indepen- dientes. A esta forma de asignación de un valor de probabilidad a un suceso se le llama método estadístico o método de la frecuencia relativa. Note que una probabilidad P (A), calculada aproximadamente usando la frecuencia relativa, también cumple, 0 ≤ P (A) ≤ 1, P (Ω) = 1 y P (Ac ) = 1 − P (A). Una dificultad del método estadístico consiste en que, a diferencia de la definición clásica y la probabilidad geométrica, para usar este método se re- quiere la realización reiterada de un número grande n de experimentos in- dependientes y en condiciones idénticas. Además, si se realizan varias series de experimentos, incluso con igual número de experimentos en cada una de ellas, las frecuencias relativas correspondientes a cada serie serán en general diferentes entre sí. Posteriormente se verá que p es el límite de la frecuencia relativa m/n cuando n tiende a infinito, en ciertos sentidos del límite que serán definidos. La frecuencia relativa es importante en la interpretación estadística de las probabilidades que se obtienen en los diferentes cálculos. Por ejemplo, la pro- babilidad 1/3 de que aparezca un número mayor que 4 al lanzar al azar un dado equilibrado se puede interpretar de la siguiente manera. Si el dado se lanzara un número grande de veces, digamos 300 veces, entonces, puesto que 1/3 = 100/300, se puede concluir que en aproximadamente 100 de esas oca- siones aparecería un número mayor que 4. En el Ejemplo 1.3 sobre la espera de una persona por un ómnibus, la probabilidad 0,75 se puede interpretar co- 12 1.5. Método estadístico mo que de 100 veces que la persona llegue a la parada, en aproximadamente 75 de ellas tendrá que esperar más de 5 minutos. El siguiente ejemplo ilustra uno de los problemas de la estadística, que consiste en estimar, es decir, hallar aproximadamente, a partir de los datos observados en una muestra de una población, alguna característica de esa población. Ejemplo 1.6 En un embalse hay una cantidad N desconocida de peces. ¿Có- mo calcular aproximadamente el valor de N ? Se capturan M peces, se marcan de alguna manera, y se devuelven al embalse. Después de esperar a que los peces marcados se mezclen con los restantes, entonces del total de peces del embalse, los cuales constituyen la población, se captura al azar una muestra de n peces. La característica de in- terés es el tamaño N de la población. Denotemos por m el número de peces marcados de la muestra. La probabilidad de que al seleccionar al azar un pez del embalse este sea uno de los marcados, es igual a M N según la definición clásica de probabilidad. Por otra parte, según el método estadístico, esta probabilidad es aproxima- damente igual a la proporción m n de peces marcados de la muestra, cuando el valor de n es grande. Entonces tiene lugar la aproximación: M m ≈ , (1.1) N n de donde n N ≈M. m Si, por ejemplo, se marcaron M = 100 peces de la presa, y el tamaño de la muestra seleccionada al azar es n = 200, de los cuales m = 5 peces resultaron estar marcados, entonces la cantidad aproximada de peces en la presa es 4000. En general, el método descrito puede ser utilizado para calcular aproxi- madamente el total de integrantes de especies de animales que habitan en determinadas regiones. Supongamos ahora que se desea estimar la cantidad desconocida M de artículos defectuosos que contiene un lote grande de N artículos, pero sin inspeccionar todos los artículos del lote. Aquí la población está constituida por los N artículos del lote, y la característica de interés es M. Si se toma una muestra al azar de n artículos del lote y m de ellos resultan defectuosos, 13 1.5. Método estadístico entonces usando de nuevo la fórmula 1.1 se obtiene, m M ≈N. n Ejemplo 1.7 Ley estadística. Un experimento aleatorio que generaliza el ex- perimento del lanzamiento al azar de una moneda, y en el cual también se observa fácilmente la presencia de una ley estadística, consiste en la realiza- ción de una serie de n experimentos, n grande, en cada uno de los cuales se lanza al azar un número k, por ejemplo k = 5, de monedas idénticas. Cuan- do lanzamos 5 monedas al azar pueden aparecer 0, 1, 2, 3, 4 ó 5 escudos. Al realizar una serie de estos experimentos, para n = 1000, se obtuvieron los siguientes resultados: en 50 experimentos aparecieron 0 escudos; en 152 apa- reció 1 escudo; en 291 aparecieron 2 escudos; en 308 aparecieron 3 escudos; en 157 aparecieron 4 escudos, y en 42 aparecieron 5 escudos. Las frecuencias relativas correspondientes son: 0,05, 0,152, 0,291, 0,308, 0,157 y 0,042, respec- tivamente. 0,35 0,30 0,25 0,20 0,15 0,10 0,05 0,00 0 1 2 3 4 5 Figura 1.4: Cinco monedas. Frecuencias relativas del número de escudos Si se dibuja un gráfico en un sistema de coordenadas cartesianas, donde en el eje de las abscisas se coloca el número de escudos que pueden aparecer al lanzar las cinco monedas, y en el eje de las ordenadas se coloca la frecuen- cia relativa correspondiente a estos valores en la serie de 1000 experimentos (vea la Figura 1.4), observaremos que los puntos del gráfico se distribuyen de forma “acampanada”. Esta forma se observará siempre que se repitan series con un número grande de experimentos, y con monedas aproximadamente 14 1.6. Teoría de las probabilidades y estadística matemática equilibradas, independientemente de los resultados particulares que se ob- tienen en cada uno de los lanzamientos. Aquí la ley estadística consiste en la distribución de los puntos en forma acampanada. A medida que la probabilidad de aparición de una de las caras sea significativamente mayor que la de la otra cara, la distribución de los puntos será más asimétrica. Como se mencionó al inicio de este capítulo, los tres métodos examina- dos de asignación de valores numéricos a las probabilidades de los sucesos, es decir, la definición clásica, la probabilidad geométrica y el método estadís- tico, no forman parte de la teoría moderna de las probabilidades, pues esta se desarrolla de manera axiomática; sin embargo, estos tres métodos tienen una importancia enorme en las aplicaciones y en la interpretación de muchos resultados teóricos. 1.6. Teoría de las probabilidades y estadística matemática La teoría de las probabilidades y la estadística matemática son dos áreas de la matemática muy relacionadas, pero que tienen objetos de estudio dife- rentes. En la primera se asume un modelo para un fenómeno o experimento aleatorio, y realizando cálculos adecuados se predicen, en términos proba- bilísticos, resultados que se obtendrían en el experimento aun sin observar este. En la segunda, a partir de los datos observados (muestra) correspon- dientes al experimento, se realizan inferencias para decidir el modelo que los describe, y en particular se estiman, es decir, se calculan aproximadamente, parámetros de interés. El Ejemplo 1.2 sobre el lanzamiento de dos dados es un problema de pro- babilidades. En este se asume el modelo que permite usar la definición clásica de probabilidad y se calculan probabilidades para predecir posibles resulta- dos, pero sin realizar experimentos. Si en este mismo problema los dados se asumen no equilibrados, entonces surge un problema de la estadística, que consiste en la estimación de las probabilidades utilizando el método de la frecuencia relativa. El Ejemplo 1.6, sobre el embalse de peces y el lote de artículos, aunque puede considerarse como un problema de ambas áreas, es- tadística y probabilidades, esencialmente es un problema de estadística, pues se trata de la estimación de los parámetros N en un caso, y M en el otro caso, a partir de los datos observados. 15 1.7. Problemas y ejercicios Resumamos algunos rasgos distintivos de estas dos áreas de la matemá- tica: La teoría de las probabilidades proporciona modelos para el estudio de las leyes estadísticas, y métodos para la obtención de probabilidades desconocidas de sucesos aleatorios de interés a partir de las probabili- dades conocidas de otros sucesos aleatorios. La estadística matemática, usando los datos de observaciones en fenóme- nos y experimentos aleatorios, proporciona métodos para la selección adecuada de los modelos probabilísticos y la realización de inferencias sobre estos fenómenos. 1.7. Problemas y ejercicios 1. Un dado equilibrado se lanza n veces al azar. ¿Cuál es la probabilidad de que el número 6 aparezca al menos una vez? ¿cuál es el mínimo valor de n para que esta probabilidad sea mayor que 0,9? 2. Se realiza la planificación de un torneo con tres etapas, eliminatorias, se- mifinales y final, en el cual participarán 8 boxeadores; luego, mediante un sorteo, se aparean los boxeadores. En cada tope entre dos boxea- dores se elimina al perdedor. En el torneo participan dos boxeadores que se sabe que ganarán con seguridad sus topes con los seis restantes. ¿Cuál es la probabilidad de que estos dos boxeadores ocupen el prime- ro y el segundo lugar en el torneo? R: 4/7. 3. *Juego justo con una moneda no equilibrada. Considere dos jugadores que desean realizar un juego equitativo mediante el lanzamiento de una moneda al azar, pero la moneda que poseen no es equilibrada. Justifi- que, intuitivamente, por qué con el siguiente algoritmo la probabilidad de aparición de cada cara es igual a 1/2: 1. Lanzar la moneda. 2. Lanzar la moneda otra vez. 3. Si en ambos lanzamientos aparece la misma cara, reiniciar con el paso 1. 4. Si en los dos lanzamientos aparecen caras diferentes, el resultado del último lanzamiento es el deseado. 16 1.7. Problemas y ejercicios 4. Considere un cuadrado de lado 1. Se selecciona un punto aleatorio del cuadrado. ¿Cuál es la probabilidad de que el punto se encuentre a una distancia menor que 1/2 del centro del cuadrado? 5. Después de finalizar su trabajo Carlos llega todos los días a una parada de dos ómnibus en cualquier instante entre las 5:00 y las 6:00 p.m. Las rutas 1 y 2 llegan a la parada de acuerdo con los siguientes horarios: ruta 1 : 5:15 5:22 5:32 5:50 6:06 ruta 2 : 5:16 5:25 5:33 5:52 6:10 Carlos siempre coge el primer ómnibus que llega a la parada. Si este es de la ruta 2, pasa por casa de Elvira, y si es de la ruta 1, pasa por casa de Carmen. Elvira se queja de que en 3 meses Carlos la ha visitado sólo 8 veces. ¿Cómo explica usted esta situación? Calcule la probabilidad p de que Carlos tome la ruta 2. Considere que en los tres meses hay 80 días de trabajo. R: p ≈ 0,117. 6. En las condiciones del Problema del encuentro, Ejemplo 1.4, suponga que las dos personas, Carlos y Elvira, esperan una por la otra hasta el en- cuentro, ¿cuál es la probabilidad de que Carlos tenga que esperar por Elvira un tiempo mayor que t? ¿Cuál es la probabilidad de que no tenga que esperar? 7. *Se seleccionan dos puntos al azar, x y y, del intervalo (0, l) ¿Cuál es la probabilidad de que con los segmentos de longitudes x, y y l pueda formarse un triángulo? R: 1/2. 8. *Dos puntos seleccionados al azar del intervalo (0, l) lo dividen en tres partes. ¿Cuál es la probabilidad de que las tres partes formen un trián- gulo? R: 1/4. 17 CAPÍTULO 2 S IMULACIÓN ESTOCÁSTICA La simulación consiste en la representación aproximada de procesos y sistemas del mundo real por medio de otros procesos y sistemas artificiales, pero análogos, que resultan más asequibles para su estudio. Está vinculada con la generación, observación y análisis de una historia de estos procesos y sistemas artificiales, con el propósito de hacer inferencias acerca de los reales. Si el fenómeno investigado es aleatorio y transcurre en el tiempo, como puede ser el desarrollo durante un tiempo de un proceso o sistema, enton- ces habitualmente se usa el término estocástico como equivalente del término aleatorio y se hace referencia a un proceso o sistema estocástico. Los modelos utilizados para el estudio de los fenómenos aleatorios son probabilísticos y la simulación de estos se denomina simulación estocástica. 2.1. Simulación La realización de cualquier estudio de simulación estocástica está basada en la posibilidad de generar números del intervalo (0, 1) con la computado- ra, aproximadamente con igual probabilidad. Estos números constituyen una sucesión finita y habitualmente son obtenidos mediante un algoritmo, que se inicia con un número llamado semilla. Por lo tanto, en realidad no son núme- ros aleatorios, razón por la cual reciben el nombre de números pseudoaleatorios. En general, los algoritmos que se utilizan para generar los números pseu- 18 2.1. Simulación doaleatorios simulan muy bien los aleatorios. Actualmente todos los lengua- jes de programación, y los software de computación que lo requieren, tienen incorporadas instrucciones para la generación de números pseudoaleatorios, cuya ejecución está asociada a las palabras random, randomize, uniform, etc. En algunos casos el usuario selecciona la semilla que iniciará la generación de una sucesión de estos números, en otros casos la semilla es seleccionada por el propio programa, por ejemplo, utilizando el reloj de la computadora. A continuación, de manera intuitiva, se exponen algunas nociones básicas sobre simulación estocástica. Examinemos cómo simular la ocurrencia de un suceso A, tal que P (A) = p. Sea à el suceso que consiste en que un punto aleatorio del intervalo (0, 1), denotado por U , es menor que p, y representemos por (U < p) este suceso, o sea, à = (U < p). Si se asume el modelo de la probabilidad geométrica, se obtiene P (Ã) = p. Los sucesos A y à tienen igual probabilidad p, de ahí que la ocurrencia de à simula la ocurrencia de A. Se genera ahora con la computadora un número aleatorio (en realidad pseudoaleatorio) del intervalo (0, 1), el cual se toma como valor de U , y si este número es menor que p (suceso Ã), se considera que ocurrió A. En el lenguaje Python un número aleatorio del intervalo (0, 1) se puede generar con la función uniform (0, 1). Si se desea calcular la frecuencia relativa de ocurrencia de un suceso A en una serie de n experimentos idénticos, entonces se repite n veces la ge- neración de números aleatorios del intervalo (0, 1) y se cuenta el número de veces m que ocurre à (y por lo tanto A). Con el crecimiento de n, la frecuencia relativa m/n tiende a aproximarse a la probabilidad p. Ejemplo 2.1 Con el programa en lenguaje Python que se presenta en la Figu- ra 2.1, se simula una serie de n lanzamientos de una moneda con probabili- dad de aparición de escudo en cada lanzamiento igual a p. Para la ejecución del programa se tomaron los valores p = 1/2 y n = 1000. Este programa fue usado para la simulación de las series de sucesiones de lanzamientos de una moneda equilibrada, cuyos gráficos asociados se mostraron en la Figura 1.3. Habitualmente la simulación estocástica se utiliza para calcular aproxi- madamente alguna probabilidad u otra característica desconocida de interés. Con el programa de la Figura 2.1 el objetivo consiste en simular los lanza- mientos reiterados de una moneda, solo para mostrar cómo la frecuencia re- lativa de aparición del escudo se aproxima a la probabilidad conocida p. En la 19 2.2. Problema de la ruina del jugador próxima sección, a través de un problema particular, se muestra cómo usan- do la simulación es posible calcular aproximadamente una probabilidad que podría ser desconocida. f r o m random i m p o r t uniform n =1000 # n ú mero de lanzamientos p =1/2 # probabilidad de aparici ó n de escudo i =0 # n ú mero de orden de los lanzamientos m =0 # n ú mero acumulado de escudos hasta i p r i n t (" frec_relativa_en_el_lanzamiento_i :") p r i n t ( " i " , " frec " ) while i 0. Entonces P (A1 ∩ A2 ∩ A3 ) = P (A3 |A1 ∩ A2 )P (A2 |A1 )P (A1 ). Ejercicio 1. Extienda la fórmula de la Proposición 1 al caso general de n sucesos, n ≥ 3, y pruebe la fórmula. 6.2. Probabilidad total y fórmula de Bayes Ejemplo 6.3 Consideremos, como en el Ejemplo 6.2, un lote de N artículos que contiene M defectuosos. Se seleccionan sin reposición dos artículos al azar. ¿Cuál es la probabilidad de que el segundo artículo seleccionado sea defectuoso? Denotemos por D1 y D2 los sucesos que consisten, respectivamente, en que el primero y el segundo artículo seleccionado es defectuoso. Entonces, utilizando la aditividad finita de la probabilidad, y la fórmula para el cálculo de la probabilidad de ocurrencia conjunta de dos sucesos, se obtiene P (D2 ) = P ((D1 ∩ D2 ) ∪ (D1c ∩ D2 )) = P (D1 ∩ D2 ) + P (D1c ∩ D2 ) = P (D2 |D1 )P (D1 ) + P (D2 |D1c )P (D1c ) M −1M M N −M M = + =. N −1 N N −1 N N En general, la probabilidad de que el i-ésimo artículo seleccionado, 1, 2,... N , sea defectuoso, es igual a M/N. Este resultado se obtiene más fácil usando la teoría combinatoria (vea el Ejercicio 8 de la Sección 3.4). Intuitivamente el resultado puede parecer no cierto. El siguiente teorema constituye una generalización de la fórmula obteni- da en el ejemplo anterior. 63 6.2. Probabilidad total y fórmula de Bayes Teorema 2 (Fórmula de la Probabilidad Total). Sean los sucesos B1 , B2 ,... , Bn tales que ni=1 Bi = Ω, Bi ∩ Bj = ∅, S i 6= j y P (Bi ) > 0, 1 ≤ i ≤ n, y sea A otro suceso. Entonces n X P (A) = P (A|Bi )P (Bi ). i=1 Demostración: Los conjuntos A∩Bi , 1 ≤ i ≤ n, son disjuntos. Entonces, usando la aditividad finita de la probabilidad y la fórmula para el cálculo de la probabilidad de ocurrencia conjunta de dos sucesos, se halla que n n ! ! [ [ P (A) = P A ∩ Bi = P A ∩ Bi i=1 i=1 n X n X = P (A ∩ Bi ) = P (A|Bi ) P (Bi ). i=1 i=1 Teorema 3 (Fórmula de Bayes I). Sean A y B sucesos. Si P (A) > 0 y P (B) > 0, entonces P (B|A)P (A) P (A|B) =. P (B) Demostración: El resultado es evidente de las igualdades P (A ∩ B) = P (A|B)P (B) y P (A ∩ B) = P (B|A)P (A). De los dos teoremas anteriores inmediatamente se deduce el siguiente: 64 6.2. Probabilidad total y fórmula de Bayes Teorema 4 (Fórmula de Bayes II). En las condiciones que tiene lugar la fórmula de la probabilidad total, Teorema 2, si además P (A) > 0, se tiene P (A|Bi )P (Bi ) P (Bi |A) = Pn , 1 ≤ i ≤ n. j=1 P (A|Bj )P (Bj ) Observación 2 La fórmula de la probabilidad total y el teorema de Bayes también tienen lugar, si en lugar de considerar una partición finita de Ω P∞eventos se considera una partición infinita numerable {Bi }. Note que en i=1 P (Bi |A) = 1. N Ejemplo 6.4 Supongamos que en las condiciones del Ejemplo 6.3, el segundo artículo que se extrae del lote es defectuoso, pero se desconoce cuál fue el resultado de la primera elección. ¿Cuál es la probabilidad de que el primer artículo haya sido también defectuoso? Usando la fórmula de la probabilidad total, en el Ejemplo 6.3 se halló que P (D2 ) = M/N. Entonces por la fórmula de Bayes se obtiene la respuesta a la pregunta formulada: M −1 M P (D2 |D1 )P (D1 ) N −1 N M −1 P (D1 |D2 ) = = M =. P (D2 ) N N −1 Además, la probabilidad de que el primer artículo no haya sido defectuoso, dado que el segundo lo fue, se halla N −M P (D1c |D2 ) = 1 − P (D1 |D2 ) =. N −1 Es interesante notar que, en particular, en este ejemplo se cumple que: P (D1 |D2 ) = P (D2 |D1 ) y P (D1c |D2 ) = P (D2c |D1 ). Ejemplo 6.5 Problema del caminante. (Vea la Figura 6.1) Considere un cami- nante que parte de un punto O, desde el cual puede llegar por tres caminos diferentes, y por uno y solo uno, a los puntos 1, 2 y 3. Desde 1 existe un único camino, y este conduce al punto F ; desde 2 existe un camino que conduce a 65 6.2. Probabilidad total y fórmula de Bayes F y otro que no; y desde 3 existe un único camino que conduce a F y otros dos que no. Supongamos que el caminante selecciona siempre al azar cada camino. Calculemos la probabilidad de que, partiendo de O, el caminante: a) Llegue a F. b) Dado que llegó a F , esto haya sido pasando por el punto 2. 1 1 F 1/ 3 1/ 2 O 1/ 3 2 1/ 3 1/ 3 3 Figura 6.1: Posibles recorridos del caminante Denotemos por A el suceso que consiste en que el caminante llega a F partiendo de O, y por Bi el suceso que consiste en que el caminante pasa por el punto i, i = 1, 2, 3. Entonces P (Bi ) = 1/3, i = 1, 2, 3, y a) P (A) = P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )P (B3 ) 1 1 1 1 1 11 = 1· + · + · =. 3 2 3 3 3 18 P (A|B2 )P (B2 ) 1/2 · 1/3 3 b) P (B2 |A) = = = ≈ 0,272. P (A) 11/18 11 De manera análoga se calculan P (B1 |A) = 6/11 y P (B3 |A) = 2/11. Luego, P (B1 |A) > P (B2 |A) > P (B3 |A). Si el interés consiste solo en el orden de las probabilidades P (Bi |A), i = 1, 2, 3, y no en sus valores exactos, entonces, como las fórmulas de Bayes para estas probabilidades tienen el denominador común P (A), es suficiente com- parar los numeradores de las fórmulas correspondientes a cada probabilidad. Si ahora tomamos, P (B1 ) = P (B2 ) = 1/6 y P (B3 ) = 4/6, es fácil hallar que P (B3 |A) > P (B1 |A) > P (B2 |A), 66 6.3. Independencia de sucesos resultado diferente del caso original, en el cual las probabilidades P (Bi ), i = 1, 2, 3, se asumieron iguales. En la fórmula de Bayes las probabilidades P (Bi ), i ≥ 1, se calculan sin información previa sobre la ocurrencia del evento A, y las probabilidades P (Bi |A), i ≥ 1, se calculan con la información posterior de que A ocurrió u ocurre. Por eso las primeras se denominan probabilidades a priori y las segun- das probabilidades a posteriori. Observación 3 Es importante señalar que, como se ha visto en los ejemplos recientes, en la solución de muchos problemas de carácter práctico, habitual- mente no se describen el espacio muestral y los sucesos de interés en térmi- nos de los conjuntos que los representan, sino solo se describen de manera cualitativa. N 6.3. Independencia de sucesos Intuitivamente, un suceso A es independiente de un suceso B si la ocu- rrencia de B no influye en la probabilidad de ocurrencia de A, es decir, si P (A|B) = P (A) cuando P (B) > 0. Entonces, de la fórmula P (A ∩ B) = P (A|B)P (B), se deduce que P (A ∩ B) = P (A)P (B). No es difícil comprobar que cuando P (A) > 0 y P (B) > 0, si A es indepen- diente de B, entonces B también es independiente de A; por eso es natural decir que A y B son independientes. Esta idea intuitiva de independencia motiva la siguiente definición. Definición 2. Los sucesos A y B se dice que son independientes, si P (A ∩ B) = P (A)P (B). Cuando la igualdad anterior no se cumple, se dice que los sucesos son dependientes. 67 6.3. Independencia de sucesos No es complicado verificar que todo suceso A es independiente de sí mismo si, y solo si, P (A) = 0 o P (A) = 1, y además, que si P (A) = 0 o P (A) = 1, entonces A y un suceso cualquiera B son independientes; en particular, B y Ω son independientes, y también B y ∅. Sean A y B dos sucesos tales que P (A) > 0 y P (B) > 0. Entonces si A y B son excluyentes, son dependientes. En la teoría de las probabilidades los conceptos de independencia y de- pendencia pueden modelar situaciones en las cuales no se trata de una in- dependencia o dependencia causal. Estos conceptos probabilísticos son más amplios de lo que usualmente sugieren la experiencia y la intuición. Ejemplo 6.6 Consideremos en el experimento del lanzamiento al azar de un dado equilibrado los sucesos A = {3, 6}, B = {3, 5}, C = {2, 3, 5}. Los sucesos A y B son dependientes, y también son dependientes B y C; sin embargo, A y C son independientes, lo cual podría parecer no natural. Si ahora se truca el dado de manera que cuando se lance al azar solo pue- den aparecer, con igual probabilidad 1/3, los números 1, 2 ó 6, entonces A y B son independientes, y B y C también lo son, pero A y C son dependientes. El ejemplo anterior muestra también, que dos sucesos (A y B en el ejemplo) pueden ser dependientes de acuerdo a una medida de probabilidad, e inde- pendientes de acuerdo a otra medida de probabilidad. Teorema 5. Sean A y B sucesos. Las siguientes afirmaciones son equivalentes: 1. A y B son independientes 2. A y B c son independientes 3. Ac y B c son independientes Demostración: Probemos que 1 implica 2. Efectivamente, si A y B son independientes, en- 68 6.3. Independencia de sucesos tonces P (A ∩ B c ) = P (A \ (A ∩ B)) = P (A) − P (A ∩ B) = P (A) − P (A)P (B) = P (A)[1 − P (B)] = P (A)P (B c ), luego A y B c son independientes. Hemos probado que si dos sucesos son independientes, entonces también lo son uno de ellos y el contrario del otro. De esta observación inmediatamente se deducen las restantes implicaciones. Definición 3. Tres sucesos, A, B y C, se dice que son independientes (o conjunta- mente independientes), si son independientes dos a dos y, además, P (A ∩ B ∩ C) = P (A)P (B)P (C). Como muestra el siguiente ejemplo, tres sucesos pueden ser independien- tes dos a dos y no ser conjuntamente independientes. Ejemplo 6.7 Sean Ω = {ω0 , ω1 , ω2 , ω3 }, P (ωi ) = 1/4, i = 0, 1, 2, 3, y los suce- sos Ai = {ω0 , ωi }, i = 1, 2, 3. Se tiene que P (Ai ∩ Aj ) = P (ω0 ) = 1/4 = P (Ai )P (Aj ), i 6= j. Pero, P (A1 ∩ A2 ∩ A3 ) = P (ω0 ) = 1/4 6= P (A1 )P (A2 )P (A3 ) = 1/8. La definición de independencia de tres sucesos se extiende de manera natural para un número finito de sucesos. 69 6.3. Independencia de sucesos Definición 4. Los sucesos A1 , A2 ,... , An se dice que son independientes, si para todo k = 2, 3,... , n y para todos i1 , i2 ,... ik , 1 ≤ i1 <... < ik ≤ n, se cumple P (Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P (Ai1 )P (Ai2 )... P (Aik ). No es difícil comprender que para una colección de sucesos conjuntamen- te independientes se cumple la siguiente propiedad: cualquier combinación, en el sentido de las operaciones con conjuntos, de un grupo de sucesos, es independiente de cualquier combinación de otro grupo de sucesos diferente. Por ejemplo, si los sucesos A, B, C y D son conjuntamente independientes, entonces los sucesos A ∪ B y C ∪ D, y también los sucesos A ∪ B, y C ∩ D son independientes. Para una sucesión infinita de sucesos se tiene la siguiente definición de independencia. Definición 5. Los sucesos A1 , A2 ,... son independientes, si para todo k = 2, 3,... , y para todos i1 , i2 ,... ik , 1 ≤ i1 < i2 <... < ik , se cumple P (Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P (Ai1 )P (Ai2 )... P (Aik ). Consideremos un espacio medible (Ω, F). Una σ-álgebra F 0 en Ω se dice que es una sub σ-álgebra de la σ-álgebra F si F 0 ⊂ F. Definición 6. Las sub σ-álgebras F1 , F2 ,... , Fn de F se dice que son σ-álgebras independientes, si para todos A1 ∈ F1 , A2 ∈ F2 ,... , An ∈ Fn los sucesos A1 , A2 ,... , An son independientes. 70 6.4. Lema de Borel-Cantelli. Parte II Ejemplo 6.8 Sean los sucesos A1 y A2. Probemos que F1 = {A1 , Ac1 , ∅, Ω} y F2 = {A2 , Ac2 , ∅, Ω} son σ-álgebras independientes si, y solo si, A1 y A2 son independientes. El cumplimiento de la parte solo si es evidente. Veamos la parte si: ∅ y Ω son independientes de todo suceso; por otra parte, si A1 y A2 son indepen- dientes, entonces, por el Teorema 6.3, también son independientes A1 y Ac2 , Ac1 y A2 , Ac1 y Ac2. Observación 4 Es importante destacar que muchas veces, tanto en el trabajo teórico, como en la modelación de problemas prácticos, la independencia no se demuestra, sino se asume como parte integrante del modelo. N 6.4. Lema de Borel-Cantelli. Parte II Teorema 6 (Lema de Borel-Cantelli- Parte II). Sea {An } una sucesión de eventos independientes. Se cumple que: ∞ X Si P (An ) = ∞, entonces P (An i.f ) = 1. n=1 Demostración: Debemos probar que c 1 − P (An i.f ) = P lı́m sup An = 0. n Para ello, como ∞ \ ∞ c ! [ P lı́m sup An = P lı́m inf Acn = P Ack , n n n=1 k=n usando la sub-aditividad de la probabilidad es suficiente probar que para todo n ≥ 1 se cumple ∞ ! \ c P Ak = 0. (6.2) k=n 71 6.4. Lema de Borel-Cantelli. Parte II Si los sucesos A1 , A2 ,... son independientes, entonces también son indepen- dientes los sucesos Ac1 , Ac2 ,.... Luego para todo m ≥ n se tiene m m ! \ Y c P Ak = P (Ack ). k=n k=n Aplicando logaritmo en la igualdad anterior, y utilizando la desigualdad log(1 − x) ≤ −x, 0 ≤ x < 1, se halla que m m m !! \ X X log P Ack = log (1 − P (Ak )) ≤ − P (Ak ), k=n k=n k=n P∞ de donde, como la serie n=1 P (An ) es divergente, se obtiene m !! \ c lı́m log P Ak = −∞, m k=n y entonces m ! \ lı́m P Ack = 0. m k=n Por lo tanto, usando la continuidad de la probabilidad, finalmente se de- muestra (6.2): ∞ m m ! ! ! \ \ \ c c c P Ak = P lı́m Ak = lı́m P Ak = 0, m m k=n k=n k=n para todo n ≥ 1. Si en el teorema anterior se elimina la suposición de independencia de los sucesos, entonces la afirmación que se establece en el mismo podría no cumplirse. Por ejemplo, los sucesos Ai = P A1 , i ≥ 2, son dependientes si 0 < P (A1 ) < 1, y además se cumple que ∞ n=1 P (An ) = ∞; sin embargo, P (lı́m supn An ) = P (A1 ) 6= 1. De las Partes I y II del Lema de Borel-Cantelli inmediatamente se deduce que si {An } es una sucesión de eventos independientes, entonces solo existen dos posibles valores para P (An i.f ). Esta probabilidad es igual a 0 o a 1. 72 6.5. Problemas y ejercicios 6.5. Problemas y ejercicios 1. Sean A y B sucesos, y P (A)P (B) > 0. Pruebe que entonces P (A|B) ≥ P (A) si, y solo si, P (B|A) ≥ P (B). 2. Considere tres cartas. Una carta es roja por ambas caras, otra carta es negra por ambas caras, y la tercera es roja por una cara y negra por la otra. Se selecciona una carta al azar, de la cual solo es visible una cara, que resulta negra. ¿Cuál es la probabilidad de que la otra cara de la carta seleccionada también sea negra? R: 2/3. 3. *Problema de Monty Hall. Considere tres bolsas, una de las cuales con- tiene un premio. Usted selecciona una de las bolsas al azar, y luego, de las dos restantes, le muestran una bolsa vacía. A continuación puede seguir una de las dos siguientes estrategias: i. Quedarse con la bolsa seleccionada al azar. ii. Seleccionar la otra bolsa que queda, de contenido desconocido. a) Calcule la probabilidad de obtener el premio con cada una de las estrategias. b) Implemente un programa de simulación en lenguaje Python que permita calcular aproximadamente la probabilidad de obtener el premio usando la estrategia ii. 4. Una prueba sobre una enfermedad da negativo si no existe la enferme- dad, y positivo si esta existe, con probabilidad 0,95 en ambos casos. Se conoce que en la población una persona de cada 2000 tiene la enferme- dad. a) Si la prueba le da positivo a una persona, ¿cuál es la probabilidad de que realmente tenga la enfermedad? b) Si le da negativo, ¿cuál es la probabilidad de que realmente no esté enferma? R: a) 19/2018 ≈ 0,01. 5. Se lanzan al azar dos dados equilibrados. Verifique que la probabilidad de que la suma de los puntos sea 7 es independiente del resultado del primer lanzamiento. 73 6.5. Problemas y ejercicios 6. Suponga que de los números 2, 3, 5, 30 se selecciona uno al azar. Sea Ak el suceso que consiste en que el número seleccionado es divisible por k, k = 2, 3, 5. Analice la independencia dos a dos de los tres sucesos y su independencia conjunta. 7. Demuestre que la independencia conjunta de los sucesos A, B y C im- plica la independencia de los sucesos: a) A y B ∪ C; b) A y B ∩ C; c) Ac , B c y C c. 8. Suponga que los sucesos A y B1 son independientes y que también lo son los sucesos A y B2. Pruebe que entonces A y B1 ∪ B2 son indepen- dientes si, y solo si, A y B1 ∩ B2 son independientes. 9. * Sean {An } y {Bn } dos sucesiones crecientes de sucesos con respecti- vos límites A y B. Pruebe que si An y Bn son independientes para cada n ≥ 1, entonces A y B son independientes. 10. Pruebe que la probabilidad de que ninguno de los sucesos P indepen- dientes A1 , A2 ,... , An ocurra, es menor o igual que exp(− ni=1 P (Ai )). 74 CAPÍTULO 7 E SPACIO PRODUCTO En este capítulo se considera el espacio producto asociado al caso especial de repetición de experimentos con un número finito de resultados. Se esta- blece la relación entre la noción intuitiva de experimentos independientes y el espacio producto. 7.1. Espacio producto Consideremos n espacios de probabilidad discretos, (Ω1 , P(Ω1 ), P1 ), (Ω2 , P(Ω2 ), P2 ),... , (Ωn , P(Ωn ), Pn ), donde, recordemos, P(Ωi ) denota el conjunto potencia de Ωi , i = 1, 2,... , n. Construyamos un espacio de probabilidad en el cual se puedan representar sucesos de cada uno de estos espacios de tal manera tal que estos sean inde- pendientes. Sea el espacio muestral Ωn = Ω1 × Ω2 × · · · × Ωn. Definamos para todo ω = (ω1 ,... , ωn ) ∈ Ωn la probabilidad P n como P n (ω) = P1 (ω1 )P2 (ω2 ) · · · Pn (ωn ). 75 7.1. Espacio producto Sea Ai ⊂ Ωi , i = 1, 2,... , n. Observe que X P n (A1 × A2 × · · · × An ) = P n (ω) ω∈A1 ×A2 ···×An X X X =... P1 (ω1 )P2 (ω2 ) · · · Pn (ωn ) ω1 ∈A1 ω2 ∈A2 ωn ∈An = P1 (A1 )P2 (A2 ) · · · Pn (An ). (7.1) Puesto que P n (ω) ≥ 0, para todo ω ∈ Ωn , y de (7.1) se obtiene que P n (Ωn ) = 1, entonces P n es, efectivamente, una probabilidad definida so- bre P(Ωn ). El espacio de probabilidad discreto (Ωn , P(Ωn ), P n ), así definido, se de- nomina espacio de probabilidad producto de los espacios (Ωi , P(Ωi ), Pi ), i = 1, 2,... , n. Sean ahora, Ã1 = A1 × Ω2 × · · · × Ωn−1 × Ωn , Ãi = Ω1 × · · · × Ωi−1 × Ai × Ωi+1 × · · · × Ωn , i = 2, 3,... , n − 1, A˜n = Ω1 × Ω2 × · · · × Ωn−1 × An. Utilizando (7.1) se deduce que P n (Ãi ) = Pi (Ai ), i = 1, 2,... , n. (7.2) Por consiguiente, el suceso Ãi constituye la representación en el espacio pro- ducto (Ωn , P(Ωn ), P n ) del suceso Ai , i = 1, 2,... , n. Teorema 1. En el espacio producto (Ωn , P(Ωn ), P n ), los sucesos Ã1 , Ã2 ,... , A˜n son conjuntamente independientes. Demostración: Probemos la independencia de dos sucesos, digamos, Ã1 y Ã2. En efecto, se cumple que P n (Ã1 ∩ Ã2 ) = P n (A1 ×A2 ×Ω3 ×· · ·×Ωn ) = P1 (A1 )P2 (A2 ) = P n (Ã1 )P n (Ã2 ), 76 7.2. Modelo de Bernoulli donde las dos últimas igualdades se deducen usando (7.1) y (7.2), respec- tivamente. El caso general de independencia conjunta se prueba de forma análoga. Por supuesto que otros sucesos del espacio producto, diferentes de Ã1 , Ã2 ,... , A˜n , no necesariamente son independientes. Por ejemplo, en general los sucesos Ã1 y Ã1 ∪ Ã2 no son independientes. Ejemplo 7.1 Consideremos un sistema constituido por 3 componentes. El sistema falla si fallan al menos dos de sus componentes. Supongamos que inicialmente los tres componentes funcionan y que la probabilidad de que el componente i este funcionando al cabo del tiempo t es igual a pi , i = 1, 2, 3. Asumamos que los fallos de los componentes son independientes entre sí. Hallemos la probabilidad de que el sistema no haya fallado al cabo del tiem- po t. Sea Ai el suceso que consiste en que en el instante t funciona (éxito) el componente i, i = 1, 2, 3. Denotemos qi = 1 − pi , i = 1, 2, 3. Tomemos, Ω = {0, 1}, Ai = {1}, Pi (ωi ) = pωi i qi1−ωi , ωi ∈ Ωi , i = 1, 2, 3. En el espacio producto de los espacios (Ωi , P(Ωi ), Pi ), i = 1, 2, 3, los sucesos Ãi ,i = 1, 2, 3, son independientes. El sistema funciona en el instante t cuando al cabo de ese tiempo nin- guno de los componente ha fallado o solo uno de ellos ha fallado, lo cual se representa por el suceso, c c c (Ã1 ∩ Ã2 ∩ Ã3 ) ∪ (Ã1 ∩ Ã2 ∩ Ã3 ) ∪ (Ã1 ∩ Ã2 ∩ Ã3 ) ∪ (Ã1 ∩ Ã2 ∩ Ã3 ), cuya probabilidad es igual a p1 p2 p3 + q1 p2 p3 + p1 q2 p3 + p1 p2 q3. 7.2. Modelo de Bernoulli Consideremos una serie de n experimentos, en cada uno de los cuales in- teresa solo la ocurrencia o no de cierto suceso, cuya probabilidad de ocurrir en cada experimento es igual a p, 0 < p < 1. Por medio de un espacio pro- ducto, construiremos un modelo que permita considerar los experimentos de esta serie independientes. 77 7.2. Modelo de Bernoulli Sea Ωi = {0, 1} el espacio muestral correspondiente al experimento i, i = 1, 2,... , n, donde, como es habitual, por 1 se representa la ocurrencia del suceso de interés o éxito, y por 0 su no ocurrencia o fracaso. Definamos Pi (ωi ) = pωi q 1−ωi , si ωi ∈ Ωi , i = 1, 2,... , n, donde q = 1 − p. Denotemos por Ai el suceso que representa el éxito en el experimento i, es decir, Ai = {1}; entonces se tiene que Pi (Ai ) = p y la σ-álgebra generada por el conjunto Ai es σ({Ai }) = {Ωi , ∅, Ai , Aci } = P(Ωi ), i = 1, 2,... , n. Por conveniencia en lo que sigue, denotaremos Fi = σ({Ai }). El espacio de probabilidad (Ωi , Fi , Pi ) está asociado al experimento i, i = 1, 2,... , n. Cons- truyamos el espacio producto de estos espacios de probabilidad. Sea Ωn = Ω1 × Ω2 × · · · × Ωn. Para todo ω = (ω1 , ω2 ,... , ωn ) ∈ Ωn , defina- mos Pn Pn P n (ω) = P1 (ω1 )P2 (ω2 ) · · · Pn (ωn ) = p i=1 ωi q n− i=1 ωi. El espacio de probabilidad (Ωn , P(Ωn ), P n ) es el espacio producto. El suceso Ãi = {ω = (ω1 , ω2 ,... , ωn ) ∈ Ωn : ωi = 1} representa, en el espacio producto, el éxito en el experimento i, además, P n (Ãi ) = p, i = 1, 2,... , n. Por otro lado, la σ-álgebra F̃i = {Ωn , ∅, Ãi , Ãci } solo contiene información sobre la ocurrencia o no de éxito en el experimento i. Por consiguiente, en el espacio producto asociamos la σ-álgebra F̃i con un experimento en el cual puede ocurrir el suceso Ãi con probabilidad p, i = 1, 2,... , n. Por el Teorema 1, los sucesos Ã1 , Ã2 ,... , A˜n son conjuntamente indepen- dientes, así que también lo son las σ-álgebras F̃1 ,... , F̃n. Como cada una de estas σ-álgebras está asociada a un experimento, entonces se dice que la serie de n experimentos es una serie de experimentos independientes. El modelo que hemos descrito se denomina modelo de Bernoulli, y a cada uno de los experimentos de la serie de n experimentos se le llama expe- rimento (o prueba ) de Bernoulli. 78 7.2. Modelo de Bernoulli Denotemos por Pn (k; p) la probabilidad de que en exactamente k de los n experimentos ocurra éxito. Entonces n ( )! X n n Pn (k; p) = P ω∈Ω : ωi = k i=1 X n = P (ω) ω:Σn i ωi =k n n X = pΣi ωi q n−Σi ωi ω:Σn i ωi =k n k n−k = p q , k = 0, 1,... , n. k igualdad tiene lugar debido a que la suma ni=1 ωi es igual a k P La última en nk formas diferentes, y a cada una ellas le corresponde la probabilidad pk q n−k , k = 0, 1,... , n. Observe que n X Pn (k; p) = 1. k=0 Note además, que la probabilidad Pn (k; p) es el coeficiente de xk en el desa- rrollo de (px + q)n en potencias de x. Por eso al modelo de Bernoulli también se le llama modelo binomial. Desde el punto de vista práctico, el modelo de Bernoulli se asume cuan- do se considera una serie de n experimentos que pueden suponerse indepen- dientes, en cada uno de los cuales puede ocurrir con probabilidad p cierto suceso de interés. Ejemplo 7.2 Si en el Ejemplo 7.1 tomamos pi = p, i = 1, 2, 3, q = 1 − p. En- tonces, con las notaciones correspondientes al modelo de Bernoulli, la proba- bilidad de que el sistema esté funcionando al cabo del tiempo t se calcula de la siguiente forma, 3 0 3 3 P3 (0; q) + P3 (1; q) = q p + qp2 = p3 + 3qp2. 0 1 Ejemplo 7.3 Se tienen dos monedas idénticas en su aspecto físico; sin embar- go, se conoce que cuando se lanzan al azar, las probabilidades de aparición 79 7.2. Modelo de Bernoulli de escudo para cada una de las monedas, que denominaremos I y II, son 1/2 y 2/3, respectivamente. Se lanza 100 veces al azar una de las monedas y se debe decidir cuál de las monedas fue lanzada. Asumamos la siguiente regla de decisión: si el escudo aparece más de 60 veces, la moneda lanzada es la II, en caso contrario la moneda lanzada es la I. En este problema se pueden calcular las probabilidades de los dos errores posibles al utilizar la regla de decisión: el primer error consiste en decidir que la moneda lanzada fue la II, habiendo sido en realidad la I; y el segundo, decidir que la moneda lanzada fue la I, si en realidad fue la II. Denotemos por α y β las probabilidades del primero y segundo error, respectivamente. Luego α es la probabilidad de que al lanzar 100 veces la moneda equilibrada, en más de 60 ocasiones aparezca el escudo, y β la probabilidad de que si se lanza 100 veces la otra moneda, en 60 o menos ocasiones aparezca el escudo. Entonces 100 100 k 100−k X X 100 1 1 α= P100 (k; 1/2) = = 0,018, k 2 2 k=61 k=61 y 60 60 k 100−k X X 100 2 1 β= P100 (k; 2/3) = = 0,097. k 3 3 k=0 k=0 Los valores de α y β se calcularon aproximadamente con redondeo en la ter- cera cifra decimal. A medida que aumenta el número de lanzamientos de la moneda se pue- den seleccionar reglas de decisión con valores de α y de β cada vez menores. El siguiente fragmento de código Python muestra como calcular los valo- res de α y β. f r o m scipy. stats i m p o r t binom alfa =1 - binom. cdf (60 , 100 , 1/2) beta = binom. cdf (60 ,100 ,2/3) Ejemplo 7.4 Consideremos el Problema del caminante, Ejemplo 6.5. Suponga- mos ahora que hay tres caminantes, 1, 2 y 3, y que se selecciona al azar uno de ellos, el cual partirá de O en tres ocasiones. Se conoce que el caminante i siem- pre pasa por el punto i, i = 1, 2, 3. Si el caminante seleccionado llegó a F en las tres ocasiones, ¿cuál es la probabilidad de que haya sido el caminante 2? 80 7.2. Modelo de Bernoulli Denotemos por A el suceso que consiste en que el caminante llegó a F en las tres ocasiones en que partió de 0. Las tres posibles llegadas a F son independientes entre sí. Denotemos por Bi el suceso que consiste en que el caminante seleccionado es el i, i = 1, 2, 3. Entonces P (Bi ) = 1/3, i = 1, 2, 3. Por otro lado, P (A|B1 ) = 1, P (A|B2 ) = (1/2)3 , P (A|B3 ) = (1/3)3. Luego, (1/2)3 · 1/3 P (B2 |A) = = 27/251 ≈ 0,107. 1/3 + (1/2)3 · 1/3 + (1/3)3 · 1/3 Ejemplo 7.5 Sea un sistema constituido por dos componentes, denotados por 1 y 2, que funciona solo si funcionan ambos componentes. Las proba- bilidades de funcionamiento hasta el instante t (éxito) de cada componente son p1 y p2 , respectivamente, 0 < p1 , p2 < 1. Los fallos de los componentes se asumen independientes entre sí. Inicialmente ambos componentes funcio- nan, pero al cabo del tiempo t se detectó que el sistema falló. Observe que se consideran dos pruebas independientes asociadas al fun- cionamiento de cada componente, y cuando las probabilidades de éxito p1 y p2 son diferentes no corresponde al modelo de Bernoulli. a) ¿Qué es más probable, que hayan fallado los dos componentes, o que haya fallado solo el componente 1? b) Supongamos que p1 = p2 = p. ¿Qué es más probable, que hayan fallado los dos componentes, o que haya fallado solo uno de los dos? Para responder las preguntas planteadas usaremos la fórmula de Bayes, pero no será necesario calcular su denominador. Cuando se detecta el fallo en el instante t, es posible que haya ocurrido uno de los siguientes sucesos mutuamente excluyentes: B1 - falló el componente 1 y no falló el 2, B2 - falló el componente 2 y no falló el 1, B3 - falló el componente 1 y falló el 2, Estos tres sucesos, y el suceso B4 - no falló el componente 1 y no falló el 2, son mutuamente excluyentes y siempre ocurre uno de ellos, pero el fallo del sistema solo puede ocurrir con uno de los tres primeros. Por la independencia 81 7.3. Modelo multinomial de los fallos de los componentes se halla que P (B1 ) = (1 − p1 )p2 , P (B2 ) = (1 − p2 )p1 , P (B3 ) = (1 − p1 )(1 − p2 ), P (B4 ) = p1 p2. Por otro lado, denotando por F el fallo del sistema se tiene, P (F |B1 ) = P (F |B2 ) = P (F |B3 ) = 1 y P (F |B4 ) = 0. De donde, usando la fórmula de Bayes, tenemos que P (B4 |F ) = 0, P (B1 |F ) ∝ P (F |B1 )P (B1 ) = (1 − p1 )p2 , P (B2 |F ) ∝ P (F |B2 )P (B2 ) = (1 − p2 )p1 , P (B3 |F ) ∝ P (F |B3 )P (B3 ) = (1 − p1 )(1 − p2 ), donde la constante de proporcionalidad es igual a 1/P (F ). a) La desigualdad P (B3 |F ) > P (B1 |F ) se cumple si, y solo si, p2 < 1/2. Por consiguiente, si p2 < 1/2, la probabilidad de que hayan fallado los dos componentes es mayor que la probabilidad de que haya fallado solo el com- ponente 1, y si p2 > 1/2 la primera probabilidad es menor que la segunda. b) Como p1 = p2 = p, la desigualdad P (B3 |F ) > P ((B1 ∪ B2 )|F ) es equivalente a (1 − p)(1 − p) > 2(1 − p)p. Luego, si p < 1/3, la probabilidad de que hayan fallado los dos componentes es mayor que la probabilidad de que haya fallado solo uno de los dos, y es menor en el caso p > 1/3. 7.3. Modelo multinomial El modelo de Bernoulli se generaliza de forma natural para experimentos independientes, en los cuales es de interés la ocurrencia en cada uno de ellos de algún suceso de una colección de más de dos sucesos excluyentes. Por ejemplo, en el lanzamiento al azar n veces de un dado, se pueden considerar los sucesos Ai , Bi y Ci que representan, respectivamente, la aparición en el lanzamiento i, i = 1, 2,... , n, de un número mayor que 3, del número 3, y de un número menor que 3, cuyas probabilidades correspondientes, en el caso de un dado equilibrado, son 3/6 = 1/2, 1/6 y 2/6 = 1/3. Formularemos este modelo sin exponer todos los detalles. Consideremos n experimentos, en cada uno de los cuales puede ocurrir uno de r, r ≥ 2, su- cesos excluyentes. La ocurrencia de cada uno de estos sucesos la asociaremos 82 7.4. Sucesión infinita de experimentos independientes con los números 1, 2,... , r, respectivamente. Sean Ωi = {1, 2,... , r} Ωn = Ω1 × Ω2 × · · · × Ωn. r X Pi (j) = pj , j ∈ Ωi , i = 1, 2,... , n, pj = 1. j=1 Supongamos que un punto muestral dado ω de Ωn contieneP exactamente kj componentes iguales a j, kj = 0, 1,... , n, j = 1, 2,... , r, con rj=1 kj = n, r ≥ 2. Entonces en el modelo de experimentos independientes se tiene que P n (ω) = pk11 pk22 · · · pkr r. El número de puntos muestrales de Ωn con estas características es igual a n! , k1 !k2 ! · · · kr ! por consiguiente, la probabilidad Pn (k1 , k2 ,... , kr ; p1 , p2 ,... , pr ), de que en los n experimentos ocurran exactamente kj eventos de tipo j, j = 1, 2,... , r, se calcula por la fórmula n! Pn (k1 , k2 ,... , kr ; p1 , p2 ,... , pr ) = pk1 pk2 · · · pkr r. k1 !k2 ! · · · kr ! 1 2 Esta probabilidad es el coeficiente de xk11 xk22 · · · xkr r en el polinomio que se obtiene en el desarrollo de (p1 x1 + p2 x2 + · · · + pr xr )n. A este modelo se le llama modelo multinomial. 7.4. Sucesión infinita de experimentos independientes Si el conjunto finito Ωi es el espacio muestral asociado a un experimento i, i ≥ 1, entonces el espacio muestral correspondiente a la sucesión infinita de estos experimentos es el conjunto infinito no numerable Ω∞ = Ω1 × Ω2 × · · ·. No es posible tratar este caso de la misma manera que cuando se considera un número finito de experimentos. Introduciremos de manera intuitiva la noción de sucesión infinita de ex- perimentos independientes, utilizando para ello el modelo binomial. El caso 83 7.4. Sucesión infinita de experimentos independientes correspondiente al modelo multinomial es análogo. En la Sección 8.3 del Ca- pítulo 8, Complementos, se hace un examen riguroso de este tema. Consideremos una sucesión infinita de experimentos, en cada uno de los cuales la probabilidad de éxito es igual a p, 0 < p < 1. Denotemos q = 1 − p. Sea Ωi = {0, 1}, i ≥ 1. El modelo de Bernoulli para una serie de n experimen- tos independientes es el espacio de probabilidad (Ωn , P(Ωn ), P n ) definido en la Sección 7.2. Sea el punto muestral (a1 , a2 ,... , an ) ∈ Ωn. El suceso que consiste en la ocurrencia consecutiva de los resultados