Document Details

ExultantSodium

Uploaded by ExultantSodium

UTN Facultad Regional Córdoba

Tags

probability statistics mathematics theoretical statistics

Summary

This document covers the theory of probability, including concepts like uncertain events, sample spaces, and the different types of events. It introduces axioms of probability and deals with various concepts relating to this subject, including examples.

Full Transcript

UNIDAD 4- TEORÍA DE PROBABILIDADES- VARIABLE ALEATORIA- DISTRIBUCIONES DE PROBABILIDAD Incertidumbre y Experimento aleatorio: Un experimento aleatorio o estocástico es aquel que conduce a dos o más resultados posibles. Uno de estos posibles resultados se presentará, pero no podemos...

UNIDAD 4- TEORÍA DE PROBABILIDADES- VARIABLE ALEATORIA- DISTRIBUCIONES DE PROBABILIDAD Incertidumbre y Experimento aleatorio: Un experimento aleatorio o estocástico es aquel que conduce a dos o más resultados posibles. Uno de estos posibles resultados se presentará, pero no podemos asegurar cuál, entonces, estos resultados son inciertos. Así, echar una moneda o un dado, son experimentos aleatorios, porque en cada caso el proceso produce más de un resultado posible. Un experimento puede consistir en sólo una prueba, o estar conformado de un conjunto de pruebas realizadas bajo las mismas condiciones. Espacios probabilísticos: También llamado Espacio Muestral o Espacio de Muestra Es el conjunto de todos los resultados posibles de un experimento aleatorio. Es el equivalente al Conjunto Universal, es decir a aquel conjunto formado por todos los elementos que intervienen en el tema de interés. Se simboliza por (omega). Los resultados posibles de un espacio probabilístico o de muestra se llaman elementos o puntos de muestra. Cualquier prueba de un experimento produce un resultado que corresponde exactamente a un elemento de dicho espacio Puede representarse bien gráficamente por un Sistema de Coordenadas Cartesianas Ortogonales o por un Diagrama de Árbol Sistemas de coordenadas cartesianas Diagrama de árbol Vemos que los diagramas de árbol proporcionan una forma organizada de enumerar todos los elementos posibles de un espacio de muestra de modo que no falte ninguno Los resultados de Ω, deben ser Mutuamente Excluyentes y Colectivamente Exhaustivos En la tirada de una moneda, tenemos, dos resultados posibles Ω = (c,s); pero cada lanzamiento de la moneda, producirá, ya sea cara o sello, pero no ambos simultáneamente. Es decir, que cada punto del espacio probabilístico correspondiente a este experimento es mutuamente excluyente en una prueba En todos los casos, el espacio probabilístico está constituido por un número finito de puntos, no obstante, pueden considerarse también: ▪ Infinidad numerable de puntos: lanzar en forma repetida un dado hasta obtener el número 4 ▪ Infinidad no numerable de puntos: tirar a un blanco que tiene formas de círculo Conjunto de eventos simples, elementales, o fundamentales Eventos: Un evento, también llamado hecho, es un subconjunto de un espacio probabilístico o de muestra. Los diferentes eventos o hechos serán representamos por las letras mayúsculas, tales como E1, E 2, … 1. Un evento o hecho E definido sobre un espacio de muestra , se dice que es un evento simple, elemental, o fundamental, si contiene exactamente un punto de muestra en  ▪ Así, en la tirada de un dado,  = (1, 2, 3, 4, 5, 6), entonces cada uno de los elementos de  es un evento simple. ▪ Habrá tantos eventos simples como resultados posibles tenga el experimento aleatorio 2. Un evento o hecho E definido sobre un espacio de muestra , se llama un compuesto o evento (hecho) compuesto o simplemente evento (hecho), si contiene más de un punto de muestra un  ▪ Así, cuando se echa un dado y definimos E1 = (1, 3, 5); E 2 = (2, 4, 6); entre otros, son compuestos. Los eventos incluyen particularmente los siguientes subconjuntos: 1) Un evento elemental: es también un evento, en el sentido de que es un subconjunto que contiene un solo punto del espacio probabilístico 2) Evento cierto: El Espacio Probabilístico  , es un evento, en el sentido de que es un subconjunto que contiene todos los eventos elementales de  3) Evento imposible: Un subconjunto que no contiene puntos de , dado que no puede ocurrir nunca Dos aspectos: 1. Un evento ha ocurrido, si al menos uno de sus elementos se ha presentado ▪ En la tirada de un dado, definimos E1 = Salida de número par, es decir, E1 = (2, 4, 6). Si tiramos el dado, y sale el número 6, el evento E1ha ocurrido 2. Los eventos y sólo los eventos poseen probabilidad asociada Eventos mutuamente excluyentes: Dos eventos o hechos definidos sobre un mismo espacio probabilístico o de muestra, son Mutuamente Excluyentes, Mutuamente Exclusivos, Disjuntos o Desunidos, si no hay puntos de muestras en común, es decir, si su intersección es igual al vacío Gráficamente usamos diagrama de Venn: Eventos No Mutuamente Excluyentes: Dos eventos o hechos definidos sobre un mismo espacio probabilístico o de muestra, son No Mutuamente Excluyentes, No Mutuamente Exclusivos, No Disjuntos ó No Desunidos, si hay puntos de muestras en común, es decir, si su intersección es distinta al vacío. Pueden ser: ▪ Dependientes: Cuando la ocurrencia o no ocurrencia de un evento en cualquier prueba, afecta la probabilidad de otros eventos en las pruebas siguientes ▪ Independientes: Cuando la ocurrencia o no ocurrencia de un evento en cualquier prueba, no afecta la probabilidad de otros eventos en las pruebas siguientes Eventos colectivamente exhaustivos: Se dice que dos hechos ó eventos, definidos sobre el mismo espacio de muestra, son Colectivamente Exhaustivos, si su unión es igual al espacio de muestra Entonces, diremos que, si n hechos forman una partición de , los n hechos son Mutuamente Exclusivos y Colectivamente Exhaustivos ❖ Si dos o más eventos o hechos son Mutuamente Exclusivos, no pueden ocurrir juntos, por lo que, como máximo, ocurrirá uno ❖ Si dos o más eventos o hechos son Colectivamente Exhaustivos, por lo menos ocurrirá uno de ellos ❖ Así, si un conjunto de eventos o hechos son mutuamente exclusivos y colectivamente exhaustivos, ocurrirá exactamente uno de los hechos Eventos no colectivamente exhaustivos: Se dice que dos hechos o eventos, definidos sobre el mismo espacio de muestra, son No Colectivamente Exhaustivos, si su unión NO da por resultado al espacio de muestra Interpretación de la probabilidad de un hecho: La probabilidad de un evento o hecho dado es una expresión de su posibilidad de ocurrencia El evento imposible no ocurrirá, tiene una probabilidad de ocurrencia de 0 El evento cierto siempre ocurrirá, por lo tanto, su probabilidad de ocurrencia es 1 Teorías probabilísticas: Historia de la teoría de probabilidades: La probabilidad matemática tiene sus orígenes en los juegos de azar, principalmente con dados y cartas. Los primeros estudios “científicos” sobre fenómenos aleatorios se centraban en dos problemas: 1. Contabilizar el número de posibles resultados al lanzar un dado varias veces 2. Distribuir las ganancias entre jugadores cuando el juego se interrumpía antes de finalizar, conocido como el “problema de las apuestas” Galileo Galilei: su principal contribución fue la creación de la teoría de la medida de los errores. Consideró que los errores de medida eran inevitables y los clasificó en errores sistemáticos, debidos a los métodos y herramientas de medida; y los errores aleatorios, que varían impredeciblemente de una medida a otra. Esta concepción sigue aún vigente. Pierre de Fermat y Blaise Pascal: considerar que el reparto de las apuestas debe hacerse en función de la probabilidad de ganar que tuviese cada jugador en el momento de interrumpirse el juego Christiaan Huygens: introducía el concepto de esperanza matemática para variables aleatorias que toman dos o tres valores, definida como la ganancia media si se repitiera el juego muchas veces Teoría Clásica o principio de la razón insuficiente: El primero en dar la definición clásica de probabilidad fue Jakob Bernoulli Más adelante, Abraham De Moivre aceptó la definición de Bernoulli y la reformuló en términos modernos: “una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que ese suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso”. En este supuesto, todos los resultados posibles deben tener los mismos pesos o probabilidades de ocurrencia Si el espacio de muestra de un experimento tiene N() resultados igualmente probables, y si un evento o hecho, definido en este espacio de muestra, tiene n(E) elementos, la probabilidad queda definida: Esta teoría depende del razonamiento lógico Esta teoría es objetiva ya que se basa en la deducción de un conjunto de supuestos Teoría Frecuencial o Teoría de la Probabilidad por Frecuencia Relativa: Bernoulli introdujo también el concepto de probabilidad frecuentista o estadística: asignar como probabilidad de un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces Por ejemplo, cuando se echa una moneda, ¿Cuál es la probabilidad de que salga anverso? Se abordaría el problema echando realmente la moneda, por ejemplo 100 veces, en las mismas condiciones, y calculando después la proporción de veces que sale anverso Si un experimento es ejecutado n veces en las mismas condiciones y hay ni resultados, ni  n, en que ocurrió un hecho, entonces una estimación de la probabilidad de ese hecho es la razón ni/n Definiendo P (E) como un límite cuando n se aproxima a infinito se destaca que la probabilidad supone el concepto a largo plazo Esta teoría es objetiva ya que la probabilidad de un hecho es determinada por repetidas observaciones empíricas (experimental/practico/probado) La probabilidad de un suceso o hecho es siempre una constante (que se aproxima repitiendo el proceso) Teoría subjetiva o Teoría Personalista: La probabilidad mide el grado de creencia de un individuo en la verdad de una proposición, variando entre 0, el individuo cree que es falso, a 1, cree que es cierto Fue propuesta por primera vez por Frank P. Ramsey y el primer matemático que la adoptó fue el estadístico italiano Bruno de Finetti Asigna un peso entre 0 y 1 a un evento o hecho, según su grado de creencia en su posible ocurrencia Por ejemplo, si tiene doble confianza en la ocurrencia del hecho A que el hecho B, y si A y B son los únicos hechos posibles, asigna los valores: P(A) = 2/3 y P(B)= 1/3 La probabilidad de un suceso puede, y debe, variar en función de la nueva información recibida respecto del suceso, manera de proceder que se ajusta más al método científico La axiomatización de la Probabilidad: La construcción axiomática de la teoría de la probabilidad procede de las propiedades fundamentales de la probabilidad observadas en los ejemplos que ilustran las definiciones Clásica y Frecuencial. Así, la definición axiomática las incluye como casos particulares y supera las carencias de ambas. La probabilidad pudo desarrollarse como una teoría completamente lógica al mismo tiempo que siguió permitiendo resolver los problemas aplicados de las ciencias modernas y la tecnología Axiomas y propiedades para la familia de eventos: ▪ Axioma F1: Si  es el evento imposible y  es el evento cierto, ambos pertenecen a la familia de eventos ( F ) ▪ Axioma F2: Dado un conjunto numerable de eventos A1, A2, A3 ,..., la intersección de ese conjunto numerable es un evento Si a partir de un  dado, definimos dos eventos A y B, entonces el resultado de A ∩ B también es un Evento ▪ Axioma F3: Dado un conjunto numerable de eventos A1, A2, A3,..., la unión de ese conjunto numerable es un evento Si a partir de un  dado, definimos dos eventos A y B, entonces el resultado de A  B también es un Evento ▪ Axioma F4: Si A es un evento y Ā es su complemento, entonces Ā es un evento ▪ Propiedad: Si A y B son eventos, entonces la diferencia entre A y B también es un evento Axiomas y propiedades para la probabilidad de los eventos: ▪ Axioma P1: Si A es un evento tiene asociada una probabilidad ▪ Axioma P2: (Positividad o Ley de no negatividad): La Probabilidad de un hecho en un espacio de muestra es no negativa. ▪ Axioma P3: (Certidumbre): La probabilidad de todo espacio de muestra es 1 ▪ Axioma P4: (Ley de probabilidad total o regla aditiva especial): Si A1, A2, A3,..., es un conjunto numerable de eventos, finito o infinito, mutuamente excluyente, entonces la probabilidad de la unión de dichos conjuntos es igual a la suma de sus probabilidades ▪ Propiedad P5: ▪ Propiedad P6: (Ley de complementación) ▪ Propiedad P7: Si Ω es cualquier espacio de muestra y P es cualquier función de probabilidad definida en Ω, entonces P ( ) = 0 ▪ Propiedad P8: La probabilidad de un evento es número que va de 0 a 1 ▪ Propiedad P9: Dados dos eventos A y B, de tal manera que A está contenido en B, es decir que A es un subconjunto propio de B (todos los elementos de A están en B, pero existen elementos de B que no están en A), entonces la probabilidad de A es menor que la probabilidad de B. ▪ Propiedad P10 (Desigualdad de Boole): Si A1, A2, A3,..., es un subconjunto finito numerable de eventos, no necesariamente mutuamente excluyentes puede considerarse como una generalización de la probabilidad total Probabilidad Total. Regla aditiva especial: Si en particular consideramos que A y B, definidos en Ω, son hechos Mutuamente Excluyentes, es decir que se verifica que: A ∩ B = , entonces, según esta ley la probabilidad de la unión de ambos es igual a la suma de sus probabilidades. En particular, dados dos eventos A y B, definidos en , No Mutuamente Excluyentes, Ahora bien, P(A) + P (B) es el total de la suma de las probabilidades de los puntos de A y la suma de las probabilidades de los puntos de B. Sin embargo, AB  , entonces P(A) + P(B) incluye las probabilidades de todos los puntos de la intersección A ∩ B dos veces. Si deducimos de esta suma la P (A ∩ B) una vez, el resultado es el total de probabilidades de todos los puntos de AUB, cada uno de los cuales se toma una sola vez A este resultado se lo conoce también como Regla Aditiva General, pues es una generalización de la Probabilidad Total, ya que si los eventos son mutuamente excluyentes la probabilidad de la intersección será 0, pues AB = , mientras que si los eventos son no mutuamente excluyentes, tendrá un valor distinto (>) a 0, pues AB   Probabilidad Condicional: Las probabilidades asociadas a los eventos definidos en las subpoblaciones Ha ocurrido el evento B, y se pide la probabilidad de que también haya ocurrido el evento A, que en símbolos se expresa P(A/B) y se lee: “Probabilidad de A dado B”, ó bien “Probabilidad de A con la condición de que haya ocurrido B”. El nuevo espacio probabilístico será ahora B, con “b” eventos elementales de los cuales “c” serán favorables al evento A  B. En este nuevo espacio probabilístico, será: Con respecto al espacio probabilístico general, Ω, esta probabilidad es: Probabilidad compuesta o conjunta. Regla multiplicatoria general: Tabla de las intersecciones Los valores del cuerpo de la tabla se llaman Probabilidades Conjuntas, porque cada una de ellas es la probabilidad de la ocurrencia conjunta, o simultánea, de dos hechos Lo obtenemos despejando: 1. El orden carece de importancia en el conjunto de intersecciones 2. La Regla multiplicatoria general puede ser generalizada para más de dos hechos 3. P(A/B) raramente es igual que P(A ∩ B), puede ser enteramente diferente Nota: P(A B) puede también escribirse como P(AB) Probabilidad marginal o individual: Se obtienen sumando cada fila o cada columna, y reciben este nombre simplemente porque se encuentran en los márgenes del cuadro Independencia y dependencia estadística: Dos eventos son dependientes si la probabilidad de ocurrencia de uno es afectada por la ocurrencia del otro Dos eventos son independientes si la probabilidad de ocurrencia de uno no es afectada por la ocurrencia del otro Los hechos dependientes son generados por muestreo aleatorio sin reposición y, los hechos independientes son generados por muestreo aleatorio con reposición El muestreo aleatorio sin reposición es un proceso de selección al azar de n unidades, que constituyen la muestra, de una población de N unidades, sin devolver a la población ninguna unidad escogida antes de extraer otra El muestreo aleatorio con reposición es un proceso de selección al azar de n unidades, que constituyen la muestra, de una población de N unidades, donde cada unidad extraída es reintegrada a la población antes de extraer otra Dos hechos, A y B, definidos en el mismo espacio de muestra, se dice que son independientes sí, y solo sí, la probabilidad de la ocurrencia conjunta de A y B es igual al producto de sus respectivas probabilidades individuales: Dos hechos son dependientes sí y solo sí: Teorema o regla de Bayes: En ciertos casos es posible establecer algunas características o determinados hechos, vinculados con eventos cuya probabilidad a priori es conocida, los que una vez ocurridos pueden ser analizados con el fin de determinar si los mismos han ocurrido conforme a determinadas causas. Estas probabilidades se conocen con el nombre de “probabilidades a posteriori” En general, si hay n B y se desea calcular la probabilidad condicional P (Bi/R) para i = 1,2,3...,n, la fórmula de Bayes es: Siendo las B, sucesos de cierto tipo, y R un suceso de otro tipo Para un ejemplo sería: El numerador es P (B1R) y el denominador es P (B1R) + P (B2R) + P (B3R) = P(R), según la tabla de probabilidades compuestas construida Si se conoce P(R/Bi) se calcula la P(Bi/R), que es la probabilidad de Bi una vez hecha la observación, por ello, es una probabilidad posterior Resumen: Variable aleatoria: Una variable aleatoria es una función real valorada, definida sobre los eventos simples de un espacio probabilístico, donde a cada evento elemental le corresponde un número que es el valor que asume la variable aleatoria para dicho evento simple. Una variable es aleatoria si puede asumir cualquier valor en un cierto recorrido con una cierta probabilidad Los resultados posibles de un experimento aleatorio, pueden ser presencia de números (dado), o en otros no son números (moneda) A cada uno de los resultados posibles de un fenómeno aleatorio (a cada evento simple) se le asocia un número real de tal manera que siempre podamos expresar numéricamente a los resultados de un experimento aleatorio Este nuevo conjunto numérico que representará al conjunto de resultados posibles o eventos simples será entonces el conjunto de valores que puede asumir una nueva variable, que llamaremos Variable Aleatoria (casual, estocástica, o variable de azar) Cada valor, o conjunto de valores, intervalos, unión o intersección de intervalos de dicha variable, tendrán asociados una probabilidad de presentación, que es la probabilidad del evento que los valores de dicha variable representan Simbolizaremos la variable aleatoria por: x, y, etc. Clasificación de alumnos en un examen (0: reprobado, 1: suficiente, 2: bueno, 3: excelente) Población (1: es varón, 2: es mujer) Los eventos que antes se representaban con la simbología de conjuntos, se representan ahora mediante números o intervalos numéricos que corresponden a una variable aleatoria donde sus probabilidades de presentación son las probabilidades de presentación de los resultados o eventos que representan Decir “la probabilidad de salida de cara” es igual a 0,50, equivale a decir, “la probabilidad de que la variable aleatoria asuma el valor 1” es igual a 0,50. Por lo tanto la probabilidad de que la variable aleatoria asuma cualquier valor distinto de 0 y 1 es igual a 0, pues es el evento imposible, y la probabilidad de que asuma el valor 0 ó 1 es igual a 1, pues ello implica la probabilidad del espacio (), pues Si un determinado evento se representa mediante un conjunto de números reales, o un intervalo numérico, ello no significa que la variable aleatoria deba asumir todos los valores numéricos. Basta que asuma un solo valor para que ello implique la presencia del evento representado por el conjunto numérico o intervalo. Variables aleatorias discretas y continuas: Variables aleatorias discretas: Cuando tienen una cantidad numerable de valores posibles, que podrán ser un número finito de valores, ó un número infinito pero numerable de valores reales Variables aleatorias continuas: Cuando pueden asumir cualquier valor real, es decir los infinitos valores del conjunto de los números reales, o cuando pueden asumir cualquier valor dentro de un determinado intervalo, de tal manera que entre uno y otro valor pueden diferir hasta en un infinitésimo Distribuciones de probabilidad: Se distinguen: 1. Funciones de probabilidad: a) Función de cuantía, si la variable es discreta b) Función de densidad, si la variable es continua 2. Funciones de distribución o de acumulación: a) Si la variable es discreta b) Si la variable es continua Función de cuantía: Cuando se cuenta con todos los posibles valores de una variable aleatoria y la correspondiente probabilidad de cada uno de esos valores, se tiene la función de probabilidad de una variable aleatoria, que permite obtener la probabilidad para cada uno de los valores de la variable correspondiente a un determinado experimento En general, P (x = xi ), indica la probabilidad de que la variable aleatoria x asuma un valor real xi, lo cual implica la probabilidad de que se presente un determinado evento, representado por ese valor xi de la variable aleatoria Las probabilidades asociadas se simbolizan donde pi es una constante De acuerdo con lo visto, al tratarse de una variable aleatoria discreta, las probabilidades tendrán algún valor en todos los puntos o valores reales que asuma x, donde se verifica la presencia de un evento y será igual a 0 para todos los demás valores reales de x que no tengan asociados o no representen eventos Los valores de la función de probabilidad corresponden a un sistema completo de eventos y por lo tanto su suma es igual a 1 Satisface las siguientes condiciones: Esta función indica el valor de la probabilidad en el punto x = xi , por eso es también llamada Probabilidad Puntual Función de distribución o de acumulación (variables aleatorias discretas): Sea, P(x  xi), donde x es un número real. P(x  xi) es la probabilidad de que la variable aleatoria x asuma valores menores o iguales a x Esta probabilidad que es la suma de las probabilidades de todos los valores del recorrido menores o iguales a x, depende, en realidad, de este valor real x y se denota mediante F(x), luego F (x) se llama Función De Distribución o Función de Acumulación De La Variable Aleatoria x. Esta función no es una probabilidad puntual, sino la probabilidad de un intervalo, mejor dicho, de todos los eventos en el intervalo definido por x  xi Gráficamente, presenta “saltos” ó puntos de discontinuidad por la izquierda cuando x = xi. Los saltos se presentan siempre que p (xi)  0 ya que estos saltos indican la medida de p (xi) Condiciones: 1. F (x) es una función monótona creciente, continua a la derecha de cada punto, pues es acumulación de probabilidades que son positivas 2. Relaciones: 3. Dados dos números positivos enteros a y b, tales que a < b 4. Dada una variable aleatoria x y un número positivo entero a Función de densidad y de distribución para variables aleatorias continuas: Una variable aleatoria continua puede asumir todos los valores reales posibles en un intervalo [a, b], siendo a y b tales que - < a < b ó  En síntesis: Una variable aleatoria es continua si su Función De Distribución F (x ), es continua y derivable, tal que su derivada primera dé la Función De Densidad f (x ) de la Distribución De Probabilidades. Conocida la Función De Acumulación de una Distribución De Probabilidades se puede determinar la Función De Densidad con sólo derivar la primera y recíprocamente, conociendo la función de densidad se puede determinar la función de distribución, integrando aquella hasta un valor x de la variable aleatoria. La probabilidad correspondiente a un intervalo infinitesimal (x, x + dx) se llama Probabilidad Elemental y se denota mediante Gráfica: Condiciones: 1. F (x) es una función monótona creciente, continua a la derecha de cada punto, pues es acumulación de probabilidades que son positivas 2. Relaciones asintóticas: 3. Dados dos números reales a y b, tales que a < b 4. Dada una variable aleatoria X y un número real a Para que f(x) sea función de densidad debe cumplir las siguientes condiciones básicas: Los parámetros en las distribuciones de probabilidad: Son medidas que se calculan con datos poblacionales en las distribuciones de frecuencias En las distribuciones de probabilidad son calculados en base a los valores posibles que una variable puede asumir Se utilizan, juntamente con la función de probabilidad de esa variable, para caracterizar el fenómeno Esperanza matemática: Es como la media en las distribuciones de frecuencias También llamada valor esperado o simplemente media de una variable aleatoria Se puede determinar sin necesidad de practicar las observaciones, a condición de que se conozca la distribución de probabilidades de la variable aleatoria y su valor es probable que se dé, sin tener la seguridad o certeza que ello ha de ocurrir Es la suma de los productos de todos los posibles valores de la variable aleatoria por sus respectivas probabilidades. Cuando se trata de una variable aleatoria continua la suma se transforma en una integral Se representa por E ( ), encerrando en los paréntesis a la variable aleatoria que se trate. Suele también ser representada por  Se trata de un parámetro de la distribución de probabilidad correspondiente a un espacio probabilístico Consideraciones: 1. N es ahora el total de valores posibles que la variable aleatoria puede asumir 2. La Esperanza es siempre un valor de la variable aleatoria x 3. Está ubicada sobre el eje real de la x y es un parámetro de posición de la población, considerada en este caso, como el conjunto de valores posibles de la variable aleatoria. Propiedades: 1. Dada una variable aleatoria x, una función de ella G(x), es también variable aleatoria 2. La esperanza matemática de una constante, es la constante misma 3. La esperanza matemática de una constante por una variable aleatoria, es igual al producto de la constante por la esperanza matemática de la variable aleatoria 4. La esperanza matemática de la suma algebraica de una variable aleatoria y una constante es igual a la esperanza de la variable aleatoria más/menos (suma algebraica) la constante Nota: De las propiedades anteriores, se deduce que: 5. La esperanza matemática de la suma algebraica de variables aleatorias es igual a la suma algebraica de las esperanzas matemáticas de cada una de las variables 6. La esperanza matemática del producto de dos ó más variables aleatorias independientes, es igual al producto de las esperanzas matemáticas de dichas variables Varianza: Es un parámetro que describe la tendencia central de una variable Permite conocer la concentración de los resultados alrededor de dicha esperanza. Pudiendo reemplazar E(x) =  Propiedades: 1. La Varianza de una variable aleatoria es no negativa. 2. La Varianza de una constante es igual a 0 3. La Varianza de una constante por una variable, es igual al cuadrado de la constante por la varianza de la variable. 4. La Varianza de la suma algebraica de una variable y una constante es igual a la varianza de la variable. 5. La Varianza de una suma o diferencia de dos variables aleatorias independientes es igual a la suma de las varianzas de cada una de las variables Desviación estándar: La raíz cuadrada positiva de la varianza Se simboliza y calcula: UNIDAD 5- MODELOS EPECIALES DE PROBABILIDAD- VARIABLES ALEATORIAS DISCRETAS Modelos especiales de probabilidad- Variables aleatorias discretas: Dadas las condiciones iniciales, un modelo probabilista nos permite deducir una distribución de probabilidades de posibles estados subsiguientes, que son valores de una variable aleatoria. Son modelos matemáticos apropiados para situaciones del mundo real en condiciones específicas Ayudan a predecir la conducta de futuras repeticiones de un experimento Modelo de Bernoulli: Se aplica a una variable que puede asumir sólo dos valores, por ello se habla de población dicotómica La media de una variable aleatoria Bernoulli es igual a la probabilidad de un éxito (P), y la varianza es igual a la probabilidad de un éxito multiplicada por la de un fallo (PQ). La media “P”, es un parámetro de población, llamado la Proporción Poblacional, y es la razón esperada del número de éxitos y el tamaño de la población Modelo binomial: (número de éxitos en n pruebas): Si a partir de un experimento aleatorio que tiene sólo dos resultados posibles, mutuamente excluyentes y colectivamente exhaustivos, "éxito" y "fracaso", donde P es la probabilidad de obtener éxito en cada repetición, se realizan n repeticiones independientes, la Distribución del Número de Éxitos, x, resultante se denomina Distribución Binomial. Una muestra aleatoria de n observaciones se toma por el Proceso de Bernoulli. Sea esta muestra: y1,y2,…,yn Como y toma el valor 1 si el resultado de una prueba es un éxito y 0 si es un fallo, el número de unos en n pruebas es simplemente y1+ y2+...+ yn Se introduce ahora una nueva variable aleatoria x que se llama Variable Aleatoria Binomial y que se utiliza para designar el número de éxitos en una muestra de n observaciones tomadas por el Proceso de Bernoulli, esto es: 1. Se repite una prueba simple un número n de veces, cada una de ellas independientes entre sí y bajo las mismas condiciones 2. En cada prueba sólo pueden presentarse dos alternativas mutuamente excluyentes: “Éxito y Fracaso”, con probabilidades asociadas P y Q = 1 – P, respectivamente, siendo P + Q =1, es decir que cada prueba tiene distribución bipuntual. 3. Por ser cada prueba independiente de las demás y realizarse en las mismas condiciones, las probabilidades P y Q permanecen constantes a lo largo de todo el experimento 4. En cada prueba se centra la atención en determinar si se presenta un éxito o un fracaso con el fin de totalizarlos al final de las n pruebas Función de probabilidad: función de cuantía: Por tratarse de una variable discreta la Función de Probabilidad se llama Función de Cuantía Determinar una función que nos dé en forma directa las probabilidades respectivas para los valores posibles de la variable aleatoria Binomial, es decir de 0 hasta n Parámetros: Esperanza: Varianza y desviación estándar: Modelo hipergeométrico: Número de éxitos en n pruebas: Cuando la población es finita, y la muestra aleatoria se toma sin reemplazo, la probabilidad cambiará para cada nueva observación, con lo cual habrá dependencia estadística. Función de probabilidad: función de cuantía: La probabilidad se simboliza por: Casos favorables: se trata de un evento compuesto por varios eventos mutuamente excluyentes Casos posibles: el total de muestras de tamaño n que podemos extraer sin reposición de una población N N: población dicotomizada n: tamaño de la muestra X: número o parte de la población que tiene determinada propiedad o característica x: variable real que indicará los valores esperados de la variable aleatoria Parámetros: Esperanza: Varianza: En el muestreo sin reemplazo, cuando la población es suficientemente grande, la varianza tiende a ser igual que la varianza de la variable Binomial y ello permite trabajar como si la muestra fuera con reposición Modelo binomial e hipergeométrico: Proporción de éxitos en n pruebas: Proporción poblacional: Proporción muestral: donde x es el número de éxitos en pruebas, n el tamaño muestral y “y” la variable aleatoria Bernoulli Recordar: 1) Si la muestra se toma con reemplazo de una población finita o infinita, la unidad tomada se vuelve a dejar en la población y el número de unidades disponibles para seguir la operación no se afecta Esto también es cierto cuando la muestra se toma de una población infinita sin reemplazo, es decir cuando la unidad escogida no se vuelve a la población, siempre que n< 5% s/N 2) Cuando se toma un elemento sin reemplazar de una población finita, el número de unidades que queda tras cada unidad que se saca se reduce en una unidad, y en consecuencia la probabilidad de sacar cualquier unidad restante en operaciones sucesivas se aumenta Esto también es cierto cuando la muestra se toma de una población infinita sin reemplazo, es decir cuando la unidad escogida no se vuelve a la población, siempre que n≥5% s/N Configuración: Modelo de Poisson: Encontrar la distribución de probabilidad del número de accidentes automovilísticos en un cruce en particular durante un período de una semana Se cumple: 1. El número de ocurrencias del hecho es independiente de una unidad (intervalo de tiempo, espacio o volumen) especificada a otra. 2. El valor esperado de la variable es proporcional al tamaño de la unidad especificada 3. La probabilidad de más de una ocurrencia del hecho en una unidad especificada muy pequeña es despreciable en comparación con la probabilidad de una sola ocurrencia; por lo tanto, puede despreciarse. Su parámetro es λ Número de éxitos esperados en la unidad específica Cuando se divide una unidad de tiempo o espacio en muchas subdivisiones (n grande), y la probabilidad de éxito en una sola prueba es pequeña (probabilidad pequeña), se estará en una situación cercana a la de una Distribución de Poisson Parámetros: Esperanza: Varianza: Desviación estándar: Es de asimetría positiva, a medida que el tamaño de la muestra aumenta tiende a la simetría Modelo uniforme discreto: Una distribución de probabilidades es uniforme o rectangular, cuando la probabilidad asociada con todos y cada uno de los resultados es una constante Función de probabilidad: Gráficamente: Se aplica a un experimento con N resultados mutuamente exclusivos e igualmente probables UNIDAD 6- MODELOS ESPECIALES DE PROBABILIDAD- VARIABLES ALEATORIAS CONTINUAS Los tiempos entre llegadas de clientes a una oficina de atención de público, pueden representarse por un modelo Exponencial El error respecto de una medida especificada, en un objeto producido por un proceso industrial, es una variable continua que puede representarse mediante un modelo Normal Modelo uniforme continuo: Una variable aleatoria cuyo valor sólo puede encontrarse en cierto intervalo infinito, tiene una distribución uniforme, o rectangular, si su función de densidad es constante en dicho intervalo. Función de densidad: Se trata de deducir la función de densidad uniforme en el intervalo (a, b), a partir de una constante arbitraria y = k El coeficiente 1/b-a, o sea la función de densidad uniforme se suele llamar factor de proporcionalidad y nos indica que la probabilidad es proporcional a la longitud del intervalo cuya probabilidad buscamos Función de acumulación: Parámetros: Esperanza: Varianza: Desviación estándar: Modelo exponencial: Una variable exponencial x es el intervalo de tiempo, o espacio, requerido para obtener un número específico de éxitos y ya que el tiempo o el espacio son continuos, una medición de este tipo es una variable aleatoria continua Si las llegadas de automóviles a una casilla de peaje siguen la ley de Poisson, entonces el tiempo transcurrido entre llegadas sucesivas de automóviles es lo que llamaríamos una variable exponencial Duración de una cinta electrónica, los intervalos de tiempo entre descomposturas de mecanismos eléctricos o entre accidentes Surge como respuesta a la pregunta: si una serie de hechos ocurre en tiempo según la Ley De Poisson a un ritmo de λ hechos por unidad de tiempo, ¿cuánto tenemos que esperar para poder observar la primera ocurrencia de un hecho? Se aplica si lo que interesa es el tiempo (o espacio) hasta la ocurrencia del primer hecho, o el tiempo entre dos hechos sucesivos o el tiempo que transcurre hasta que se presenta el primer hecho, después de cualquier punto en el tiempo elegido al azar. Función de acumulación: Función de densidad: Parámetros: La esperanza es igual a la DS x = intervalo de tiempo entre ocurrencias de la variable Poisson e = base de logaritmos naturales λ = promedio de ocurrencias por unidad de tiempo de la variable Poisson Se lo llama también exponencial negativo, porque la pendiente de la curva de densidad es siempre negativa, indicando que la probabilidad de largos intervalos de tiempo entre ocurrencias debe ser menor que la probabilidad de intervalos más cortos de tiempo La probabilidad exponencial de que ocurra el primer evento dentro del intervalo designado de tiempo es: La probabilidad exponencial de que le primer evento no ocurra dentro del intervalo designado de tiempo o espacio es: Modelo normal: Una teoría que sirve para explicar, para algunas variables aleatorias, la relación entre intervalos de sus valores y sus probabilidades 3 consideraciones: 1. Hay muchas variables que parecen seguir una forma de variación que es similar a la distribución normal. 2. La distribución muestral de muchos estadígrafos muestrales, tales como la media, tiene una distribución aproximadamente normal independientemente de la distribución de la población, si el tamaño de la muestra es lo suficientemente grande 3. Es una excelente aproximación de otras varias distribuciones muestrales. Así, la distribución Binomial, Poisson, Hipergeométrica, se aproximan a la normal al incrementar el tamaño muestral. Se puede expresar en forma general y en forma estandarizada Modelo normal general: Dada una variable aleatoria x, con media  y desviación , tiene distribución normal, es decir x  N (,) Gráfica: 1. El símbolo f(x), representa la densidad de probabilidad en cada posible valor de x, y gráficamente es la ordenada de la curva en todo punto posible x del eje de las x. 2. Toda el área bajo la curva es igual a 1 3. El área determinada por un intervalo debajo de la curva y por encima del eje de las x, es la probabilidad de ese intervalo 4. La expresión de una función muestra que la densidad de la probabilidad f(x) depende, fuera de x (variable aleatoria), solamente de dos parámetros,  (media) y ^2 (varianza). Los valores de  y  determinan la situación y forma de la curva normal. 5. El dominio de f(x) es infinito, y es una distribución para todos los valores de x entre – y + y todo intervalo no nulo a lo largo del eje x tiene una probabilidad no nula 6. La curva va como aproximándose, pero sin tocar nunca el eje x, en medida que x se aleja de , por ello se llama curva asintótica. 7. Como la probabilidad de que x tome algún valor exacto xi es 0, toda expresión de probabilidad que se relacione con una variable tiene que ponerse en forma de intervalo o acumulativa. Entonces, la probabilidad de que x quede por debajo de un cierto valor de x, es la probabilidad del intervalo entre – y x Propiedades: 1) Es simétrica con respecto al valor medio, eso implica que las superficies son las mismas desde – a  que desde  a  2) Es unimodal o de forma acampanada 3) Transformación lineal de escala: Si x e y son dos variables aleatorias e y = a + x, la varianza de y es la misma y la media de y es simplemente la media de a + x. Es de esperar que si x tiene distribución normal con  y 2 , la variable y también sea normal con media  + a y varianza  2 4) Combinación lineal de variables aleatorias: Si x1 , x2 ,… ,xn , son variables normales independientes, su suma S, es también una variable normal. Además, debido a la independencia, la propiedad aditiva se verifica para la Esperanza y Varianza. Es decir, la esperanza de S es la suma de las esperanzas de las n variables normales. Igualmente, la Varianza Modelo normal estándar: (o tipificada) Función de densidad normal, para la variable desvío estandarizada: Función de acumulación: Grados de libertad: número de observaciones linealmente independientes que ocurren en una suma de cuadrados. Distribución T de Student: Consideremos una muestra x1, x2,.... xn, proveniente de una población con distribución normal cuya media es μ y cuya varianza es σ^2. La variable t es una razón de la variable normal estándar a la raíz cuadrada de una variable Chi Cuadrado dividido por su número de grados de libertad. , donde numerador y denominador son independientes Propiedades: - ∞ < t < ∞, es decir que la variable asume valores entre - ∞ hasta ∞. Es Unimodal y simétrica respecto a 0 Es más aplanada que la distribución normal, pues su varianza es ligeramente superior a 1

Use Quizgecko on...
Browser
Browser