Resumen 2° Parcial Probabilidad y Estadística PDF

Summary

Este documento proporciona un resumen de la teoría de probabilidades, las variables aleatorias y las distribuciones de probabilidad, junto a los conceptos y definiciones básicas. Contiene ejemplos como la tirada de un dado y una moneda.

Full Transcript

2° PARCIAL – Probabilidad y Estadística UNIDAD 4: “Teoría de probabilidades – Variable aleatoria – Distribuciones de probabilidad” Conceptos generales: 1 - EXPERIMENTO ALEATORIO: Experimento que conduce a 2 o + resultados posibles, de los cuales 1 se presentará pero no podemos asegu...

2° PARCIAL – Probabilidad y Estadística UNIDAD 4: “Teoría de probabilidades – Variable aleatoria – Distribuciones de probabilidad” Conceptos generales: 1 - EXPERIMENTO ALEATORIO: Experimento que conduce a 2 o + resultados posibles, de los cuales 1 se presentará pero no podemos asegurar cual  Los resultados son inciertos. (Tirar un dado, moneda) Puede consistir en 1 prueba o en un conjunto de pruebas realizadas bajo las mismas condiciones 2 - ESPACIOS PROBABILÍSTICOS Ω (Espacio muestral): Conjunto de todos los resultados posibles de un experimento aleatorio, equivalente al conjunto universal. Elementos o puntos de muestra: Resultados posibles del espacio probabilístico Cualquier prueba de un experimento  Produce un Rto que corresponde a 1 elemento de dicho espacio 1- Tirada de un dado: Ω = (1, 2, 3, 4, 5, 6) 2- Tirada de una moneda: Ω = (c, s) 3- Tirada conjunta de un dado y una moneda  Conjunto de productos cartesianos: Ω1 x Ω2 = (c, s) x (1, 2, 3, 4, 5, 6) Ω = {(c,1); (c,2); (c,3); (c,4); (c,5); (c,6); (s,1); (s,2); (s,3); (s,4); (s,5); (s,6)} Representación gráfica: Un espacio probabilístico con n° pequeño de elementos puede representarse por: Sistema de Coordenadas Cartesianas: Diagrama de árbol: Forma organizada de enumerar todos los elementos posibles de un espacio probabilístico de modo que no falte ninguno Los Rto de Ω deben ser:  Mutuamente Excluyentes  Colectivamente Exhaustivos En todos los casos, el espacio probabilístico está constituido por: 1- N° finito de puntos 2- Infinidad numerable de puntos 3- Infinidad no numerable de puntos 3 – EVENTOS (Hecho): Subconjunto del espacio probabilístico. E1, E2,... (Ej. dado de 6 caras) 1- SIMPLE  Contiene 1 punto de muestra, ∃ tantos eventos simples como Rto posibles del experimento E1 = (1) 2- COMPUESTO  Contiene + de 1 punto de muestra  Rto n° pares: E2 = (2, 4, 6) 3- CIERTO  El espacio probabilístico, subconjunto de todos los eventos elementales de Ω  Ω = (1, 2, 3, 4, 5, 6) 4- IMPOSIBLE  Subconjunto que no contiene puntos de Ω, no puede ocurrir nunca  E3 = (7) Aspectos importantes:  Un evento ha ocurrido, si al menos uno de sus elementos se ha presentado  Los eventos y sólo los eventos poseen probabilidad asociada. Considerando eventos definidos sobre el mismo espacio probabilístico, Clasificación: EVENTOS MUTUAMENTE EXCLUYENTES: No hay puntos de muestras en común Su intersección es igual al vacío. - Eventos son Mutuamente Excluyentes  No pueden ocurrir juntos, como máximo ocurrirá 1 E1 ∩ E2 = Φ EVENTOS NO MUTUAMENTE EXCLUYENTES: Si hay puntos de muestras en común  Intersección es distinta al vacío. Dependientes: Cuando la ocurrencia o no ocurrencia de un evento en cualquier prueba, afecta la probabilidad de otros eventos en las pruebas siguientes. E1 ∩ E2 ≠ Φ. Independientes: Cuando la ocurrencia o no ocurrencia de un evento en cualquier prueba, NO afecta la probabilidad de otros eventos en las pruebas siguientes. EVENTOS COLECTIVAMENTE EXHAUSTIVOS: Su unión es igual al espacio probabilístico, la suma de todos los eventos forma el espacio. E1 ∪ E2 = Ω (Unidas forman el espacio probabilístico) - Eventos son Colectivamente Exhaustivos  Por lo menos ocurrirá 1 de ellos EVENTOS NO COLECTIVAMENTE EXHAUSTIVOS: Su unión No da por Rto el espacio probabilístico (de muestra) E1 E2 ≠   Si n hechos forman una PARTICIÓN DE Ω  Los n hechos son: Mutuamente Excluyentes y Colectivamente Exhaustivos  En un conjunto de estos  Ocurrirá exactamente 1 hecho 4 – INTERPRETACIÓN DE LA PROBABILIDAD DE UN HECHO PROBABILIDAD  De un evento  Expresión de su posibilidad de ocurrencia. Varia de 0 a 1, 𝑷 ∈ [𝟎,𝟏]:  0  Evento que no puede ocurrir , probabilidad nula  Imposible  1  Evento que siempre ocurrirá  Cierto 5 – TEORÍAS PROBABILÍSTICAS 1) TEORÍA CLÁSICA / DE LA RAZÓN INSUFICIENTE: En este supuesto, no existe elemento o razón alguna, para preferir uno cualquiera de los resultados posibles sobre cualquier otro  Todos deben ser tratados como si tuvieran las misma oportunidad de ser elegidos (mismas probabilidades de ocurrencia) Si el espacio de muestra de un experimento tiene N(Ω) resultados igualmente probables, y si un evento o hecho, definido en este espacio de muestra, tiene n(E) elementos, la probabilidad queda definida: Ejemplo, si se echa un dado y se define: A = (Salida de un número impar) = (1,3,5)  Es objetiva  Se basa en la deducción de un conjunto de supuestos 2) TEORÍA FRECUENCIAL / DE LA PROBABILIDAD POR FRECUENCIA RELATIVA Bernoulli  Ley de Grandes Números: Asignar como probabilidad de un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces Si un experimento es ejecutado n veces en las mismas condiciones y hay ni resultados  ni  n Entonces una estimación de la probabilidad de ese hecho es la razón  ni/n. La estimación de la probabilidad de un hecho se acerca a un límite cuando n aumenta sin límite  Es la verdadera probabilidad de un hecho: 𝑛𝑖 𝑛𝑖 Práctica  Estimación próxima de P(E) basada en n grande: 𝑃(𝐸) = = ℎ𝑖, 𝑐𝑜𝑛 0 ≤ ≤ 1 𝑦 0 ≤ 𝑃(𝐸) ≤ 1 𝑛 𝑛 Es objetiva  La probabilidad de un hecho es determinada por repetidas observaciones empíricas 3) TEORÍA SUBJETIVA O PERSONALISTA La probabilidad mide el grado de creencia de un individuo en la verdad de una proposición, variando entre 0 (falso) y 1 (cierto). Se considera la probabilidad como una medida de confianza personal en una proposición. Asigna un peso entre 0-1 según su grado de creencia en su posible ocurrencia Es más amplia que la frecuencial, esta se puede aplicar a cualquier tipo de proposiciones, y la p puede y debe variar en función de la nueva información recibida respecto del suceso 6 – AXIOMATIZACIÓN DE LA OROBABILIDAD La construcción axiomática de la teoría de la probabilidad procede de las propiedades fundamentales de la probabilidad de las teorías Clásica y Frecuencial PARA LA FAMILIA DE EVENTOS: 1.A: Si  es el evento imposible y  es el evento cierto, pertenecen a la familia de eventos (F)   y   F 2|3. A: Conjunto numerable de eventos A1, A2, A3, … la intersección y la unión de ese conjunto numerable es un evento 4. A: Si A es un evento y Ā es su complemento, entonces Ā es un evento  A  F  𝐴̅  F 5. P: Si A y B son eventos, entonces la diferencia entre A y B también es un evento  A y B  F  A – B  F PARA LA PROBABILIDAD DE LOS EVENTOS: 1. A: Si A es un evento  Tiene asociada una probabilidad  AF   para A, un número P(A) 2. A: Positividad, Ley de No Negatividad: La Probabilidad de un hecho en un espacio de muestra es no negativa. 3. A: Certidumbre: La probabilidad de todo espacio de muestra es 1. 4. A: Ley de Probabilidad Total o Regla Aditiva Especial: A1, A2, A3, … conjunto numerable de eventos, finito o infinito, mutuamente excluyente  Probabilidad de la unión de ellos es = a la suma de sus probabilidades. 5. P: Si A y BF / A  B  P (B − A) = P(B) − P(A) 6. P: Ley de complementación: Si A  F  P(A) = 1 − P(A) 7. P: Ω es cualquier espacio de muestra y P cualquier función de probabilidad definida en Ω, entonces P (  ) = 0. Afirma que, si el conjunto de hechos es el conjunto vacío, el hecho es una imposibilidad para la cual la probabilidad de ocurrencia es 0. 8. P: La probabilidad de un evento es número que va de 0 a 1  Si A F, entonces 0  P(A) 1 9. P: 2 eventos A y B, A está contenido en B (A es un subconjunto propio de B) (todos los elementos de A están en B, pero existen elementos de B que no están en A), la probabilidad de A es menor que la probabilidad de B.  Si A y B F / A B  P(A)  P(B) 10. P: Desigualdad de Boole (Generalización de la probabilidad total): Si A1, A2, A3,... subconjunto finito numerable de eventos, no necesariamente mutuamente excluyentes 7 – PROBABILIDAD TOTAL, REGLA ADITIVA ESPECIAL (Probabilidad de unión de eventos) 1. A y B , definidos en Ω , Mutuamente Excluyentes o Disjuntos (A ∩ B = )  P(A∪B) = P(A) + P(B) 2. Regla aditiva general: A y B, definidos en  , No Mutuamente Excluyentes, la probabilidad de la unión de los eventos es igual a la suma de sus probabilidades menos la probabilidad de la intersección de los eventos  P (AUB) = P(A) + P(B) – P(AB) Si los eventos son mutuamente excluyentes la intersección de los mismos es = 0, no afecta a la formula 8 – PROBABILIDAD CONDICIONAL Atención en la probabilidad de un evento a partir de un subconjunto del cual contamos con alguna información  La probabilidad resultante puede ser mayor, igual, o menor que en el espacio original  Al tener información adicional en relación al espacio total  Se tienen nuevas condiciones Probabilidades Condicionales: Probabilidades asociadas a los eventos definidos en las subpoblaciones Explicación:  conjunto original, N eventos elementales, todos con la misma probabilidad.  A, evento que tiene “a” eventos elementales favorables  B, evento que tiene “b” eventos elementales favorables  A  B , con “c” eventos elementales favorables Ocurrió el evento B  Probabilidad de que también haya ocurrido el evento A, P(A/B)? Nuevo espacio probabilístico será B, con “b” eventos elementales de los cuales “c” serán favorables al evento A  B GENERALIZANDO: Probabilidad condicional de A dado B Probabilidad condicional de B dado A 9 – PROBABILIDAD CONJUNTA. REGLA MULTIPLICATORIA GENERAL INFERENCIAS DE LA REGLA MULTIPLICATORIA GENERAL: 1- El orden carece de importancia en el conjunto de intersecciones  A∩B = B∩A  P(A∩B) = P (B∩A) 2- La Regla multiplicatoria general puede ser generalizada para más de 2 hechos  P (ABC) = P (A) P (B/A) P(C/AB) 3- P(A/B) raramente es igual que P(A∩B), puede ser enteramente diferente 10 – PROBABILIDAD MARGINAL/INIDVIDUAL (Suma de un conjunto de Probabilidades Conjuntas) Se obtienen sumando cada fila o cada columna (se llaman así porque se encuentran en los márgenes del cuadro). Para el cálculo de la probabilidad conjunta se utiliza la probabilidad condicional Probabilidades Conjuntas 𝑃(𝐴|𝐷) 𝑃(𝐷) = 𝑃(𝐷|𝐴) 𝑃(𝐴) Probabilidades Marginales 𝑃(𝐴 ∩ 𝐷) + 𝑃(𝐴 ∩ 𝐸) = 𝑃(𝐴) 11 – INDEPENDENCIA Y DEPENDENCIA ESTADÍTICA (Se relaciona con el proceso de muestreo) 2 Eventos son independientes  La probabilidad de ocurrencia de uno no es afectada por la ocurrencia del otro Generados por muestreo aleatorio con reposición MCR (se extrae una unidad y se reintegra antes de escoger otra) 2 Eventos son dependientes  La probabilidad de ocurrencia de uno es afectada por la ocurrencia del otro Generados por muestreo aleatorio sin reposición MSR (seleccionan unidades de la población y no se devuelven) Ley Multiplicatoria General. Teorema: “Dos hechos, A y B, definidos en el mismo espacio de muestra, se dice que son independientes sí, y solo sí, la probabilidad de la ocurrencia conjunta de A y B es igual al producto de sus respectivas probabilidades individuales A y B son hechos independientes, sí y sólo sí: P(A ∩ B) = P(A) × P(B) (Producto de sus prob. Individuales) A y B son dependientes si: P(A ∩ B) ≠ P(A) × P(B) P(A ∩ B) = P(A|B) P(B) = P(B|A) P(A) Consideraciones:  Si analizamos la intersección de eventos  Sabemos si son eventos independientes  Si 2 eventos son mutuamente excluyentes y ninguno tiene probabilidad 0  Estadísticamente Dependientes  Si 2 eventos son dependientes, no necesariamente son mutuamente excluyentes.  si A y B son independientes y si P(A)≠0 y P(B)≠0, entonces:  A y B no pueden ser mutuamente excluyentes  En este caso la P(A∩B) = 0, ya que A∩B=Ф y la P(A) x P(B) es mayor a cero. 12 – TEOREMA O REGLA DE BAYES Aplicación:  Se tienen eventos cuya probabilidad a priori es conocida (estos eventos o hechos han ocurrido) PROBABILIDADES  En ciertos casos es posible analizar si están vinculados con otros eventos o causas. A POSTERIORI  Tiene el objetivo de determinar si los mismos han ocurrido conforme a determinadas causas Cálculo: Sea {𝐴1 , 𝐴2 , … , 𝐴𝑖 , … , 𝐴𝑛 } un conjunto de sucesos mutuamente excluyentes y colectivamente exhaustivos tales que la probabilidad de cada uno de ellos es distinta de 0. Si 𝐵 es un suceso cualquiera del que se conocen las probabilidades condicionales P(B|𝐴𝑖 ), entonces la probabilidadP(𝐴𝑖 |𝐵) viene dada por la expresión: FÓRMULA DE BAYES en base a las probabilidades condicionales: ¿Cuándo se aplica? 1- Se quiere calcular probabilidades condicionales 2- Se calcula a partir de una tabla de probabilidades compuestas. Si no se tiene se debe crear 3- Si se conoce 𝑃(𝐸𝑖 |𝐸𝑗 ) se calcula la 𝑃(𝐸𝑗 |𝐸𝑖 )  La probabilidad de 𝐸𝑗 , P(𝐸𝑗 ): Probabilidad anterior o a priori. 13 – VARIABLE ALEATORIA Variable aleatoria  Función real valorada, definida sobre los eventos elementales de un espacio probabilístico, donde a c/evento elemental le corresponde un número  Valor que asume la variable aleatoria para dicho evento elemental. Una variable es aleatoria  Si puede asumir cualquier valor en un cierto recorrido con una cierta probabilidad. VARIABLES ALEATORIAS DISCRETAS (Conteo)  Cuando tienen una cantidad numerable de valores posibles:  N° finito de valores  N° ∞ pero enumerarle de valores VARIABLES ALEATORIAS CONTINUAS (Medición)  Cuando pueden asumir:  Cualquier valor real Los infinitos valores del conjunto de los números reales  Cualquier valor dentro de un intervalo, entre uno y otro valor pueden diferir hasta en un infinitésimo. 14 – DISTRIBUCIONES DE PROBABILIDAD (Forma en la que asignamos la probabilidad de los eventos a los individuales) Los que tienen probabilidad son los eventos y cualquier sistema completo de eventos constituyen el espacio muestral cuya unión tiene probabilidad igual a 1. Probabilidad de los eventos para variables aleatorias: Probabilidad de que la variable tome un valor  Probabilidad que ocurra alguno de aquellos eventos simples de los cuales depende ese valor de la variable aleatoria. Muestra a través de una tabla, gráfico o fórmula, todos los valores posibles que puede asumir una variable aleatoria y su correspondiente probabilidad de presentación 1.1) FUNCIÓN DE PRBABILIDAD (Variables aleatorias discretas)  FUNCIÓN DE CUANTÍA: Cuando se cuenta con todos los posibles valores de una variable aleatoria y la correspondiente probabilidad de cada uno de esos valores, se tiene la función de probabilidad de una variable aleatoria, que permite obtener la probabilidad para c/u de los valores de la variable correspondiente a un determinado experimento. Se define como: 𝑃(𝑥 = 𝑥𝑖 )  Probabilidad de que la variable aleatoria 𝑥 asuma un valor real 𝑥𝑖  Implica la probabilidad de que se presente un determinado evento, representado por ese valor 𝑥𝑖 de la variable aleatoria. Las probabilidades tendrán algún valor en todos los puntos donde se verifica la presencia de un evento y para los valores reales de x que no tengan asociados o no representen eventos será igual a 0  Probabilidad puntual Se puede tener una distribución de probabilidad no necesariamente uniforme. 1.2) FUNCIÓN DE DISTRIBUCIÓN (variables aleatorias discretas): Probabilidad de un intervalo 𝑥 ≤ 𝑥𝑖 Se define como: 𝑃(𝑥 ≤ 𝑥𝑖 )  Probabilidad de que la variable aleatoria x asuma valores iguales o menores que xi. Probabilidad depende de 𝑥 y se denota como: Condiciones: 1. F(x) es una función monótona creciente, continua a la derecha de cada punto 2. Relaciones: F(0) = Pr (x  0) = 0  No hay valores p(xi) para valores de x < 0 F(n) = Pr (x  n) = 1  Considerando que el total de valores posibles es n 3. Dados dos números positivos enteros a y b, tales que a < b P (a  x  b) = P(x  b) - P(x < a) = P (x  b) - P (x  a-1) 4. Dada una variable aleatoria x y un número positivo entero a (Complemento) P (x  a) = 1 – P (x < a)= 1- P (x  a-1) 2.1) FUNCIÓN DE DENSIDAD Y DISTRIBUCIÓN PARA (Variables aleatorias continuas) Puede asumir todos los valores reales posibles en un intervalo [a, b], tales que -∞ < a < b < ∞  x puede asumir infinitos valores no numerables y es prácticamente imposible obtener un valor significativo para la probabilidad puntual P(xi)  En el campo continuo la probabilidad se define para un intervalo no para un punto Variable aleatoria “x” es continua si: Existe una función no negativa “FUNCIÓN DE DENSIDAD”: que se satisface para todo valor real de x. F(x) debe satisfacer los requisitos de toda “FUNCIÓN DE DISTRIBUCIÓN”:  f(x) es la derivada de la FUNCIÓN DE DISTRIBUCIÓN  No es una probabilidad  Es la densidad de la probabilidad, indica la altura de la curva en el punto x Cuando la variable aleatoria es continua la PROBABILIDAD se define para un intervalo, entonces: 𝑏 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = ∫𝑎 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑏) − 𝐹(𝑎) Probabilidad para un punto específico si la variable es continua es =0, no significa que sea un evento imposible, por lo que es indistinto trabajar con < o ≤ La probabilidad correspondiente a un intervalo infinitesimal (x, x + dx) se llama PROBABILIDAD ELEMENTAL y se denota mediante f(x).dx = dF(x)  f (x) no es probabilidad de nada, pero f(x).dx, sí lo es Condiciones debe satisfacer una 𝒇(𝒙) para ser una Función de densidad para Variables Aleatorias Continuas: ∞ 1. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1 𝑥 2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑥), tal que 𝐹(−∞) = 0 y 𝐹(∞) = 1 15 – PARÁMETROS EN LAS DISTRIBUCIONES DE PROBABILIDAD Parámetros  Medidas que se calculan con datos poblacionales en las distribuciones de frecuencias En las distribuciones de probabilidad  Calculados en base a los valores posibles que una variable puede asumir 1) ESPERANZA MATEMÁTICA: Valor esperado, media de una variable aleatoria. Permite conocer la tendencia central Se puede determinar conociendo la distribución de probabilidades de la v. aleatoria y su valor es probable que se dé. - Variables aleatorias discretas: Suma de los productos de los posibles valores de la variable por sus probabilidades  - Variables aleatorias continuas: La integral de la variable multiplicada por la función  Consideraciones:  Esperanza matemática es siempre un valor de la variable aleatoria x.  Está ubicada sobre el eje real de la x y es un parámetro de posición de la población (conjunto de valores posibles de la variable aleatoria) Propiedades: 1. Dada una variable aleatoria x, una función de ella G(x), es también variable aleatoria. 2. La esperanza matemática de una constante, es la constante. 3. La esperanza de una constante por una variable aleatoria = producto de la constante por la esperanza de la variable aleatoria 4. La esperanza de la suma algebraica de una variable aleatoria y una constante = esperanza de la variable aleatoria más/menos (suma algebraica) la constante 5. La esperanza de la suma algebraica de variables aleatorias = suma algebraica de las esperanzas matemáticas de cada una de las variables 6. La esperanza del producto de 2 o más variables aleatorias independientes = producto de las esperanzas matemáticas de dichas variables 2) VARIANZA: Permite conocer la concentración de los resultados alrededor de la esperanza 𝑁 2 𝑉(𝑋) = ∑𝑖=1(𝑥𝑖 )2. 𝑃𝑖 − (𝐸(𝑥𝑖 )) Variables Aleatorias Discretas con Variables Aleatorias Continuas Propiedades: 1. La Varianza de una variable aleatoria es no negativa 2. La Varianza de una constante es igual a 0 3. Varianza de una constante por variable = cuadrado de la constante por la varianza de la variable. 4. La Varianza de la suma algebraica de una variable y una constante = varianza de la variable 5. La Varianza de una suma o diferencia de dos variables aleatorias independientes = suma de las varianzas de cada una de las variables 3) DESVIACIÓN ESTÁNDAR: Raíz cuadrada positiva de la varianza UNIDAD 5: “Modelos especiales de probabilidad” MODELO DETERMINISTA: Permite decir que, dadas ciertas condiciones iniciales, es seguro que se obtendrán ciertos estados o resultados, es una explicación de causa y efecto: ciertas condiciones causan el estado subsiguiente MODELO PROBABILISTA: Dadas las condiciones iniciales, permite deducir una distribución de probabilidades de posibles estados subsiguientes, que son valores de una variable aleatoria Modelos Especiales de probabilidad: Modelos matemáticos apropiados para situaciones del mundo real en condiciones específicas. Importantes: Ayudan a predecir la conducta de futuras repeticiones de un experimento. Un modelo probabilístico es una expresión matemática Tabla para determinar los modelos: 1– MODELO DE BERNOULLI (Distribución de probabilidad más sencilla, se basa en 1 observación no usa muestras) Variable  Puede asumir sólo 2 valores (Población dicotómica) Solo hay 2 sucesos o resultados:  Mutuamente Exclusivos y Colectivamente Exhaustivos.  Tipo Cualitativo  Convierto en Cuantitativo asignando el valor 1: Éxito y 0:Fallo Función de cuantía Parámetros: Esperanza Varianza Desviación Estándar E(Y) V(y) Media: “P” Parámetro de población PROPORCIÓN POBLACIONAL: 2 – MODELO BINOMIAL: N° de éxitos en n pruebas Parte del modelo de Bernoulli y se repite n veces. La Variable Aleatoria Binomial  N° de éxitos presentes en la muestra. Cuenta con n +1 valores posibles, si el número de pruebas repetidas es n, donde el mínimo valor es 0 y el máximo valor es n  Se repite una prueba simple un número n de veces, c/u independientes entre sí y bajo las mismas condiciones, por lo que las probabilidades P y Q permanecen constantes a lo largo de todo el experimento.  En c/prueba sólo pueden presentarse 2 alternativas mutuamente excluyentes: “Éxito (P) y Fracaso (Q)”, siendo P+Q=1, c/prueba tiene distribución bipuntual.  En cada prueba se centra la atención en determinar si se presenta un éxito o un fracaso con el fin de totalizarlos al final de las n pruebas. Si a partir de un experimento aleatorio que tiene sólo dos resultados posibles, mutuamente excluyentes y colectivamente exhaustivos, "éxito" y "fracaso", donde P es la probabilidad de obtener éxito en cada repetición, se realizan n repeticiones independientes, la Distribución del Número de Éxitos, x, resultante se denomina Distribución Binomial  x ≈ B (n, P) Función de cuantía Función de distribución o acumulación ¿Cuál es la probabilidad de obtener x éxitos al realizar n pruebas repetidas con probabilidad constante P de presentación del éxito? Parámetros: Esperanza Varianza Desviación Estándar En el modelo binomial la probabilidad es CTE ya que se repone el elemento extraído La forma de la Distribución Binomial, depende de los valores de P y n (da el rango de la distribución)  Si 𝑃 = 0,5 la distribución será simétrica  Si 𝑃 < 𝑄 la distribución será asimétrica positiva o a derecha  Si 𝑃 > 𝑄 la distribución será asimétrica negativa o a izquierda 3 – MODELO HIPERGEOMÉTRICO: N° DE ÉXITOS EN n PRUEBAS Parte del modelo de Bernoulli y se repite n veces. La población es finita, la muestra se toma sin reposición, por lo que hay dependencia estadística. Variable aleatoria hipergeométrica  X  Cantidad de éxitos presentes en el MSR x ≈ H (N, X, n) Función de Cuantía Función de Acumulación x: N°de éxitos en la muestra N: Tamaño de la población (dicotómica) X: N° de éxitos en la población (k) n: Tamaño muestral Las formas en las que puede presentarse los casos de éxito de la población, en la muestra Las formas en que se presentan los casos de fracaso de la población en la muestra Muestras que se pueden extraer sin reposición Parámetros: Esperanza Varianza Desviación Estándar V(x) = Coincide con la del M.Binomial, en este caso P = X/N Propiedad interesante de la D. Hipergeométrica: cuando X y n se intercambian, no hay efectos en las probabilidades 4 – MODELO BINOMIAL E HIPERGEOMÉTRICO: PROPORCIÓN DE ÉXITOS EN n PRUEBAS Cuando interesa estudiar la proporción de los éxitos los modelos se los apronta de manera diferente:  Proporción Poblacional, X n° de éxitos en la población y N tamaño poblacional.  Proporción Muestral, x n° de éxitos en pruebas, n tamaño muestral, “y” v. aleatoria Bernoulli. 𝑝̂ :  Son valores fraccionarios o decimales entre 0 y 1  Depende de los valores de x y n, por lo que está completamente determinado si se conoce x  Es un estadígrafo muestral (medida calculada en base a la muestra), por lo que tiene una distribución muestral  Toma 2 formas, según el muestreo y si la población es finita o ∞: Comportamiento Binomial o Hipergeométrico Muestra Aleatoria – Se puede tomar – con o sin reemplazo: 1. MCR de una población finita o ∞, la unidad tomada se vuelve a dejar en la población y el n° de unidades disponibles para seguir la operación no se afecta. También es cierto cuando la muestra se toma de una población infinita (MSR), siempre que n ∞ La distribución de Poisson proporciona un buen modelo para la distribución de probabilidad de situaciones donde se cumple lo siguiente, aunque no es taxativo:  El n° de ocurrencias del hecho es independiente de una unidad (tiempo, espacio o volumen) especificada a otra.  El valor esperado de la variable es proporcional al tamaño de la unidad especificada.  La probabilidad de + de 1 ocurrencia del hecho en una unidad especificada muy pequeña es despreciable en comparación con la probabilidad de una sola ocurrencia; por lo tanto, puede despreciarse Se relaciona con el modelo Binomial, ya que la “Unidad especificada” puede tomarse como el tamaño de la muestra, por lo que la probabilidad de ocurrencia es muy pequeña x ≈ P (λ = nP) Función de cuantía Función de distribución o acumulación e: constante igual a 2,71828 x: cualquier valor posible que puede tomar X. Parámetros: Esperanza Varianza Desviación Estándar Observaciones:  Como estamos hablando de una P muy pequeña, significa que (1-P) es aproximadamente 1.  La D. de Poisson tiene solo un parámetro que es 𝜆 = 𝜇, que depende del tamaño de la unidad especificada.  𝜆 cambia proporcionalmente al cambiar el tamaño de la unidad especificada.  La D. de Poisson tiene asimetría Positiva, y tiende a la simetría cuando aumenta el tamaño muestral o el valor de 𝜆 o su expectativa. 6 – MODELO DISCRETO UNIFORME Una distribución de probabilidades es uniforme o rectangular, cuando la probabilidad asociada con todos y cada uno de los resultados es una constante Función de cuantía Gráficamente: En general, se aplica a un experimento con N resultados mutuamente exclusivos e igualmente probables, para lo cual debe utilizarse una tabla de dígitos al azar En estos casos, la probabilidad en un punto tiene valor, por lo cual son sumamente importantes las expresiones  o  que se diferencian de < o >, ya que estas últimas no incluyen los puntos mencionados UNIDAD 6: “Modelos de probabilidad para variables aleatorias continuas” 1 – MODELO UNIFORME CONTINUO Una variable aleatoria cuyo valor sólo puede encontrarse en cierto intervalo infinito (a, b), x = (N°. Real x: a  x  b) tiene una Distribución Uniforme  Si su función de densidad es constante en dicho intervalo Función de Densidad Función de distribución o acumulación Tiene que cumplir 2 condiciones: 1. La integral debe ser = 1 2. Función debe ser positiva Parámetros: Esperanza Varianza Desviación Estándar  Si queremos encontrar la probabilidad de que la variable aleatoria asuma un valor cualquiera en el intervalo (c, d), siendo a < c < d < b (un subintervalo) será: 2 – MODELO EXPONENCIAL Tiene su origen en el modelo de Poisson pero invertimos los papeles de una variable de Poisson y su unidad especificada finita, para obtener una: Variable exponencial  X  Es el intervalo de tiempo, o espacio, requerido para obtener un número específico de éxitos y ya que el tiempo o el espacio son continuos, una medición de este tipo es una variable aleatoria continua. Tiempo que ocurre desde un instante dado hasta que ocurre el primer suceso Función de Densidad Función de distribución o acumulación Parámetros: Esperanza Varianza Desviación Estándar  x: Intervalo de tiempo entre ocurrencias de la variable Poisson  e: Base de los logaritmos naturales  λ: Promedio de ocurrencias por unidad de tiempo de la variable de Poisson  Rto natural, porque la variable exponencial es el tiempo entre sucesivas ocurrencias de Poisson. Puede ser interpretada como el intervalo de tiempo medio entre ocurrencias de Poisson, o el tiempo esperado hasta la primera ocurrencia de un hecho Poisson. Este modelo es también llamado exponencial negativo, porque la pendiente de la curva de densidad es siempre negativa, indicando que la probabilidad de largos intervalos de tiempo entre ocurrencias debe ser menor que la probabilidad de intervalos más cortos de tiempo 3 – MODELO NORMAL Importante por 3 consideraciones: 1. Hay muchas variables que parecen seguir una forma de variación que es análoga a la distribución normal. La distribución normal es una teoría que sirve para explicar, para algunas variables aleatorias, la relación entre intervalos de sus valores y sus correspondientes probabilidades 2. La distribución muestral de muchos estadígrafos muestrales (como la media) tiene una distribución aproximadamente normal independientemente de la distribución de la población, si el tamaño de la muestra es lo suficientemente grande. 3. Es una excelente aproximación de otras varias distribuciones muestrales. Así, la distribución Binomial, Poisson, Hipergeométrica, se aproximan a la normal al incrementar el tamaño muestral. Dada una variable aleatoria x, diremos que tiene distribución aproximadamente Normal, con media  y desviación , es decir x  N (,), si su función de densidad es: Donde e  2,71828 y  = 3,1416 son constantes. 1) f(x)  Representa la densidad de probabilidad en cada posible valor de x, y gráficamente es la ordenada de la curva en todo punto posible x de las abscisas. 2) Toda el área bajo la curva es igual a 1. 3) El área determinada por un intervalo debajo de la curva y por encima del eje x, es la probabilidad de ese intervalo. 4) La expresión de una función muestra que la densidad de la probabilidad f(x) depende, fuera de x (valor de la variable aleatoria) solamente de dos parámetros,  y ^2   Media de la distribución Determinan la situación y forma de la curva normal.   Varianza 2 Dada , una variación de  traslada la curva como un todo a lo largo de un eje x. Ejemplo:  = 1,5 Para un mismo valor central, cuanto mayor es la desviación estándar más aplanada es la curva, cuanto menor es la desviación, más acusada es la cresta. 5) Teóricamente hablando, el dominio de f(x) es infinito, y es una distribución para todos los valores de x entre – y + y todo intervalo no nulo a lo largo del eje x tiene una probabilidad no nula. 6) La curva va como aproximándose, pero sin tocar nunca el eje x, en medida que x se aleja de , por ello se llama curva asintótica 7) Como la probabilidad de que x tome algún valor exacto xi es 0, toda expresión de probabilidad que se relacione con una variable tiene que ponerse en forma de intervalo o acumulativa. Función de Acumulación Propiedades: 1. Es simétrica respecto al valor medio  Implica que las superficies son las mismas desde – a  que desde  a  2. Es unimodal o de forma acampanada (La media, mediana y moda son iguales) 3. Transformación lineal de escala  Si x, y son variables aleatorias y, y = a + x:  Varianza, y es la misma  Media, y es la media de a + x. Si x tiene distribución normal con  y 2 , la variable y también es normal con media  + a y varianza 2. 4. Combinación lineal de variables aleatorias  Si x1, x2, … ,xn , variables normales independientes, su suma S, es una variable normal. Además debido a la independencia  La propiedad aditiva se verifica para la Esperanza y Varianza, la esperanza de S es la suma de las esperanzas de las n variables normales (Igual para la varianza) Esperanza Varianza Desviación Estándar 4 – MODELO NORMAL ESTÁNDAR (Distribución normal típica) Podemos contar, como hemos visto, con distribuciones con iguales dispersiones, pero distintas medias, o bien con iguales medias pero distintas dispersiones. Para c/caso, habría que determinar su función de densidad y acumulación, o construir infinitas tablas para las infinitas combinaciones de  y . Para obviar este inconveniente, y trabajar con 1 tabla de probabilidades de d. normales, cualquiera sean los valores de las medias y varianzas, se obtiene: Función de Densidad Normal, para la variable desvío estandarizada Función de Distribución o Acumulación: Proporciona la probabilidad de que la variable aleatoria asuma un valor cualquiera en el intervalo (– ; z). 5 – RELACIÓN ENTRE MODELOS DISCRETOS Y EL MODELO NORMAL 6 – DISTRIBUCIÓN DE LAS PEQUEÑAS MUESTRAS A veces, los supuestos de la teoría del muestreo grande no se cumplen, debido a la presencia de situaciones en la que la desviación estándar de la población no es conocida No será posible la aplicación del Teorema Central del Límite ni la suposición de que las distribuciones por muestreo son normales. El estudio de inferencias estadísticas con pequeñas muestras se llama teoría del muestreo pequeño o teoría del muestreo exacto. Principal diferencia  Entre teorías de muestreo grande y pequeño  Es entre distribuciones por muestreo:  Para muestras grandes, las distribuciones por muestreo son normales  Para muestras pequeñas, las distribuciones por muestreo difieren de un caso a otro. Modelos de estadística con n pequeña: Se relacionan con el modelo de probabilidad normal y se definen por el número de grados de libertad GRADOS DE LIBERTAD: Número de observaciones linealmente independientes que ocurren en una suma de cuadrados. Grados de libertad existentes en la función  Están dados por el N° de elementos que pueden ser elegidos libremente o el número de variables independientes 7 – DISTRIBUCIÓN T DE STUDENT Consideremos una muestra n x1 , x2 ,....xn de una población con distribución normal cuya media es μ y cuya varianza es 2. La variable t es una razón de la variable normal estándar a la raíz cuadrada de un variable Chi Cuadrado dividido por su número de grados de libertad: Numerador y denominador son independientes. Función de Densidad Función de distribución o acumulación Distribución t: Propiedades: 1. -∞ < t < ∞, es decir que la variable asume valores entre - ∞ hasta ∞. 2. Es Unimodal y simétrica respecto a 0. 3. Es más aplanada que la distribución normal, pues su varianza es ligeramente superior a 1. Esperanza Varianza Aplicaciones: Inferencias sobre la media poblacional, cuando se desconoce la varianza poblacional y el tamaño de muestra es pequeño

Use Quizgecko on...
Browser
Browser