🎧 New: AI-Generated Podcasts Turn your study notes into engaging audio conversations. Learn more

Cours de Probabilités et statistiques : Partie 1 PDF

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Summary

This document is a lecture or course material on Probability and statistics for a course at Polytech Clermont-Ferrand on 8 September 2023. It covers topics such as probability definitions, events, operations on events, probability.

Full Transcript

Cours de Probabilités et statistiques : Partie1 Cours de Probabilités et statistiques : Partie1 Polytech Clermont-Ferrand 8 septembre 2023 1/63 Cours de Probabilité...

Cours de Probabilités et statistiques : Partie1 Cours de Probabilités et statistiques : Partie1 Polytech Clermont-Ferrand 8 septembre 2023 1/63 Cours de Probabilités et statistiques : Partie1 Déroulement des Cours-TD 8 séances de cours-TD de 2H Evaluation : le lundi 13 novembre 2023 de 15H30 à 17H30 Outils autorisés : une feuille A4 manuscrite (recto-verso) une calculatrice 2/63 Cours de Probabilités et statistiques : Partie1 Expériences aléatoires : vocabulaire et définitions Définition Une expérience est dite aléatoire lorsque l’on ne peut en prévoir exactement le résultat. L’espace de tous les résultats possibles de l’expérience est appelé espace d’états ou univers des possibles. Il est noté Ω Exemples : le lancé d’une pièce de monnaie : Ω = {P, F } Le lancé d’un dé : Ω = {1, 2,... , 6} = [[1; 6]] la durée de vie d’une bactérie : Ω = [0; +∞[ le résultat du lancé d’une fléchette sur une cible circulaire de diamètre 32 cm : Ω = {(x, y ), x 2 + y 2 ≤ 162 } 3/63 Cours de Probabilités et statistiques : Partie1 Evènements aléatoires Définition Un résultat possible de l’expérience est noté ω ∈ Ω Les sous-ensembles de l’univers Ω sont appelés évènements Les évènements formés d’un seul élément sont appelés évènements élémentaires Exemples d’évènements : La pièce tombe sur Pile : ω = {P}, ω est un évènement élémentaire. Le résultat du lancé du dé est pair : A = {2, 4, 6} La durée de vie de la bactérie est inférieur à 10 ans : B = [0; 10] 4/63 Cours de Probabilités et statistiques : Partie1 Opérations sur les évènements Ω est l’évènement certain ⊘ est l’évènement impossible L’évènement contraire de A est le complémentaire de A ds Ω, noté Ā ”A entraine B” ⇔ ”A réalisé ⇒ B réalisé” correspond à A⊂B L’évènement ”A et B sont réalisés” correspond à A ∩ B L’évènement ”A ou B est réalisé” correspond à A ∪ B Si A ∩ B = ⊘, on dit que A et B sont incompatibles 5/63 Cours de Probabilités et statistiques : Partie1 Probabilité Définition Une probabilité est une application P de P(Ω) dans [0; 1] ayant les propriétés suivantes : P(⊘) = 0 P(Ω) = 1 Si A ⊂ B alors P(A) ≤ P(B) Si A et B sont incompatibles (A ∩ B = ⊘), P(A ∪ B) = P(A) + P(B) Un ensemble Ω muni de ses évènements et d’une probabilité est appelé espace probabilisé 6/63 Cours de Probabilités et statistiques : Partie1 Propriétés de probabilité Propriétés P(Ā) = 1 − P(A) Si A et B sont incompatibles alors P(A ∪ B) = P(A) + P(B) Généralisation : Soient A1 , A2 ,... , An n évènements mutuellement incompatibles (ie incompatibles 2 à 2) alors P(A1 ∪ A2 ∪ · · · ∪ An ) = P(A1 ) + P(A2 ) + · · · + P(An ) A et B 2 évènements quelquonques, alors P(A ∪ B) = P(A) + P(B) − P(A ∩ B) 7/63 Cours de Probabilités et statistiques : Partie1 Equiprobabilité Définition On dit qu’il y a équiprobabilité quand tous les évènements élémentaires ont la même probabilité Calculs dans le cas d’équiprobabilité : Soit E un évèment de l’univers Ω, alors card(E ) P(E ) = card(Ω) Exemple : On lance deux fois de suite un dé équilibré 1 Déterminer l’espace d’états de cette espérience Calculer la probabilité des évènements : 2 A : on obtient un double ; B : on obtient 2 numéros consécutifs C : on obtient au moins un 6 ; D : la somme des numéros dépasse 7 strictement. 8/63 Cours de Probabilités et statistiques : Partie1 Equiprobabilité - correction de l’exemple (1) 1 Ω = {(x1 , x2 ), xi : résultat du ième lancé, xi ∈ {1, 2,... , 6}, i = 1, 2} = {1, 2,... , 6}2 = [[1; 6]]2 card(Ω) = 6 × 6 = 36 2 Dés équilibrés ⇒situation d’équiprobabilité. card(A) card(A) P(A) = = card(Ω) 36 9/63 Cours de Probabilités et statistiques : Partie1 Equiprobabilité - correction de l’exemple (2) A = {(x, x), x ∈ {1, 2,... , 6}}, card(A) = 6 × 1 = 6. Donc 6 P(A) = 36 = 16 B = {(1, 2), (2, 1), (2, 3), (3, 2), (3, 4), (4, 3), (4, 5) , (5, 6), (5, 4), (6, 5)}, 10 5 card(B) = 36 = 18 C = au moins un 6=un six exatement ou deux 6. Deux 6 : une seule façon : (6, 6) Un six exactement : (6, 1),... (6, 5), (1, 6),... , (5, 6). D’où card(C ) = 1 + 5 + 5 = 11, P(C ) = 11 36 Pour une somme > 7, on peut obtenir les valeurs suivantes : 8 : (6,2),(2,6),(3,5),(5,3),(4,4)=> 5 possibilités 9 : (3,6),(6,3),(4,5),(5,4) => 4 possibilités 10 : (6,4),(4,6),(5,5)=> 3 possibilités 11 : (6,5),(5,6) => 2 possibilités 12 : (6,6) => 1 possibilité 15 5 card(D) = 5 + 4 + 3 + 2 + 1 = 15. D’où P(D) = 36 = 12 10/63 Cours de Probabilités et statistiques : Partie1 Dénombrement (1) Définition Soit E un ensemble à p éléments, on appelle permutation de E toute liste ordonnée des p éléments de E. nbre de permutations à p éléments : p × (p − 1) × · · · × 1 = p! Exemple : Un parking contient 25 places. 25 clients arrivent pour se garer. Combien de stationnements différents peut-on obtenir ? 25 possibilités pour la première voiture, puis 24 pour la seconde, puis 23 pour la troisième,... 1 seule encore disponible pour la dernière voiture. On obtient donc : 25 × 24 × · · · × 1 = 25! 11/63 Cours de Probabilités et statistiques : Partie1 Dénombrement (2) Définition Soit E un ensemble à n éléments. On appelle combinaison de p éléments de E toute partie de E formée de p éléments. Proposition Soit E un ensemble à n ̸= 0 éléments et p tel que 0≤ p ≤  n, alors n le nombre de combinaisons à p éléments de E noté vérifie : p   n n! = p p!(n − p)! 12/63 Cours de Probabilités et statistiques : Partie1 Dénombrement (3) Exemple : Pour jouer au loto, vous devez choisir 6 numéros parmi 49. Combien de tirages différents peut-on obtenir ? Au loto, l’ordre d’arrivée des boules n’intervient pas. Le tirage 1,2,3,4,5,6   est le même que le tirage 6,5,4,3,2,1, etc. 49 Il y a donc tirages possibles. 6 13/63 Cours de Probabilités et statistiques : Partie1 Dénombrements (4) Proposition ∀p et n tels que 0 ≤ p ≤ n, on a :       n n n = = 1 et =n 0 n 1     n n = p n−p       n+1 n n = + p+1 p p+1 ∀a, b ∈ R et n ∈ N, on a : n   X n (a + b)n = an−i b i i i=0 14/63 Cours de Probabilités et statistiques : Partie1 Dénombrement (5) Définition Soit E un ensemble à n éléments. On appelle Arrangement de p éléments de E toute suite de p éléments distincts de E. On note Apn ce nombre. n! Apn = = n × (n − 1) × · · · × (n − p + 1) (n − p)! Exemple : Un joueur joue une combinaison au quinté lors d’une course avec 20 partants. Combien y-a-t-il de quintés différents ? quinté : choix de 5 chevaux parmi les 20 au départ + importance de l’ordre d’arrivée. Il y a donc A520 quintés possibles. 15/63 Cours de Probabilités et statistiques : Partie1 Probabilité conditionnelle Définition Soit P une probabilité sur un univers Ω, A et B 2 évènements avec P(B) ̸= 0. On appelle probabilité conditionnelle de A sachant B réalisé, la quantité : P(A ∩ B) PB (A) = P(B) Le réel PB (A) se note aussi P(A|B). Exemple : Mon collègue M. Martin a 2 enfants. Je sais que l’un des deux est une fille. Quelle est la probabilité que son autre enfant soit un garçon ? Un autre collègue, M. Durand, a, lui aussi, 2 enfants. Son ainé est une fille. Quelle est la probabilité que l’autre enfant de M. Durand soit un garçon ? 16/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple (1) Ω = {(F , F ), (F , G ), (G , F ), (G , G )}. Card(Ω) = 4. Situation d’équiprobabilité. P(A∩B) On cherche PB (A) = P(B) , avec A =”M. Martin a un garçon” B =”M. Martin a une fille”. B = {(F , F ), (F , G ), (G , F )}, card(B) = 3, P(B) = 43. A ∩ B = ”M. Martin a un garçon et une fille = {(F , G ), (G , F )} card(A ∩ B) = 2, P(A ∩ B) = 24 = 12. 1 2 PB (A) = 2 3 = 3 4 17/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple (2) On cherche PC (D) avec C =”M. Durand a 2 enfants, son ainé est une fille” D =”M. Durand a un garçon” 2 C = {(F , F ), (F , G )}, card(C ) = 2, P(C ) = 4 = 12. C ∩D = ”L’ainé de M. Martin est une fille, le second un garçon” = {(F , G )} card(C ∩ D) = 1, P(C ∩ D) = 41. 1 PC (D) = 4 1 = 12. 2 18/63 Cours de Probabilités et statistiques : Partie1 Probabilités totales Définition Soient Ω un univers associé à une expérience aléatoire et n ≥ 2. Les évènements A1 , A2 ,... , An forment une partition de Ω si les 3 conditions suivantes sont réalisées : ∀i ∈ {1, 2,... , n}, Ai ̸= ⊘ ∀i ̸= j ∈ {1, 2,... , n}Ai ∩ Aj = ⊘ A1 ∪ A2 ∪... An = Ω Théorème Soient A1 , A2 ,... , An une partition de Ω, tel que ∀i ∈ {1, 2,... , n}P(Ai ) ̸= 0 et B ⊂ Ω un évènement quelquonque. Alors P(B) = P(B ∩ A1 ) + P(B ∩ A2 ) + · · · + P(B ∩ An ) P(B) = PA1 (B)P(A1 ) + PA2 (B)P(A2 ) + · · · + PAn (B)P(An ) 19/63 Cours de Probabilités et statistiques : Partie1 Formules des probabilités totales : exemple 1 Il existe 2 types de jumeaux : les vrais (issus d’un même oeuf) et les faux (issus de 2 oeufs distincts). Les faux jumeaux sont 2 fois plus nombreux que les vrais. Les vrais jumeaux sont nécessairement de même sexe, alors que les faux sont de même sexe avec une probabilité 12. Etant donné que les jumeaux sont de même sexe, quelle est la probabilité qu’ils soient de vrais jumeaux ? 20/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple 1 V (resp. V ) : vrais jumeaux (resp. faux jumeaux) S : les jumeaux sont de même sexe D’après l’énoncé : P(V ) = 13 et P(V ) = 32. PV (S) = 1 et PV (S) = 21. P(V ∩S) On cherche PS (V ) = P(S). P(V ∩ S) = PV (S)P(V ) = 1 × 13 = 13. D’après la formule des probabilités totales, P(S) = P(S ∩ V ) + P(S ∩ V ) = PV (S)P(V ) + PV (S)P(V ) 1 1 2 2 = 1× + × = 3 2 3 3 1 P(V ∩S) PS (V ) = P(S) = 3 2 = 21. 3 21/63 Cours de Probabilités et statistiques : Partie1 Exemple 2 Dans un pays sévit une terrible épidémie. Un test a été élaboré par un laboratoire pharmaceutique. si la personne testée est malade, le test est positif si la personne testée n’est pas malade, le test est bien négatif dans 98% des cas. L’OMS estime que 1 personne sur 500 est malade. Un médecin vient d’effectuer le test sur un des ses patients et il se révèle positif. Quelle est la probabilité que le patient soit malade ? 22/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple 2 On note T + (resp. T − ) : le test est positif (resp. négatif) M (resp.M) : la personne est malade (resp. saine). D’après l’énoncé, on sait que P(T + |M) = 1 => P(T − |M) = 0 P(T − |M) = 0.98 => P(T + |M) = 0.02 1 P(M) = 500 = 0.002 ) + On cherche P(M|T + ) = P(M∩TP(T + ). P(M ∩ T + ) = P(T + |M)P(M) = 1 × 0.002 = 0.002 et d’après la formule des probabiltés totales P(T + ) = P(T + ∩ M) + P(T + ∩ M) = P(T + |M)P(M) + P(T + |M)P(M) = 1 × 0.002 + 0.02 ∗ (1 − 0.002) = 0.02196 P(M∩T + ) 0.002 23/63 P(M|T + ) = P(T + ) = 0.02196 = 0.091 Cours de Probabilités et statistiques : Partie1 Evénènements indépendants Définition A et B 2 évènements de probabilité non nulle A et B sont indépendants lorsque la réalisation de l’un ne change pas la réalisation de l’autre A et B sont indépendants ssi P(A ∩ B) = P(A) × P(B) Théorème 2 évènements A et B de probabilité non nulle sont indépendants ssi ils vérifient une des 3 conditions : PB (A) = P(A) ou PA (B) = P(B) ou P(A ∩ B) = P(A) × P(B) 24/63 Cours de Probabilités et statistiques : Partie1 Evénements indépendants : exemple On extrait au hasard un jeton d’un sac contenant 6 jetons : 3 rouges numérotés 1, 2 et 3, 2 jaunes numérotés 1 et 2, et 1 bleu numéroté 1. Soit les évènements : R : le jeton est rouge U : le numéro est 1 D : le numéro est 2 Les évènements R et U sont-ils indépendants ? et les évènements R et D ? 25/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple Ω = {R1, R2, R3, J1, J2, B1} 3 1 R = {R1, R2, R3}, P(R) = 6 = 2 3 1 U = {R1, J1, B1}, P(U) = 6 = 2 1 R ∩ U = {R1}, P(R ∩ U) = 6 ̸= P(R)P(U) R et U ne sont pas indépendants. 2 1 D = {R2, J2}, P(D) = 6 =3 R ∩ D = {R2}, P(R ∩ D) = 16 = P(R) × P(D). R et D sont indépendants. 26/63 Cours de Probabilités et statistiques : Partie1 Variables aléatoires Définition Une variable aléatoire X est une grandeur qui dépend de l’expérience aléatoire et qui prend ses valeurs dans un ensemble X (Ω), dit espace d’états, typiquement X (Ω) = N, X (Ω) = R, X (Ω) = Rd. Il s’agit d’une application X : Ω → X (Ω). Définition On appelle loi de probabilité de la v.a. X , notée PX l’application : PX : P(X (Ω)) → [0; 1] définie pour B ⊂ X (Ω) par PX (B) = P({ω ∈ Ω; X (ω) ∈ B}) = P(X ∈ B) C’est une probabilité sur X (Ω). 27/63 Cours de Probabilités et statistiques : Partie1 Variables aléatoires discrètes (1) Définition Une v.a. est dite discrète si elle varie de manière discontinue (typiquement X (Ω) = N ou une partie de N). Dans ce cas, PX est complètement décrite par la donnée PX (x) = P(X = x), x ∈ X (Ω). Définition La distribution cumulée des probabilités s’appelle la la fonction de répartition : F (x) = P(X ≤ x) 28/63 Cours de Probabilités et statistiques : Partie1 Variables aléatoires discrètes (2) Propriétés Si X est une v.a. discrète, sa fonction de répartition est une fct en escalier, croissante par bonds successifs de telle sorte que : ∀x ∈ R, 0 ≤ F (x) ≤ 1 Exemple : On lance 2 dés parfaitement équilibrés. On note X le plus grand des numéros obtenus. Déterminer la loi de la v.a. X. Calculer sa fonction de répartition. 29/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple Loi de la v.a. X : X (Ω) = {1, 2,... , 6} 1 P(X = 1) = P((1, 1)) = 36 , 3 5 P(X = 2) = P((1, 2), (2, 1), (2, 2)) = 36 , P(X = 3) = 36 , P(X = 4) = 36 , P(X = 5) = 36 , P(X = 6) = 11 7 9 36 Soit F la fct de répartition de X. Les seuls moments où F va changer de valeurs sont 1, 2, 3,... , 6. F (x) = P(X ≤ x) =   0 si x < 1  1  P(X = 1) = 36 si 1 ≤ x < 2   4   P(X = 1) + P(X = 2) = 36 si 2 ≤ x < 3   9 P(X = 1) + · · · + P(X = 3) = 36 si 3 ≤ x < 4 16 = 1) + · · · + = 4) = 36 si 4 ≤ x < 5     P(X P(X 25  P(X = 1) + · · · + P(X = 5) = 36 si 5 ≤ x < 6    36 P(X = 1) + · · · + P(X = 6) = 36 = 1 si x ≥ 6  30/63 Cours de Probabilités et statistiques : Partie1 Variables aléatoires continues (1) Définition Une v.a. susceptible de prendre n’importe quelle valeur réelle appartenant à un intervalle donné (X (Ω) = R, X (Ω) = [0; +∞[, X (Ω) = [a; b]) est dite v.a. continue. Dans ce cas, PX est complètement décrite par sa fonction de répartition F (x) = P(X ≤ x). Dans cette situation, F est continue sauf éventuellement en un nombre fini de points F est croissante, continue à droite, limitée à gauche limx7→−∞ F (x) = 0 et limx7→+∞ F (x) = 1 31/63 Cours de Probabilités et statistiques : Partie1 Variables aléatoires réelles à densité Définition On dit que la v.a.r. X admet une densité f si sa loi PX est de densité f , ie ∀[a; b[⊂ R, Z b PX ([a; b[) = P(X ∈ [a; b[) = f (x)dx a Définition Une fonction f définie sur un intervelle I ⊂ R est une densité de probabilité sur I lorsque : ∀x ∈ I , f (x) ≥ 0 f est intégrable sur I R I f (x)dx = 1 32/63 Cours de Probabilités et statistiques : Partie1 Un exemple Déterminer la valeurs de a ∈ R afin que la fonction f (x) = ax + 2 soit une densité de probabilité sur l’intervalle [0; 1]. Pour que f soit une densité de probabilité, il faut que : f soit intégrable sur [0; 1]. Ceci est vrai pour toutes les valeurs de a (polynome intégré sur une interval fini) f ≥ 0 => a ≥ −2 R +∞ f (x)dx = 1. R−∞ +∞ R1 x2 1 a −∞ f (x)dx = 0 (ax + 2)dx = [a 2 + 2x]0 = 2 +2=1⇔ a = −2 f (x) = (−2x + 2)1[0;1] (x) 33/63 Cours de Probabilités et statistiques : Partie1 Liens entre fonction de répartition et densité d’une v.a. Soit X une v.a.r., F (x) = P(X ≤ x) sa fct de répartition. Si X admet une densité f alors : Rx F (x) = P(X ≤ x) = −∞ f (t)dt F est continue. De plus, si f est continue, alors F est dérivable et, dans ce cas, F ′ = f S’il existe X0 tel que P(X = x0 ) > 0, F n’est pas continue en x0 et admet un saut de hauteur P(X = x0 ) 34/63 Cours de Probabilités et statistiques : Partie1 Un exemple Déterminer la fct de répartition de la v.a. définie par la densité du transparent précédant. On cherche la fct de répartition de la v.a. dont la densité est f (x) = (−2x + 2)1[0;1] (x) Z x Z x F (x) = f (t)dt = (−2t + 2)1[0;1] (t)dt −∞ −∞ = 0Z si x < 0 x = (−2t + 2)dt = [−t 2 + 2t]x0 = −x 2 + 2x si 0 ≤ x < 1 0 Z 1 = (−2t + 2)dt = 1 sinon 0   0 si x < 0 F (x) = −x 2 + 2x si 0 ≤ x < 1 1 sinon  35/63 Cours de Probabilités et statistiques : Partie1 Indépendance des variables aléatoires Définition Deux v.a. X et Y sont indépendantes si, ∀A ∈ X (Ω) et ∀B ∈ Y (Ω), on a : P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B) Dans le cas discret, pour tout couple (x, y ) de valeurs admissibles, P(X = x, Y = y ) = P(X = x)P(Y = y ) Exemple : Soient X et Y 2 v.a. vérifiant : X /Y 0 1 2 16 16 4 0 81 81 81 16 16 4 1 81 81 81 4 4 1 2 81 81 81 Les v.a. X et Y sont-elles indépendantes ? 36/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple X /Y 0 1 2 P(X =.) 16 16 4 36 0 81 81 81 81 16 16 4 36 1 81 81 81 81 4 4 1 9 2 81 81 81 81 36 36 9 P(Y =.) 81 81 81 1 On peut vérifier que ∀(x, y ) ∈ {0, 1, 2}2 , P(X = x, Y = y ) = P(X = x)P(Y = y ) X et Y sont indépendantes. 37/63 Cours de Probabilités et statistiques : Partie1 Espérance mathématique ou moyenne Définition Soit X une v.a.. La moyenne ou espérance mathématique de X est définie par : dans le cas discret, E(X ) = µ = +∞ P i=0 xi P(X = xi ) R +∞ dans le cas continu, E(X ) = µ = −∞ xf (x)dx Propriétés ∀a, b ∈ R, E(aX + b) = aE(X ) + b Soient X et Y 2 v.a., alors E(X ± Y ) = E(X ) ± E(Y ) Soient X1 , X2 ,... Xn n v.a., alors E(X1 ± X2 ± · · · ± Xn ) = E(X1 ) ± E(X2 ) ± · · · ± E(Xn ) 38/63 Cours de Probabilités et statistiques : Partie1 Un exemple Soient X et Y les v.a. définies ds l’exemple précédant. Calculer E(X ), E(Y ) et E(X − Y ). E(X ) = 0 × P(X = 0) + 1 × P(X = 1) + 2 × P(X = 2) = 36 18 54 2 81 + 81 = 81 = 3 Y a la même loi que X. On dit que X et Y sont 2 identiquement distribuées. Donc E(Y ) = E(X ) = 3 E(X − Y ) = E(X ) − E(Y ) = 0 39/63 Cours de Probabilités et statistiques : Partie1 Variance (1) Définition La variance de X est définie par Var (X ) = E[(X − E(X ))2 ] = E(X 2 ) − E2 (X ) P+∞ dans le cas discret, Var (X ) = i=0 xi2 P(X = xi ) − µ2 R +∞ dans le cas continu, Var (X ) = −∞ x 2 f (x)dx − µ2 p La quantité σ = Var (X ) est appelé écart-type de X. Une variable est dite centrée si µ = 0 et réduite si σ = 1 40/63 Cours de Probabilités et statistiques : Partie1 Variance (2) Propriétés ∀a, b ∈ R, Var (aX + b) = a2 Var (X ) Soient X , Y 2 v.a. indépendantes alors Var (X ± Y ) = Var (X ) + Var (Y ) Soient X1 , X2 ,... , Xn n v.a. indépendantes, alors Var (X1 ± X2 ± · · · ± Xn ) = Var (X1 ) + Var (X2 ) + · · · + Var (Xn ) 41/63 Cours de Probabilités et statistiques : Partie1 Un exemple Soient X et Y les v.a. définies ds l’exemple précédant. Calculer Var (X ), Var (Y ) et Var (X − Y ). Var (X ) = E(X 2 ) − (E(X ))2. E(X 2 ) = 02 × P(X = 0) + 12 × P(X = 1) + 22 × P(X = 2) = 36 36 72 8 81 + 81 = 81 = 9 Var (X ) = 81 − ( 23 )2 = 49 72 4 Var (Y ) = Var (X ) = 9 Comme X et Y sont indépendantes, Var (X − Y ) = Var (X ) + Var (−Y ) = 8 Var (X ) + (−1)2 Var (Y ) = Var (X ) + Var (Y ) = 9 42/63 Cours de Probabilités et statistiques : Partie1 Les principales distributions théoriques discrètes 43/63 Cours de Probabilités et statistiques : Partie1 La loi de Bernoulli (1) Définition Une épreuve de Bernoulli de paramètre p ∈]0; 1[ est une expérience aléatoire comportant 2 issues : le succès l’échec où p = P(succès), q = p − 1 = P(échec). Sur l’univers {succès,échec}, on définit X : Ω → {0; 1} tel que X = 1 en cas de succès, P(X = 1) = P(succès) = p X = 0 en cas d’échec, P(X = 0) = P(échec) = 1 − p = q X suit une loi de bernoulli, X ∼ B(p) 44/63 Cours de Probabilités et statistiques : Partie1 La loi de Bernoulli (2) Propriétés E(X ) = p, Var (X ) = p(1 − p) Exemple : On lance une pièce de monnaie truquée pour laquelle la probabilité d’obtenir Pile est 32. On note X la v.a. qui vaut 1 en cas de Pile et 0 sinon. Quelle est la loi de X ? X (Ω) = {0, 1} P(X = 1) = P(P) = 23 , P(X = 0) = P(F ) = 1 3 2 X ∼ B( ) 3 45/63 Cours de Probabilités et statistiques : Partie1 La loi Binomiale (1) Définition Si on répète n fois une épreuve de Bernoulli de paramètre p, les épreuves étant indépendantes les unes des autres, on dit que l’on a réalisé un schéma de Bernoulli de paramètres n et p. Alors X : nombre de succès obtenus ds un schéma de Bernoulli suit la loi binomiale, X ∼ B(n, p), ie X (Ω) = {0, 1,... , n}   n ∀k ∈ X (Ω), P(X = k) = p k (1 − p)n−k k 46/63 Cours de Probabilités et statistiques : Partie1 La loi Binomiale (2) Propriétés E(X ) = np, Var (X ) = np(1 − p) Soient X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p) 2 v.a. indépendantes, alors X1 + X2 ∼ B(n1 + n2 , p) Soient X1 , X2 ,... , Xn n v.a. indépendantes, identiquement distribuées de loi B(p), p ∈]0; 1[, alors X = X1 + X2 + · · · + Xn ∼ B(n, p) Exemple : On lance 15 fois la pièce de l’exemple précédent. On note Y le nombre de Pile obtenus lors dès 15 lancés. 1 Quelle est la loi de Y , son espérance, sa variance ? 2 Quelle est la probabilité d’obtenir au moins un Face lors des 15 lancés ? 47/63 Cours de Probabilités et statistiques : Partie1 Correction de l’exemple 1 On a n = 15 répétitions d’expériences de Bernoulli (évènements de type succès / échec, où succès=obtention de Pile) indépendantes (le résultat d’un lancé ne dépend pas des lancés précédents). La loi de Y est donc une loi Binomiale de paramètres n = 15 et p = P(succès) = P(P) = 23. Y ∼ B(15, 23 ), E(Y ) = np = 15 × 23 = 10, Var (Y ) = np(1 − p) = 10 3 2 P(au - 1 F) = 1− P(aucun F) = 1 − P(15 P) 2 315 − 215 = 1 − ( )15 = 3 315 = 0.998 48/63 Cours de Probabilités et statistiques : Partie1 La loi géométrique (1) Définition Une v.a. X vérifiant : X (Ω) = {1, 2,... , } = N∗ ∀k ∈ X (ω), P(X = k) = (1 − p)k−1 p, p ∈]0; 1[ est dite loi géométrique de paramètre p, X ∼ G (p). Typiquement, x ∼ G (p) représente le nombre d’épreuves indépendantes nécessaires pour obtenir un premier succès avec p = P(succès) à chaque épreuve. 49/63 Cours de Probabilités et statistiques : Partie1 La loi géométrique (2) Propriétés 1 (1 − p) E(X ) = , Var (X ) = p p2 Exemple : On souhaite lancer la pièce de l’exemple précédent jusqu’à obtenir un Face. On note Z le nbre de lancés nécessaires. Quelle est la loi de Z , son espérance, sa variance ? Z (Ω) = {1, 2,... } = N∗ Soit k ∈ Z (Ω), P(Z = k) = P(Le premier F arrive au kième lancé) = P(PP... PF ) 2 1 = P((k − 1) P puis 1 F ) = ( )k−1 × 3 3 1 1 1 − 13 Z ∼ G ( ) , E(Z ) = 1 = 3, Var (Z ) = 1 2 = 6 3 3 (3) 50/63 Cours de Probabilités et statistiques : Partie1 La loi de poisson Définition Une v.a. X vérifiant : X (Ω) = {0, 1,... } = N λk −λ ∀k ∈ X (Ω), P(X = k) = k! e est dite loi de poisson de paramètre λ, X ∼ P(λ). Typiquement, X ∼ P(λ) représente le nombre d’évènements qui interviennent dans un intervalle de temps donné. Propriétés E(X ) = λ, Var (X ) = λ Soient X1 ∼ P(λ1 ) et X2 ∼ P(λ2 ) 2 v.a. indépendantes, alors X1 + X2 ∼ P(λ1 + λ2 ) 51/63 Cours de Probabilités et statistiques : Partie1 Tableaux récapitulatifs des lois des variables discrètes usuelles Loi X (Ω) P(X = k) Espérance Variance B(p) {0; 1}  P(X = 1) = p p p(1 − p) n B(n, p) {0, 1,.., n} p k (1 − p)n−k np np(1 − p) k λk −λ P(λ) N k! e λ λ 1−p G (p) N∗ (1 − p)k−1 p 1 p p2 52/63 Cours de Probabilités et statistiques : Partie1 Les principales distributions théoriques continues 53/63 Cours de Probabilités et statistiques : Partie1 La loi Uniforme (1) Définition Une v.a. X suit une loi Uniforme sur [a, b], et on note X ∼ U ([a, b]) si elle admet comme densité :  1 1 b−a si x ∈ [a, b] f (x) = 1 (x) = b − a [a,b] 0 sinon 54/63 Cours de Probabilités et statistiques : Partie1 La loi Uniforme (1) Une loi uniforme sur [a, b] décrit le phénomène qui consiste à prendre une valeur au hasard dans un ss-intervalle fixé de [a, b]. 55/63 Cours de Probabilités et statistiques : Partie1 La loi Uniforme (2) Propriétés   0 si x < a x−a F (x) = si x ∈ [a; b[  b−a 1 si x ≥ b b+a (b−a)2 E(X ) = 2 , Var (X ) = 12 56/63 Cours de Probabilités et statistiques : Partie1 La loi Exponentielle Définition La loi exponentielle décrit la distribution d’une v.a. continue X qui peut prendre seulement des valeurs positives selon la densité : λe −λx si x ≥ 0  −λx f (x) = λe 1[0;+∞[ = 0 sinon Une telle loi est notée X ∼ E (λ). Une variable de loi exponentielle représente le temps d’attente pour la réalisation d’un évènement ou le temps écoulé entre 2 réalisations successives d’un évènement. 57/63 Cours de Probabilités et statistiques : Partie1 Propriétés d’une loi exponentielle Propriétés F (x) = (1 − e −λx )1[0;+∞[ (x) E(X ) = λ1 , Var (X ) = 1 λ2 La loi exponentielle est une loi sans mémoire, P(X > t + h|X > h) = P(X > t) 58/63 Cours de Probabilités et statistiques : Partie1 La loi normale N (m, σ 2 ), dite aussi loi de Gauss-Laplace Définition La densité d’une v.a. X de loi normale, X ∼ N (m, σ 2 ) est donnée par : 1 (x − m)2 f (x) = √ exp(− ) 2πσ 2σ 2 Cette loi est utilisée pour représenter les mesures d’une caractéristique (hauteur, poids, rendement,...) étudiées sur une population. La distribution normale est entièrement définie par 2 paramètres : la moyenne m et l’écart-type σ 59/63 Cours de Probabilités et statistiques : Partie1 La loi normale N (m, σ 2 ) (2) 60/63 Cours de Probabilités et statistiques : Partie1 La loi normale N (m, σ 2 ) (3) Propriétés La fct de répartition F ne peut être calculée de façon exacte Si X ∼ N (m, σ 2 ), E(X ) = m, Var (X ) = σ 2 Soit X ∼ N (m, σ 2 ) et a, b ∈ R, a ̸= 0. Si Y = aX + b alors Y ∼ N (am + b, a2 σ 2 ) Soient X1 ∼ N (m1 , σ12 ) et X2 ∼ N (m2 , σ22 ) 2 v.a. indépendantes, alors X1 + X2 ∼ N (m1 + m2 , σ12 + σ22 ) Une v.a. X ∼ N (m, σ 2 ) ssi Y = X −m σ ∼ N (0, 1) dite loi normale centrée réduite 61/63 Cours de Probabilités et statistiques : Partie1 Approximations d’une loi binomiale Lorsque n est grand, travailler avec une loi binomiale s’avère compliqué. On peut alors approcher cette loi par : une loi de poisson une loi normale Procédure de choix : soit X ∼ B(n, p) Si n < 30 : aucune approximation Si n ≥ 30 : si np(1 − p) ≥ 10 : X ≈ N (np, np(1 − p)) si np(1 − p) < 10 : si np < 10 : X ≈ P(np) si n(1 − p) < 10 : Y = n − X ≈ P(n(1 − p)) 62/63 Cours de Probabilités et statistiques : Partie1 Tableaux récapitulatifs des densités usuelles Nom de la loi densité espérance variance Loi uniforme (b−a)2 U ([a, b]) f (x) = 1 b−a 1[a,b] (x) a+b 2 12 a0 (x−m)2 Loi normale f (x) = √ 1 exp(− ) m σ2 2πσ 2σ 2 N (m, σ 2 ) 63/63

Use Quizgecko on...
Browser
Browser