Probabilités colle - Semaine 11 - Lycée Gustave Eiffel PDF 2024-2025
Document Details
Uploaded by UnconditionalNarrative1788
Lycée Gustave Eiffel
2024
Tags
Summary
This document is a past paper for a probability class at Lycée Gustave Eiffel, during the week of 2024-12-16. It details instructions for a class-based assessment focusing on mathematical probability, including topics like spaces, conditional probabilities, and variables.
Full Transcript
PTB–Lycée Gustave Eiffel Année 2024–2025 Semaine 11 (16/12–20/12) : probabilités (petit cadeau de Noël) Consignes. La colle débute par la restitution écrite d’énoncés mathématiques choisis par l’examinateur dans la liste fo...
PTB–Lycée Gustave Eiffel Année 2024–2025 Semaine 11 (16/12–20/12) : probabilités (petit cadeau de Noël) Consignes. La colle débute par la restitution écrite d’énoncés mathématiques choisis par l’examinateur dans la liste fournie ci-après. Cette restitution n’excèdera pas 8 minutes sinon les énoncés manquants seront considérés comme non sus. Pour cette semaine : — Un énoncé pioché dans « Espaces probabilisés ». — Une loi usuelle. — Un autre énoncé pioché dans « variables aléatoires discrètes ». — Un énoncé pioché dans « couple de variables aléatoires ». La colle se poursuivra par la résolution d’un ou plusieurs exercices fournis par l’examinateur dans le cadre des exigibles et du programme détaillé dans la suite. Notation. La connaissance du cours détermine la fourchette dans laquelle sera évalué l’étudiant : — 4 énoncés sus : note minimale de 9/20 ; — 1 énoncé erroné ou non su : note maximale de 13/20 ; — 2 énoncés erronés ou non sus : note maximale de 9/20 ; — Au moins 3 énoncés erronés ou non sus : note maximale de 6/20 ; Les colleurs sont libres d’utiliser toutes les notes allant de 0 à 20 dans le respect des contraintes ci-dessus. Énoncés Espaces probabilisés Tribu. La classe A ⊂ P (Ω) est une tribu si elle vérifie les propriétés suivantes : — les évènements ; et Ω sont dans A ; — A est stable par passage au complémentaire : A ∈ A ⇒ A { ∈ A ; — A est stable par union et intersection dénombrables : si (A n )n∈N est une suite d’évènements de A , n=0 A n et n=0 A n sont dans A. alors +∞ T S+∞ Mesure de probabilité. Une mesure de probabilité sur un espace probabilisable (Ω, A ) est une application de A dans [0, 1], notée P, vérifiant — P(Ω) = 1 ; µ +∞ ¶ +∞ — (σ-additivité) pour toute suite d’évènements (A n )n∈N deux à deux incompatibles, P P(A n ). [ X An = n=0 n=0 Continuité croissante et décroissante. Soit (Ω, A , P) un espace probabilisé et soit (A n )n∈N une suite d’évène- ments de A. µ +∞ ¶ — Si (A n )n∈N est croissante (∀n ∈ N, A n ⊂ A n+1 ), alors lim P(A n ) existe et lim P(A n ) = P [ An. n→∞ n→∞ n=0 µ +∞ ¶ — Si (A n )n∈N est décroissante (∀n ∈ N, A n+1 ⊂ A n ), alors lim P(A n ) existe et lim P(A n ) = P \ An. n→∞ n→∞ n=0 µ +∞ ¶ +∞ Sous-additivité. Pour toute suite d’évènements (A n )n∈N , P P(A n ). [ X An 6 n=0 n=0 Page 1/5 PTB–Lycée Gustave Eiffel Année 2024–2025 Probabilité conditionnelle. Soit (Ω, A , P) un espace probabilisé et soit B un évènement vérifiant P(B ) > 0. La probabilité conditionnelle de A sachant B est le réel P(A|B ) = P(A|B ) = P(A∩B ) P(B ). Probabilités composées. Soit n ∈ N∗ et soient A 1 ,..., A n+1 des évènements vérifiant P(A 1 ∩ · · · ∩ A n ) > 0. Alors : P(A 1 ∩ · · · ∩ A n+1 ) = P(A 1 ) × P(A 2 |A 1 ) × P(A 3 |A 1 ∩ A 2 ) × · · · × P(A n+1 |A 1 ∩ · · · ∩ A n ). Système complet – ou quasi complet – d’évènements. On appelle système complet (resp. quasi complet) d’évènements toute famille finie ou dénombrable (A i )i ∈I d’évènements de A vérifiant — ∀(i , j ) ∈ I 2 , i 6= j ⇒ A i ∩ A j = ; ; — ∀i ∈ I , P(A i ) > 0 ; — Ω= A i (resp. P(A i ) = 1). [ P i ∈I i ∈I Formule des probabilités totales. Soit (A i )i ∈I un système complet ou quasi complet d’évènements. Alors pour tout évènement B , il vient P(B ) = P(A i ∩ B ) = P(B |A i ) × P(A i ). X X i ∈I i ∈I Formule de Bayes. Soit (A i )i ∈I un système complet ou quasi complet d’évènements. Alors pour tout évène- ment B vérifiant P(B ) > 0, il vient P(A j ∩ B ) P(B |A j ) × P(A j ) ∀j ∈ I, P(A j |B ) = =X. P(B ) P(B |A i ) × P(A i ) i ∈I Indépendance. On dit que q > 2 évènements A 1 ,..., A q sont indépendants dans leur ensemble, noté A 1 ⊥ ⊥ ⊥ A q , si : ··· ⊥ à ! ∀I ⊂ 1, q, P A i = P(A i ). \ Y i ∈I i ∈I On dit d’une famille dénombrable d’évènements qu’ils sont indépendants si toutes ses sous-familles finies sont constituées d’évènements indépendants. Variables aléatoires discrètes Loi d’une va discrète. Si X est une va discrète définie sur un espace probabilisé (Ω, A , P), Déterminer la loi de X revient à — déterminer l’ensemble des valeurs {x i }i ∈I prises par X ; — déterminer pour chaque i ∈ I la quantité P(X = x i ). VA ayant la même loi. Deux va X et Y ont la même loi si elles partagent les mêmes valeurs possibles {x i }i ∈I et vérifient ∀i ∈ I , P(Y = x i ) = P(X = x i ). Espérance d’une va discrète. Soit X une va discrète définie sur (Ω, A , P) et prenant les valeurs (x i )i ∈I. On dit que X est intégrable ou admet une espérance si |x i | · P(X = x i ) < +∞. Dans ce cas, E(X ) = x i · P(X = x i ). P P i ∈I i ∈I Dans le cas particulier où X (Ω) ⊂ N, X possède une espérance ssi la série n ∈ Nn · P(X = n) cv, et dans ce P +∞ cas E(X ) = n · P(X = n). P n=0 Théorème de transfert. Soit X une va discrète définie sur (Ω, A , P) et prenant les valeurs (x i )i ∈I. Alors la va f (X ) possède une espérance ssi | f (x i )| · P(X = x i ) est finie. Dans ce cas, E f (X ) = f (x i )P(X = x i ). P £ ¤ P i ∈I i ∈I Page 2/5 PTB–Lycée Gustave Eiffel Année 2024–2025 Variance d’une va discrète. Soit X une va discrète définie sur (Ω, A , P) et prenant les valeurs (x i )i ∈I. On P 2 dit que X est de carré intégrable ou admet une variance si x i · P(X = x i ) < +∞. Dans ce cas, on définit i ∈I Var(X ) = E (X − µ)2 où µ = E(X ). £ ¤ P 2 Dans le cas particulier où X (Ω) ⊂ N, X possède une variance ssi la série n · P(X = n) cv. n∈N Formule de König-Huygens. Soit X une va définie sur (Ω, A , P) et de carré intégrable. Alors Var(X ) = E(X 2 ) − E(X )2. VA quasi-certaine. On dit qu’une variable aléatoire X est quasi-certaine s’il existe un réel α vérifiant P(X = α) = 1. Dans ce cas, E(X ) = α et Var(X ) = 0. Loi uniforme sur 1, n. Une va X définie sur (Ω, A , P) suit la loi uniforme sur 1, n si X (Ω) = 1, n et n 2 −1 ∀k ∈ 1, n, P(X = k) = n1. Dans ce cas E(X ) = n+1 2 et Var(X ) = 12. Loi de Bernoulli. Une va X définie sur (Ω, A , P) suit la loi de paramètre p ∈ [0, 1] si X (Ω) ⊂ {0, 1} et P(X = 1) = 1 − P(X = 0) = p. Dans ce cas E(X ) = p et Var(X ) = p(1 − p). Loi binomiale. Une va X définie sur (Ω, A , P) suit la loi binomiale de paramètre (n, p) ∈ N × [0, 1] si X (Ω) ⊂ 0, n et ∀k ∈ 0, n, P(X = k) = nk p k (1 − p)n−k. Dans ce cas E(X ) = np et Var(X ) = np(1 − p) (Tout ceci est ¡ ¢ bien valable pour n = 0). X représente alors le nombre de succès obtenus lors de n répétitions indépendantes d’une expérience à deux issues où la probabilité de succès vaut p. Loi géométrique. Une va X définie sur (Ω, A , P) suit la loi géométrique de paramètre p ∈]0, 1[ si X (Ω) = N∗ q et ∀n > 1, P(X = n) = pq n−1 , où q = 1 − p. Dans ce cas E(X ) = p1 et Var(X ) = p 2. X représente alors le temps d’attente du premier succès lors d’une répétition indépendante d’une expérience à deux issues où la probabilité de succès vaut p. Caractérisation de la loi géométrique. Une va X définie sur (Ω, A , P) à valeurs dans N suit la loi géométrique de paramètre p ssi ∀n ∈ N, P(X > n) = q n , où q = 1 − p. Loi de Poisson. Une va X définie sur (Ω, A , P) suit la loi de Poisson de paramètre λ > 0 si X (Ω) = N et ∀n ∈ N, P(X = n) = e−λ λn!. Dans ce cas E(X ) = λ et Var(X ) = λ. n Couples de variables aléatoires Loi jointe. Si X et Y sont deux va discrètes définies sur le même espace probabilisé (Ω, A , P), déterminer la loi jointe du couple (X , Y ) revient à — déterminer l’ensemble des valeurs (x i )i ∈I prises par X et l’ensemble des valeurs (y i ) j ∈J prises par Y — déterminer pour chaque (i , j ) ∈ I × J la quantité P(X = x i , Y = y j ). Lois marginales. Si la loi jointe du couple (X , Y ) est connue, les lois de X et Y sont respectivement données par : ∀i ∈ I , P(X = x i ) = P(X = x i , Y = y j ) et ∀ j ∈ J , P(Y = y j ) = P(X = x i , Y = y j ). P P j ∈J i ∈I Loi conditionnelle. Si X et Y sont deux va discrètes définies sur le même espace probabilisé (Ω, A , P), déterminer la loi conditionnelle de Y sachant {X = x i } revient à déterminer P(Y = y j |X = x i ), ∀ j ∈ J. Indépendance. On dit que deux va aléatoires discrètes X et Y définies sur le même espace probabilisé (Ω, A , P) sont indépendantes, noté X ⊥ ⊥ Y , si ∀(i , j ) ∈ I × J , P(X = x i , Y = Y j ) = P(X = x i )P(Y = y j ). Théorème de transfert pour les couples. Soient X et Y deux va discrètes définies sur le même espace pro- babilisé (Ω, A , P). Alors ϕ(X , Y ) est intégrable ssi ϕ(x i , y j )¯ · P(X = x i , Y = y j ) < +∞ et dans ce cas, P ¯¯ ¯ (i , j )∈I ×J E[ϕ(X , Y )] = ϕ(x i , y j )P(X = x i , Y = y j ). P (i , j )∈I ×J Indépendance et espérance. Soient X et Y deux va discrètes définies sur le même espace probabilisé (Ω, A , P) Page 3/5 PTB–Lycée Gustave Eiffel Année 2024–2025 indépendantes et intégrables. Alors X Y est intégrable et E(X Y ) = E(X )E(Y ). Covariance. Soient X et Y deux va discrètes définies sur le même espace probabilisé (Ω, A , P) et de carré inté- grable. On définit Cov(X , Y ) = E X − µ X Y − µY , où µ X = E(X ) et µY = E(Y ). On observe que Cov(X , Y ) = £¡ ¢¡ ¢¤ E(X Y ) − E(X )E(Y ). Variables aléatoires non corrélées. On dit que deux v.a. X et Y sont non corrélées si Cov(X , Y ) = 0. C’est le cas si elles sont indépendantes, mais la réciproque est fausse. Variance d’une somme. Soient X et Y deux va discrètes définies sur le même espace probabilisé (Ω, A , P) et de carré intégrable. Alors Var(X + Y ) = Var(X ) + Var(Y ) + 2Cov(X , Y ). Si de plus X ⊥ ⊥ Y , alors Var(X + Y ) = Var(X ) + Var(Y ). Inégalités de Cauchy-Schwarz. Soient X et Y deux va discrètes définies sur le même espace probabilisé (Ω, A , P), de carré intégrable. Alors : [E(X Y )]2 6 E(X 2 )E(Y 2 ) et [Cov(X , Y )]2 6 Var(X )Var(Y ). Programme détaillé Liste des exigibles — connaître le vocabulaire lié à une expérience aléatoire (univers, issue, évènement) ; — connaître la définition d’un espace probabilisé ; — connaître la définition d’une probabilité conditionnelle ; — savoir utiliser la formule des probabilités totales et la formule de Bayes ; — connaître la définition d’évènements indépendants ; — connaître la définition d’une variable aléatoire et de sa loi ; — connaître la définition de l’espérance d’une variable aléatoire discrète et savoir appliquer le théorème de transfert ; — connaître la définition de la variance d’une variable aléatoire discrète et la formule de Koenig-Huygens ; — connaître les lois usuelles, leur espérance et leur variance ; — connaître le vocabulaire lié aux couples de variables aléatoires (loi jointe, loi marginale, loi condition- nelle) ; — connaître la définition de la covariance. I) Espace probabilisé décroissante, alors limn→∞ P(A n ) existe et limn→∞ P(A n ) = P +∞ ¡T ¢ 1) Rappels sur le cadre fini n=0 A n. Sous-additivité : P +∞n=0 A n 6 n=0 P(A n ) ; ¡S ¢ P+∞ 2) Probabilités sur un ensemble non fini Définition d’une tribu ; 3) Probabilités conditionnelles P(A∩B ) Espace probabilisable ; Si P(B ) > 0, on définit P(A|B ) = P(B ). Mesure de probabilité sur un espace probabili- A 7→ P(A|B ) est alors une mesure de probabilité sable : P(Ω1) = 1 et σ-additivité ; sur Ω. Continuité croissante et décroissante : si (A n )n∈N Probabilités composées : P(A 1 ∩ · · · ∩ A n ) = est croissante alors limn→∞ P(A n ) existe et P(A 1 )× P(A 2 |A 1 )× P(A 3 |A 1 ∩ A 2 )×· · ·× P(A n |A 1 ∩ limn→∞ P(A n ) = P +∞ ¡S ¢ n=0 A n ; si (A n )n∈N est · · · ∩ A n−1 ). Page 4/5 PTB–Lycée Gustave Eiffel Année 2024–2025 Système complet et quasi complet d’évènements. X admet un moment d’ordre 2 ou est de carré in- Formule des probabilités totales. tégrable si X 2 admet une espérance c’est-à-dire si i ∈I x i2 · P(X = x i ) < +∞. P Formule de Bayes. Si X est ce carré intégrable alors X est intégrable 4) Indépendance p et |E(X )| 6 E(|X |) 6 E(X 2 ). ⊥ B si P(A ∩ B ) = P(A)P(B ). A⊥ Définition de la variance pour une v.a. de carré Indépendance de r > 3 évènements ; d’une fa- intégrable : Var(X ) = E (X − µ)2 = i ∈I (x i − £ ¤ P mille infinie d’évènements ; µ)2 P(X = x i ), où µ = E(X ). II) Variables aléatoires discrètes, espérance, variance Formule de König-Huygens : Var(X ) = E X 2 − ¡ ¢ 1) Ensembles dénombrables µ2. Un ensemble E est dit dénombrable s’il existe une Var(a X + b) = a 2 Var(X ) ; bijection entre lui et N. Variance des lois usuelles Les ensembles Z et N × N sont dénombrables. III) Couples de variables aléatoires Les ensembles {0, 1}N et [0, 1] ne sont pas dénom- brables. 1) Lois jointe et marginales 2) Variables aléatoires discrètes Loi d’un couple. Lois marginales. Définition d’une v.a. discrète ; 2) Lois conditionnelles La loi de X est la donnée des valeurs admis- Définition de la loi conditionnelle de Y sachant sibles (x i )i ∈I prises par X ainsi que la famille de {X = x i } ; nombres P(X = x i ) i ∈I. ¡ ¢ P(Y = y j ) = i ∈I P(Y = y j |X = x i )P(X = x i ) ; P 3) Lois usuelles 3) Indépendance v.a. quasi certaine ; X ⊥ ⊥ Y , si ∀(i , j ) ∈ I × J , P(X = x i , Y = Y j ) = P(X = Loi uniforme ; x i )P(Y = y j ) ; Loi de Bernoulli ; Soient X ,→ B (n, p) et Y ,→ B (m, p) indépen- Loi binomiale ; dantes. Alors Z = X + Y ,→ B (n + m, p). Loi Géométrique : interprétation ; Soient X ,→ Poi(λ) et Y ,→ Poi(µ) indépendantes. Loi de Poisson ; Alors Z = X + Y ,→ Poi(λ + µ). 4) Espérance des variables aléatoires discrètes 4) Covariance X admet une espérance si i ∈I |x i | · P(X = x i ) < Théorème de transfert : si ϕ(X , Y ) est intégrable, P +∞. Dans ce cas, E(X ) = i ∈I x i · P(X = x i ). alors E[ϕ(X , Y )] = (i , j )∈I ×J ϕ(x i , y j )P(X = P P Si X (Ω ⊂ N, X admet une espérance ssi la série x i , Y = y j ). n · P(X = n) cv. P Si X et Y sont intégrables et indépendantes, X Y Linéarité, positivité, croissance. est intégrable et E(X Y ) = E(X )E(Y ). Toute variable aléatoire bornée est intégrable. Si X et Y sont de carrés intégrables, X Y est intégrable et [E(X Y )]2 6 E(X 2 )E(Y 2 ) (Cauchy- Théorème de transfert : f (X ) est intégrable ssi Schwarz). la somme i ∈I | f (x i )|P(X = x i ) est finie. Dans ce P Covariance : Cov(X , Y ) = E X − E(X ) Y − £¡ ¢¡ cas, E f (X ) = ω p ω f X (ω) = i ∈I f (x i )P(X = £ ¤ P £ ¤ P E(Y ) = E(X Y ) − E(X )E(Y ). ¢¤ x i ). Espérance des lois usuelles Var(X + Y ) = Var(X ) + Var(Y ) + 2Cov(X , Y ). 5) Variance ⊥ Y =⇒ Var(X + Y ) = Var(X ) + Var(Y ). X ⊥ Page 5/5