Document Details

VisionaryVerisimilitude

Uploaded by VisionaryVerisimilitude

ESILV École Supérieure d'Ingénieurs Léonard de Vinci Paris

2024

Laetitia Della Maestra

Tags

statistics mathematics statistical methods probability

Summary

These are revision notes for a statistics exam, covering topics such as theorems of limits and normal distributions. The notes include exercises and include some theoretical background. These notes appear to be from a university/engineering school.

Full Transcript

19 avril 2024 Statistiques Année 3 Semestre 6 Révisions pour le CC2 du samedi 27/04 Contient ce dont je vous ai parlé au début du CMO3 du mardi 16/04 ainsi que des compléments (en très grande partie issus du Chapitre 0) Laetitia DELLA MAESTRA Enseignant-chercheur en Mathématiques laetitia.della− mae...

19 avril 2024 Statistiques Année 3 Semestre 6 Révisions pour le CC2 du samedi 27/04 Contient ce dont je vous ai parlé au début du CMO3 du mardi 16/04 ainsi que des compléments (en très grande partie issus du Chapitre 0) Laetitia DELLA MAESTRA Enseignant-chercheur en Mathématiques laetitia.della− [email protected] - Bureau L405 Programme définitif du CC2 de samedi 27/04 : Questions de cours : théorèmes limites, vraisemblance & théorème fondamental des lois normales Exercices 1, 2, 3 Feuille 1 de TD Exercices 1 et 2 Feuille 2 de TD Remarques : La démonstration de la monotonie des fonctions µ ↦ Pµ (T (X ) > kα ) et µ ↦ Pµ (T (X ) < kα ) est hors-programme du CC2 l’Exercice 2 n’était pas à traiter en classe, il est là pour que vous vous entraîniez en autonomie, vous disposez de la correction sur DeVinciLearning pas de Python 2/35 Remarques sur la monotonie (Hors-Programme du CC2) de √ 0 : µ ↦ Pµ (T (X ) > kα ) , où T (X ) = n X nσ̃−µ n Le point clé du calcul est d’utiliser le fait que d’après le Théorème des Lois n Normales, sous Pµ , X n ⊥ ∑ (Xi − X n ) ¿ Á 1 n À (Xi − X n )2 σ̃n = Á n−1 ∑ i=1 Notons Y ∶= et donc en particulier X n ⊥ ⊥ σ̃n puisque i=1 n √ X n −µ 2 n ). D’après le Théorème des Lois n σ et Z ∶= ∑ ( Xi −X σ i=1 Normales, sous Pµ , on a Y ∼ N (0, 1), Z ∼ χ2 (n − 1) et Y ⊥ Z , donc, en notant f(Y ,Z ) (y , z) la densité jointe de (Y , Z ) sous Pµ au point (y , z), on a donc f(Y ,Z ) (y , z) = fY (y )fZ (z) où fY (y ) = fN (0,1) (y ) ( fZ (z) = fχ2 (n−1) (z)) est la densité de Y au point y (resp. Z au point z) sous Pµ √ X n − µ0 > kα ) Pµ (T (X ) > kα ) = Pµ ( n σ̃n √ X n − µ σ̃n √ µ − µ0 )↝ = Pµ ( n > kα − n σ σ σ √ √ µ − µ0 Z ) = Pµ (Y > kα − n n−1 σ 3/35 on fait apparaître Y et Z Méthode 1 : Théorème de Transfert + Théorème de Fubini-Tonelli Pµ (T (X ) > kα ) = ∬ R2 1y >√ = ∫ (∫ R R z n−1 1y >√ √ µ−µ f (y , z)dydz kα − n σ 0 (Y ,Z ) z n−1 (Th. de Transfert) √ µ−µ f (y )dy )fZ (z)dz kα − n σ 0 Y (Y ⊥ ⊥ Z et Fubini-Tonelli) √ √ µ − µ0 z ) )fZ (z)dz = ∫ ( 1 − FN (0,1) ( kα − n n−1 σ R √ √ µ − µ0 z ) )fχ2 (n) (z)dz = 1 − ∫ FN (0,1) ( kα − n n−1 σ R √ √ z k − √n µ1 −µ0 ≥ z k − √n µ2 −µ0 , d’où, comme F Or, pour µ1 ≤ µ2 , N (0,1) est croissante, n−1 α σ n−1 α σ √ √ z k − √n µ1 −µ0 ) ≥ F z k − √n µ2 −µ0 ), et, par croissance de l’intégrale, ( FN (0,1) ( n−1 α α N (0,1) σ n−1 σ √ √ √ µ1 −µ0 √ µ2 −µ0 z z ∫R FN (0,1) ( n−1 kα − n σ ) )fχ2 (n) (z)dz ≥ ∫R FN (0,1) ( n−1 kα − n σ ) )fχ2 (n) (z)dz, d’où in fine √ √ √ z k − n µ1 −µ0 ) )f z k − √n µ2 −µ0 ) )f 1 − ∫R FN (0,1) ( n−1 (z)dz ≤ 1 − ∫R FN (0,1) ( n−1 (z)dz α α σ σ χ2 (n) χ2 (n) √ z √ 0 ) )fχ2 (n) (z)dz est Conclusion : µ ↦ 1 − ∫R FN (0,1) ( n−1 kα − n µ−µ σ croissante, autrement dit µ ↦ Pµ (T (X ) > kα ) est croissante 4/35 Méthode 2 : Espérances conditionnelles Rq : pr tt évènemt A ∈ A, E[1A ] = P(A) car 1A ∼ B(P(A)) √ √ µ − µ0 Z ) kα − n Pµ (T (X ) > kα ) = Pµ (Y > n−1 σ = Eµ [ 1 √ Z √ µ−µ0 ] Y> n−1 = Eµ [ Eµ [ 1 Soit z ∈ Z (Ω), Eµ [ 1 z ] = Eµ [ 1Y >√ √ √ µ−µ Z Y > n−1 kα − n σ 0 z n−1 √ µ−µ kα − n σ 0 kα − n √ Y> Z n−1 σ √ µ−µ kα − n σ 0 ∣Z ] ] ∣Z = z ] = Eµ [ 1Y >√ ] car Y ⊥ Z z n−1 √ µ−µ kα − n σ 0 ∣Z = √ z √ 0 ] = 1 − FN (0,1) ( n−1 ) kα − n µ−µ σ √ √ µ−µ0 Z ) D’où Donc Eµ [ 1 √ Z √ µ−µ ∣Z ] = 1 − FN (0,1) ( n−1 kα − n σ Y > n−1 kα − n σ 0 √ √ µ−µ0 Z )] = Eµ [ Eµ [ 1 √ Z √ µ−µ ∣Z ] ] = Eµ [ 1 − FN (0,1) ( n−1 kα − n σ Y > n−1 kα − n σ 0 √ √ Zn 0 ) ] où Zn ∼ χ2 (n) car Z ∼ χ2 (n) sous Pµ E[ 1 − FN (0,1) ( n−1 kα − n µ−µ σ et Eµ [ 1Y >√ 5/35 z n−1 √ µ−µ kα − n σ 0 Fonction de vraisemblance Soit un modèle statistique paramétrique générique (E , E, F = (Pθ )θ∈Θ ) muni d’une observation X La fonction de vraisemblance (= likelihood) associée à une réalisation x de l’observation X est L(.; x ) ∶ θ ∈ Θ ↦ L(θ; x ) où L(θ; x ) = { pX ;θ (x ) = Pθ ({x }) = Pθ (X = x ) si X v.a.r. discrète fX ;θ (x ) si X v.a.r. continue à densité où nous avons défini pX ;θ (x ) (resp. fX ;θ (x ) ) comme la fonction de masse (resp. la densité ) de X au point x sous Pθ , c-à-d en supposant que X ∼ Pθ. Si le modèle est du type d’un n-échantillon, (E n , E ⊗n , (Pn;θ )θ∈Θ ) muni d’une observation X = (X1 ,... , Xn ) (pour l’instant, on ne suppose ni que les Xi , i ∈ J1, nK sont de même loi, ni qu’ils sont indépendants), nous pouvons réécrire la fonction de vraisemblance de la manière suivante. 6/35 Cas n-échantillon quelconque La fonction de vraisemblance associée à une réalisation x = (x1 ,. , xn ) de l’observation X = (X1 ,. , Xn ) est Ln (. ; (x1 ,. , xn )) ∶ θ ∈ Θ ↦ Ln (θ ; (x1 ,. , xn )) = ⎧ p (x ,. , xn ) = Pn;θ ( {(x1 ,. , xn )} ) = Pθ ((X1 ,. , Xn ) = (x1 ,. , xn )) ⎪ ⎪ ⎪ (X1 ,. ,Xn );θ 1 ⎨ si X1 ,. , Xn v.a.r. discrètes ⎪ ⎪ ⎪ ⎩ f(X1 ,. ,Xn );θ (x1 ,. , xn ) si X1 ,. , Xn v.a.r. continues à densité où nous avons défini p(X1 ,. ,Xn );θ (x1 ,. , xn ) (resp. f(X1 ,. ,Xn );θ (x1 ,. , xn ) ) comme la fonction de masse jointe (resp. la densité jointe) de X = (X1 ,. , Xn ) au point x = (x1 ,. , xn ) sous Pθ , c-à-d en supposant que X = (X1 ,. , Xn ) ∼ Pn;θ Nous renvoyons au Modèle AR(1) de la Feuille 1 de TD pour un exemple de calcul de vraisemblance dans une telle situation de v.a.r. ni indépendantes, ni de même loi (ceux d’entre vous qui vont aller en IF ou Actuariat sont fortement encouragés à retravailler cet exercice) 7/35 Cas n-échantillon indépendant (non i.d.) Supposons à présent que X1 ,... , Xn sont indépendantes, mais a priori pas identiquement distribuées. Dans ce cas, on a Pn;θ = PX1 ;θ ⊗ PX2 ;θ ⊗... ⊗ PXn ;θ , où PXi ;θ est la loi de Xi , et la fonction de vraisemblance associée à une réalisation x = (x1 ,. , xn ) de l’observation X = (X1 ,. , Xn ) se réécrit Ln (. ; (x1 ,. , xn )) ∶ θ ∈ Θ ↦ Ln (θ ; (x1 ,. , xn )) = n n n ⎧ ⎪ ⎪ ∏ pXi ;θ (xi ) = ∏ PXi ;θ ( {xi } ) = ∏ Pθ (Xi = xi ) ⎪ ⎪ ⎪ i=1 i=1 ⎪ ⎪ i=1 si X1 ,. , Xn v.a.r. discrètes ⎨ ⎪ n ⎪ ⎪ ⎪ ⎪ ∏ fXi ;θ (xi ) si X1 ,. , Xn v.a.r. continues à densité ⎪ ⎪ ⎩ i=1 où nous avons défini pXi ;θ (xi ) (resp. fXi ;θ (xi ) ) comme la fonction de masse (resp. la densité) de Xi au point xi sous Pθ , c-à-d en supposant que Xi ∼ PXi ;θ 8/35 Cas n-échantillon i.i.d. Supposons enfin que X1 ,... , Xn sont i.i.d. ⊗n Dans ce cas, on a Pn,θ = P1,θ , où P1,θ est la loi commune de X1 ,... , Xn , et la fonction de vraisemblance associée à une réalisation x = (x1 ,. , xn ) de l’observation X = (X1 ,. , Xn ) se réécrit Ln (. ; (x1 ,. , xn )) ∶ θ ∈ Θ ↦ Ln (θ ; (x1 ,. , xn )) = n n n ⎧ ⎪ ⎪ ∏ pX1 ;θ (xi ) = ∏ P1;θ ( {xi } ) = ∏ Pθ (X1 = xi ) ⎪ ⎪ ⎪ i=1 i=1 ⎪ ⎪ i=1 si X1 ,. , Xn v.a.r. discrètes ⎨ ⎪ n ⎪ ⎪ ⎪ ⎪ ∏ fX1 ;θ (xi ) si X1 ,. , Xn v.a.r. continues à densité ⎪ ⎪ ⎩ i=1 où nous avons défini pX1 ;θ (resp. fX1 ;θ ) comme la fonction de masse (resp. la densité) commune à X1 ,... , Xn sous Pθ , c-à-d en supposant que i.i.d. X1 ,... , Xn ∼ P1;θ = PX1 ;θ 9/35 Loi Normale N (µ, σ 2) (µ, σ 2) ∈ R × R⋆+ normal = gaussien Le support de la loi N (µ, σ 2 ) est R : soit X ∼ N (µ, σ 2 ), alors X (Ω) = R Densité : fX (x) = fN (µ,σ2 ) (x) ∶= √ 1 2πσ 2 e− (x −µ)2 2σ 2 x Fonction de répartition : FN (µ,σ2 ) (x) = ∫−∞ fN (µ,σ2 ) (t)dt 2 −1 Fonction quantile : q N (µ,σ ) (α) = FN (µ,σ 2 ) (α) 2 pour X ∼ N (µ, σ ), on a pour tous x ∈ R et α ∈]0, 1[ : P(X ≤ x ) = α ⇔ FN (µ,σ2 ) (x ) = α ⇔ qαN (µ,σ X ∼ N (µ, σ 2 ) ⇔ X −µ σ 2) ∼ N (0, 1), d’où FN (µ,σ2 ) (x) = FN (0,1) ( x−µ σ ) Si α, β ∈ R et X ∼ N (µ, σ 2 ), alors αX + β ∼ (αµ + β, α2 σ 2 ) Si X1 ∼ N (µ1 , σ12 ), X2 ∼ N (µ2 , σ22 ) et X1 ⊥ X2 , alors X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 ) 10/35 2 ∶= q N (µ,σ ) (α) = x Espérance : E[X ] = µ Variance : Var[X ] = σ 2 pour µ = 0, E[X ] = E[X 3 ] = 0, et E[X 4 ] = 3σ 4 Pr ts (µ, σ 2 ) ∈ R × R⋆+ , N (µ, σ 2 ) est symétrique par rapport à µ. L L ↝ pr X ∼ N (µ, σ 2 ), X − µ = µ − X et X = 2µ − X ↝ µ est la médiane théorique et l’unique médiane usuelle de N (µ, σ 2 ) ↝ la courbe représentative de fN (µ,σ2 ) est symétrique par rapport à µ 11/35 Pr tt σ 2 ∈ R × R⋆+ , donc en particulier pour σ 2 = 1, N (0, σ 2 ) est L symétrique par rapport à 0 ↝ pr X ∼ N (0, σ 2 ), X = −X ↝ 0 est la médiane théorique et l’unique médiane usuelle de N (0, σ 2 ) ↝ la courbe représentative de fN (0,σ2 ) est symétrique par rapport à 0 c-à-d la fct fN (0,σ2 ) est paire ↝ pr tt x ∈ R, fN (0,σ2 ) (−x) = fN (0,σ2 ) (x) pr tt x ∈ R, FN (0,σ2 ) (x ) = 1 − FN (0,σ2 ) (−x ) N (0,σ 2 ) pr tt α ∈]0, 1[, q1−α 12/35 N (0,σ 2 ) = −qα Loi N (0, 1) = loi normale centrée-réduite ( = loi normale standard) : pr X ∼ N (0, 1), E[X ] = E[X 3 ] = 0 , E[X 2 ] = Var[X ] = 1, E[X 4 ] = 3 N (0, 1) est symétrique par rapport à 0 ↝ 0 est la médiane théorique N (0,1) et l’unique médiane usuelle de X : FN (0,1) (0) = 12 , q1/2 =0 x2 fN (0,1) (x) = √1 e − 2 ↝ fct paire : ∀x ∈ R, fN (0,1) (x ) = fN (0,1) (−x ), 2π son graphe est symétrique par rapport à l’axe des ordonnées FN (0,1) est continue et strictement croissante de R →]0, 1[, et donc bijective de R →]0, 1[, d’où q N (0,1) bijection réciproque de FN (0,1) ∀x ∈ R, FN (0,1) (x ) = 1 − FN (0,1) (−x ) ; ∀α ∈]0, 1[, q1−α N (0,1) 13/35 = − qα N (0,1) On appelle "règle du 68–95–99.7" le fait que, pour la loi N (µ, σ 2 ), le pourcentage de valeurs qui appartiennent à un intervalle de taille 1 σ de part et d’autre de l’espérance µ est d’environ 68% : P(µ − σ ≤ X ≤ µ + σ) ≃ 68.27% un intervalle de taille 2 σ de part et d’autre de l’espérance µ est d’environ 95% : P(µ − 2σ ≤ X ≤ µ + 2σ) ≃ 95.45% un intervalle de taille 3 σ de part et d’autre de l’espérance µ est d’environ 99.7% : P(µ − 3σ ≤ X ≤ µ + 3σ) ≃ 99.73% où X ∼ N (µ, σ 2 ) Source : Wikipedia 14/35 Remarques : en Sciences Expérimentales, la règle appelée three-sigma rule of thumb est une convention heuristique signifiant que "presque toutes" (au sens 99.73%, ce qui est considéré comme un pourcentage très élevé, et suffisant en pratique) les valeurs sont situées à une distance inférieure ou égale à 3σ de la moyenne µ. en Sciences Sociales, un résultat peut être considéré comme "significatif" si pour la même expérience reproduite un grand nombre de fois, 95% des résultats de l’expérience vont dans ce sens ; en Physique des particules, le seuil de significativité est de 5σ c-à-d environ 99.99994%. Dans ce module, le terme "significatif signifiera" 95% (en l’absence de précision supplémentaire). Par exemple, reprenons la question 4 de l’Exercice 2 de la Feuille 2 de TD : La résistance à la rupture d’une fibre textile est modélisée par une v.a.r. de loi N (µ, σ2 ). Le cahier des charges exige que la résistance moyenne à la rupture soit de µ0 = 150lb/po2. Le fabricant désire détecter tout écart significatif à cette valeur à partir d’un échantillon de 15 fibres : la moyenne observée sur cet échantillon est 152.18, et la variance observée est 16.63. Que peut-il en conclure ? On teste H0 ∶ µ = µ0 contre H1 ∶ µ ≠ µ0 au niveau α ∈]0, 1[ avec φα (X ). Si φ0.05 (x ) = 1, on considère que l’écart entre la valeur observée sur l’échantillon et la valeur théorique est significative. 15/35 Table de la fonction de répartition de la loi N (0, 1) Remarque : on peut également y lire les quantiles de la loi N (0, 1), puisque −1 q N (0,1) = FN (0,1) c-à-d pour X ∼ N (0, 1), on a pour tous x ∈ R et γ ∈]0, 1[ : P(X ≤ x ) = γ ⇔ FN (0,1) (x ) = γ ⇔ qγN (0,1) = x Ex : pour z = 1.95, on regarde la case au croisement de la ligne 1.9 et de la colonne 0.05, on trouve FN (0,1) (1.95) ≃ 0.9744 pour γ = 0.9, on trouve qγ N (0,1) 16/35 ∈]1.28; 1.29[ N (0,1) Table des quantiles q1−α N (0,1) Rappel : q1−α de niveau 1 − α de la loi N (0, 1) = −qα N (0,1) Exemples : pour α = 0.05 on regarde au croisement de la ligne 0.05 et de la N (0,1) colonne 0, on trouve q0.95 ≃ 1.6449 ; pour α = 0.975 on regarde au croisement de la ligne 0.02 et de la colonne N (0,1) N (0,1) 0.005, on trouve q0.975 ≃ 1.96 et donc q0.025 ≃ −1.96 ; 17/35 Loi du χ2(n), n ∈ N⋆ n est dit nombre de degrés de liberté (= degrees of freedom) Le support de la loi χ2 (n) est R+ : pour X ∼ χ2 (n), X (Ω) = R+ i.i.d n Si X1 ,... , Xn ∼ N (0, 1) , ∑ Xi2 ∼ χ2 (n) i=1 n/2 (1/2) n x Densité (HP) : fX (x) = fχ2 (n) (x) ∶= x 2 −1 e − 2 1[0,+∞[ (x) Γ(n/2) Fonction de répartition : x FX (x) = Fχ2 (n) (x) = ∫−∞ fχ2 (n) (t)dt = { Fonction quantile : q χ 2 (n) 0 x ∫0 fχ2 (n) (t)dt si x < 0 si 0 ≤ x (α) = Fχ−12 (n) (α) χ2 (n) = Γ( n2 , 12 ) Si X1 ∼ χ2 (n1 ), X2 ∼ χ2 (n2 ) et X1 ⊥ X2 , alors X1 + X2 ∼ χ2 (n1 + n2 ) 18/35 Espérance : E[X ] = n Variance : Var[X ] = 2n Attention : contrairement à la loi normale, la loi du χ2 2 prend ses valeurs dans R+ , donc pour tout α ∈]0, 1[, q χ (n) (α) ∈ R⋆+ n’est pas symétrique (son support est semi-infini !) : 2 2 ↝ il n’y a pas de relation entre q χ (n) (α) et q χ (n) (1 − α) 19/35 χ2 (n) Table des quantiles q1−α de niveau 1 − α de la loi χ2 (n) χ2 (14) Exemple : q0.9 20/35 ≃ 21.06 Loi de Student t(n), n ∈ N⋆ n est dit nombre de degrés de liberté (= degrees of freedom) Le support de la loi t(n) est R : pour X ∼ t(n), X (Ω) = R U Si U ∼ N (0, 1), V ∼ χ2 (n), U ⊥ V , alors √ ∼ t(n) V /n Densité (HP) : Γ( n+1 ) 2 2 (1 + xn π n Γ( n ) 2 ft(n) (x) ∶= √ ) − n+1 2 x Fonction de répartition : Ft(n) (x) = ∫−∞ ft(n) (u)du −1 Fonction quantile : q t(n) (α) = Ft(n) (α) Si n > 1, E[X ] = 0 21/35 et n si n > 2, Var[X ] = n−2 Pour tous n ∈ N⋆ , t(n) est symétrique par rapport à 0. 0 est la médiane théorique et l’unique médiane usuelle de t(n) : t(n) Ft(n) (0) = 12 , q1/2 = 0 la fct ft(n) est paire ↝ pr tt x ∈ R, ft(n) (−x) = ft(n) (x) et le graphe de ft(n) est symétrique par rapport à l’axe des ordonnées. Ft(n) est continue et strictement croissante de R →]0, 1[, et donc bijective de R →]0, 1[, d’où q t(n) bijection réciproque de Ft(n) t(n) t(n) ∀x ∈ R, Ft(n) (x ) = 1 − Ft(n) (−x ) ; ∀α ∈]0, 1[, q1−α = − qα 22/35 t(n) Table des quantiles q1−α de niveau 1 − α de la loi t(n) t(12) Exemple : q0.95 ≃ 1.782 23/35 Théorème fondamental des lois Normales i.i.d. Si X1 ,... , Xn ∼ N (µ, σ 2 ), (µ, σ 2 ) ∈ R × R⋆+ , en notant X ∶= 1 n n σX2 ∶= ∑ Xi , ̂ i=1 1 n n 2 σX2 ∶= ∑ ( Xi − X ) , ̃ i=1 2 2 1 n−1 X ∼ N (µ, σn ) , ( X − µ ) ∼ N (0, σn ) , n 2 ∑ ( Xi − X ) i=1 √ n X −µ σ ∼ N (0, 1) n ∑ (Xi −µ)2 i=1 σ2 n̂ σX2 σ2 n 2 = ∑ ( Xiσ−µ ) ∼ χ2 (n) i=1 = 2 ̂X nσ ∼ σ 2 χ2 (n − 1) n n (n−1)̃ σX2 σ2 2 = ∑ ( Xiσ−X ) ∼ χ2 (n − 1) et, avec un petit abus de notation i=1 , 2 2 2 2 σ 2 χ2 (n − 1) ̂X ̃X ̃X σ ∼ σn χ2 (n − 1) , (n − 1) σ ∼ σ 2 χ2 (n − 1) , σ ∼ n−1 2 X ⊥ ∑ ( Xi − X ) , donc X ⊥ ̂ σX2 , X ⊥ ̃ σX2 et i=1 √ √ n − 1 X̂σ−µ = n X̃σ−µ ∼ t(n − 1) X X 24/35 Modes de convergence : suite de v.a.r. Soit (Ω, A, P) un espace de probabilité, et (Yn )n∈N⋆ , Z des v.a.r. définies sur (Ω, A, P). On dit que : (Yn )n∈N⋆ converge (= tend) presque-sûrement vers Z sous P qd P−p.s. n → +∞ (noté Yn Ð→ Z ) si P( {ω ∈ Ω ; Yn (ω) Ð→ Z (ω)} ) = 1 n→+∞ (Yn )n∈N⋆ converge n→+∞ (= tend) en probabilité vers Z sous P qd n → +∞ P (noté Yn Ð→ Z ) si ∀ϵ > 0, P(∣Yn − Z ∣ > ϵ) Ð→ 0 n→+∞ (Yn )n∈N⋆ converge n→+∞ (= tend) en loi vers Z sous P qd n → +∞ (noté L sous P Yn Ð→ Z ) si, pr tte fct test Φ, E[Φ(Yn )] Ð→ E[Φ(Z )] n→+∞ n→+∞ (on supposera que les fonctions test sont les fonctions continues bornées) C’est équivalent à : FYn (t) Ð→ FZ (t) pr tt t ∈ R tq FZ continue en t n→+∞ (Yn )n∈N⋆ converge qd n → +∞ (noté Yn 25/35 en moyenne quadratique vers Z sous P (= tend) L2 sous Ð→ P n→+∞ Z ) si E[ ∣Yn − Z ∣2 ] Ð→ 0 n→+∞ Implications & Liens entre les différents modes CV P P P n→+∞ n→+∞ n→+∞ ∀a, b ∈ R, Yn Ð→ Z , Yn′ Ð→ Z ′ ⇒ aYn + bYn′ Ð→ aZ + bZ ′ et ⇒ P−p.s. P−p.s. n→+∞ n→+∞ ∀a, b ∈ R, Yn Ð→ Z , Yn′ Ð→ Z ′ ⇒ P Yn Yn′ Ð→ ZZ ′ n→+∞ P−p.s. aYn + bYn′ Ð→ n→+∞ aZ + bZ ′ P−p.s. et ⇒ Yn Yn′ Ð→ ZZ ′ n→+∞ ATTENTION : Yn ET : Yn L sous P L sous P Ð→ Z , Yn′ Ð→ Z ′ n→+∞ n→+∞ L sous P Ð→ n→+∞ L sous P Z , Yn′ Ð→ Z ′ n→+∞ P−p.s. Yn Ð→ Z ⇒ n→+∞ n’implique PAS que L sous P Yn + Yn′ Ð→ Z + Z ′ n→+∞ n’implique PAS que Yn Yn′ P n→+∞ n→+∞ 26/35 Ð→ n→+∞ Z ⇒ Z Z′ Yn Ð→ Z n→+∞ L sous P L2 sous P Ð→ n→+∞ L sous P Yn Ð→ Z ⇒ Si Z = c v.a.r. constante, Yn Ð→ c Yn L sous P ⇒ P Yn Ð→ c n→+∞ P Yn Ð→ Z n→+∞ (Preuve : Inégalité de Bienaymé-Tchebytchev) Modes de CV : suite de vecteurs aléatoires Soit (Ω, A, P) un espace de probabilité, et (Yn = ( Y1,n ,... , Yd,n )) n∈N⋆ , Z = (Z1 ,... , Zd ) des vecteurs aléatoires définis sur (Ω, A, P) ¿ et à valeurs Á d d À ∑ y2 ) dans R. On dit que : (en notant ∣∣.∣∣d la norme euclidienne usuelle de Rd : ∣∣y∣∣d = Á i i=1 (Yn )n∈N⋆ converge (= tend) presque-sûrement vers Z sous P qd P−p.s. n → +∞ (noté Yn Ð→ Z ) si P( {ω ∈ Ω ; Yn (ω) Ð→ Z (ω)} ) = 1 n→+∞ (Yn )n∈N⋆ converge n→+∞ (= tend) en probabilité vers Z sous P qd n → +∞ P (noté Yn Ð→ Z ) si ∀ϵ > 0, P(∣∣Yn − Z ∣∣d > ϵ) Ð→ 0 n→+∞ (Yn )n∈N⋆ converge n→+∞ (= tend) en loi vers Z sous P qd n → +∞ (noté L sous P Yn Ð→ Z ) si, pr tte fct test Φ ∶ Rd → R, E[Φ(Yn )] Ð→ E[Φ(Z )] n→+∞ n→+∞ (on supposera que les fonctions test sont les fonctions continues bornées) (Yn )n∈N⋆ converge qd n → +∞ (noté Yn 27/35 en moyenne quadratique vers Z sous P (= tend) L2 sous Ð→ P n→+∞ Z ) si E[ ∣∣Yn − Z ∣∣2d ] Ð→ 0 n→+∞ Loi Faible des Grands Nombres Cas unidimensionnel : soit (Yi )i∈N⋆ une suite de v.a.r. i.i.d. tq E[∣Y1 ∣2 ] < +∞, alors 1 n n P i=1 n→+∞ ∑ Yi Ð→ E[Y1 ] P Rappel : pour Z , (Zn )n∈N⋆ des v.a.r., Zn Ð→ Z si n→+∞ ∀ϵ > 0, P(∣Zn − Z ∣ > ϵ) Ð→ 0 n→+∞ Cas multidimensionnel : soit (Yi )i∈N⋆ une suite de vecteurs aléatoires i.i.d. de dimension d (c-à-d, pr tt i ∈ N⋆ , Yi = (Y1,i ,... , Yd,i ) ∈ Rd ), tq E[∣∣Y1 ∣∣2d ] < +∞ d (où ∣∣Y1 ∣∣2 = ∑ (Yj,1 )2 ) d j=1 , alors 1 n n P i=1 n→+∞ ∑ Yi Ð→ E[Y1 ] Rappel : pour Z , (Zn )n∈N⋆ des vecteurs aléatoires de dimension d, P Zn Ð→ Z si ∀ϵ > 0, P(∣∣Zn − Z ∣∣d > ϵ) Ð→ 0 n→+∞ 28/35 n→+∞ Théorème de l’Application Continue Soit (Ω, A, P) l’espace de probabilité sur lesquel sont définies ttes les v.a.r. (resp. ts les vecteurs aléatoires). Sous les hypothèses : Cas unidimensionnel : (Yn )n∈N⋆ , Z v.a.r., et g ∶ R → R fct continue sur Z (Ω) (en fait en toute généralité on note Dg l’ensemble des points de discontinuité de g (càd ∀x ∈ R/Dg , g est continue en x , et ∀x ∈ Dg , g n’est pas continue en x ), et l’on suppose que P(Z ∈ Dg ) = 0) Cas multidimensionnel : soit d, d ′ ∈ N⋆ , (Yn )n∈N⋆ , Z vecteurs aléatoires ′ de dimension d, et g ∶ Rd → Rd fct continue sur Z (Ω). (en fait en toute généralité on note Dg l’ensemble des points de discontinuité de g (càd ∀x ∈ Rd /Dg , g est continue en x , et ∀x ∈ Dg , g n’est pas continue en x ), et l’on suppose que P(Z ∈ Dg ) = 0. On a les implications suivantes : P P n→+∞ n→+∞ Yn Ð→ Z ⇒ g(Yn ) Ð→ g(Z ) Yn L sous P L sous P n→+∞ n→+∞ Ð→ Z ⇒ g(Yn ) Ð→ g(Z ) P−p.s. P−p.s. n→+∞ n→+∞ Yn Ð→ Z ⇒ g(Yn ) Ð→ g(Z ) 29/35 Lemme de Slutsky Lemme de Slutsky Version simple : On se place sous l’une de ces deux hypothèses : Cas unidimensionnel : (Yn )n∈N⋆ , (Cn )n∈N⋆ , (Cn′ )n∈N⋆ , Z des v.a.r. et c, c ′ ∈ R des constantes réelles (déterministes) Cas multidimensionnel : pour d, d ′ ∈ N⋆ (Yn )n∈N⋆ , Z vecteurs aléatoires de dimension d, (Cn )n∈N⋆ , (Cn′ )n∈N⋆ ′ des matrices aléatoires de Md ′ ,d (R), et c, c ′ ∈ Rd des vecteurs réels (déterministes) Si Yn Ð→ Z , Cn Ð→ c, Cn′ Ð→ c ′ , alors Cn Yn + Cn′ Ð→ c Z + c ′ L L L L n→+∞ n→+∞ n→+∞ n→+∞ L L n→+∞ n→+∞ Version complète : Si Yn Ð→ Z et Yn′ Ð→ c où Z aléatoire, et c constante. Alors : L (Yn , Yn′ ) Ð→ (Z , c) n→+∞ L (c-à-d pr tte fct test réelle continue bornée Ψ, on a E[Ψ(Yn , Yn′ )] Ð→ E[Ψ(Z , c)] ) n→+∞ L Et, d’après le Théorème de l’Application continue, cela implique que, pr toute fonction Ψ continue, Ψ(Yn , Yn′ ) Ð→ Ψ(Z , c) n→+∞ 30/35 Théorème Central Limite Cas unidimensionnel : Si (Yi )i∈N⋆ suite de v.a.r. i.i.d. tq E[∣Y1 ∣2 ] < +∞ n √ L alors : n( n1 ∑ Yi − E[Y1 ]) Ð→ N (0 , Var[Y1 ]) n→+∞ i=1 c-à-d √ n 1 n n ∑ Yi −E[Y1 ] L √ Ð→ Var[Y1 ] n→+∞ i=1 Y n −E[ Y n ] L √ Ð→ Var[ Y n ] n→+∞ N (0, 1) ou encore, en notant Y n = 1 n n ∑ Yi i=1 N (0, 1) ce qui permet de dire que, pour n assez grand, Y n suit approximativement la loi N (E[ Y n ], Var[ Y n ]) Cas multidimensionnel : Si (Yi = (Y1,i ,... , Yd,i )) aléatoires i.i.d. de Rd tq E[∣∣Y1 ∣∣2d ] < +∞ alors : √ 1 n L n ( n ∑ Yi − E[Y1 ] ) Ð→ Nd (0d,1 , Var[Y1 ]) i=1 31/35 n→+∞ i∈N⋆ suite de vecteurs Delta-Méthode en dimension d = 1 Soit (Ω, A, P) un espace de probabilité. Supposons que U ouvert inclus dans R (Yn )n∈N⋆ suite de v.a.r. définies sur (Ω, A, P) et à valeurs dans U, tq P Yn Ð→ a ∈ R n→+∞ √ L n(Yn − a) Ð→ N (0, σ 2 ) où σ 2 ∈ R⋆+ n→+∞ g ∶ U → R de classe C 1 tq pr tt y ∈ U, g ′ (y) ≠ 0 (la condition supplémentaire que j’avais mise dans le Chapitre 0 était inutile) Alors : 32/35 √ L 2 n( g(Yn ) − g(a) ) Ð→ N (0, (g ′ (a)) σ 2 ) n→+∞ Delta-Méthode en dimension d = 2 Soit (Ω, A, P) un espace de probabilité. Supposons que U ouvert inclus dans R2 (Yn = (Y1,n , Y2,n ))n∈N⋆ suite de couples aléatoires définis sur (Ω, A, P) et à valeurs dans U, tel que a1 ) ∈ U vecteur constant n→+∞ a2 √ L 0 n(Yn − a) Ð→ N2 ( ( ) , Σ) où Σ ∈ S2+⋆ (R) n→+∞ 0 P Yn Ð→ a où a = ( g = (g1 , g2 ) ∶ y = (y1 , y2 ) ∈ U ↦ ( g1 (y), g2 (y) ) ∈ R2 de classe C 1 tq pr tt y ∈ U, la matrice jacobienne de g en y, notée Jg (y), est inversible ⎛ (rappel : Jg (y) = ⎜ ⎝ ∂g1 ∂y1 ∂g2 ∂y1 (y) (y) ∂g1 ∂y2 ∂g2 ∂y2 (y) ⎞ ⎟ ) (y) ⎠ (la condition suppl. que j’avais mise dans le Chapitre 0 était inutile) Alors : 33/35 √ L 0 n( g(Yn ) − g(a) ) Ð→ N2 ( ( ) , Jg (a) Σ t Jg (a)) n→+∞ 0 Delta-Méthode en dimension d Soit (Ω, A, P) un espace de probabilité et d ∈ N⋆ , d ≥ 3. Supposons que U ouvert inclus dans Rd (Yn = (Y1,n ,... , Yd,n ))n∈N⋆ suite de vecteurs aléatoires définis sur (Ω, A, P) et à valeurs dans U, tel que P Yn Ð→ a où a = (a1 ,... , ad ) ∈ U vecteur constant n→+∞ √ L n(Yn − a) Ð→ Nd (0d,1 , Σ) où Σ ∈ Sd+⋆ (R) n→+∞ g ∶ y = (y1 ,... , yd ) ∈ U ↦ ( g1 (y),... , gd (y) ) ∈ Rd de classe C 1 tq pr tt y ∈ U, la matrice jacobienne de g en y, notée Jg (y), est inversible ∂g (rappel : Jg (y) = [ ∂yi (y)]1≤,i,j≤d ; rq : dans le cas où g affine du type g ∶ y ↦ Ay + b, avec Jg (E[X1 ]) la matrice j jacobienne de g en E[X1 ] est cste égale à A ) (la condition suppl. que j’avais mise dans le Chapitre 0 était inutile) √ L Alors : n( g(Yn ) − g(a) ) Ð→ Nd (0d,1 , Jg (a) Σ t Jg (a)) n→+∞ 34/35 Delta-Méthode en dimension d × 1 Soit (Ω, A, P) un espace de probabilité et d ∈ N⋆ , d ≥ 2. Supposons que U ouvert inclus dans Rd (Yn = (Y1,n ,... , Yd,n ))n∈N⋆ suite de vecteurs aléatoires définis sur (Ω, A, P) et à valeurs dans U, tel que P Yn Ð→ a où a = (a1 ,... , ad ) ∈ U vecteur constant n→+∞ √ L n(Yn − a) Ð→ Nd (0d,1 , Σ) où Σ ∈ Sd+⋆ (R) n→+∞ g ∶ y = (y1 ,... , yd ) ∈ U ↦ g(y1 ,... , yd ) ∈ R de classe C 1 tq pr tt y ∈ U, ∂g ⎛ ∂y1 (y)⎞ ⎟ le gradient de g en y, ∇g(y) ∶= ⎜ ⎜ ⋮ ⎟ est non nul ∂g ⎝ ∂y (y)⎠ d Alors : 35/35 √ L n( g(Yn ) − g(a) ) Ð→ Nd (0d,1 , t ∇g(a) Σ ∇g(a)) n→+∞

Use Quizgecko on...
Browser
Browser