Plan Chapitre 1: Lois Multidimensionnelles - PDF

Document Details

DarlingAustin

Uploaded by DarlingAustin

Université d'Aix-Marseille

Tags

statistical theory multivariate analysis probability theory mathematical statistics

Summary

Ce document présente le chapitre 1 sur les lois multidimensionnelles. Il aborde les concepts fondamentaux de vecteurs aléatoires, de lois jointes et de lois marginales, ainsi que leur application au cas discret et réel de variables. Le document est destiné à des étudiants de niveau M1 en statistique.

Full Transcript

Aix-Marseille Université M1 – Statistique Chapitre 1 : Lois multidimensionnelles Dans tout le chapitre, (Ω, A , P) désigne un espace probabilisé, 1 Vecteur aléa...

Aix-Marseille Université M1 – Statistique Chapitre 1 : Lois multidimensionnelles Dans tout le chapitre, (Ω, A , P) désigne un espace probabilisé, 1 Vecteur aléatoire, loi jointe, lois marginales. Soit (Ei )1≤i≤d une famille d’ensembles, chacun muni d’une tribu Ei. Pour tout i ∈ {1, · · · , d}, on se donne une fonction Xi : (Ω, A ) → (Ei , Ei ). Définition 1. La famille X = (Xi )1≤i≤d : Ω → ×1≤i≤d Ei est un vecteur aléatoire si quelque soit i ∈ {1, · · · , d}, Xi est une variable aléatoire à valeurs dans Ei. Définition 2. La tribu produit E = ⊗i∈I Ei sur E = ×1≤i≤d Ei est la plus petite tribu sur E qui rend ces deux points équivalents pour toute famille (Xi )1≤i≤d : 1. (Xi )1≤i≤d est un vecteur aléatoire ; 2. X = (Xi )1≤i≤d est une variable à valeurs dans (E, E ) au sens de la définition (14) du Chapitre 0. C’est la plus petite tribu contenant tous les ensembles de la forme ×1≤i≤d Ai , où Ai ∈ Ei pour tout i ∈ {1, · · · , d}. Définition 3. La loi jointe du vecteur aléatoire X est la loi de X vu comme une variable aléatoire à valeurs dans (E, E ). Les lois marginales de X sont les lois des Xi , pour i ∈ I. Proposition 4. Si on connait la loi jointe µ de X, alors on connait toutes les lois marginales µi de X. La réciproque est fausse. 1.1 Cas discret. Dans cette sous-sous section, les Ei sont finis ou dénombrables. Par conséquent, E est fini ou dénombrable, et la loi de X est caractérisée par sa fonction de masse f : E → [0; 1] définie pour tout x = (x1 ,... , xd ) ∈ E par f (x1 ,... , xd ) = P(X1 = x1 ,... , Xd = xd ). Proposition 5. Lois marginales dans le cas discret. Fixons j entre 1 et d. Si f est la fonction de masse X, et fj la fonction de masse de Xj , alors, pour tout xj ∈ Ej , on a X X X X fj (xj ) = ··· ··· f (x1 , · · · , xd ). x1 ∈E1 xj−1 ∈Ej−1 xj+1 ∈Ej+1 xd ∈Ed 1.2 Cas réel. Dans cette sous-sous section, on suppose que tous les Ei sont égaux à R et E = Rd. Définition 6. La fonction de répartition de X est la fonction F : Rd → [0; 1] définie pour tout (x1 ,... , xd ) ∈ Rd par F (x1 ,... , xd ) = P(X1 ≤ x1 ,... , Xd ≤ xd ). Proposition 7. Fonction de répartition des lois marginales. Fixons j entre 1 et d. Soit F la fonction de répartition de X et Fj celle de Xj. Alors, pour tout xj ∈ R, Fj (xj ) = lim · · · lim lim · · · lim F (x1 , · · · , xd ) x1 →+∞ xj−1 →+∞ xj+1 →+∞ xd →+∞ et ces limites commutent. Définition 8. La loi µ admet pour densité jointe la fonction f : Rd → [0; +∞[ si, pour tout A borélien de Rd , ˙ µ(A) = f (x) dx. x∈A ∂d F Proposition 9. Si µ admet une densité f , et si F est la fonction de répartition de µ, alors p.p. f =. ∂x1 · · · ∂xd Proposition 10. Densités marginales. Fixons j entre 1 et d. Si la loi de X admet pour densité jointe f , alors la loi de Xj admet une densité fj , dite densité marginale, et pour (presque) tout xj ∈ R, ˙ ˙ fj (xj ) = f (x) dx1 · · · dxj−1 dxj+1 · · · dxd. (x1 ,...,xj−1 )∈Rj−1 (xj+1 ,...,xd )∈Rd−j Master MAS 1 Aix-Marseille Université M1 – Statistique 1.3 Autres cas Dans un vecteur aléatoire, certaines coordonnées peuvent être des variables aléatoires discrètes, et d’autres des variables aléatoires réelles,... Exemples. Variables aléatoires complexes... 1.4 Calculs effectifs Il arrive souvent qu’on s’intéresse à la loi d’un vecteur Y défini à partir d’un vecteur X dont on connait la loi, par une relation Y = φ(X). On peut alors tenter de calculer la fonction de répartition, ou la fonction caractéristique de Y , ces deux fonctions caractérisant la loi de Y. De façon plus générale, on peut tenter d’exprimer E(h(Y )) pour une fonction h mesurable bornée (méthode de la fonction muette). Si X est de densité f , on a ˙ E(h(Y )) = E(h ◦ φ(X)) = h ◦ φ(x)f (x)dx1 · · · dxd. Rd ´ On cherche alors à exprimer cette intégrale sous la forme h(y )g(y )dy. Si cela est possible, g est la densité de Y. Dans ce cadre, on rappelle la formule du changement de variables. Proposition 11. Formule du changement de variables. Soit φ : Rd → Rd un difféomorphisme (i.e. une bijection différentiable et d’inverse φ−1 différentiable) qui à x = (x1 , · · · , xd ) associe φ(x) = (φ1 (x), · · · , φd (x)). On note Jφ (x) la matrice jacobienne de φ définie par  ∂φ1 ∂φd  ∂x1 (x) · · · ∂x1 (x) ...  Jφ (x) = .. ···. . ∂φ1 ∂φd ∂xd (x) ··· ∂xd (x) Alors, on a ˙ ˙ 1 h ◦ φ(x)dx1 · · · dxd = h(y ) dy1 · · · dyd. Rd Rd |det(Jφ )(φ−1 (y ))| 2 Variance, matrice de covariance. 2.1 Variance, covariance. Soit X et Y deux variables aléatoires réelles telle que E(X 2 ) < +∞ et E(Y 2 ) < +∞ (on dit alors que X et Y sont de carré intégrable). Définition 12.   var(X) := E (X − E(X))2 = E(X 2 ) − E(X)2. cov(X, Y ) := E [(X − E(X)) (Y − E(Y ))] = E(XY ) − E(X)E(Y ). Proposition 13. Propriétés de la variance. 1. var(X) ≥ 0. 2. var(X) = 0 ssi X est p.s. constante (égale à E(X)).  3. Pour tout m ∈ R, var(X) ≤ E (X − m)2. Ainsi E(X) est la meilleure prédiction (au sens du risque quadratique) que l’on peut faire de la variable X. 4. Pour tout réel α, var(αX) = α2 var(X). 5. var(X + Y ) = var(X) + var(Y ) + 2cov(X, Y ). 2.2 Matrice de covariance. Soit X = (X1 , · · · , Xd ) un vecteur aléatoire tel que E(kXk2 ) < +∞. Définition 14. La matrice de covariance de X est la matrice carrée de dimension d, notée Γ, définie par ∀i , j ∈ {1, · · · , d} , Γi,j = cov(Xi , Xj ). Master MAS 2 Aix-Marseille Université M1 – Statistique Proposition 15. Propriétés de la matrice de covariance.  2  d T Pd 1. Pour tout vecteur α ∈ R , α Γα = E i=1 αi (Xi − E(Xi ). 2. Γ est une matrice symétrique positive. 3. Γ admet une valeur propre nulle ssi les variables Xi sont linéairement dépendantes, i.e. il existe des réels α0 , α1 , · · · , αd tels que α0 + α1 X1 + · · · + αd Xd = 0 p.s. 4. Si A est une matrice l × d, et Y = AX, la matrice de covariance de Y est la matrice carrée de dimension l donnée par AΓ tA. 3 Indépendance. 3.1 Indépendance d’évènements. Définition 16. Deux évènements A et B sont indépendants ssi P(A ∩ B) = P(A)P(B) (ou de façon équivalente lorsque P(B) > 0, P(A|B) = P(A)). Définition 17. Une famille d’évènementsQ (Ai )i∈I est une famille d’évènements indépendants ssi pour toute sous-famille d’indices J ⊂ I de cardinal fini, on a P(∩j∈J Aj ) = j∈J P(Aj ). 3.2 Indépendance de variables aléatoires. On se donne deux variables aléatoires X et Y définies sur (Ω, A , P) et à valeurs respectives dans (E, E ) et (F, F ). Définition 18. X et Y sont indépendantes ssi pour tout A ∈ E et tout B ∈ F , P(X ∈ A; Y ∈ B) = P(X ∈ A)P(Y ∈ B). Proposition 19. Les fonctions (mesurables) de variables indépendantes sont des variables indépendantes. Soit f une fonction mesurable 1 de (E, E ) à valeurs dans (E 0 , E 0 ). Soit g une fonction mesurable de (F, F ) à valeurs dans (F 0 , F 0 ). Si X et Y sont indépendantes, alors f (X) et g(Y ) sont indépendantes. Proposition 20. Cas des variables discrètes. Lecture de l’indépendance sur la fonction de masse. Si les ensembles E et F sont de cardinal fini ou dénombrables, les variables X et Y sont indépendantes ssi pour tout x ∈ E et tout y ∈ F , P(X = x; Y = y ) = P(X = x)P(Y = y ) (la fonction masse du couple est le produit des fonctions masse de chacune des variables). Proposition 21. Cas des variables réelles. Indépendance et non corrélation. On suppose que E = F = R, et E = F = B(R), et que les variables X et Y sont de carré intégrable. Si X et Y sont indépendantes, cov(X, Y ) = 0. La réciproque est fausse. Proposition 22. Cas des variables réelles. Lecture de l’indépendance sur la fonction de répartition. On suppose que E = F = R, E = F = B(R). Les variables X et Y sont indépendantes ssi pour tout x ∈ R et tout y ∈ R, P(X ≤ x; Y ≤ y ) = P(X ≤ x)P(Y ≤ y ) (la fonction de répartition du couple est le produit des fonctions de répartition de chacune des variables). Proposition 23. Cas des variables réelles. Lecture de l’indépendance sur la fonction caractéristique. On suppose que E = F = R, et E = F = B(R). On note φ(X,Y ) , φX , φY les fonctions caractéristiques du couple (X, Y ), et des variables X et Y. Les variables X et Y sont indépendantes ssi pour tout θ = (θx , θy ) ∈ R2 , φ(X,Y ) (θ) = φX (θx )φY (θy ) (la fonction caractéristique du couple est le produit des fonctions caractéristiques de chacune des variables). Proposition 24. Cas des variables réelles à densité. Lecture de l’indépendance sur la densité. On suppose que E = F = R, et E = F = B(R), et que le couple (X, Y ) est de densité h(x, y ). Soit f et g les densités de X et Y (qui existent d’après la proposition 10). Les variables X et Y sont indépendantes ssi pour presque tout (x, y ) ∈ R2 , h(x, y ) = f (x)g(y ) (la densité du couple est le produit des densités de chacune des variables). Question : Cas où X est discrète et Y est réelle ? ? ? Tout ce qui précède se généralise à plus de deux variables aléatoires. Donner les énoncés correspondants. 1. Une fonction f de (E, E ) dans (E 0 , E 0 ) est dite mesurable ssi pour tout évènement A de E 0 (i.e. A ∈ E 0 ), l’ensemble f −1 (A) est un évènement de E (i.e.f −1 (A) ∈ E ) Master MAS 3 Aix-Marseille Université M1 – Statistique 4 Vecteurs gaussiens Définition 25. Soit X = (X1 , · · · , Xd ) un vecteur aléatoire de dimension d. X est un vecteur gaussien ssi toute combinaison linéaire des coordonnées de X est une variable réelle gaussienne : pour tout α = (α1 , · · · , αd ) ∈ Rd , hα, Xi := α1 X1 +· · ·+αd Xd est une variable gaussienne. Proposition 26. Fonction caractéristique d’un vecteur gaussien. X est un vecteur gaussien ssi il existe m ∈ Rd et une matrice symétrique positive Γ de dimension d × d, tels que la fonction caractéristique φX de X vaut   1 φX (t) = exp (i ht, mi) exp − ht, Γti. 2 m est alors le vecteur des moyennes de X et Γ sa matrice de covariance :     E(X1 ) var(X1 ) ··· cov(X1 , Xd ) .. ...... m := .  ; Γ := (cov(Xi , Xj ))1≤i,j≤d =   ...  E(Xd ) cov(Xd , X1 ) ··· var(Xd ) On note X ∼ Nd (m, Γ). Proposition 27. Transformation linéaire d’un vecteur gaussien. Soit X un vecteur gaussien de dimension d : X ∼ Nd (m, Γ). Soit A une matrice de dimension l ×d et b un vecteur de dimension l. Le vecteur AX + b est un vecteur gaussien de loi Nl (Am + b, AΓAT ). Proposition 28. Indépendance dans un vecteur gaussien. Soit X = (X1 , · · · , Xd ) un vecteur gaussien. Pour tous sous-ensembles d’indices I, J de {1, · · · , d}, (Xi )i∈I et (Xj )j∈J sont indépendants ssi cov(Xi , Xj ) = 0 pour tout i ∈ I, et tout j ∈ J. Proposition 29. Densité d’un vecteur gaussien. Soit X un vecteur gaussien de dimension d : X ∼ Nd (m, Γ). X admet une densité sur Rd ssi Γ est définie positive. Dans ce cas, la densité de X est donnée par   1 1 1 −1 fX (x) = √ n p exp − (x, Γ x). 2π det(Γ) 2 5 Conditionnement. 5.1 Loi conditionnelle par rapport à une variable. Soit (X, Y ) un couple de variables aléatoires à valeurs respectives dans (E, E ) et (F, F ). Le but de ce chapitre est de donner une réponse à la question : si j’observe la variable Y , que puis-je dire de la distribution de X ? 5.1.1 Cas où Y est une variable discrète. Pour tout valeur possible y de la variable Y telle que P(Y = y ) > 0, la loi conditionnelle de X sachant que Y = y est la probabilité sur (E, E ) qui à un évènement A ∈ E associe P(X ∈ A; Y = y ) P(X ∈ A|Y = y ) =. (1) P(Y = y ) Elle dépend de la valeur fixée y. Si X est une variable discrète, elle est caractérisée par sa distribution conditionnelle qui à x ∈ E associe P(X = x|Y = y ). On a P(X = x; Y = y ) P(X = x|Y = y ) = P. (2) z∈E P(X = z; Y = y ) Master MAS 4 Aix-Marseille Université M1 – Statistique 5.1.2 Cas où (X, Y ) admet une densité. Dans ce cas, la variable Y admet aussi une densité et pour tout y ∈ R, P(Y = y ) = 0. De même pour tout évènement A ∈ B(R) et tout y ∈ R, P(X ∈ A; Y = y ) = 0. Ainsi, l’expression (1) est une forme indéterminée du type "0/0". Pour définir la probabilité conditionnelle, on doit utiliser un passage à la limite, et définir ”P(X ∈ A|Y = y )” comme la limite quand  tend vers 0 de P(X ∈ A|Y ∈ [y − ; y + ]). Si f (x, y ) désigne la densité de (X, Y ), on a alors ´ f (x, y ) dx P(X ∈ A|Y = y ) = x∈A ´. R f (x, y )dx Ainsi, la densité conditionnelle de X sachant Y = y est donnée par l’expression (à rapprocher de (2)) f (x, y ) fX|Y =y (x) = ´. R f (x, y )dx 5.1.3 Indépendance et conditionnement. Proposition 30. Les variables X et Y sont indépendantes ssi pour tout y ∈ F , la loi conditionnelle de X sachant Y = y ne dépend pas de y : ∀A ∈ E , P(X ∈ A|Y = y ) = P(X ∈ A) ; 5.2 Espérance conditionnelle Soit X une v.a. ou un vecteur aléatoire et Y une v.a. réelle. On cherche à définir l’espérance conditionnelle de Y sachant X comme une moyenne de Y à X fixé. Voici la définition générale. Définition 31. On suppose que E(|Y |) < +∞. L’espérance conditionnelle de Y sachant X, notée E(Y |X), est une variable aléatoire Z intégrable telle que 1. il existe une fonction (mesurable) η telle que Z = η(X), 2. pour toute fonction ζ mesurable bornée, E [Y ζ(X)] = E [Zζ(X)].. (3) Proposition 32. Deux variables aléatoires Z1 et Z2 qui vérifient les deux conditions ci-dessus sont égales presque sûrement. La fonction η est unique (à un presque partout près) sur le support de la loi de X. On note alors η(x) par E(Y |X = x).   E Y 1{X = x} Attention, bien souvent ici, P(X = x) = 0 et donc E(Y |X = x) 6=. On peut vérifier en revanche que cette P(X = x) formule est vraie si la loi de X est discrète (voir proposition ci-dessous). Si A est un événement, P(A|X) est une espérance conditionnelle de Y = 1A sachant X, i.e.. P(A|X) = E(1A |X) p.s. La définition ci-dessus n’est pas intuitive. Mais si on suppose que Y est L2 , on obtient une caractérisation de E(Y |X) plus claire. Proposition 33. Caractérisation dans le cas L2. Si E(Y 2 ) < ∞, alors E(Y |X) est la meilleure approximation de Y par une fonction de X au sensdes moindres carrés. Autrement dit, quelque soit la variable aléatoire Z 0 = η 0 (X) de carré intégrable, E (Y − E(Y |X))2 ≤ E (Y − η 0 (X))2 Proposition 34. Calcul dans le cas où X est discrète. On suppose que l’ensemble {xi , i ∈ I} des valeurs prises par X est de cardinal fini ou dénombrable. Alors, X E(Y 1IX=xi ) E(Y |X) = E(Y |X = xi ) 1IX=xi , où E(Y |X = xi ) =. P(X = xi ) i∈I Master MAS 5 Aix-Marseille Université M1 – Statistique Proposition 35. Calcul dans le cas où (X, Y ) a une densité. On suppose ´ que le couple (X, Y ) est de densité f (x, y ) sur R2. On note g la densité de la loi marginale de X, autrement dit g(x) = f (x, y ) dy pour tout x. On a alors ˆ f (X, y ) E(Y |X) = y dy p.s.. R g(X) Autrement dit, quelque soit x, ˆ ˆ f (x, y ) E(Y |X = x) = y dy = y fY |X=x (y ) dy. R g(x) R Théorème 36. Désintégration. Soit Y est une v.a. indépendante de X, et soit T est une variable aléatoire fonction de X. Soit ϕ une fonction mesurable. Si ϕ(T, Y ) est intégrable, alors    E ϕ(T, Y ) X = Φ(T ) p.s. où, pour tout t, Φ(t) = E ϕ(t, Y ). Proposition 37. Propriétés de l’espérance conditionnelle de Y sachant X. Dès que les variables aléatoires à l’intérieur des espérances conditionnelles sont intégrables, on a   1. E E(Y |X) = E(Y ) 2. si Y ≥ 0 p.s., alors E(Y |X) ≥ 0 p.s. ; si Y1 ≤ Y2 p.s., alors E(Y1 |X) ≤ E(Y2 |X) 3. si α et β sont deux constantes, E(αY1 + βY2 |X) = αE(Y1 |X) + βE(Y2 |X) p.s. 4. si X et Y sont indépendantes, E(Y |X) = E(Y ) p.s. 5. (Jensen conditionnel) si ϕ est une fonction convexe telle que ϕ(Y ) soit intégrable, alors     ϕ E(Y |X) ≤ E ϕ(Y ) X p.s. 6. si T est une fonction de X, alors E(T Y |X) = T E(Y |X) p.s. 7. (Beppo-Levi conditionnel) si (Yn ) est une suite croissante de v.a. positives, et si Y∞ = limn Yn , alors lim E(Yn |X) = E(Y∞ |X) p.s. n   8. (Fatou conditionnel) si (Yn ) est une suite de v.a. positives, alors E lim inf Yn X ≤ lim inf E(Yn |X) p.s. n n 9. (Lebesgue conditionnel) si (Yn ) est une suite de v.a. qui converge p.s. vers Y∞ et s’il existe Z intégrable telle que pour tout n, |Yn | ≤ Z, alors,   E Yn − Y∞ X → 0 p.s. 5.3 Conditionnement dans un vecteur gaussien. Proposition 38. Soit X et Y deux vecteurs  aléatoires  (de dimension respective n  et d) tels que(X, Y ) est un vecteur gaussien de mX ΓXX ΓXY dimension n+d de vecteur des moyennes et de matrice de covariance Γ =. On suppose que ΓXX est définie mY ΓY X ΓY Y positive. La loi conditionnelle du vecteur Y sachant X est la loi d’un vecteur gaussien de moyenne mY + ΓY X (ΓXX )−1 (X − mx ) et de matrice de covariance ΓY Y − ΓY X (ΓXX )−1 ΓXY. En particulier, E(Y |X) = mY + ΓY X (ΓXX )−1 (X − mx ) est une transformation affine de X. 6 Convergence des moyennes empiriques. Les deux théorèmes de cette section donnent des informations sur le comportement quand n tend vers l’infini de moyennes empiriques. Aussi, ils sont au coeur de la statistique dans la limite des grands échantillons. Dans toute la suite, on se donne une suite de vecteurs aléatoires (Xn )n≥1 indépendants et de même loi ("i.i.d." pour "indépendants identiquement distribués") à Master MAS 6 Aix-Marseille Université M1 – Statistique valeurs dans Rd. On suppose que E(kX1 k) < +∞ et on note m le vecteur des moyennes : m = E(X1 ). Lorsque E(kX1 k2 ) < +∞, on peut aussi définir la matrice Γ de covariance de X1. On pose 1 Sn Sn := X1 + · · · + Xn ∈ Rd , et X̄n := (X1 + · · · + Xn ) = ∈ Rd n n la moyenne empirique des Xi. Proposition 39. Moyenne et matrice de covariance de la moyenne empirique. 1. Si E(kX1 k) < +∞, on a E(X̄n ) = m. 1 2. Si E(kX1 k2 ) < +∞, la matrice de covariance Γ̄n de X̄n est égale à Γ/n : Γ̄n = Γ. n En particulier, h 2 i 1 E X̄n − m = Trace(Γ̄n ) = Trace(Γ) , n et L2 X̄n −−−−→ m. n→+∞ Ainsi, la moyenne empirique converge en moyenne quadratique vers la moyenne théorique. Ce dernier résultat peut être consi- dérablement amélioré : Théorème 40. Loi forte des grands nombres. p.s. On suppose que E(kX1 k) < +∞. Alors X̄n −−−−→ m. n→+∞ Ainsi, en dehors d’un ensemble de probabilité nulle, une réalisation de la moyenne empirique (i.e. le calcul de la moyenne empirique sur un tirage de notre échantillon) converge vers la moyenne théorique. Le résultat suivant précise à quelle vitesse a lieu la convergence de la moyenne empirique vers la moyenne théorique, et quelle est la distribution statistique des fluctuations de la moyenne empirique autour de la moyenne théorique. Il permet par conséquent de construire des intervalles de confiance pour la moyenne théorique. Théorème 41. Théorème central limite. On suppose que E(kX1 k2 ) < +∞. Alors, √  loi n X̄n − m −−−−→ Z ∼ N (0, Γ). n→+∞ Le théorème central limite se généralise à des fonctions suffisamment régulières de la moyenne empirique : Corollaire 42. Soit f une fonction de Rd à valeurs de R, de classe Cb1. Alors √  loi n f (X̄n ) − f (m) −−−−→ Z ∼ N (0, h∇f (m), Γ∇f (m)i). n→+∞ 7 Exercices Exercice 1. Quelle est la densité du couple (X, Y ) dont la fonction de répartition jointe est donnée par ( 0 si x < 0, F (x, y ) = (1 − e −x ) 21 + π1 arctan(y )  si x ≥ 0. Exercice 2. Pour les deux fonctions F définies ci-dessous, laquelle ou lesquelles sont des fonctions de répartition de couples (X, Y ) ?  −x −y 1 − e − xe si 0 ≤ x ≤ y , ( −x−y  1−e si x, y ≥ 0, −y −x F (x, y ) = F (x, y ) = 1 − e − y e si 0 ≤ y ≤ x, 0 sinon.  0 sinon.  Si la réponse est oui, quelles sont les deux fonctions de répartitions marginales ? Master MAS 7 Aix-Marseille Université M1 – Statistique Exercice 3. Soit (X, Y, Z) le triplet aléatoire réel dont la densité est définie, lorsqu’elle est non nulle, par   f (x, y , z) = (y − x)2 exp − (1 + z)(y − x) si 0 ≤ x ≤ 1, y ≥ x et z ≥ 0. On note U = X, V = (Y − X) et W = Z(Y − X). Quelle est la loi de (U, V, W ) ? Exercice 4. Soit a > 0 et 0 < p < 1. Soit X une variable aléatoire de loidePoisson P(a). Soit Y une variable aléatoire à n k valeurs entières telle que, pour tous entiers 0 ≤ k ≤ n, P(Y = k|X = n) = p (1 − p)n−k. On pose Z = X − Y. Quelle est k la loi du couple (Y, Z) ? Exercice 5. On lance deux dés, un rouge et un bleu, et on note les numéros obtenus. Soit les évènements A :”le dé rouge amène un numéro pair”, B : “ le dé bleu amène un numéro pair”, C :”la somme des numéros est paire”. Calculer les probabilités de A, B, C. Vérifier que A, B, C sont deux à deux indépendants, mais ne sont pas mutuellement indépendants. Exercice 6. Soient A et B deux évènements incompatibles. Montrer que A et B sont indépendants si et seulement si P(A) ou P(B) est nulle. Exercice 7. On effectue des essais indépendants de probabilité de succès constante égale à p, 0 < p < 1 jusqu’à obtenir un nombre m fixé à l’avance de succès. Soit X le nombre d’essais nécessaires. 1. Calculer la loi de probabilité de X 2. Montrer que E m−1 m   X−1 = p et que E X 6= p (supposer ici m > 1) Exercice  X1 , X2 , X3 , X4 des variables aléatoires indépendantes de loi de Bernoulli B(p). On considère la matrice  8. Soient X1 X2 M= , et on note D son déterminant. Calculer E(D). X3 X4 Exercice 9. On tire au hasard deux numéros de l’ensemble {−2, −1, 0, 1, 2}, et on note X leur produit. Calculer E(X) (1) lorsque le tirage a lieu avec remise ; et (2) lorsque le tirage a lieu sans remise. Exercice 10. Soit X1 , X2 deux variables de Bernoulli indépendantes, de paramètres respectifs p1 et p2. Soit Yi ; i = 1, 2 les variables définies par Yi = 2Xi − 1. Est-ce-que Y1 et Y2 sont indépendantes ? Est-ce-que Y1 et Y1 Y2 sont indépendantes ? Exercice 11. Soit X une variable aléatoire de loi uniforme sur l’intervalle [−2, 1]. On pose Y = |X|, Z = max(X, 0). Trouvez les fonctions de répartition de Y et Z. Y et Z sont-elles des variables à densité ? Y et Z sont-elles indépendantes ? Exercice 12. Soit (X, Y ) un couple de variables aléatoires à valeurs dans {−2, 0, 1} × {−1/2, 0, 1}. Le tableau suivant donne la valeur de P [X = x; Y = y ] pour les différentes valeurs de x et y. y \x -2 0 1 -1/2 1/10 a 0 0 3/10 0 3/10 1 1/10 1/10 0 1. Quelle est la valeur de a ? 2. Quelle est la loi de Y ? 3. Les variables X et Y sont-elles indépendantes ? Justifiez votre réponse. Exercice 13. Soit (X, Y ) un couple de variables aléatoires de densité f(X,Y ) (x, y ) = exp(−y ) 1I0≤x≤y. 1. Vérifier que f(X,Y ) est bien une densité. 2. Les variables X et Y sont-elles indépendantes ? 3. Les variables X et Y − X sont-elles indépendantes ? 4. Quelle est la loi du couple (Y − X, X/Y ) ? Exercice 14. 1. Si X ∼ B(n1 , p) et Y ∼ B(n2 , p) sont deux variables indépendantes, quelle est la loi de X + Y ? 2. Si X ∼ P(λ) et Y ∼ P(µ) sont deux variables indépendantes, quelle est la loi de X + Y ? Exercice 15. Deux centraux téléphoniques, indépendants entre-eux, reçoivent par jour un nombre d’appels X et Y , qui suivent des lois de Poisson de paramètres respectifs λ et µ. 1. Quelle est la probabilité que l’ensemble des deux centraux reçoit au plus 3 appels, lorsque λ = 2 et µ = 4 ? 2. Quelle est la probabilité que X = k sachant que X + Y = n, pour deux entiers k et n ? De quelle loi s’agit-il ? Master MAS 8 Aix-Marseille Université M1 – Statistique 3. En supposant que λ = 2 et µ = 4, et en sachant que l’ensemble des deux centraux a reçu 8 appels, quelle est la probabilité que le premier central en ait reçu k ? Pour quelle valeur de k cette probabilité conditionnelle est maximale ? Exercice 16. Soit (X, Y ) un couple de variables aléatoires dont la loi est définie par le tableau X\Y 0 1 2 0 1/9 2/9 0 1 0 1/9 2/9 2 2/9 0 1/9 1. Montrer que cov(X, Y ) = 0, mais que X et Y ne sont pas indépendantes. 2. Déterminer les fonctions génératrices GX , GY , GX+Y de X, Y , X + Y , et vérifier que l’on a GX GY = GX+Y. 3. Calculer E(X|Y ). Exercice 17. Soit X une v.a. réelle de loi symétrique ( X et −X ont même loi ). Soit ε une v.a. indépendante de X telle que P(ε = 1) = p = 1 − P(ε = −1), pour p dans ]0, 1[. 1. Donner la loi de εX. 2. A quelle condition sur p, la covariance entre X et εX est-elle nulle ? Dans ce cas, ces deux variables sont-elles indépen- dantes ? 3. Soit Y = 1IX>0 − 1IX 0, 1 P(|Yn − p| ≥ ) ≤ 4n 2. En déduire une condition sur n pour que l’approximation donne une valeur approchée de p à 0,01 près avec une probabilité supérieure ou égale à 95%. P symétrique (P (ε = 1) = P (ε = −1) = 1/2) et (εi )i>0 une Exercice 26 (Inégalité de Chernov). Soit ε une variable de signe suite de v.a. indépendantes de même loi que ε. On pose Sn = ni=1 εi. 1. En appliquant l’inégalité de Markov à exp(tSn ), montrer que pour tout t > 0 et tout λ ≥ 0, P (Sn > λ) ≤ exp(−λt)ch(t)n. 2. En optimisant cette inégalité en t, en déduire que ∀λ ≥ 0,   Sn P > λ ≤ exp(−nh(λ)) , n où la fonction h est définie par 1  λArcth(λ) + 2 log(1 − λ2 ) si λ ∈ [0; 1[ h(λ) =. +∞ si λ ≥ 1 Pn Exercice 27. Soit X une variable de Cauchy, et (Xn )n≥0 une suite de v.a.i.i.d de même loi que X. On pose Sn = i=1 Xi. Montrez que Sn /n converge en loi. Exercice 28. Soit (Xn )n≥0 une suite de v.a.i.i.d de densité f (x) = 34 (1 − x 2 ) 1I|x|≤1. On pose ξn = max(X1 , · · · , Xn ). pr oba 1. Montrez que ξn −−−−→ 1. n→+∞ √ 2. Montrez que n(1 − ξn ) converge en loi et donner l’expression de la densité de la loi limite. Exercice 29. On génère à l’ordinateur 100000 nombres aléatoires u1 , · · · , , u100000 selon une loi uniforme sur [0, 1], et on calcule leur moyenne géométrique (u1 u2 · · · u100000 )1/100000. Cette valeur sera très proche d’un certain nombre a. Quel est ce nombre a ? Exercice 30. Soit (Xn )n≥1 une suite de variables aléatoires réelles i.i.d. dont la loi commune admet pour densité f (x) = 1[1/2,3/2] (x). On pose pour tout n ≥ 1, Yn = ni=1 Xi. Q 1. Montrer que la suite (Yn )n≥0 converge presque sûrement vers 0. (Indication : considérer la suite log Yn.) 2. La suite (Yn )n≥0 converge-t’elle dans L1. Exercice 31. Soient X1 , · · · , X1000 des variables aléatoires suivant la loi uniforme sur l’intervalle [0, 1]. Soit M le nombre d’entre elles comprises entre 1/4 et 3/4. Déterminer par approximation normale P(|M − 500| > 20). Exercice 32. Supposons qu’on ait lancé 10000 fois une pièce de monnaie bien équilibrée. Master MAS 10 Aix-Marseille Université M1 – Statistique 1. Trouver un intervalle symétrique autour de 5000 contenant le nombre de pile avec une probabilité supérieure à 0, 99. 2. Comparer le résultat avec celui obtenu en appliquant l’inégalité de Chebychev. Exercice 33. Soit X ∼ P(λ) et Yλ = X−λ √. λ 1. Montrer que Yλ converge en loi lorsque λ → ∞, et déterminer sa loi limite. 2. Retrouver le résultat comme conséquence du théorème Central-Limite , en supposant λ → ∞ dans N; k 3. Montrer que e −n nk=0 nk! −−−→ 1/2. P n→∞ Master MAS 11

Use Quizgecko on...
Browser
Browser