Probability Lecture Notes PDF

Document Details

LionheartedStrait

Uploaded by LionheartedStrait

UFR SEGMI

Tags

probability distributions statistics mathematics probability theory

Summary

These notes cover the fundamentals of probability. They include definitions, properties, examples, and applications of various probability distributions, including the Gaussian distribution. The notes are suitable for a graduate-level course in probability theory.

Full Transcript

Probabilités Modèle statistique Densité I Définition : Une variable aléatoire réelle (v.a.r.) X suit la loi de densité f , pour f : R 7! R+ , si pour tous a  b P(X 2 [a, b]) = Z b f (x) dx . a I Propriété : On a alors, pour tous a  b P(X 2]a, b]) = P(X 2 [a, b[) = P(X 2]a, b[) = P(X  b) =...

Probabilités Modèle statistique Densité I Définition : Une variable aléatoire réelle (v.a.r.) X suit la loi de densité f , pour f : R 7! R+ , si pour tous a  b P(X 2 [a, b]) = Z b f (x) dx . a I Propriété : On a alors, pour tous a  b P(X 2]a, b]) = P(X 2 [a, b[) = P(X 2]a, b[) = P(X  b) = P(X < b) = P(X a) = P(X > a) = Généralités Z Z Z b f (x) dx a b f (x) dx 1 +1 f (x) dx . a 3/27 Probabilités Modèle statistique Densité I Définition : Une variable aléatoire réelle (v.a.r.) X suit la loi de densité f , pour f : R 7! R+ , si pour tous a  b P(X 2 [a, b]) = Z b f (x) dx . a I Propriété : On a alors, pour tous a  b P(X 2]a, b]) = P(X 2 [a, b[) = P(X 2]a, b[) = P(X  b) = P(X < b) = P(X a) = P(X > a) = Z Z I Exemple : Soit X v.a.r. de densité f (x) = e P(X  3) = Z 3 f (x) dx = 1 Z 0 0 dx + 1 Z 3 e 0 Généralités Z b f (x) dx a b f (x) dx 1 +1 f (x) dx . a x x si x 0, et f (x) = 0 si x < 0. dx = 0 + [ e x 3 ]0 =1 e 3 . 3/27 Probabilités Modèle statistique Fonction de répartition I Définition : La fonction de répartition F d’une v.a.r. X est définie par pour tout t 2 R F (t) = P(X  t) . I Propriété : On a alors, pour tous a  b P(X 2]a, b]) = P(X  b) P(X > a) = 1 P(X  a) = F (b) P(X  a) = 1 Généralités F (a) F (a) . 4/27 Probabilités Modèle statistique Fonction de répartition et densité I Propriété : Soit X v.a.r. de densité f et de fonction de répartition F , alors F (t) = et Z t f (x) dx 1 f (x) = F 0 (x) . Généralités 5/27 Probabilités Modèle statistique Fonction de répartition et densité I Propriété : Soit X v.a.r. de densité f et de fonction de répartition F , alors F (t) = et Z t f (x) dx 1 f (x) = F 0 (x) . I Exemple : Soit X v.a.r. de densité f (x) = e ( Rt Z t 0 dx = 0 R 01 Rt F (t) = f (x) dx = 1 1 0 dx + 0 e x x si x 0, et f (x) = 0 si x < 0. dx = 0 + [ e Généralités x ]t 0 =1 e t si t < 0 si t 0 5/27 Probabilités Modèle statistique Fonction quantile I Définition : La fonction quantile Q d’une v.a.r. X de fonction de répartition F est définie pour tout p 2]0; 1[ par Q(p) = t () p = F (t) . Autrement dit, Q est la bijection réciproque de la fonction F : Q = F Généralités 1. 6/27 Probabilités Modèle statistique Fonction quantile I Définition : La fonction quantile Q d’une v.a.r. X de fonction de répartition F est définie pour tout p 2]0; 1[ par Q(p) = t () p = F (t) . Autrement dit, Q est la bijection réciproque de la fonction F : Q = F 1. I Remarque : Cette définition n’a pas toujours un sens car la fonction de répartition F d’une v.a.r. n’est pas toujours bijective, on peut la généraliser, mais cette version simplifiée sera suffisante dans ce cours. Généralités 6/27 Probabilités Modèle statistique Fonction quantile I Définition : La fonction quantile Q d’une v.a.r. X de fonction de répartition F est définie pour tout p 2]0; 1[ par Q(p) = t () p = F (t) . Autrement dit, Q est la bijection réciproque de la fonction F : Q = F 1. I Remarque : Cette définition n’a pas toujours un sens car la fonction de répartition F d’une v.a.r. n’est pas toujours bijective, on peut la généraliser, mais cette version simplifiée sera suffisante dans ce cours. I Notation : Pour insister sur le lien entre la loi de X, sa densité, sa fonction de répartition et sa fonction quantile, on notera parfois ces dernières fX , FX et QX . Ces fonctions ne dépendent en fait que de la loi de X. Généralités 6/27 Probabilités Modèle statistique Lien entre fX , FX et QX Densité de X Densité de X FX(t) = β FX(t) QX(β) = t t Généralités 7/27 Probabilités Modèle statistique Catalogue de lois usuelles Variables gaussiennes I Définition : Une v.a.r. X qui suit la loi gaussienne (ou loi normale) de paramètres m 2 R et 2 2 R+⇤ possède la densité pour tout x 2 R On le notera X ⇠ N (m, fX (x) = p 1 2⇡ 2 exp ✓ m)2 (x 2 2 ◆ . 2 ). Généralités 8/27 Probabilités Modèle statistique Variables gaussiennes I Définition : Une v.a.r. X qui suit la loi gaussienne (ou loi normale) de paramètres m 2 R et 2 2 R+⇤ possède la densité pour tout x 2 R On le notera X ⇠ N (m, fX (x) = p 1 2⇡ 2 exp ✓ m)2 (x 2 2 ◆ . 2 ). I Propriétés : Si X ⇠ N (m, 2 ), on a E(X) = m et V ar(X) = Généralités 2. 8/27 Probabilités Modèle statistique Variables gaussiennes I Définition : Une v.a.r. X qui suit la loi gaussienne (ou loi normale) de paramètres m 2 R et 2 2 R+⇤ possède la densité pour tout x 2 R On le notera X ⇠ N (m, fX (x) = p 1 2⇡ 2 exp ✓ m)2 (x 2 2 ◆ . 2 ). I Propriétés : Si X ⇠ N (m, 2 ), on a E(X) = m et V ar(X) = 2. I Propriété : Soit (X1 , . . . , Xn ) une famille de v.a.r. indépendantes telle que Xi ⇠ N (mi , 2 i ). Alors X1 + · · · + Xn ⇠ N (m1 + · · · + mn , Généralités 2 1 + ··· + 2 n) . 8/27 Probabilités Modèle statistique Variables gaussiennes I Définition : Une v.a.r. X qui suit la loi gaussienne (ou loi normale) de paramètres m 2 R et 2 2 R+⇤ possède la densité pour tout x 2 R On le notera X ⇠ N (m, fX (x) = p 1 2⇡ 2 exp ✓ m)2 (x 2 2 ◆ . 2 ). I Propriétés : Si X ⇠ N (m, 2 ), on a E(X) = m et V ar(X) = 2. I Propriété : Soit (X1 , . . . , Xn ) une famille de v.a.r. indépendantes telle que Xi ⇠ N (mi , 2 i ). Alors X1 + · · · + Xn ⇠ N (m1 + · · · + mn , 2 1 + ··· + 2 n) . I Définition : La loi N (0, 1) est appelée loi gaussienne centrée réduite. ? centrée : E(X) = 0, ? réduite : V ar(X) = 1. Généralités 8/27 Probabilités Modèle statistique Graphe de la densité de la loi N (m, 2 ) Pour m = 0 et 2 = 1 ("courbe en cloche") 0.6 0.4 0.8 Pour différentes valeurs de m et 2 0.2 0.4 0.3 N(0, 1.5) 0.2 N(1, 1) 0.0 0.0 0.1 N(0, 0.5) −3 −2 −1 0 1 2 3 −3 Généralités −2 −1 0 1 2 3 9/27 Probabilités Modèle statistique Transformation affine de la loi gaussienne I Propriété : p Soit X ⇠ N (m, 2 ) ( = 2 2 aX + b ⇠ N (am + b, a ). En particulier 2 > 0) et (a, b) 2 R⇤ ⇥ R. Alors Z := X m ⇠ N (0, 1) . Généralités 10/27 Probabilités Modèle statistique Transformation affine de la loi gaussienne I Propriété : p Soit X ⇠ N (m, 2 ) ( = 2 2 aX + b ⇠ N (am + b, a ). En particulier 2 > 0) et (a, b) 2 R⇤ ⇥ R. Alors Z := X m I Conséquences : ✓ t ? pour tout t 2 R, FX (t) = FZ ✓ X car FX (t) = P (X  t) = P m m ⇠ N (0, 1) . ◆  t Généralités m ◆ = FZ ✓ t m ◆ ; 10/27 Probabilités Modèle statistique Transformation affine de la loi gaussienne I Propriété : p Soit X ⇠ N (m, 2 ) ( = 2 2 aX + b ⇠ N (am + b, a ). En particulier 2 > 0) et (a, b) 2 R⇤ ⇥ R. Alors Z := I Conséquences : ? pour tout t 2 R, FX (t) = FZ X ✓ m t m ⇠ N (0, 1) . ◆ ; ? pour tout p 2]0; 1[, QX (p) = QZ (p) + m car QX (p) = t () p = FX (t) () p = FZ () t m ✓ t m ◆ = QZ (p) () t = QZ (p) + m. Généralités 10/27 Probabilités Modèle statistique Transformation affine de la loi gaussienne I Propriété : p Soit X ⇠ N (m, 2 ) ( = 2 2 aX + b ⇠ N (am + b, a ). En particulier 2 > 0) et (a, b) 2 R⇤ ⇥ R. Alors Z := I Conséquences : ? pour tout t 2 R, FX (t) = FZ X ✓ m t m ⇠ N (0, 1) . ◆ ; ? pour tout p 2]0; 1[, QX (p) = QZ (p) + m I Remarque : si X ⇠ N (m, 2 ), on ne sait pas calculer une formule explicite de FX (t), donc on ne sait pas calculer explicitement QX (p) non plus ! Généralités 10/27 Probabilités Modèle statistique Symétrie de la loi N (0, 1) 1 Soit Z ⇠ N (0, 1), de densité fZ (x) = p exp( x2 /2). 2⇡ densité de Z I Propriété : Z a même loi que Z (remarquez que fZ ( x) = fZ (x)) : on dit que la loi N (0, 1) est symétrique. Généralités 11/27 Probabilités Modèle statistique Symétrie de la loi N (0, 1) 1 Soit Z ⇠ N (0, 1), de densité fZ (x) = p exp( x2 /2). 2⇡ densité de Z FZ ( t) 1 t FZ (t) t I Propriété : Z a même loi que Z (remarquez que fZ ( x) = fZ (x)) : on dit que la loi N (0, 1) est symétrique. I Conséquences : ? pour tout t 2 R, FZ ( t) = P (Z t) = 1 Généralités FZ (t) 11/27 Probabilités Modèle statistique Symétrie de la loi N (0, 1) 1 Soit Z ⇠ N (0, 1), de densité fZ (x) = p exp( x2 /2). 2⇡ densité de Z p p QZ (p) QZ (1 p) I Propriété : Z a même loi que Z (remarquez que fZ ( x) = fZ (x)) : on dit que la loi N (0, 1) est symétrique. I Conséquences : ? pour tout t 2 R, FZ ( t) = P (Z ? pour tout p 2]0; 1[, QZ (1 p) = t) = 1 FZ (t) ; QZ (p). Généralités 11/27 Probabilités Loi du Modèle statistique 2 (d) I Définition : Soit (X1 , . . . , Xd ) une famille de v.a.r. indépendantes telles que Xi ⇠ N (0, 1). Alors appelée loi du 2 X12 + · · · + Xd2 ⇠ 2 (d) à d degrés de liberté. En particulier, X12 ⇠ Généralités 2 (1). 12/27 Probabilités Loi du Modèle statistique 2 (d) I Définition : Soit (X1 , . . . , Xd ) une famille de v.a.r. indépendantes telles que Xi ⇠ N (0, 1). Alors appelée loi du 2 X12 + · · · + Xd2 ⇠ 2 (d) à d degrés de liberté. En particulier, X12 ⇠ I Graphe de la densité de la loi 2 (1). (d) : 0.00 0.05 0.10 0.15 0.20 2 0 5 10 15 20 Généralités 25 30 12/27 Probabilités Loi du Modèle statistique 2 (d) I Définition : Soit (X1 , . . . , Xd ) une famille de v.a.r. indépendantes telles que Xi ⇠ N (0, 1). Alors appelée loi du 2 X12 + · · · + Xd2 ⇠ 2 (d) à d degrés de liberté. En particulier, X12 ⇠ I Graphe de la densité de la loi 2 (1). (d) : 0.00 0.05 0.10 0.15 0.20 2 0 I Propriété : Si Y ⇠ 2 (d), 5 alors Y 10 15 20 25 30 0. Généralités 12/27 Probabilités Loi de Student T (d) Modèle statistique I Définition : Soit X ⇠ N (0, 1) et Y ⇠ 2 (d) avec X et Y indépendants. Alors X p ⇠ T (d) Y /d appelée loi de Student à d degrés de liberté. Généralités 13/27 Probabilités Modèle statistique Loi de Student T (d) I Définition : Soit X ⇠ N (0, 1) et Y ⇠ 2 (d) avec X et Y indépendants. Alors X p ⇠ T (d) Y /d appelée loi de Student à d degrés de liberté. 0.0 0.1 0.2 0.3 0.4 I Graphe de la densité de la loi T (d) : −3 −2 −1 0 1 Généralités 2 3 13/27 Probabilités Modèle statistique Loi de Student T (d) I Définition : Soit X ⇠ N (0, 1) et Y ⇠ 2 (d) avec X et Y indépendants. Alors X p ⇠ T (d) Y /d appelée loi de Student à d degrés de liberté. 0.0 0.1 0.2 0.3 0.4 I Graphe de la densité de la loi T (d) : −3 −2 −1 0 1 2 3 I Propriété : La loi T (d) est symétrique, donc si W ⇠ T (d), alors E(W ) = 0 et ? pour tout t 2 R, FW ( t) = P (W ? pour tout p 2]0; 1[, QW (1 p) = t) = 1 FW (t) ; QW (p). Généralités 13/27 Probabilités Modèle statistique Loi de Fisher F(⌫1 , ⌫2 ) I Définition : Soit X ⇠ 2 (⌫ 1) et Y ⇠ 2 (⌫ 2) avec X et Y indépendants. Alors X/⌫1 ⇠ F (⌫1 , ⌫2 ) Y /⌫2 appelée loi de Fisher à ⌫1 et ⌫2 degrés de liberté. Généralités 14/27 Probabilités Modèle statistique Loi de Fisher F(⌫1 , ⌫2 ) I Définition : Soit X ⇠ 2 (⌫ 1) et Y ⇠ 2 (⌫ 2) avec X et Y indépendants. Alors X/⌫1 ⇠ F (⌫1 , ⌫2 ) Y /⌫2 appelée loi de Fisher à ⌫1 et ⌫2 degrés de liberté. I Propriétés : Si V ⇠ F (⌫1 , ⌫2 ), alors ? V 0; 1 ? ⇠ F (⌫2 , ⌫1 ). V Généralités 14/27 Probabilités Modèle statistique Loi de Fisher F(⌫1 , ⌫2 ) I Définition : Soit X ⇠ 2 (⌫ 1) et Y ⇠ 2 (⌫ 2) avec X et Y indépendants. Alors X/⌫1 ⇠ F (⌫1 , ⌫2 ) Y /⌫2 appelée loi de Fisher à ⌫1 et ⌫2 degrés de liberté. I Propriétés : Si V ⇠ F (⌫1 , ⌫2 ), alors ? V 0; 1 ? ⇠ F (⌫2 , ⌫1 ). V I Conséquence : Si V ⇠ F (⌫1 , ⌫2 ) et U ⇠ F (⌫2 , ⌫1 ), alors pour tout p 2]0; 1[, QV (p) = 1 QU (1 p) . I Preuve : ✓ 1 t = QV (p) () FV (t) = p () P (V  t) = p () P V ✓ ◆ ✓ ◆ 1 1 () P U = p () FU = 1 p () t t Généralités ◆ 1 =p t 1 = QU (1 t p) 14/27 Probabilités Modèle statistique Deux théorèmes de convergence Soit (X1 , . . . , Xn ) des v.a.r. indépendantes et de même loi (i.i.d.), d’espérance m et de variance 2 . I Loi des grands nombres (LGN) : X1 + · · · + Xn n ! m n!1 Généralités avec probabilité 1 . 15/27 Probabilités Modèle statistique Deux théorèmes de convergence Soit (X1 , . . . , Xn ) des v.a.r. indépendantes et de même loi (i.i.d.), d’espérance m et de variance 2 . I Loi des grands nombres (LGN) : X1 + · · · + Xn n avec probabilité 1 . ! m n!1 I Théorème Central Limite (TCL) : Zn := p n ⇣ X1 +···+Xn n ⌘ m ! Z ⇠ N (0, 1) n!1 en loi, ce qui signifie que pour tout intervalle réel I, on a P (Zn 2 I) En particulier, FZn (t) ! P (Z 2 I) . n!1 ! FZ (t) pour tout t 2 R. n!1 Généralités 15/27 Probabilités Modèle statistique Sens de la Loi des Grands Nombres Soit (X1 , . . . , Xn ) des v.a.r. indépendantes et de même loi (i.i.d.), d’espérance m et de variance 2 . I Loi des grands nombres (LGN) : X1 + · · · + Xn n ! m n!1 Généralités avec probabilité 1 . 16/27 Probabilités Modèle statistique Sens de la Loi des Grands Nombres I Loi des grands nombres (LGN) : X1 + · · · + Xn n ! m n!1 avec probabilité 1 . I Exemple : ? On lance un dé à 6 faces : soit X le résultat du lancer, X ⇠ U ({1, 2, 3, 4, 5, 6}) et 1+2+3+4+5+6 21 E(X) = = = 3, 5 6 6 ? On relance un grand nombre n de fois le même dé : les résultats obtenus forment une famille (X1 , . . . , Xn ) de v.a. i.i.d. de même loi que X. ? La Loi des Grands Nombres nous dit que la valeur moyenne des résultats obtenus sur les différents lancers de dé se rapproche de plus en plus, quand n grandit, de E(X) = 3, 5. Généralités 16/27 Probabilités Modèle statistique Sens de la Loi des Grands Nombres I Exemple : ? On lance un dé à 6 faces : soit X le résultat du lancer, X ⇠ U ({1, 2, 3, 4, 5, 6}) et 1+2+3+4+5+6 21 E(X) = = = 3, 5 6 6 ? On relance un grand nombre n de fois le même dé : les résultats obtenus forment une famille (X1 , . . . , Xn ) de v.a. i.i.d. de même loi que X. ? La Loi des Grands Nombres nous dit que la valeur moyenne des résultats obtenus sur les différents lancers de dé se rapproche de plus en plus, quand n grandit, de E(X) = 3, 5. I Intuition : parfois le lancer de dé nous donne un petit résultat (1, 2...), parfois un grand résultat (6, 5...), mais quand on fait un grand nombre de lancers, on obtient à peu près autant de résultats grands que de résultats petits, qui se compensent entre eux. La moyenne des résultats obtenus ressemble donc de plus en plus à la moyenne du résultat d’un lancer, c’est à dire E(X) = 3, 5. Généralités 16/27 Probabilités Modèle statistique Sens du Théorème Central Limite (1/2) Soit (X1 , . . . , Xn ) des v.a.r. indépendantes et de même loi (i.i.d.), d’espérance m et de variance 2 . I Théorème Central Limite (TCL) : Zn := p n ⇣ X1 +···+Xn n ⌘ m ! Z ⇠ N (0, 1) n!1 en loi, ce qui signifie que pour tout intervalle réel I, on a P (Zn 2 I) ! P (Z 2 I) . n!1 Généralités 17/27 Probabilités Modèle statistique Sens du Théorème Central Limite (1/2) I Théorème Central Limite (TCL) : Zn := p n ⇣ X1 +···+Xn n ⌘ m ! Z ⇠ N (0, 1) n!1 en loi, I Signification : ◆ X1 + · · · + Xn m ! 0 avec probabilité 1. n!1 n ? Question : à quelle vitesse ? 1 ? Réponse du TCL : à la vitesse p , car n ? LGN : ✓ p n⇥ ✓ X1 + · · · + Xn n ◆ m a un comportement asymptotique non dégénéré (existence d’une limite finie et non nulle quand n ! 1). Généralités 17/27 Probabilités Modèle statistique Sens du Théorème Central Limite (2/2) On a même plus d’informations : on sait asymptotiquement comment est distribué l’écart ⇣ ⌘ X1 +···+Xn m p n n I Illustration sur un exemple : On cherche à connaître la répartition de la taille moyenne en centimètres des étudiants de l’université Paris Nanterre. On a donc sélectionné 200 groupes de n = 10 étudiants et pour chacun d’eux on a calculé la moyenne des tailles. Voici l’histogramme des 200 moyennes obtenues, centrées et réduites comme dans le TCL : 0.0 0.1 0.2 0.3 0.4 n=10 −3 −2 −1 0 Généralités 1 2 3 18/27 Probabilités Modèle statistique Sens du Théorème Central Limite (2/2) On a même plus d’informations : on sait asymptotiquement comment est distribué l’écart ⇣ ⌘ X1 +···+Xn m p n n I Illustration sur un exemple : Pour n = 10 (on a ajouté le densité de la loi N (0, 1) sur le même graphe) : 0.0 0.1 0.2 0.3 0.4 n=10 −3 −2 −1 0 Généralités 1 2 3 18/27 Probabilités Modèle statistique Sens du Théorème Central Limite (2/2) On a même plus d’informations : on sait asymptotiquement comment est distribué l’écart ⇣ ⌘ X1 +···+Xn m p n n I Illustration sur un exemple : Pour n = 100 0.0 0.1 0.2 0.3 0.4 n=100 −2 0 Généralités 2 4 18/27 Probabilités Modèle statistique Sens du Théorème Central Limite (2/2) On a même plus d’informations : on sait asymptotiquement comment est distribué l’écart ⇣ ⌘ X1 +···+Xn m p n n I Illustration sur un exemple : Pour n = 200 0.0 0.1 0.2 0.3 0.4 n=200 −3 −2 −1 0 Généralités 1 2 3 18/27 Probabilités Modèle statistique Sens du Théorème Central Limite (2/2) On a même plus d’informations : on sait asymptotiquement comment est distribué l’écart ⇣ ⌘ X1 +···+Xn m p n n I Illustration sur un exemple : Pour n = 500 0.0 0.1 0.2 0.3 0.4 n=500 −3 −2 −1 0 1 Généralités 2 3 18/27 Probabilités Modèle statistique Notion de modèle statistique Généralités 19/27 Probabilités Modèle statistique La statistique : c’est quoi ? Sens du mot "statistique" : I Statistique officielle : collecte de données (démographiques, financières, épidémiologiques, etc.), leur "nettoyage", leur stockage. Généralités 20/27 Probabilités Modèle statistique La statistique : c’est quoi ? Sens du mot "statistique" : I Statistique officielle : collecte de données (démographiques, financières, épidémiologiques, etc.), leur "nettoyage", leur stockage. I Statistique descriptive : travail sur les données brutes pour en dégager du sens (structures, régularité, centrage, étalement), entre autres à l’aide de représentations graphiques. Généralités 20/27 Probabilités Modèle statistique La statistique : c’est quoi ? Sens du mot "statistique" : I Statistique officielle : collecte de données (démographiques, financières, épidémiologiques, etc.), leur "nettoyage", leur stockage. I Statistique descriptive : travail sur les données brutes pour en dégager du sens (structures, régularité, centrage, étalement), entre autres à l’aide de représentations graphiques. I Statistique inférentielle : ce qui nous intéresse ! ? on interprète les données observées comme la réalisation de variables aléatoires ? on déduit de nos observations des informations sur la loi de ces variables (inférence) Généralités 20/27 Probabilités Modèle statistique Probabilités versus Statistique I Probabilités : on suppose connue la loi des v.a. (X1 , . . . , Xn ), on veut en déduire des infos sur le comportement des Xi . I Statistique : on observe le comportement (d’une réalisation) des Xi , on veut en déduire des informations sur leur loi. Généralités 21/27 Probabilités Modèle statistique Probabilités versus Statistique I Probabilités : on suppose connue la loi des v.a. (X1 , . . . , Xn ), on veut en déduire des infos sur le comportement des Xi . I Statistique : on observe le comportement (d’une réalisation) des Xi , on veut en déduire des informations sur leur loi. Ce sont les mêmes outils qui servent dans les deux cas ! (ex. : LGN, TCL...). Généralités 21/27 Probabilités Modèle statistique Exemple de modélisation 1 : un sondage (1/2) I Expérience : Un institut de sondage réalise un sondage d’opinion auprès de 1000 français. Chaque français interrogé se déclare "favorable" ou "défavorable" à une certaine mesure. La proportion p de français favorables à cette mesure est inconnu, ce sondage a pour but d’obtenir des informations sur p. Généralités 22/27 Probabilités Modèle statistique Exemple de modélisation 1 : un sondage (1/2) I Expérience : Un institut de sondage réalise un sondage d’opinion auprès de 1000 français. Chaque français interrogé se déclare "favorable" ou "défavorable" à une certaine mesure. La proportion p de français favorables à cette mesure est inconnu, ce sondage a pour but d’obtenir des informations sur p. I Source de l’aléa : Choix des individus interrogés. Cas du sondage aléatoire simple avec remise : ? chaque individu a la même probabilité d’être interrogé, ? les choix des individus interrogés successivement sont indépendants (le même individu peut donc être interrogé plusieurs fois !). Ce n’est pas le type de sondage utilisé dans les faits par les instituts de sondage, mais c’est le plus simple à étudier d’un point de vue théorique : nous nous placerons toujours dans ce cadre ! Généralités 22/27 Probabilités Modèle statistique Exemple de modélisation 1 : un sondage (2/2) I Modélisation : ? la variable considérée est qualitative à 2 modalité (favorable / défavorable) ? on va encoder chaque modalité par un nombre : 1 pour favorable, 0 pour défavorable ? la réponse d’un individu interrogé au hasard correspond donc à une variable aléatoire X ⇠ B(p) ? en notant Xi la réponse du i-ème individu interrogé, i 2 {1, . . . , 1000}, on obtient une famille (Xi )1i1000 de v.a.r. indépendantes et toutes de même loi que X. ? on souhaite obtenir des informations sur la proportion p de français favorables à la mesure, ici p = E(X). ? les réponses (x1 , . . . , x1000 ) obtenues lors du sondage sont vues comme les réalisations des variables Xi . Généralités 23/27 Probabilités Modèle statistique Exemple de modélisation 1 : un sondage (2/2) I Modélisation : ? la variable considérée est qualitative à 2 modalité (favorable / défavorable) ? on va encoder chaque modalité par un nombre : 1 pour favorable, 0 pour défavorable ? la réponse d’un individu interrogé au hasard correspond donc à une variable aléatoire X ⇠ B(p) ? en notant Xi la réponse du i-ème individu interrogé, i 2 {1, . . . , 1000}, on obtient une famille (Xi )1i1000 de v.a.r. indépendantes et toutes de même loi que X. ? on souhaite obtenir des informations sur la proportion p de français favorables à la mesure, ici p = E(X). ? les réponses (x1 , . . . , x1000 ) obtenues lors du sondage sont vues comme les réalisations des variables Xi . I Définition : On dit que (Xi )1i1000 est un échantillon de même loi que X. Généralités 23/27 Probabilités Modèle statistique Exemple de modélisation 2 : taille d’une nanoparticule I Expérience : Des physiciens veulent mesurer très précisément la taille m d’une nanoparticule. Ce type de mesure est difficile, et entachée d’erreur. Ils effectuent donc 10 mesures successives de la taille de cette même particule et notent les 10 valeurs obtenues. Généralités 24/27 Probabilités Modèle statistique Exemple de modélisation 2 : taille d’une nanoparticule I Expérience : Des physiciens veulent mesurer très précisément la taille m d’une nanoparticule. Ce type de mesure est difficile, et entachée d’erreur. Ils effectuent donc 10 mesures successives de la taille de cette même particule et notent les 10 valeurs obtenues. I Source de l’aléa : L’"erreur de mesure", liée aux limites des outils de mesures Généralités 24/27 Probabilités Modèle statistique Exemple de modélisation 2 : taille d’une nanoparticule I Expérience : Des physiciens veulent mesurer très précisément la taille m d’une nanoparticule. Ce type de mesure est difficile, et entachée d’erreur. Ils effectuent donc 10 mesures successives de la taille de cette même particule et notent les 10 valeurs obtenues. I Source de l’aléa : L’"erreur de mesure", liée aux limites des outils de mesures I Modélisation : ? la variable considérée est quantitative (elle correspond à une quantité, chiffrée par un nombre) ? le résultat d’une mesure de la taille de la nanoparticule correspond à une v.a. X, X = m + " où " est une v.a. qui correspond à l’erreur de mesure commise ? en notant Xi le résultat de la i-ème mesure, i 2 {1, . . . , 10}, on obtient (Xi )1i10 un échantillon (famille de v.a.r. i.i.d.) de même loi que X. ? on souhaite obtenir des informations sur m ; sous réserve que les erreurs de mesure aient lieu autant par excès que par défaut (autrement dit E(") = 0), on a m = E(X). ? les valeurs (x1 , . . . , x10 ) observées sont vues comme les réalisations des variables Xi . Généralités 24/27 Probabilités Modèle statistique Exemple de modélisation 3 : poids de conserves (1/2) I Expérience : Dans une entreprise de fabrication de conserves de petits pois, les conserves sont remplies par une machine. Le service qualité de l’entreprise souhaite contrôler le poids des boîtes de conserves à la sortie de l’usine pour voir s’il est conforme au poids annoncé sur l’étiquette. Il prélève et pèse 50 boîtes de conserves. Généralités 25/27 Probabilités Modèle statistique Exemple de modélisation 3 : poids de conserves (1/2) I Expérience : Dans une entreprise de fabrication de conserves de petits pois, les conserves sont remplies par une machine. Le service qualité de l’entreprise souhaite contrôler le poids des boîtes de conserves à la sortie de l’usine pour voir s’il est conforme au poids annoncé sur l’étiquette. Il prélève et pèse 50 boîtes de conserves. I Source de l’aléa : La machine ne remplit jamais deux boîtes de conserve exactement de la même façon ! (on ne peut pas couper les petits pois en 4...). Généralités 25/27 Probabilités Modèle statistique Exemple de modélisation 3 : poids de conserves (1/2) I Expérience : Dans une entreprise de fabrication de conserves de petits pois, les conserves sont remplies par une machine. Le service qualité de l’entreprise souhaite contrôler le poids des boîtes de conserves à la sortie de l’usine pour voir s’il est conforme au poids annoncé sur l’étiquette. Il prélève et pèse 50 boîtes de conserves. I Source de l’aléa : La machine ne remplit jamais deux boîtes de conserve exactement de la même façon ! (on ne peut pas couper les petits pois en 4...). I Modélisation : ? la variable considérée est quantitative (elle correspond à une quantité, chiffrée par un nombre) ? le poids d’une boîte de conserve produit dans cette usine correspond donc à une v.a. X ? en notant Xi le poids de la i-ème boîte de conserve pesée, i 2 {1, . . . , 50}, on obtient (Xi )1i50 un échantillon (famille de v.a.r. i.i.d.) de même loi que X. ? on souhaite obtenir des informations sur le poids moyen m d’une boîte de conserve, ici m = E(X). ? les valeurs (x1 , . . . , x50 ) mesurées sont vues comme les réalisations des variables Xi . Généralités 25/27 Probabilités Modèle statistique Exemple de modélisation 3 : poids de conserves (2/2) I Que sait-on de la loi de X ? Plusieurs cas de figures possibles (i) On ne sait rien sur la loi de X. (ii) Le fabriquant de la machine qui remplit les boîtes de conserve affirme que X ⇠ N (m, 1). La valeur de m (poids moyen d’une boîte) est inconnue car elle dépend du réglage de la machine, la variance de X est connue et égale à 1. (iii) Le fabriquant de la machine qui remplit les boîtes de conserve affirme que X ⇠ N (m, 2 ), où les valeurs de m et 2 sont inconnues car elles dépendent des réglages de la machine. Généralités 26/27 Probabilités Modèle statistique Exemple de modélisation 3 : poids de conserves (2/2) I Que sait-on de la loi de X ? Plusieurs cas de figures possibles (i) On ne sait rien sur la loi de X. (ii) Le fabriquant de la machine qui remplit les boîtes de conserve affirme que X ⇠ N (m, 1). La valeur de m (poids moyen d’une boîte) est inconnue car elle dépend du réglage de la machine, la variance de X est connue et égale à 1. (iii) Le fabriquant de la machine qui remplit les boîtes de conserve affirme que X ⇠ N (m, 2 ), où les valeurs de m et 2 sont inconnues car elles dépendent des réglages de la machine. I Cadre paramétrique : pour connaître la loi de X il suffit de connaître la valeur d’un paramètre de Rd , par ex. (ii) le paramètre est m 2 R (iii) le paramètre est (m, 2) 2 R ⇥ R+⇤ Le cas (i) est non paramétrique. Généralités 26/27 Probabilités Modèle statistique Modèle paramétrique I Cadre de travail : Nous nous placerons toujours dans le cadre suivant : ? X v.a. dont la loi appartient à une famille de lois (P✓ )✓2⇥ où ⇥ ⇢ Rd , par ex. (B(p))p2]0;1[ , (N (m, 2 ))(m, 2 )2R⇥R+⇤ . ? (X1 , . . . , Xn ) échantillon de même loi que X ? xi , la i-ème donnée, est la réalisation de la variable Xi ? on souhaite obtenir des informations sur la loi de X, i.e., sur le paramètre ✓0 tel que la loi de X est P✓0 . Généralités 27/27 Probabilités Modèle statistique Modèle paramétrique I Cadre de travail : Nous nous placerons toujours dans le cadre suivant : ? X v.a. dont la loi appartient à une famille de lois (P✓ )✓2⇥ où ⇥ ⇢ Rd , par ex. (B(p))p2]0;1[ , (N (m, 2 ))(m, 2 )2R⇥R+⇤ . ? (X1 , . . . , Xn ) échantillon de même loi que X ? xi , la i-ème donnée, est la réalisation de la variable Xi ? on souhaite obtenir des informations sur la loi de X, i.e., sur le paramètre ✓0 tel que la loi de X est P✓0 . I Objectifs : ? estimer le paramètre ✓0 , i.e., en proposer une valeur approchée estimateurs ? proposer un ensemble de valeurs qui contient le paramètre ✓0 avec grande probabilité intervalles de confiance ? décider si le paramètre ✓0 prend ou non une certaine valeur prescrite d’hypothèses Généralités tests 27/27 Probabilités Modèle statistique Modèle paramétrique I Cadre de travail : Nous nous placerons toujours dans le cadre suivant : ? X v.a. dont la loi appartient à une famille de lois (P✓ )✓2⇥ où ⇥ ⇢ Rd , par ex. (B(p))p2]0;1[ , (N (m, 2 ))(m, 2 )2R⇥R+⇤ . ? (X1 , . . . , Xn ) échantillon de même loi que X ? xi , la i-ème donnée, est la réalisation de la variable Xi ? on souhaite obtenir des informations sur la loi de X, i.e., sur le paramètre ✓0 tel que la loi de X est P✓0 . I Objectifs : ? estimer le paramètre ✓0 , i.e., en proposer une valeur approchée estimateurs ? proposer un ensemble de valeurs qui contient le paramètre ✓0 avec grande probabilité intervalles de confiance ? décider si le paramètre ✓0 prend ou non une certaine valeur prescrite d’hypothèses tests I Remarque : La plupart des grandeurs qu’on va manipuler dépendent du paramètre ✓ de la loi P✓ de X, par exemple son espérance E(X) ou sa variance V ar(X). On pourra faire apparaître explicitement cette dépendance si nécessaire en mettant un ✓ en indice : E(X) = E✓ (X), V ar(X) = V ar✓ (X), etc., mais souvent cette dépendance restera implicite. Généralités 27/27

Use Quizgecko on...
Browser
Browser