Summary

Ce document présente les concepts fondamentaux d'économétrie, notamment l'absence d'autocorrélation, l'homoscédasticité et la normalité des erreurs dans un modèle de régression simple. Il explique la méthode des moindres carrés ordinaires (MCO) pour estimer les paramètres du modèle.

Full Transcript

I.2.2. L’absence d’autocorrélation des erreurs On suppose que le terme d’erreur n’est pas autocorrélé. L’erreur en t ne dépend pas de l’erreur en t’ avec t’ ≠ t. Cette hypothèse s’écrit: E( + () = 0 -...

I.2.2. L’absence d’autocorrélation des erreurs On suppose que le terme d’erreur n’est pas autocorrélé. L’erreur en t ne dépend pas de l’erreur en t’ avec t’ ≠ t. Cette hypothèse s’écrit: E( + () = 0 - t +t = absence d’autocorrélation des erreurs I. 2. 3. L’homoscidasticité des erreurs On suppose que la variance du terme d’erreur est constante sur l’échantillon. Si on considère un modèle en séries temporelles, cela signifie que la variance du terme d’erreur est constante au cours du temps. Si on considère un modèle en coupe instantanée, cela signifie que la variance du terme d’erreur est la même pour tous les individus. L’hypothèse de variance constante est l’hypothèse d’homoscédasticité. Une série dont la variance est constante est appelée série homoscédastique. (Une série dont la variance est inconstante est dite hétéroscédastique). La propriété d’homoscédasticité s’écrit: E(E) = 25 Ve où J est la variance du terme d’erreur E Remarque: Les hypothèses d’absence d’autocorrélation et d’homosxédastixité des erreurs peuvent être rassemblées sous l’expression: 10site absenced'autocorrlat se ElE) = Les erreurs qui satisfont simultanément les hyp d’absence d’autocorrélation et d’homoscédasticité sont dites sphériques. On parle de sphéricité des erreurs. I. 2. 4. La normalité des erreurs On suppose que le terme d’erreur suit une loi normale d’espérance nulle est de variance constante : Remarque: L’hypothèse selon laquelle les erreurs suivent une loi normale d’espérance nulle, de variance constante et sont non autocorrélées peut s’écrire: Les erreurs sont normalement et indépendamment distribuées. Si les erreurs suivent une même loi autre que la loi normale, on parle d’erreurs identiquement et indépendamment distribuées (iid): Remarque: L’hypothèse de normalité des erreurs n’est pas nécessaire pour établir les résultats de régression, mais elle sera nécessaire pour effectuer des tests statistiques en particulier sur les coefficients. I.3. Récapitulatif: écriture du modèle de régression simple La spécification complète du modèle de régression simple est: Avec: Ou de façon équivalente: II. Les moindres carrés ordinaires (MCO) II.1 Objectif et rappel des hypothèses Les paramètres et ß du modèle de régression simple sont inconnus. Si on veut quantifier la relation entre X et Y, il faut estimer et ß. À partir des valeurs observées de X et Y , l’objectif est de trouver la relation quantifiée entre ces 2 variables càd: Où et ß sont les estimateurs des paramètres et ß. Y est la valeur estimée (ou valeur ajustée) de Y. La méthode utilisée pour trouver et ß est la méthode des MCO. La méthode des MCO nécessite que les hypothèses suivantes soient vérifiées: X (variable explicative) est une variable certaine, càd qu’elle est observée sans erreur. Elle ne dépend pas du terme d’erreur : II.2 Le principe des MCO Ce graphique reportant les valeurs du couple (X,Y) est appelé nuage de points. On cherche à ajuster ce nuage par une droite considérée comme une estimation du modèle de régression simple: Cette droite est appelée droite de régression ou droite des MCO et est donnée par: Où et ß sont les valeurs estimées des paramètres (inconnus) et ß. Y est la valeur estimée de Y. Certains points du couple (X,Y) sont au dessus de la droite de régression et d’autres en dessous. Il existe donc des écarts, notés e , à cette droite: Ces écarts sont appelés résidus. L’ajustement du nuage de points par une droite sera d’autant meilleur que les écarts e à cette droite sont faibles. La méthode des MCO consiste dinc à trouver les estimateurs et ß de telle sorte que la somme des carrés des écarts entre les valeurs de Y et celles de Y soit minimale. En d’autres termes, la méthode des MCO consiste à minimiser la somme des carrés des résidus: II.3. Les estimateurs des MCO II.3.1. Recherche des estimateurs 1 1 On doit minimiser cette expression par rapport à * et ß. On cherche donc & et ß tels que: 2 2t 7 et 2 = 0 et 25 = 0 8 2(Y 2 - - 5x ) + et - 2 I 2 = 0 () 2. z (Yt - * - Bxt) : (1) - = 0 => O Eg C = > (Yt - a - 5Xt) = 0 (= ) Y - 5 - BX + = 0 [ Y = - 2 + ( = T (car est) = -X --------- (= ) : 4 2 ? G ( -a - Bx ) + 25. 25 L = (X(y+ - a - Bx ) : - ( 1) + -. (x+ ) = 0 (= ) X+ Y+ - 2Xt - 5X = 0 () X+ y = - 2x+ + - Exi = Xe = X Les équations 1 et 2 forment un système de 2 équations à 2 inconnues ( et ß) et sont appelées équations normales des moindres carrés. D’après l’équation (1), on a: = c’est l’estimateur des MCO de. La droite de régression passe par le point moyen (X, Y). = c’est l’estimateur des MCO de. La droite de régression passe par le point moyen (X, Y). On reporte cette valeur de dans l’équation (2) pour en déduire la valeur de ß. D’après (2): On sait que: = c’est le dénominateur de ß = c’est le numérateur de l’expression ß Donc: = c’est l’estimateur des MCO de ß de ß Remarque: Lorsque les variables sont centrées, càd : Les estimateurs des MCO sont donnés par: II.3.2. Récapitulatif et propriétés Les estimateurs des MCO et ß de et ß sont: est la droite de régression (ou droite des MCO). ß est la pente de la droite de régression. Y est la valeur estimée (ou ajustée) de Y. L’écart entre entre la valeur observée et la valeur estimée de la variable expliquée est appelée résidu : et est une mesure de l’erreur. Propriété : La droite de régression passe par le point moyen (X, Y)

Use Quizgecko on...
Browser
Browser