Econométria Básica - Unidad 4: Análisis de Regresión Múltiple

Summary

Esta unidad de econométrica básica cubre el análisis de regresión múltiple con variables dicotómicas. Se describe la naturaleza de estas variables y su uso en modelos econométricos, incluyendo ejemplos y modelos ANOVA; se explica como usar modelos de regresión para comparar salarios promedio de maestros de escuelas en diferentes regiones geográficas. El texto analiza los modelos ANOVA con diferentes opciones y se brinda la interpretación de los resultados.

Full Transcript

ECONOMETRÍA BÁSICA UNIDAD 4 Análisis de regresión múltiple con k variables TEMA 1 Modelo de regresión con variables dicotómicas Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTE...

ECONOMETRÍA BÁSICA UNIDAD 4 Análisis de regresión múltiple con k variables TEMA 1 Modelo de regresión con variables dicotómicas Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTEMA: 3.-1.-Naturaleza y fuentes Naturaleza de delas datos paradicótomas variables el análisis económico SUBTEMA: 2.- Modelos ANOVA OBJETIVO DE APRENDIZAJE Al finalizar la unidad, el estudiante será capaz de analizar la flexibilización de supuestos del modelo clásico en el análisis econométrico. SUBTEMA: 1.- Naturaleza de las variables dicótomas En el análisis de regresión, no solo las variables cuantitativas (como ingreso, producción, costos y estatura) influyen en la variable dependiente. También las variables cualitativas o nominales (como sexo, raza, color, religión, nacionalidad, cambios políticos y afiliación partidista) tienen un impacto significativo. Por ejemplo, estudios muestran que, manteniendo constantes otros factores, las mujeres suelen ganar menos que los hombres y las personas de color ganan menos que las blancas. Aunque este patrón podría deberse a discriminación, es evidente que variables cualitativas como sexo y raza deben incluirse como explicativas en los modelos de regresión. Estas variables cualitativas indican la presencia o ausencia de una cualidad o atributo, como femenino o masculino, negro o blanco, católico o no católico, demócrata o republicano. Para "cuantificar" estos atributos, se utilizan variables artificiales que toman los valores 0 o 1, donde 1 indica la presencia del atributo y 0 su ausencia. Por ejemplo, 1 puede indicar que una persona es femenina y 0 que es masculina. Estas variables, que toman valores 0 y 1, se llaman variables dicótomas. Son útiles para clasificar datos en categorías mutuamente excluyentes. SUBTEMA: 1.- Naturaleza de las variables dicótomas Las variables dicótomas pueden usarse en modelos de regresión tan fácilmente como las variables cuantitativas. De hecho, un modelo de regresión puede contener exclusivamente variables explicativas dicótomas o cualitativas, denominándose entonces modelos de análisis de varianza (ANOVA). Ejemplo: Supongamos que queremos analizar el salario mensual de los empleados de una empresa y cómo este se ve afectado por el género del empleado (masculino o femenino) y si tienen un título universitario. Podemos especificar el siguiente modelo de regresión lineal: 𝑠𝑎𝑙𝑎𝑟𝑖𝑜 = 𝑏0 + 𝑏1 𝐺é𝑛𝑒𝑟𝑜 + 𝑏2 𝑇í𝑡𝑢𝑙𝑜 𝑈𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑡𝑎𝑟𝑖𝑜 + 𝜖 Donde: 𝐺é𝑛𝑒𝑟𝑜: es una variable dicótoma que toma el valor 1 si el empleado es femenino y 0 si es masculino. 𝑇í𝑡𝑢𝑙𝑜 𝑈𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑡𝑎𝑟𝑖𝑜: es una variable dicótoma que toma el valor 1 si el empleado tiene un título universitario y 0 si no lo tiene. SUBTEMA: 1.- Naturaleza de las variables dicótomas 𝑠𝑎𝑙𝑎𝑟𝑖𝑜 = 𝑏0 + 𝑏1 𝐺é𝑛𝑒𝑟𝑜 + 𝑏2 𝑇í𝑡𝑢𝑙𝑜 𝑈𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑡𝑎𝑟𝑖𝑜 + 𝜖 𝑏0 es la intersección (salario base). 𝑏1 es el cambio en el salario asociado al género. 𝑏2 es el cambio en el salario asociado a tener un título universitario. 𝜖 es el término de error. En este modelo, si 𝑏1 es negativo, indicaría que las mujeres ganan menos que los hombres, manteniendo todo lo demás constante. Si 𝑏2 es positivo, indicaría que tener un título universitario se asocia con un salario más alto. SUBTEMA: 2.- Modelos ANOVA La tabla adjunta proporciona datos sobre salarios (en dólares) de los maestros de escuelas públicas en 50 estados y el Distrito de Columbia para los años 2005-2006. Las 51 áreas se clasifican en tres regiones geográficas: 1) Noreste y Norte-centro (21 estados en total); 2) Sur (17 estados en total), y 3) Oeste (13 estados en total). Suponga que deseamos averiguar si el salario promedio anual (SPA) de los maestros de escuelas públicas difiere en las tres áreas geográficas de Estados Unidos. Si tomamos el promedio aritmético simple de los salarios promedio de los maestros de las tres regiones, obtenemos los siguientes promedios para las tres regiones: $49538.71 (Noreste y Norte-centro), $46293.59 (Sur) y $48104.62 (Oeste). Esos números difieren entre sí, pero, ¿son estadísticamente distintos? Existen varias técnicas estadísticas para comparar dos o más valores medios, lo cual por lo general se conoce como análisis de varianza. Pero se logra lo mismo con el análisis de regresión. SUBTEMA: 2.- Modelos ANOVA Para ver lo anterior, considere el siguiente modelo: 𝑌𝑖 = 𝛽1 + 𝛽2 𝐷2𝑖 + 𝛽3 𝐷3𝑖 + 𝑢𝑖 (9.2.1) Donde 𝑌𝑖 = salario (promedio) de los maestros de escuelas públicas en el estado i 𝐷2𝑖 = 1 si el estado se encuentra en el Noreste o Norte-centro = 0 para otra región del país 𝐷3𝑖 = 1 si el estado es del Sur = 0 para otra región del país Observe que (9.2.1) es como cualquier modelo de regresión múltiple que se haya estudiado antes, excepto que en vez de regresoras cuantitativas, se tienen sólo variables cualitativas o dicótomas, las cuales toman el valor de 1 si la observación pertenece a una categoría particular, y 0 si no pertenece a esa categoría o grupo. De aquí en adelante, designaremos todas las variables dicótomas con la letra D. La tabla 9.1 muestra las variables dicótomas así definidas. SUBTEMA: 2.- Modelos ANOVA ¿Qué expresa el modelo (9.2.1)? Si consideramos que el término de error satisface las suposiciones usuales de MCO, al calcular la esperanza de (9.2.1) en ambos lados, obtenemos: Salario medio de los maestros de escuelas públicas en la región Noreste y Norte-centro: 𝐸 𝑌𝑖 |𝐷2𝑖 = 1, 𝐷3𝑖 = 0 = 𝛽1 + 𝛽2 (9.2.2) Salario medio de los maestros de escuelas públicas en el Sur: 𝐸 𝑌𝑖 |𝐷2𝑖 = 0, 𝐷3𝑖 = 1 = 𝛽1 + 𝛽3 (9.2.3) Cómo calcular el salario promedio de los maestros de escuelas públicas en el Oeste. El salario medio de los maestros de escuelas públicas en el Oeste: 𝐸 𝑌𝑖 |𝐷2𝑖 = 0, 𝐷3𝑖 = 0 = 𝛽1 (9.2.4) SUBTEMA: 2.- Modelos ANOVA En otras palabras, el salario medio de los maestros de escuelas públicas en el Oeste está dado por el intercepto, β1, en la regresión múltiple (9.2.1); además, los coeficientes de la “pendiente” β2 y β3 indican la cantidad por la que los salarios promedio de los maestros del Noreste y Nortecentro, así como los del Sur, difieren respecto de los salarios medios de los profesores del Oeste. SUBTEMA: 2.- Modelos ANOVA Como muestran los resultados de esta regresión, el salario medio de los profesores del Oeste es de casi $48015, el de los maestros del Noreste y del Norte-centro es mayor por cerca de $1524, y respecto de los del Sur, es menor por cerca de $1721. Los salarios medios reales en las últimas dos regiones se obtienen con facilidad si sumamos estos salarios diferenciales al salario medio de los maestros del Oeste, como se ve en las ecuaciones (9.2.3) y (9.2.4). Al hacer esto, tendremos que los salarios medios de las dos últimas regiones son cercanos a $49539 y $46294. ¿cómo sabemos que estos salarios medios son estadísticamente diferentes del salario medio de los profesores del Oeste, que es la categoría con la que se comparan? Hay que hacer es averiguar si cada coeficiente de “pendiente” en (9.2.5) es estadísticamente significativo. Como se observa en esta regresión, el coeficiente estimado de la pendiente para la región Noreste y Norte-centro no es estadísticamente significativo, pues su valor p es 52%; tampoco el del Sur es estadísticamente significativo, pues el valor p es más o menos de 49%. En consecuencia, la conclusión general es que, estadísticamente, los salarios medios de los profesores de escuelas públicas del Oeste, Noreste y Norte-centro, y Sur son casi iguales. SUBTEMA: 2.- Modelos ANOVA Precaución con las variables dicótomas 1. Problema de Colinealidad Perfecta: Cuando se introduce una variable dicótoma para cada categoría junto con un intercepto en el modelo de regresión, se produce colinealidad perfecta. Esto se debe a que la suma de las variables dicótomas es igual a la columna del intercepto, lo que impide la estimación del modelo. 2. Número de Variables Dicótomas: Si una variable cualitativa tiene m categorías, solo se deben agregar (m - 1) variables dicótomas para evitar la colinealidad perfecta. 3. Categoría Base: La categoría a la cual no se asigna una variable dicótoma se llama categoría base y todas las comparaciones se realizan respecto a ella. 4. Interpretación del Intercepto y Coeficientes: El intercepto representa el valor medio de la categoría de comparación, mientras que los coeficientes de las variables dicótomas muestran cuánto difiere cada categoría del valor de la categoría base. SUBTEMA: 2.- Modelos ANOVA Precaución con las variables dicótomas 5. Elección de la Categoría de Comparación: La categoría de comparación es seleccionada por el investigador y puede influir en los resultados, pero no en las conclusiones generales. 6. Evitar la Trampa de la Variable Dicótoma: Otra forma de evitar la trampa de la variable dicótoma es eliminando el término del intercepto y utilizando una variable dicótoma para cada categoría. Esto permite obtener directamente los valores medios de las distintas categorías. 7. Método Preferido: Es preferible incluir el término del intercepto y agregar solo (m - 1) variables dicótomas, ya que esto facilita la interpretación de la categorización y permite realizar pruebas estadísticas más fácilmente. SUBTEMA: 2.- Modelos ANOVA Modelo 1: Con Intercepto y (m - 1) Variables Dicótomas Definimos las variables dicótomas D2 y D3 de la siguiente manera: D2 = 1 si la región es Noreste, 0 en caso contrario D3 = 1 si la región es Sur, 0 en caso contrario El modelo de regresión es: 𝑌𝑖 = β1 + β2 𝐷2𝑖 + β3 𝐷3𝑖 + 𝑢𝑖 β1 : es el salario medio en la región Oeste. β2 : es la diferencia de salario medio entre la región Noreste y la Oeste. β3 : es la diferencia de salario medio entre la región Sur y la Oeste. Resultados de la Regresión: 𝑌𝑖 = 48015 + 1524 𝐷2𝑖 − 1721𝐷3𝑖 + 𝑢𝑖 Interpretación: El salario medio en la región Oeste es $48,015. El salario medio en la región Noreste es $1,524 mayor que en la región Oeste. El salario medio en la región Sur es $1,721 menor que en la región Oeste. SUBTEMA: 2.- Modelos ANOVA Modelo 2: Sin Intercepto y con m Variables Dicótomas Ahora eliminamos el intercepto y definimos una variable dicótoma para cada categoría: 𝑌𝑖 = β1 𝐷1𝑖 + β2 𝐷2𝑖 + β3 𝐷3𝑖 + 𝑢𝑖 𝐷1𝑖 = 1 si la región es Oeste, 0 en caso contrario. 𝐷2𝑖 = 1 si la región es Noreste, 0 en caso contrario. 𝐷3𝑖 = 1 si la región es Sur, 0 en caso contrario. Resultados de la Regresión: 𝑌𝑖 = 48015 𝐷1𝑖 + 49539 𝐷2𝑖 + 46294 𝐷3𝑖 + 𝑢𝑖 Interpretación: El salario medio en la región Oeste es $48,015. El salario medio en la región Noreste es $49,539 El salario medio en la región Sur es $46,294 Este enfoque proporciona directamente los salarios medios de las tres regiones. SUBTEMA: 2.- Modelos ANOVA Modelos ANOVA con dos variables cualitativas En la sección anterior estudiamos un modelo ANOVA con una variable cualitativa de tres categorías. En esta sección analizaremos otro modelo ANOVA, pero con dos variables cualitativas, además de destacar otros aspectos sobre este tipo de variables. Ejemplo: De una muestra de 114 trabajadores en una ciudad industrial del sur de India en 1990. Las variables se definen como sigue: IS = ingreso por salario semanal en rupias DS = 1 para trabajadoras y 0 para trabajadores DPT = variable dicótoma que toma el valor de 1 para trabajadores con empleo permanente y 0 para eventuales SUBTEMA: 2.- Modelos ANOVA Modelos ANOVA con dos variables cualitativas SUBTEMA: 2.- Modelos ANOVA Modelos ANOVA con dos variables cualitativas En este ejemplo tenemos dos regresoras cualitativas, cada una con dos categorías. Por tanto, asignamos una variable dicótoma para cada categoría. ¿Cuál es la categoría de comparación en este caso? Son los trabajadores con empleo eventual, en otras palabras, el grupo mencionado forman la categoría omitida. Por consiguiente, todas las comparaciones se establecen respecto de este grupo. El ingreso por salario semanal en rupias en esta categoría base es de casi 140.19. Respecto de ésta, el salario semanal en rupias de las trabajadoras (mujeres) es menor por 100.32, lo cual da un salario promedio semanal de 39.87 (140.19 – 100.32). En contraste, para los trabajadores con empleo permanente, salario promedio semanal es mayor por 76.76, lo cual da un salario promedio semanal de 216.95. ¿Los salarios promedios semanal anteriores son estadísticamente distintos en comparación con la categoría base? Sí lo son, pues todos los interceptos diferenciales son estadísticamente significativos: sus valores p son muy bajos. CIERRE Conclusiones por parte de los estudiantes sobre los temas tratados en clases. ECONOMETRÍA BÁSICA UNIDAD 4 Análisis de regresión múltiple con k variables TEMA 1 Modelo de regresión con variables dicotómicas Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTEMA: 3.-1.-Naturaleza y fuentes Naturaleza de delas datos paradicótomas variables el análisis económico SUBTEMA: 2.- Modelos ANOVA OBJETIVO DE APRENDIZAJE Al finalizar la unidad, el estudiante será capaz de analizar la flexibilización de supuestos del modelo clásico en el análisis econométrico. SUBTEMA: 2.- Modelos ANOVA Regresión con una mezcla de regresoras cualitativas y cuantitativas: los modelos ANCOVA Los modelos ANOVA del tipo que vimos en las dos secciones anteriores, aunque son comunes en áreas como sociología, psicología, educación e investigación de mercados, no son tan frecuentes en la economía. Por lo general, en la mayor parte de la investigación económica, un modelo de regresión contiene diversas variables explicativas cuantitativas y otras cualitativas. Los modelos de regresión que muestran una mezcla de variables cuantitativas y cualitativas se llaman modelos de análisis de covarianza (ANCOVA). Tales modelos representan una generalización de los modelos ANOVA en el sentido de que proporcionan un método para controlar estadísticamente los efectos de las regresoras cuantitativas (llamadas covariantes o variables de control) en un modelo con regresoras cuantitativas y cualitativas (o dicótomas). A continuación, se ilustran los modelos ANCOVA. SUBTEMA: 2.- Modelos ANOVA Regresión con una mezcla de regresoras cualitativas y cuantitativas: los modelos ANCOVA Ejemplo: Regresemos al ejemplo 9.1 afirmando que el salario promedio de los maestros de escuelas públicas no variará en las tres regiones si se toma en cuenta cualquier variable que no pueda estandarizarse en las tres regiones. Por ejemplo, piense en la variable gasto en escuelas públicas erogado por las autoridades locales, en vista de que la educación primaria es una cuestión sobre todo de carácter local y estatal. Para ver si éste es el caso, desarrollamos el siguiente modelo: 𝑌𝑖 = β1 + β2 𝐷2𝑖 + β3 𝐷3𝑖 + β4 𝑋𝑖 + 𝑢𝑖 𝑌𝑖 = salario promedio anual de los maestros de escuelas públicas en el estado ($) 𝑋𝑖 = gasto en escuelas públicas por alumno ($) 𝐷2𝑖 = 1 si el estado es del Noreste o Norte-centro; 0 en otro caso 𝐷3𝑖 = 1 si el estado es del Sur; 0 en otro caso SUBTEMA: 2.- Modelos ANOVA Regresión con una mezcla de regresoras cualitativas y cuantitativas: los modelos ANCOVA Tenga presente que se considera al Oeste como la categoría de comparación. Asimismo, note que, además de las dos regresoras cualitativas, se tiene una variable cuantitativa, X, que en el contexto de los modelos ANCOVA se conoce como covariante SUBTEMA: 2.- Modelos ANOVA Como los resultados indican, ceteris paribus: conforme el gasto público aumenta un dólar, en promedio, el salario de los maestros de escuela pública se incrementa más o menos $2.34. Si controlamos el gasto en educación, ahora se observa que el coeficiente de intercepto diferencial no es significativo para la región Noreste y Norte-centro ni para el Sur. Estos resultados difieren de los de la regresión del primer ejemplo. Pero no debe sorprender, pues en esa regresión no tuvimos en cuenta la covariante, que son las diferencias del gasto público en educación por alumno. Si bien se mostraron tres líneas de regresión para las tres regiones, estadísticamente las líneas de regresión son las mismas para las tres regiones. También observe que las tres líneas de regresión son paralelas. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Las variables dicótomas son una herramienta flexible para varios problemas interesantes. Observemos lo anterior con el siguiente modelo: 𝑌𝑖 = α1 + α2 𝐷2𝑖 + α3 𝐷3𝑖 + β𝑋𝑖 + 𝑢𝑖 (9.6.1) donde Y = salario por hora en dólares X = educación (años de escolaridad) D2 = 1 si es mujer; 0 en otro caso D3 = 1 si no es blanco y no hispano; 0 en otro caso En este modelo, el sexo y la raza son regresoras cualitativas y la escolaridad es cuantitativa. Está implícito en este modelo el supuesto de que el efecto diferencial de la variable dicótoma sexo, D2, es constante en las dos categorías de raza, y el efecto diferencial de la variable dicótoma raza, D3, también es constante en ambos sexos. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Es decir, si el salario medio es mayor para los hombres que para las mujeres, esto ocurre independientemente de que sean no blancos/no hispanos o no. De igual forma, si por ejemplo los no blancos/no hispanos tienen salarios medios menores, esto ocurre independientemente de que sean hombres o mujeres. En muchas aplicaciones dicho supuesto puede ser insostenible. Una mujer no blanca ni hispana tal vez gane menor salario que un hombre de esa misma categoría. En otras palabras, quizá haya interacción entre las dos variables cualitativas D2 y D3. Por tanto, su efecto sobre la media Y quizá no sea simplemente aditivo, como en (9.6.1), sino también multiplicativo, como en el siguiente modelo: 𝑌𝑖 = α1 + α2 𝐷2𝑖 + α3 𝐷3𝑖 + α4 (𝐷2𝑖 𝐷3𝑖 ) + β𝑋𝑖 + 𝑢𝑖 (9.6.2) SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas De (9.6.2) obtenemos 𝐸 𝑌𝑖 |𝐷2𝑖 = 1, 𝐷3𝑖 = 1, 𝑋𝑖 = 𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 + 𝛽𝑋𝑖 (9.6.3) que es la función salario medio por hora para las trabajadoras no blancas ni hispanas. 𝛼2 = efecto diferencial de ser mujer 𝛼3 = efecto diferencial de ser no blanco ni hispano 𝛼4 = efecto diferencial de ser mujer no blanca ni hispana lo cual muestra que el salario medio por hora de las mujeres no blancas ni hispanas es diferente (en una cantidad igual a α4) del salario medio por hora de las mujeres blancas o hispanas. Si por ejemplo los tres coeficientes de las variables dicótomas son negativos, se implica que las trabajadoras no blancas ni hispanas ganan un salario medio por hora mucho más bajo que las trabajadoras blancas o hispanas, en comparación con la categoría base, la cual en el ejemplo presente es la de hombres blancos o hispanos. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Veamos primero los resultados de la regresión basados en el modelo (9.6.1). Con los datos con que se estimó la regresión (9.3.1) obtuvimos lo siguiente: 𝑌෠𝑖 = − 0.2610 − 2.3606𝐷2𝑖 − 1.7327𝐷3𝑖 + 0.8028𝑋𝑖 (9.6.4) 𝑡 = (−0.2357)∗∗ (−5.4873)∗ (−2.1803)∗ (9.9094)∗ 𝑅2 = 0.2032 𝑛 = 528 donde * indica valores p menores que 5% y ** indica valores p mayores que 5%. Pueden verificar que los coeficientes de intercepto diferenciales son estadísticamente significativos, que tienen los signos que se esperaban y que la escolaridad tiene un gran efecto positivo sobre el salario por hora, lo cual no causa sorpresa alguna. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Como lo muestra (9.6.4), ceteris paribus, el ingreso promedio por hora de las mujeres es inferior por cerca de $2.36; además, el ingreso promedio por hora de los trabajadores no blancos ni hispanos también es menor por aproximadamente $1.73. Ahora consideremos los resultados del modelo (9.6.2), que incluyen la variable dicótoma de interacción. 𝑌෠𝑖 = − 0.2610 − 2.3606𝐷2𝑖 − 1.7327𝐷3𝑖 + 2.1289𝐷2𝑖 𝐷3𝑖 + 0.8028𝑋𝑖 (9.6.5) 𝑡 = (−0.2357)∗∗ (−5.4873)∗ (−2.1803)∗ (1.7420)∗∗ (9.9095)∗∗ 𝑅2 = 0.2032 𝑛 = 528 donde * indica valores p menores que 5% y ** indica valores p mayores que 5%. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Como se nota, las dos variables dicótomas aditivas son aún estadísticamente significativas, pero la variable dicótoma interactiva no está al nivel convencional de 5%; el valor p real de la variable de interacción es de un nivel de casi 8%. Si consideramos que esto es una probabilidad lo bastante baja, interpretamos los resultados de (9.6.5) de la siguiente manera: si se mantiene constante el nivel de educación y se suman los tres coeficientes de las variables dicótomas, obtendremos −1.964 =( −2.3605 − 1.7327 + 2.1289), lo cual significa que los salarios medios por hora de las trabajadoras no blancas ni hispanas es menor por casi $1.96, valor que está entre −2.3605 (diferencia debido sólo al sexo) y −1.7327 (diferencia debida sólo a la raza). SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Muchas series de tiempo económicas que se basan en datos mensuales o trimestrales presentan pautas estacionales (movimiento oscilatorio regular); por ejemplo, las ventas de las tiendas de departamentos en la época de Navidad y otras festividades importantes, la demanda de dinero (saldos de efectivo) por parte de las familias en épocas de vacaciones, la demanda de helado durante el verano y los precios de los cultivos justo después de la época de cosecha, etc. A menudo es útil eliminar el factor o componente estacional de las series de tiempo con el fin de concentrarse en los demás componentes, como la tendencia. El proceso de eliminar el componente estacional de una serie de tiempo se conoce como ajuste estacional, y la serie de tiempo así obtenida se denomina serie de tiempo ajustada por estacionalidad. Las series de tiempo económicas importantes, como el índice de precios al consumidor (IPC), el índice de precios del productor (IPP) y el índice de producción industrial, suelen publicarse ajustadas por estacionalidad. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional El método de las variables dicótomas: Para ilustrar la forma de desestacionalizar con las variables dicótomas, considere los datos de la tabla 9.3. Se trata de datos trimestrales de 1978 a 1995 respecto de las ventas de cuatro aparatos principales: lavalozas, trituradores de basura, refrigeradores y lavadoras, en miles de unidades. La tabla también suministra datos sobre el gasto en bienes duraderos en 1982, en miles de millones de dólares. Consideraremos sólo las ventas de los refrigeradores en el periodo de muestra. Pero primero observe los datos de la figura siguiente La figura indica que tal vez exista un modelo estacional en los datos asociados con los diversos trimestres. Para verificarlo, vea el siguiente modelo: 𝑌𝑖 = α1 𝐷1𝑡 + α2 𝐷2𝑡 + α3 𝐷3𝑡 + α3 𝐷4𝑡 + 𝑢𝑖 (9.7.1) SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional donde Yt = ventas de refrigeradores (en miles) y las D son las variables dicótomas, las cuales toman un valor de 1 en el trimestre relevante, y 0 en otro caso. Observe que para evitar la trampa de la variable dicótoma asignamos una variable dicótoma a cada trimestre del año, pero omitimos el término del intercepto. Si hubiera algún efecto estacional en un determinado trimestre se señalaría mediante un valor t estadísticamente significativo del coeficiente de la variable dicótoma para dicho trimestre. Observe que en (9.7.1) se hace la regresión de Y efectivamente sobre un intercepto, salvo que se permite un intercepto distinto para cada temporada (es decir, trimestre). Como resultado, el coeficiente de la variable dicótoma de cada trimestre proporcionará la media de las ventas de refrigeradores de cada trimestre o temporada SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional De los datos sobre las ventas de refrigeradores de la tabla 9.4 se obtienen los siguientes resultados de la regresión: SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional En vez de asignar una variable dicótoma a cada trimestre y suprimir el término del intercepto a fi n de evitar la trampa de variable dicótoma, se puede asignar sólo tres variables dicótomas e incluir el término del intercepto. Suponga que consideramos el primer trimestre como referencia y asignamos variables dicótomas al segundo, tercero y cuarto. Lo anterior da los siguientes resultados de regresión: SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Como consideramos el primer trimestre como punto de referencia, los coeficientes relacionados con las distintas variables dicótomas ahora son interceptos diferenciales que muestran en qué medida el valor promedio de Y en el trimestre que recibe un valor de 1 para la variable dicótoma difiere del trimestre que es punto de referencia. En otras palabras, los coeficientes de las variables estacionales indican el incremento o decremento estacional del valor promedio de Y en relación con la temporada base. Ahora apreciará el valor de considerar un trimestre como punto de referencia, pues (9.7.3) muestra que el valor promedio de Y para el cuarto trimestre no es estadísticamente distinto del valor promedio para el primer trimestre, porque el coeficiente de la variable dicótoma para el cuarto trimestre no es estadísticamente significativo. Por supuesto, la respuesta cambia según el trimestre con que se compare; no obstante, la conclusión general sigue siendo la misma. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional ¿Cómo obtener la serie de tiempo desestacionalizada de las ventas de los refrigeradores? Es fácil. Se estiman los valores Y a partir del modelo (9.7.2) [o (9.7.3)] para cada observación y se restan de los valores reales de Y; es decir, se obtiene (Yt − Ŷt ), que son sólo los residuos de la regresión (9.7.2), los cuales se presentan en la tabla 9.5. A estos residuos es necesario sumarles la media de las series Y para obtener los valores pronosticados. ¿Qué representan estos residuos? Significan los componentes que quedan de la serie de tiempo de los refrigeradores, a saber, la tendencia, el ciclo y el componente aleatorio. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Como los modelos (9.7.2) y (9.7.3) no contienen covariantes, ¿cambiaría la situación si se añade una regresora cuantitativa al modelo? Por la influencia del gasto en bienes duraderos sobre la demanda de refrigeradores, el modelo (9.7.3) se extenderá para incluir esta variable. Los datos para el gasto en bienes duraderos en miles de millones de dólares de 1982 ya se proporcionaron en la tabla 9.3. Ésta es la variable X (cuantitativa) del modelo. Los resultados de la regresión son los siguientes: CIERRE Conclusiones por parte de los estudiantes sobre los temas tratados en clases. ECONOMETRÍA BÁSICA UNIDAD 4 Análisis de regresión múltiple con k variables TEMA 2 Flexibilización de los supuestos del modelo clásico Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTEMA: 1.- Multicolinealidad: ¿qué pasa si las regresoras están correlacionadas? SUBTEMA: 3.- Naturaleza y fuentes de datos para el análisis económico SUBTEMA: 2.- Heteroscedasticidad: ¿qué pasa si la varianza del error no es constante? SUBTEMA: 3.- Autocorrelación: ¿qué pasa si los términos de error están correlacionados? OBJETIVO DE APRENDIZAJE Al finalizar la unidad, el estudiante será capaz de analizar la flexibilización de supuestos del modelo clásico en el análisis econométrico. SUBTEMA: 1.- Multicolinealidad Multicolinealidad: ¿qué pasa si las regresoras están correlacionadas? El supuesto 8 del modelo clásico de regresión lineal (MCRL) plantea que no existe multicolinealidad entre las regresoras incluidas en el modelo de regresión. En este tema consideramos en forma crítica el supuesto de no multicolinealidad en busca de respuestas a las siguientes preguntas: 1. ¿Cuál es la naturaleza de la multicolinealidad? 2. ¿Es la multicolinealidad realmente un problema? 3. ¿Cuáles son sus consecuencias prácticas? 4. ¿Cómo se detecta? 5. ¿Qué medidas pueden tomarse para aliviar el problema de multicolinealidad? SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Definición: Multicolinealidad: Concepto atribuido a Ragnar Frisch, originalmente referido a una relación lineal exacta entre variables explicativas en un modelo de regresión. Condición de multicolinealidad perfecta: λ1 𝑋1 + λ2 𝑋2 + … + λ𝑘 𝑋𝑘 = 0, donde no todos los λ son cero. Esto implica que una variable explicativa puede expresarse como una combinación lineal exacta de las otras. Multicolinealidad imperfecta: λ1 𝑋1 + λ2 𝑋2 + … + λ𝑘 𝑋𝑘 + 𝑣𝑖 = 0, donde 𝑣𝑖 es un término de error estocástico. Aquí, las variables explicativas están correlacionadas, pero no de manera perfecta. SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Ejemplos: Multicolinealidad Perfecta: Si λ2 ≠ 0, la ecuación λ1 𝑋1 + λ2 𝑋2 + … + λ𝑘 𝑋𝑘 = 0 se puede reescribir como: λ1 λ3 λ𝑘 𝑋2𝑖 = − 𝑋1𝑖 − 𝑋3𝑖 − ⋯ − 𝑋𝑘𝑖 λ2 λ2 λ2 Esto muestra que 𝑋2 está perfectamente relacionada de manera lineal con otras variables explicativas 𝑋1 , 𝑋3 , … , 𝑋𝑘. Multicolinealidad Imperfecta: Si λ2 ≠ 0, la ecuación λ1 𝑋1 + λ2 𝑋2 + … + λ𝑘 𝑋𝑘 + 𝑣𝑖 = 0 se puede reescribir como: λ1 λ3 λ𝑘 1 𝑋2𝑖 = − 𝑋1𝑖 − 𝑋3𝑖 − ⋯ − 𝑋𝑘𝑖 − 𝑣𝑖 λ2 λ2 λ2 λ2 Aquí, 𝑋2 no es una combinación lineal exacta de otras variables explicativas debido al término de error estocástico 𝑣𝑖. SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Ejemplo numérico: Colinealidad Perfecta: 𝑋3𝑖 = 5𝑋2𝑖 , coeficiente de correlación 𝑟23 = 1. Colinealidad Imperfecta: 𝑋3∗ es 𝑋3 con pequeños errores aleatorios (2, 0, 7, 9, 2), ∗ coeficiente de correlación 𝑟23 = 0.9959. SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Diagrama de Ballentine - Visualización de la Colinealidad: Los círculos representan las variaciones en la variable dependiente 𝑌 y en las variables explicativas 𝑋2 y 𝑋3 SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Diagrama de Ballentine - Visualización de la Colinealidad: Grado de Colinealidad: Medido por la magnitud de la intersección entre los círculos de 𝑋2 y 𝑋3. Sin Colinealidad: No hay intersección (Figura 10.1a). Colinealidad Baja a Alta: Aumenta la intersección entre 𝑋2 y 𝑋3 (Figuras 10.1b a 10.1e). Colinealidad Perfecta: Superposición completa de los círculos. SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Importancia: Relaciones Lineales: La multicolinealidad afecta solo las relaciones lineales entre las variables explicativas. Modelos No Lineales: 𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 2 + 𝛽3 𝑋 3 + 𝑢 Aquí, las variables 𝑋 2 y 𝑋 3 están relacionadas funcionalmente con X pero de manera no lineal. No violan estrictamente el supuesto de no multicolinealidad. Problemas Causados por la Multicolinealidad: Perfecta: Coeficientes de regresión indeterminados y errores estándar infinitos. Imperfecta: Coeficientes de regresión determinados pero con grandes errores estándar, lo que reduce la precisión de las estimaciones. SUBTEMA: 1.- Multicolinealidad Naturaleza de la multicolinealidad Fuentes de la Multicolinealidad: 1. Método de Recolección de Información: Muestras en intervalos limitados. 2. Restricciones en el Modelo/Población: Ej. Ingreso y tamaño de viviendas. 3. Especificación del Modelo: Adición de términos polinomiales. 4. Modelo Sobredeterminado: Más variables explicativas que observaciones. Series de Tiempo: Tendencia Común: Regresoras compartiendo una tendencia común, como ingreso, riqueza y población creciendo a tasas similares. SUBTEMA: 2.- Modelos ANOVA Regresión con una mezcla de regresoras cualitativas y cuantitativas: los modelos ANCOVA Ejemplo: Regresemos al ejemplo 9.1 afirmando que el salario promedio de los maestros de escuelas públicas no variará en las tres regiones si se toma en cuenta cualquier variable que no pueda estandarizarse en las tres regiones. Por ejemplo, piense en la variable gasto en escuelas públicas erogado por las autoridades locales, en vista de que la educación primaria es una cuestión sobre todo de carácter local y estatal. Para ver si éste es el caso, desarrollamos el siguiente modelo: 𝑌𝑖 = β1 + β2 𝐷2𝑖 + β3 𝐷3𝑖 + β4 𝑋𝑖 + 𝑢𝑖 𝑌𝑖 = salario promedio anual de los maestros de escuelas públicas en el estado ($) 𝑋𝑖 = gasto en escuelas públicas por alumno ($) 𝐷2𝑖 = 1 si el estado es del Noreste o Norte-centro; 0 en otro caso 𝐷3𝑖 = 1 si el estado es del Sur; 0 en otro caso SUBTEMA: 2.- Modelos ANOVA Regresión con una mezcla de regresoras cualitativas y cuantitativas: los modelos ANCOVA Tenga presente que se considera al Oeste como la categoría de comparación. Asimismo, note que, además de las dos regresoras cualitativas, se tiene una variable cuantitativa, X, que en el contexto de los modelos ANCOVA se conoce como covariante SUBTEMA: 2.- Modelos ANOVA Como los resultados indican, ceteris paribus: conforme el gasto público aumenta un dólar, en promedio, el salario de los maestros de escuela pública se incrementa más o menos $2.34. Si controlamos el gasto en educación, ahora se observa que el coeficiente de intercepto diferencial no es significativo para la región Noreste y Norte-centro ni para el Sur. Estos resultados difieren de los de la regresión del primer ejemplo. Pero no debe sorprender, pues en esa regresión no tuvimos en cuenta la covariante, que son las diferencias del gasto público en educación por alumno. Si bien se mostraron tres líneas de regresión para las tres regiones, estadísticamente las líneas de regresión son las mismas para las tres regiones. También observe que las tres líneas de regresión son paralelas. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Las variables dicótomas son una herramienta flexible para varios problemas interesantes. Observemos lo anterior con el siguiente modelo: 𝑌𝑖 = α1 + α2 𝐷2𝑖 + α3 𝐷3𝑖 + β𝑋𝑖 + 𝑢𝑖 (9.6.1) donde Y = salario por hora en dólares X = educación (años de escolaridad) D2 = 1 si es mujer; 0 en otro caso D3 = 1 si no es blanco y no hispano; 0 en otro caso En este modelo, el sexo y la raza son regresoras cualitativas y la escolaridad es cuantitativa. Está implícito en este modelo el supuesto de que el efecto diferencial de la variable dicótoma sexo, D2, es constante en las dos categorías de raza, y el efecto diferencial de la variable dicótoma raza, D3, también es constante en ambos sexos. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Es decir, si el salario medio es mayor para los hombres que para las mujeres, esto ocurre independientemente de que sean no blancos/no hispanos o no. De igual forma, si por ejemplo los no blancos/no hispanos tienen salarios medios menores, esto ocurre independientemente de que sean hombres o mujeres. En muchas aplicaciones dicho supuesto puede ser insostenible. Una mujer no blanca ni hispana tal vez gane menor salario que un hombre de esa misma categoría. En otras palabras, quizá haya interacción entre las dos variables cualitativas D2 y D3. Por tanto, su efecto sobre la media Y quizá no sea simplemente aditivo, como en (9.6.1), sino también multiplicativo, como en el siguiente modelo: 𝑌𝑖 = α1 + α2 𝐷2𝑖 + α3 𝐷3𝑖 + α4 (𝐷2𝑖 𝐷3𝑖 ) + β𝑋𝑖 + 𝑢𝑖 (9.6.2) SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas De (9.6.2) obtenemos 𝐸 𝑌𝑖 |𝐷2𝑖 = 1, 𝐷3𝑖 = 1, 𝑋𝑖 = 𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 + 𝛽𝑋𝑖 (9.6.3) que es la función salario medio por hora para las trabajadoras no blancas ni hispanas. 𝛼2 = efecto diferencial de ser mujer 𝛼3 = efecto diferencial de ser no blanco ni hispano 𝛼4 = efecto diferencial de ser mujer no blanca ni hispana lo cual muestra que el salario medio por hora de las mujeres no blancas ni hispanas es diferente (en una cantidad igual a α4) del salario medio por hora de las mujeres blancas o hispanas. Si por ejemplo los tres coeficientes de las variables dicótomas son negativos, se implica que las trabajadoras no blancas ni hispanas ganan un salario medio por hora mucho más bajo que las trabajadoras blancas o hispanas, en comparación con la categoría base, la cual en el ejemplo presente es la de hombres blancos o hispanos. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Veamos primero los resultados de la regresión basados en el modelo (9.6.1). Con los datos con que se estimó la regresión (9.3.1) obtuvimos lo siguiente: 𝑌෠𝑖 = − 0.2610 − 2.3606𝐷2𝑖 − 1.7327𝐷3𝑖 + 0.8028𝑋𝑖 (9.6.4) 𝑡 = (−0.2357)∗∗ (−5.4873)∗ (−2.1803)∗ (9.9094)∗ 𝑅2 = 0.2032 𝑛 = 528 donde * indica valores p menores que 5% y ** indica valores p mayores que 5%. Pueden verificar que los coeficientes de intercepto diferenciales son estadísticamente significativos, que tienen los signos que se esperaban y que la escolaridad tiene un gran efecto positivo sobre el salario por hora, lo cual no causa sorpresa alguna. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Como lo muestra (9.6.4), ceteris paribus, el ingreso promedio por hora de las mujeres es inferior por cerca de $2.36; además, el ingreso promedio por hora de los trabajadores no blancos ni hispanos también es menor por aproximadamente $1.73. Ahora consideremos los resultados del modelo (9.6.2), que incluyen la variable dicótoma de interacción. 𝑌෠𝑖 = − 0.2610 − 2.3606𝐷2𝑖 − 1.7327𝐷3𝑖 + 2.1289𝐷2𝑖 𝐷3𝑖 + 0.8028𝑋𝑖 (9.6.5) 𝑡 = (−0.2357)∗∗ (−5.4873)∗ (−2.1803)∗ (1.7420)∗∗ (9.9095)∗∗ 𝑅2 = 0.2032 𝑛 = 528 donde * indica valores p menores que 5% y ** indica valores p mayores que 5%. SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas Como se nota, las dos variables dicótomas aditivas son aún estadísticamente significativas, pero la variable dicótoma interactiva no está al nivel convencional de 5%; el valor p real de la variable de interacción es de un nivel de casi 8%. Si consideramos que esto es una probabilidad lo bastante baja, interpretamos los resultados de (9.6.5) de la siguiente manera: si se mantiene constante el nivel de educación y se suman los tres coeficientes de las variables dicótomas, obtendremos −1.964 =( −2.3605 − 1.7327 + 2.1289), lo cual significa que los salarios medios por hora de las trabajadoras no blancas ni hispanas es menor por casi $1.96, valor que está entre −2.3605 (diferencia debido sólo al sexo) y −1.7327 (diferencia debida sólo a la raza). SUBTEMA: 2.- Modelos ANOVA Efectos de interacción al utilizar variables dicótomas SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Muchas series de tiempo económicas que se basan en datos mensuales o trimestrales presentan pautas estacionales (movimiento oscilatorio regular); por ejemplo, las ventas de las tiendas de departamentos en la época de Navidad y otras festividades importantes, la demanda de dinero (saldos de efectivo) por parte de las familias en épocas de vacaciones, la demanda de helado durante el verano y los precios de los cultivos justo después de la época de cosecha, etc. A menudo es útil eliminar el factor o componente estacional de las series de tiempo con el fin de concentrarse en los demás componentes, como la tendencia. El proceso de eliminar el componente estacional de una serie de tiempo se conoce como ajuste estacional, y la serie de tiempo así obtenida se denomina serie de tiempo ajustada por estacionalidad. Las series de tiempo económicas importantes, como el índice de precios al consumidor (IPC), el índice de precios del productor (IPP) y el índice de producción industrial, suelen publicarse ajustadas por estacionalidad. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional El método de las variables dicótomas: Para ilustrar la forma de desestacionalizar con las variables dicótomas, considere los datos de la tabla 9.3. Se trata de datos trimestrales de 1978 a 1995 respecto de las ventas de cuatro aparatos principales: lavalozas, trituradores de basura, refrigeradores y lavadoras, en miles de unidades. La tabla también suministra datos sobre el gasto en bienes duraderos en 1982, en miles de millones de dólares. Consideraremos sólo las ventas de los refrigeradores en el periodo de muestra. Pero primero observe los datos de la figura siguiente La figura indica que tal vez exista un modelo estacional en los datos asociados con los diversos trimestres. Para verificarlo, vea el siguiente modelo: 𝑌𝑖 = α1 𝐷1𝑡 + α2 𝐷2𝑡 + α3 𝐷3𝑡 + α3 𝐷4𝑡 + 𝑢𝑖 (9.7.1) SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional donde Yt = ventas de refrigeradores (en miles) y las D son las variables dicótomas, las cuales toman un valor de 1 en el trimestre relevante, y 0 en otro caso. Observe que para evitar la trampa de la variable dicótoma asignamos una variable dicótoma a cada trimestre del año, pero omitimos el término del intercepto. Si hubiera algún efecto estacional en un determinado trimestre se señalaría mediante un valor t estadísticamente significativo del coeficiente de la variable dicótoma para dicho trimestre. Observe que en (9.7.1) se hace la regresión de Y efectivamente sobre un intercepto, salvo que se permite un intercepto distinto para cada temporada (es decir, trimestre). Como resultado, el coeficiente de la variable dicótoma de cada trimestre proporcionará la media de las ventas de refrigeradores de cada trimestre o temporada SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional De los datos sobre las ventas de refrigeradores de la tabla 9.4 se obtienen los siguientes resultados de la regresión: SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional En vez de asignar una variable dicótoma a cada trimestre y suprimir el término del intercepto a fi n de evitar la trampa de variable dicótoma, se puede asignar sólo tres variables dicótomas e incluir el término del intercepto. Suponga que consideramos el primer trimestre como referencia y asignamos variables dicótomas al segundo, tercero y cuarto. Lo anterior da los siguientes resultados de regresión: SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Como consideramos el primer trimestre como punto de referencia, los coeficientes relacionados con las distintas variables dicótomas ahora son interceptos diferenciales que muestran en qué medida el valor promedio de Y en el trimestre que recibe un valor de 1 para la variable dicótoma difiere del trimestre que es punto de referencia. En otras palabras, los coeficientes de las variables estacionales indican el incremento o decremento estacional del valor promedio de Y en relación con la temporada base. Ahora apreciará el valor de considerar un trimestre como punto de referencia, pues (9.7.3) muestra que el valor promedio de Y para el cuarto trimestre no es estadísticamente distinto del valor promedio para el primer trimestre, porque el coeficiente de la variable dicótoma para el cuarto trimestre no es estadísticamente significativo. Por supuesto, la respuesta cambia según el trimestre con que se compare; no obstante, la conclusión general sigue siendo la misma. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional ¿Cómo obtener la serie de tiempo desestacionalizada de las ventas de los refrigeradores? Es fácil. Se estiman los valores Y a partir del modelo (9.7.2) [o (9.7.3)] para cada observación y se restan de los valores reales de Y; es decir, se obtiene (Yt − Ŷt ), que son sólo los residuos de la regresión (9.7.2), los cuales se presentan en la tabla 9.5. A estos residuos es necesario sumarles la media de las series Y para obtener los valores pronosticados. ¿Qué representan estos residuos? Significan los componentes que quedan de la serie de tiempo de los refrigeradores, a saber, la tendencia, el ciclo y el componente aleatorio. SUBTEMA: 2.- Modelos ANOVA Uso de las variables dicótomas en el análisis estacional Como los modelos (9.7.2) y (9.7.3) no contienen covariantes, ¿cambiaría la situación si se añade una regresora cuantitativa al modelo? Por la influencia del gasto en bienes duraderos sobre la demanda de refrigeradores, el modelo (9.7.3) se extenderá para incluir esta variable. Los datos para el gasto en bienes duraderos en miles de millones de dólares de 1982 ya se proporcionaron en la tabla 9.3. Ésta es la variable X (cuantitativa) del modelo. Los resultados de la regresión son los siguientes: CIERRE Conclusiones por parte de los estudiantes sobre los temas tratados en clases. ECONOMETRÍA BÁSICA UNIDAD 4 Análisis de regresión múltiple con k variables TEMA 2 Flexibilización de los supuestos del modelo clásico Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTEMA: 1.- Multicolinealidad: ¿qué pasa si las regresoras están correlacionadas? SUBTEMA: 3.- Naturaleza y fuentes de datos para el análisis económico SUBTEMA: 2.- Heteroscedasticidad: ¿qué pasa si la varianza del error no es constante? SUBTEMA: 3.- Autocorrelación: ¿qué pasa si los términos de error están correlacionados? OBJETIVO DE APRENDIZAJE Al finalizar la unidad, el estudiante será capaz de analizar la flexibilización de supuestos del modelo clásico en el análisis econométrico. SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad Perfecta Concepto de Multicolinealidad Perfecta Definición: Ocurre cuando una variable explicativa en un modelo de regresión puede ser expresada como una combinación lineal exacta de otras variables explicativas. Consecuencias: Los coeficientes de regresión son indeterminados. Los errores estándar son infinitos. Modelo de Regresión con Tres Variables Forma de desviación: Todas las variables se expresan como desviaciones de sus medias muestrales. Modelo: SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad Perfecta Estimación de Coeficientes con Multicolinealidad Perfecta Fórmulas de estimación: Caso de Multicolinealidad Perfecta Suposición: 𝑋3𝑖 = λ𝑋2𝑖 , donde λ es una constante Sustitución en la fórmula de 𝛽መ2 Resultado: Indeterminación SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad Perfecta Interpretación y Problemas Coeficientes Indeterminados: Significado de 𝜷෡ 𝟐 : Tasa de cambio en el valor promedio de 𝑌 a medida que 𝑋2 cambia en una unidad, manteniendo 𝑋3 constante. Problema: Si 𝑋3 y 𝑋2 son perfectamente colineales, no hay forma de mantener 𝑋3 constante. Modelo simplificado Sustitución en el modelo: 𝑦𝑖 = 𝛽መ2 𝑥2𝑖 + 𝛽መ3 (λ𝑥2𝑖 ) + 𝑢ො 𝑖 𝑦𝑖 = (𝛽መ2 + λ𝛽መ3 )𝑥2𝑖 + 𝑢ො 𝑖 𝑦𝑖 = 𝛼𝑥 ො 2𝑖 + 𝑢ො 𝑖 Donde: 𝛼ො = (𝛽መ2 + λ𝛽መ3 ) SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad Perfecta Solución de Combinación Lineal Estimación única: Se puede estimar 𝛼ො de forma única, pero no 𝛽መ2 y 𝛽መ3 individualmente. Ecuación combinada: 𝛼ො = 𝛽መ2 + λ𝛽መ3 Conclusiones Multicolinealidad Perfecta: No se puede obtener una solución única para los coeficientes individuales. Las varianzas y errores estándar de 𝛽መ2 y 𝛽መ3 son infinitos. Se puede obtener una solución única para combinaciones lineales de estos coeficientes. SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad "Alta" pero "Imperfecta" Concepto de Multicolinealidad Imperfecta Definición: Ocurre cuando una variable explicativa puede ser expresada como una combinación lineal aproximada (no exacta) de otras variables explicativas. Modelo de regresión con tres variables: Modelo con Multicolinealidad Imperfecta Ecuación de Multicolinealidad Imperfecta: 𝑥3𝑖 = λ𝑥2𝑖 + 𝑣𝑖 donde λ es una constante y 𝑣𝑖 es un término de error estocástico tal que ∑ 𝑥2𝑖 𝑣𝑖 = 0. SUBTEMA: 1.- Multicolinealidad Estimación en Presencia de Multicolinealidad "Alta" pero "Imperfecta" Estimación de Coeficientes en Presencia de Multicolinealidad Imperfecta Estimación de 𝜷෡𝟐 : Sustitución de la ecuación de multicolinealidad imperfecta en el modelo original: 𝑦𝑖 = 𝛽መ2 𝑥2𝑖 + 𝛽መ3 (λ𝑥2𝑖 +𝑣𝑖 ) + 𝑢ො 𝑖 𝑦𝑖 = 𝛽መ2 𝑥2𝑖 + 𝛽መ3 λ𝑥2𝑖 + 𝛽መ3 𝑣𝑖 ) + 𝑢ො 𝑖 𝑦𝑖 = (𝛽መ2 + 𝛽መ3 λ)𝑥2𝑖 + 𝛽መ3 𝑣𝑖 + 𝑢ො 𝑖 Interpretación y Viabilidad de Estimación: No hay razón a priori para pensar que 𝛽መ2 no pueda estimarse si 𝑣𝑖 no es excesivamente pequeño. Si 𝑣𝑖 es cercano a cero, se aproximará a una colinealidad casi perfecta, regresando al caso indeterminado de multicolinealidad perfecta. Conclusión La multicolinealidad imperfecta permite la estimación de coeficientes de regresión, aunque con mayores desafíos si 𝑣𝑖 es muy pequeño. SUBTEMA: 1.- Multicolinealidad Multicolinealidad: ¿tanto para nada? Consecuencias teóricas de la multicolinealidad La multicolinealidad es un problema que surge cuando las variables independientes en un modelo de regresión están altamente correlacionadas entre sí. A pesar de que los estimadores de MCO (mínimos cuadrados ordinarios) conservan la propiedad de ser insesgados y de varianza mínima dentro de la clase de estimadores lineales insesgados, la multicolinealidad presenta varios inconvenientes prácticos significativos. Consecuencias teóricas de la multicolinealidad 1. Propiedad de insesgamiento: Los estimadores de MCO son insesgados incluso en presencia de multicolinealidad. Esto significa que, en el largo plazo y con muestras repetidas, el valor promedio de los estimadores se aproximará al valor verdadero de los parámetros poblacionales. Sin embargo, el insesgamiento es una propiedad de muestreo repetido y no garantiza que los estimadores sean precisos en una muestra particular. SUBTEMA: 1.- Multicolinealidad Multicolinealidad: ¿tanto para nada? Consecuencias teóricas de la multicolinealidad Consecuencias teóricas de la multicolinealidad 2. Varianza mínima: Los estimadores de MCO conservan la propiedad de tener la varianza mínima entre los estimadores lineales insesgados, lo que implica eficiencia. No obstante, la presencia de multicolinealidad puede hacer que la varianza de los estimadores sea muy grande en relación con sus valores estimados, lo que afecta la precisión de las estimaciones en una muestra dada. 3. Fenómeno muestral: La multicolinealidad es un fenómeno muestral. Es decir, aunque las variables X no estén linealmente relacionadas en la población, pueden estarlo en la muestra disponible. Esto puede dificultar la identificación de las influencias individuales de las variables X sobre la variable dependiente Y. SUBTEMA: 1.- Multicolinealidad Multicolinealidad: ¿tanto para nada? Consecuencias teóricas de la multicolinealidad Consecuencias teóricas de la multicolinealidad 4. Riqueza de la muestra: La muestra puede no ser lo suficientemente rica para acomodar todas las variables X en el análisis. Por ejemplo, en estudios de consumo e ingreso, las variables de ingreso y riqueza pueden estar altamente correlacionadas, lo que dificulta distinguir sus efectos individuales sobre el consumo. En estudios de corte transversal, incrementar el tamaño de la muestra puede ayudar a mitigar este problema, pero es más difícil en trabajos de series de tiempo agregadas. Ejemplo ilustrativo: Consideremos el modelo de consumo e ingreso: 𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑖 = β1 + β2 𝐼𝑛𝑔𝑟𝑒𝑠𝑜𝑖 + β3 𝑅𝑖𝑞𝑢𝑒𝑧𝑎𝑖 + 𝑢𝑖 SUBTEMA: 1.- Multicolinealidad Multicolinealidad: ¿tanto para nada? Consecuencias teóricas de la multicolinealidad Consecuencias teóricas de la multicolinealidad En teoría, el ingreso y la riqueza son determinantes del gasto de consumo. Sin embargo, en la práctica, estas variables pueden estar altamente correlacionadas, haciendo difícil distinguir sus influencias separadas. Necesitaríamos una muestra suficientemente grande de individuos con diferentes combinaciones de ingreso y riqueza para evaluar sus efectos individuales, algo que es difícil de obtener en estudios de series de tiempo. Conclusión Aunque los estimadores de MCO mantienen sus propiedades teóricas en presencia de multicolinealidad, las consecuencias prácticas pueden ser significativas. Los grandes errores estándar de los coeficientes estimados pueden hacer que los intervalos de confianza sean muy amplios y las pruebas de hipótesis sean menos fiables. Por tanto, es crucial abordar la multicolinealidad de manera adecuada para mejorar la precisión y la interpretabilidad de los resultados del modelo de regresión. SUBTEMA: 1.- Multicolinealidad Consecuencias Prácticas de la Multicolinealidad La multicolinealidad, cuando es casi perfecta o alta, puede llevar a varias consecuencias prácticas en la estimación de modelos de regresión. Estas incluyen: 1. Varianzas y Covarianzas Grandes: Los estimadores de mínimos cuadrados ordinarios (MCO) son insesgados y eficientes en el sentido mínimo de error cuadrático medio lineal (MELI), pero presentan grandes varianzas y covarianzas, lo que dificulta la estimación precisa. Cuando la correlación 𝑟23 entre 𝑋2 y 𝑋3 tiende a 1, las varianzas y covarianzas de los estimadores de los coeficientes 𝛽መ2 y 𝛽መ3 se vuelven infinitas. Esto se expresa matemáticamente como: SUBTEMA: 1.- Multicolinealidad Consecuencias Prácticas de la Multicolinealidad El factor inflacionario de la varianza (FIV) muestra cómo la varianza de un estimador aumenta debido a la multicolinealidad: 1 𝐹𝐼𝑉 = 2 1 − 𝑟23 Un FIV alto indica una gran varianza debido a la multicolinealidad. Para valores seleccionados de 𝑟23 , las varianzas y covarianzas estimadas de los estimadores de MCO pueden aumentar drásticamente. SUBTEMA: 1.- Multicolinealidad Consecuencias Prácticas de la Multicolinealidad 2. Intervalos de Confianza Amplios: Debido a los grandes errores estándar, los intervalos de confianza para los parámetros poblacionales son mayores, aumentando la probabilidad de aceptar hipótesis nulas falsas (error tipo II). Por ejemplo, cuando 𝑟23 = 0.95, el intervalo de confianza para β2 es 10.26 veces más grande que cuando 𝑟23 = 0. 3. Razones t No Significativas: En casos de alta colinealidad, los errores estándar aumentan, lo que disminuye los valores t. Esto facilita la aceptación de la hipótesis nula de que el verdadero valor poblacional es cero. Para probar la hipótesis nula de que β2 = 0, utilizamos la razón t, y comparamos el valor t estimado con el valor t crítico de la tabla t. SUBTEMA: 1.- Multicolinealidad Consecuencias Prácticas de la Multicolinealidad 4. Alta R² pero Pocas Razones t Significativas: En modelos de regresión lineal con \( k \) variables, es posible encontrar que uno o más coeficientes parciales de pendiente no son estadísticamente significativos basados en la prueba t, aunque \( R^2 \) puede ser alto, indicando una buena bondad de ajuste global. Un R² alto junto con valores t no significativos puede ser una señal de multicolinealidad. 5. Sensibilidad a Cambios en los Datos: Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los datos. Por ejemplo, ligeros cambios en los valores de las variables pueden cambiar drásticamente las estimaciones de los coeficientes y sus errores estándar. Estas consecuencias demuestran la dificultad de obtener estimaciones precisas en presencia de alta multicolinealidad y resaltan la importancia de diagnosticar y tratar la multicolinealidad en los modelos de regresión. SUBTEMA: 1.- Multicolinealidad Detección de la Multicolinealidad Después de estudiar las características y consecuencias de la multicolinealidad, el interrogante natural es cómo detectar su presencia, especialmente en modelos con más de dos variables explicativas. Según Kmenta, la multicolinealidad es una cuestión de grado y no de clase, refiriéndose a la condición de las variables explicativas que son no estocásticas por suposiciones y es una característica de la muestra y no de la población. Reglas Prácticas para Detectar la Multicolinealidad 1. R² elevada pero pocas razones t significativas: Un síntoma clásico de multicolinealidad es cuando R² es alta (por encima de 0.8), pero las pruebas t individuales muestran que pocos o ningún coeficiente de pendiente es estadísticamente diferente de cero. SUBTEMA: 1.- Multicolinealidad Detección de la Multicolinealidad- Reglas Prácticas para Detectar la Multicolinealidad 2. Altas correlaciones entre parejas de regresoras: Se recomienda observar el coeficiente de correlación de orden cero entre dos regresoras. Si este es superior a 0.8, la multicolinealidad puede ser un problema grave. Sin embargo, correlaciones de orden cero altas son una condición suficiente pero no necesaria para la existencia de multicolinealidad. 3. Examen de las correlaciones parciales: Farrar y Glauber sugieren observar los coeficientes de correlación parcial. Si R² es muy elevada pero las correlaciones parciales son bajas, esto puede indicar que las variables están muy intercorrelacionadas y que alguna es superflua. 4. Regresiones auxiliares: Para determinar la relación entre una variable X y las demás, se puede efectuar la regresión de cada Xi sobre las variables X restantes y calcular R². Si la F calculada excede el valor crítico, se dice que la Xi particular es colineal con las demás. SUBTEMA: 1.- Multicolinealidad Detección de la Multicolinealidad- Reglas Prácticas para Detectar la Multicolinealidad 5. Valores propios e índice de condición: El índice de condición (IC) se calcula a partir de los valores propios. Si k está entre 100 y 1000, existe una multicolinealidad de moderada a fuerte, mientras que si excede de 1000, hay multicolinealidad grave. Si IC está entre 10 y 30, hay multicolinealidad moderada a fuerte, y si excede de 30, hay multicolinealidad grave. 6. Tolerancia y factor de inflación de la varianza (FIV): FIV se utiliza como indicador de multicolinealidad. Si el FIV de una variable es superior a 10 (R²j excede de 0.90), esa variable es muy colineal. Mientras más cerca esté TOLj de cero, mayor será el grado de colinealidad de esa variable respecto de las demás regresoras. CIERRE Conclusiones por parte de los estudiantes sobre los temas tratados en clases. ECONOMETRÍA BÁSICA UNIDAD 3 Análisis de regresión múltiple con tres variables TEMA 1 y 2 Análisis de regresión múltiple: El problema de la estimación y El problema de la inferencia Econ. Victor Hugo Calle Armijos, Msc. SUBTEMAS SUBTEMA: TEMA 3.- Naturaleza 1 - SUBTEMA: y fuentes dede 3.- Significado datos los para el análisis coeficientes económico de regresión parcial TEMA 2 - SUBTEMA: 1.- Una vez más, el supuesto de normalidad OBJETIVO DE APRENDIZAJE Al finalizar la unidad, el estudiante será capaz de emplear modelos de regresión lineal múltiple a la estimación e inferencia de problemas económicos. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Asignación de R² entre regresoras En el ejemplo de la mortalidad infantil, vimos que las dos regresoras, PIBPC y TAF, explican 0.7077 o 70.77% de la variación de la mortalidad infantil. Pero ahora considere la regresión donde se eliminó la variable TAF y como consecuencia el valor r² disminuyó hasta 0.1662. ¿Lo anterior significa que la diferencia en el valor r² de 0.5415 (0.7077 − 0.1662) se atribuye a la variable omitida, TAF? Por otro lado, si considera la regresión en la que se quitó la variable PIB, el valor r² disminuye hasta 0.6696. ¿Significa que la diferencia en el valor r² de 0.0381 (0.7077 − 0.6696) se debe a la variable omitida, PIBPC? ¿podemos asignar la R² múltiple de 0.7077 entre las dos regresoras, PIBPC y TAF, de esta forma? Por desgracia, no, pues la asignación depende del orden de introducción de las regresoras, como acabamos de ilustrar. Parte de este problema radica en que las dos regresoras están correlacionadas, pues el coeficiente de correlación entre ambas es igual a 0.2685. En la mayor parte del trabajo con varias regresoras, la correlación entre ambas constituye un problema común. Por supuesto, dicho problema sería mucho más grave si existiese una perfecta colinealidad entre las regresoras. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial ഥ² El “juego” de maximizar 𝑹 Advertencia sobre la Maximización de 𝑹 ഥ² Motivación: Algunos investigadores intentan maximizar 𝑹 ഥ ² escogiendo el modelo que da la ഥ ² más elevada. 𝑹 Peligro: El objetivo no es obtener una 𝑹ഥ ² elevada per se, sino obtener estimados confiables de los coeficientes de regresión poblacional para hacer inferencia estadística. Problema Común: Un 𝑹 ഥ ² alto puede coincidir con coeficientes no significativos o signos contrarios a lo esperado. Importancia de la Pertinencia Teórica Enfoque Correcto: Preocuparse por la pertinencia lógica o teórica de las variables explicativas para la variable dependiente. Significancia Estadística: Es crucial que los coeficientes de regresión sean estadísticamente significativos. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Reflexión de Goldberger sobre R² Papel Modesto: R² tiene un rol modesto en el análisis de regresión. Medida de Bondad del Ajuste: Es solo una medida de la bondad del ajuste de una regresión lineal en los datos muestrales. No Requisito del Modelo: Nada en el modelo de MCRL (Modelo Clásico de Regresión Lineal) exige que R² sea elevada. Conclusión de Goldberger: Una R² elevada no es evidencia a favor del modelo. Una R² baja no es evidencia en su contra. Enfoque en el Error de Predicción Parámetro σ²: Lo importante es el error estándar de predicción elevado al cuadrado para valores relevantes de las variables regresoras (x). Predicción Informativa: El error de predicción esperado al cuadrado (σ²) es más relevante que R² en la evaluación del modelo. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial La función de producción Cobb-Douglas: más sobre la forma funcional La conocida función de producción Cobb-Douglas de la teoría de producción. La función de producción Cobb-Douglas, en su forma estocástica, se expresa como 𝛽 𝛽 𝑌𝑖 = 𝛽1 𝑋2𝑖2 𝑋3𝑖3 𝑒 𝑢𝑖 (7.9.1) donde Y = producción X2 = insumo trabajo X3 = insumo capital u = término de perturbación estocástica e = base del logaritmo natural SUBTEMA: 3.- Significado de los coeficientes de regresión parcial La función de producción Cobb-Douglas: más sobre la forma funcional 𝛽 𝛽 𝑌𝑖 = 𝛽1 𝑋2𝑖2 𝑋3𝑖3 𝑒 𝑢𝑖 (7.9.1) De la ecuación (7.9.1) es claro que la relación entre la producción y los dos insumos es no lineal. Sin embargo, si transformamos este modelo, mediante la función logaritmo, tenemos: 𝑙𝑛𝑌𝑖 = 𝑙𝑛𝛽1 + 𝛽2 𝑙𝑛𝑋2𝑖 + 𝛽3 𝑙𝑛𝑋3𝑖 + 𝑢𝑖 = 𝛽0 + 𝛽2 𝑙𝑛𝑋2𝑖 + 𝛽3 𝑙𝑛𝑋3𝑖 + 𝑢𝑖 (7.9.2) donde β0 = ln β1. Escrito de esta forma, el modelo es lineal en los parámetros β0, β2 y β3, y por consiguiente es un modelo de regresión lineal. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial La función de producción Cobb-Douglas: más sobre la forma funcional En resumen, (7.9.2) es un modelo log-lineal, el equivalente en la regresión múltiple al modelo log-lineal con dos variables. Las propiedades de la función de producción Cobb- Douglas son bien conocidas: 1. 𝛽2 es la elasticidad (parcial) de la producción respecto del insumo trabajo, es decir, mide el cambio porcentual en la producción debido a una variación de 1% en el insumo trabajo, con el insumo capital constante. 2. De igual forma, 𝛽3 es la elasticidad (parcial) de la producción respecto del insumo capital, con el insumo trabajo constante. 3. La suma (𝛽2 + 𝛽3 ) da información sobre los rendimientos a escala, es decir, la respuesta de la producción a un cambio proporcional en los insumos. Si esta suma es 1, existen rendimientos constantes a escala, es decir, la duplicación de los insumos duplica la producción. Si la suma es menor que 1, existen rendimientos decrecientes a escala: al duplicar los insumos, la producción crece en menos del doble. Por último, si la suma es mayor que 1, hay rendimientos crecientes a escala; la duplicación de los insumos aumenta la producción en más del doble. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Para ilustrar la función de producción Cobb-Douglas se obtuvieron los datos de la tabla 7.3, referentes al sector manufacturero de los 50 estados de Estados Unidos y Washington, D.C., para 2005. Si el modelo (7.9.2) satisface los supuestos del modelo clásico de regresión lineal,17 obtenemos la siguiente regresión por el método de MCO (véase el listado de computadora en el apéndice 7A, sección 7A.5): SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Modelos de regresión polinomial Los modelos de regresión polinomial, de amplio uso en la investigación econométrica relacionada con funciones de costo y de producción. Considere la figura 7.1 que relaciona el costo marginal (CM) de corto plazo de la producción de un bien (Y) con el nivel de su producción (X). La curva de CM de la figura muestra que la relación entre CM y producción es no lineal. Si se cuantificara esta relación a partir de los puntos dispersos dados, ¿qué tipo de modelo econométrico expresa la naturaleza primero decreciente y luego creciente del costo marginal? Geométricamente, la curva CM representa una parábola. Matemáticamente, la parábola está representada por: 𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 2 (7.10.1) SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Modelos de regresión polinomial que se denomina una función cuadrática o, más generalmente, un polinomio de segundo grado en la variable X; la mayor potencia de X representa el grado del polinomio (si se agregara X³ a la función anterior, sería un polinomio de tercer grado, y así sucesivamente). La versión estocástica de (7.10.1) se escribe así: 𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝛽2 𝑋𝑖2 + 𝑢𝑖 que se denomina regresión polinomial de segundo grado. La regresión polinomial de grado k general puede escribirse así: 𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝛽2 𝑋𝑖2 + ⋯ + 𝛽𝑘 𝑋𝑖𝑘 + 𝑢𝑖 SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Modelos de regresión polinomial Tenga en cuenta que, en estos tipos de regresiones polinomiales, sólo hay una variable explicativa al lado derecho, pero aparece elevada a distintas potencias, convirtiéndolas en modelos de regresión múltiple. ¿Presentan estos modelos problemas especiales de estimación? Como el polinomio de segundo grado (7.10.2) o el polinomio de grado k (7.10.13) son lineales en los parámetros, las β se estiman mediante las metodologías usuales de MCO o MV. Pero, ¿qué sucede con el problema de colinealidad? ¿Acaso las diferentes X no están altamente correlacionadas puesto que todas son potencias de X? Sí, pero recuerde que todos los términos como X², X³, X⁴, etc., son funciones no lineales de X y, por consiguiente, en términos estrictos, no violan el supuesto de no multicolinealidad. En resumen, es posible estimar modelos de regresión polinomial mediante las técnicas estudiadas en este capítulo sin que se presenten nuevos problemas de estimación. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Coeficientes de correlación parcial: Explicación de correlación simple y parcial El coeficiente de correlación r es la medida del grado de asociación lineal entre dos variables. Para el modelo de regresión con tres variables podemos calcular tres coeficientes de correlación: r12 (correlación entre Y y X2), r13 (coeficiente de correlación entre Y y X3) y r23 (coeficiente de correlación entre X2 y X3); Estos coeficientes de correlación se denominan coeficientes de correlación bruta o simple, o coeficientes de correlación de orden cero. Pero consideremos ahora esta interrogante: ¿podemos decir en realidad que r12 mide el “verdadero” grado de asociación (lineal) entre Y y X2 cuando existe una tercera variable X3 que puede estar asociada a ellas? Esta pregunta es análoga a la siguiente: suponga que el verdadero modelo de regresión es (7.1.1) pero omitimos del modelo la variable X3, y sólo hacemos la regresión Y sobre X2 para obtener el coeficiente de la pendiente de, por ejemplo, b12. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Coeficientes de correlación parcial: Explicación de correlación simple y parcial En general, r12 tal vez no refleje el verdadero grado de asociación entre Y y X2 en presencia de X3. De hecho, es probable que dé una falsa impresión de la naturaleza de la asociación entre Y y X2, como demostraremos en breve. Por consiguiente, lo que se necesita es un coeficiente de correlación que sea independiente de la influencia, si hay alguna, de X3 sobre X2 y Y. Dicho coeficiente de correlación se obtiene y se conoce apropiadamente como coeficiente de correlación parcial. En cuanto concepto, es similar al coeficiente de regresión parcial. Definimos r12.3 = coeficiente de correlación parcial entre Y y X2, manteniendo X3 constante r13.2 = coeficiente de correlación parcial entre Y y X3, manteniendo X2 constante r23.1 = coeficiente de correlación parcial entre X2 y X3, manteniendo Y constante SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Coeficientes de correlación parcial: Explicación de correlación simple y parcial Estas correlaciones parciales se obtienen con facilidad a partir de los coeficientes de correlación simples o de orden cero, de la siguiente forma: Las correlaciones parciales antes mencionadas se denominan coeficientes de correlación de primer orden. Por orden se quiere decir el número de subíndices secundarios. Así r1 2.3 4 sería el coeficiente de correlación de orden dos, r1 2.3 4 5 sería el coeficiente de correlación de orden tres, y así sucesivamente. Como ya vimos, r12, r13 y las siguientes se denominan correlaciones simples o de orden cero. La interpretación de r12.34, por ejemplo, es que éste da el coeficiente de correlación entre Y y X2, manteniendo constantes X3 y X4. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Interpretación de los coeficientes de correlación simple y parcial La r simple tenía un significado directo: medía el grado de asociación (lineal) entre la variable dependiente Y y la variable explicativa X. Sin embargo, una vez fuera del caso de dos variables, se debe prestar cuidadosa atención a la interpretación del coeficiente de correlación simple. De 𝑟12.3 , por ejemplo, observamos lo siguiente: 1. Aunque 𝑟12 = 0, 𝑟12.3 no será cero a menos que 𝑟13 o 𝑟23 , o ambos, sean cero. 2. Si 𝑟12 = 0 y 𝑟13 y 𝑟23 son diferentes de cero y tienen el mismo signo, 𝑟12.3 será negativo, mientras que, si son de signos opuestos, será positivo. Ejemplo, sea Y = rendimiento del cultivo, X2 = la lluvia y X3 = la temperatura. Suponga que 𝑟12 = 0, es decir, no hay asociación entre el rendimiento del cultivo y la lluvia. Tenga en cuenta, además, que 𝑟13 es positiva y 𝑟23 es negativa. Entonces, 𝑟12.3 será positivo; es decir, con la temperatura constante, existe una asociación positiva entre el rendimiento del cultivo y la lluvia. Como la temperatura X3 afecta el rendimiento Y y también afecta la lluvia X2, con el fin de encontrar la relación neta entre rendimiento del cultivo y lluvia se debe eliminar la influencia de la “molesta” variable temperatura. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Interpretación de los coeficientes de correlación simple y parcial 3. Los términos 𝑟12.3 y 𝑟12 no necesitan tener el mismo signo. 4. En el caso de dos variables r² se encuentra entre 0 y 1. La misma propiedad se cumple para los coeficientes de correlación parcial al cuadrado. Así, el lector debe verificar que es posible obtener la siguiente expresión a partir de (7.11.1): 2 2 2 0 ≤ 𝑟12 + 𝑟13 + 𝑟23 − 2𝑟12 𝑟13 𝑟23 ≤ 1 (7.11.4) que da las interrelaciones entre los tres coeficientes de correlación de orden cero. 5. Suponga que 𝑟13 = 𝑟23 = 0. ¿Significa esto que 𝑟12 también es cero? La respuesta es obvia y se desprende de (7.11.4). El hecho de que Y y X3 y X2 y X3 no estén correlacionadas no significa que Y y X2 no lo estén. SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Interpretación de los coeficientes de correlación simple y parcial 2 Observe que la expresión 𝑟12.3 puede denominarse coeficiente de determinación parcial e interpretarse como la proporción de la variación en Y no explicada por la variable X3 que se explica por la inclusión de X2 en el modelo. Conceptualmente, es semejante a R². Antes de continuar observe las siguientes relaciones entre R², los coeficientes de correlación simple y los coeficientes de correlación parcial: SUBTEMA: 3.- Significado de los coeficientes de regresión parcial Interpretación de los coeficientes de correlación simple y parcial Para terminar esta sección, considere lo siguiente: Se planteó antes que R² no disminuye si se introduce una variable explicativa adicional en el modelo, lo cual se aprecia con claridad de (7.11.6). Esta ecuación afi rma que la proporción de la variación en Y explicada 2 por X2 y X3 conjuntamente es la suma de dos partes: la parte explicada sólo por X2 ( = 𝑟12 ) 2 y la parte no explicada por X2 ( = 1 − 𝑟12 ), por la proporción explicada por X3 después de 2 2 mantener constante la influencia de X2. Ahora R² > 𝑟12 siempre que 𝑟13.2 > 0. En el peor de 2 2 los casos, 𝑟13.2 será cero, en cuyo caso R² = 𝑟12. SUBTEMA: 1.- Una vez más, el supuesto de normalidad Si el único objetivo es la estimación puntual de los parámetros de los modelos de regresión, basta el método de mínimos cuadrados ordinarios (MCO), que no hace supuestos sobre la distribución de probabilidad de las perturbaciones ui. Sin embargo, si el objetivo no sólo es la estimación sino además la inferencia, entonces, como vimos en los capítulos 4 y 5, debemos suponer que las ui siguen alguna distribución de probabilidad. Por las razones ya expresadas, supusimos que las ui seguían la distribución normal con media cero y varianza constante σ². Se mantiene el mismo supuesto para los modelos de regresión múltiple. Con el supuesto de normalidad se halla que los estimadores de MCO de los coeficientes de regresión parcial, son los mejores estimadores lineales insesgados (MELI). Además, los estimadores 𝛽መ2 , 𝛽መ3 y 𝛽መ1 están, ellos mismos, normalmente distribuidos con medias iguales a los verdaderos β2 , β3 y β1 , y con las varianzas dadas en el capítulo 7. SUBTEMA: 1.- Una vez más, el supuesto de normalidad Además, (n − 3) 𝜎ො 2 /σ² sigue la distribución χ² con n − 3 gl, y los tres estimadores de MCO están distribuidos independientemente de 𝜎ො 2. Como resultado y a partir del capítulo 5, se puede demostrar que, al reemplazar σ² por su estimador insesgado 𝜎ො 2 en el cálculo de los errores estándar, cada una de las siguientes variables sigue la distribución t con n − 3 gl. SUBTEMA: 1.- Una vez más, el supuesto de normalidad Observe que los gl son ahora n − 3 porque, al calcular ∑𝑢ො 𝑖2 y, por consiguiente, 𝜎ො 2 , se necesita primero estimar los tres coeficientes de regresión parcial, lo cual impone por tanto tres restricciones sobre la suma de cuadrados residual (SCR) (según esta lógica, en el caso de cuatro variables habrá n − 4 gl, y así sucesivamente). Por consiguiente, la distribución t sirve para establecer intervalos de confianza y para probar hipótesis estadísticas sobre los verdaderos coeficientes de regresión parcial poblacionales. De modo similar, con la distribución χ² se prueban hipótesis sobre el verdadero σ². SUBTEMA: 1.- Una vez más, el supuesto de normalidad Pruebas de hipótesis en regresión múltiple: comentarios generales Una vez fuera del mundo simple del modelo de regresión lineal con dos variables, las pruebas de hipótesis adquieren diversas e interesantes formas, como las siguientes: 1. Pruebas de hipótesis sobre un coeficiente de regresión parcial individual (sección 8.3). 2. Pruebas de significancia global del modelo de regresión múltiple estimado, es decir, ver si todos los coeficientes de pendiente parciales son iguales a cero al mismo tiempo (sección 8.4). 3. Pruebas de que dos o más coeficientes son iguales a otro (sección 8.5). 4. Pruebas de que los coeficientes de regresión parcial satisfacen ciertas restricciones (sección 8.6). 5. Pruebas de la estabilidad del modelo de regresión estimado a través del tiempo o en diferentes unidades de corte transversal (sección 8.7). 6. Pruebas sobre la forma funcional de los modelos de regresión (sección 8.8). SUBTEMA: 1.- Una vez más, el supuesto de normalidad Pruebas de hipótesis en regresión múltiple: comentarios generales Una vez fuera del mundo simple del modelo de regresión lineal con dos variables, las pruebas de hipótesis adquieren diversas e interesantes formas, como las siguientes: 1. Pruebas de hipótesis sobre un coeficiente de regresión parcial individual (sección 8.3). 2. Pruebas de significancia global del modelo de regresión múltiple estimado, es decir, ver si todos los coeficientes de pendiente parciales son iguales a cero al mismo tiempo (sección 8.4). 3. Pruebas de que dos o más coeficientes son iguales a otro (sección 8.5). 4. Pruebas de que los coeficientes de regresión parcial satisfacen ciertas restricciones (sección 8.6). 5. Pruebas de la estabilidad del modelo de regresión estimado a través del tiempo o en diferentes unidades de corte transversal (sección 8.7). 6. Pruebas sobre la forma funcional de los modelos de regresión (sección 8.8). CIERRE Conclusiones por parte de los estudiantes sobre los temas tratados en clases. Modelos de regresión con variables dicotómicas Econometría Básica Análisis de regresión múltiple con k variables. Este compendio recoge textualmente documentos e información de varias fuentes debidamente citadas, como referencias elaboradas por el autor para conectar los diferentes temas. Se lo utilizará únicamente con fines educativos. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 TABLA DE CONTENIDO Análisis de regresión con variables dicotómicas...................................................................................... 4 Subtema 1:............................................................................................................................................... 5 Naturaleza de las variables dicotómicas.................................................................................................. 5 Subtema 2:............................................................................................................................................... 6 Modelos ANOVA....................................................................................................................................... 6 Subtema 3:............................................................................................................................................... 7 Práctica Computacional........................................................................................................................... 7 FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 DESARROLLO DEL CONTENIDO DEL TEMA 1 TEMA 1 Análisis de regresión con variables dicotómicas Objetivo Al finalizar la unidad, el estudiante será capaz de analizar la flexibilización de supuestos del modelo clásico en el análisis econométrico. Introducción La Econometría surge a inicios de la segunda década del siglo XX, para hacer referencia a estudios económicos mediante herramientas estadísticas y matemáticas. La econometría propone formulaciones que sirven de apoyo para verificar provisoriamente planteamientos de la teoría económica. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 DESARROLLO DE LOS SUBTEMAS DEL TEMA 1 Subtema 1: Naturaleza de las variables dicotómicas  Hasta ahora hemos abordado el tema de la correlación y la regresión con variables cuantitativas.  Sin embargo, un estudio de regresión similar puede desarrollarse si contamos con una variable –la variable x- que sea cualitativa de dos o más categorías.  En esta circunstancia se trata de conocer la regresión de X (una variable que adopta valores cualitativamente diferentes) sobre una variable Y cuya escala de medida es al menos de intervalo.  El análisis estadístico del contraste de medias (mediante el análisis de la varianza) puede ser interpretado como un análisis de la regresión en el que la variable X es cualitativa.  Es más, enfocar el análisis de la varianza desde el punto de vista de la regresión puede ser una ventaja que proporcione a dicho análisis una mayor generalidad.  Un ejemplo, es cuando se investiga en qué medida se relaciona el género y la habilidad manual para realizar una tarea.  La variable género es una variable cualitativa de dos categorías -dicotómica- y puede codificarse de forma arbitraria con los valores 0 y 1; por ejemplo, 0 mujer y 1 varón.  La variable habilidad se cuantifica a través de un instrumento determinado de forma cuantitativa. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 Subtema 2: Modelos ANOVA  El análisis de la varianza (ANOVA, analysis of variance) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.  Las técnicas iniciales del análisis de varianza fueron desarrollas por el estadístico y genetista R.A. Fisher en los años 1920 y 1930 y es algunas veces conocido como “Anova de Fisher” o “análisis de varianza de Fisher”, debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.  El análisis de la varianza parte de los conceptos de regresión lineal que se usa para explicar o modelar la relación entre una variable continua Y, llamada variable respuesta o variable dependiente y una o más variables continuas X llamadas variables explicativas o independientes.  Si las variables explicativas son igual a 1, el análisis se denomina ANOVA unifactorial, mientras que, si son mayor a 1, el análisis se denomina multifactorial.  Si en vez de una variable respuesta continua tenemos dos o más variables dependientes, entonces el análisis se denomina ANOVA multivariado (MANOVA) de uno o varios factores.  Por último, es posible que en el mismo análisis aparezcan tanto variables explicativas continuas como categóricas, y en este caso el análisis pasaría a denominarse análisis de la covarianza o ANCOVA.  A pesar de la abundancia de terminología, todos estos modelos caen dentro de la categoría de modelos lineales. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020  Sin entrar en muchos detalles, cabe recordar que los modelos lineales se basan en una serie de supuestos, algunos de los cuales pueden y deben comprobarse una vez ajustado el modelo. Estos son:  Independencia: Los sujetos muestrales y, por tanto, los residuos del modelo, son independientes entre sí.  Linealidad: La respuesta de Y frente a X es lineal.  Normalidad: Los residuos del modelo son normales, es decir, siguen una distribución de tipo gaussiana (campana de Gauss)  Homocedasticidad: La varianza residual tiene que ser constante. Subtema 3: Práctica Computacional  Este subtema de profundiza durante las prácticas de laboratorio y las clases sincrónicas. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 PREGUNTAS DE COMPRENSIÓN DE LA UNIDAD ¿Cómo puede ser interpretado el análisis estadístico de contraste de medias con variables dicotómicas? Puede ser interpretado como un análisis de la regresión en el que la variable X es cualitativa. ¿Mencione un ejemplo de análisis con variable dicotómica? Un ejemplo, es cuando se investiga en qué medida se relaciona el género y la habilidad manual para realizar una tarea. ¿Qué es el análisis de la varianza ANOVA? Es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas. ¿Por quién fue desarrollado inicialmente el análisis de la varianza? Por el estadístico y genetista R.A. Fisher ¿Cómo también es conocido el análisis de la varianza? Es conocido como “Anova de Fisher” o “análisis de varianza de Fisher”, debido al uso de la distribución F de Fisher como parte del contraste de hipótesis. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 MATERIAL COMPLEMENTARIO Los siguientes recursos complementarios son sugerencias para que se pueda ampliar la información sobre el tema trabajado, como parte de su proceso de aprendizaje autónomo: Videos de apoyo: Introducción a la Econometría: https://www.youtube.com/watch?v=8NgGcVUGb6s Bibliografía de apoyo: La Economía en una Lección: http://www.hacer.org/pdf/Hazlitt01.pdf Lo que se ve y lo que no se ve: http://www.hacer.org/pdf/seve.pdf Links de apoyo: Introducción a la Econometría: https://www.youtube.com/watch?v=fUNY4vlkkmg Modelos Econométricos. Conceptos básicos: https://www.youtube.com/watch?v=p9q004TLa-g FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 REFERENCIAS GUJARATI, DAMODAR N. (2010). ECONOMETRIA. MEXICO: MC-GRAW HILL INTERAMERICANA, FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 Análisis de regresión múltiple: El problema de la estimación Econometría Básica Análisis de regresión múltiple con tres variables. Este compendio recoge textualmente documentos e información de varias fuentes debidamente citadas, como referencias elaboradas por el autor para conectar los diferentes temas. Se lo utilizará únicamente con fines educativos. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 TABLA DE CONTENIDO Análisis de regresión múltiple: El problema de la estimación.................................................................. 4 Subtema 1:............................................................................................................................................... 5 Modelo con tres variables: notación y supuestos..................................................................................... 5 Subtema 2:............................................................................................................................................... 5 Interpretación de la ecuación de regresión múltiple................................................................................ 5 Subtema 3:............................................................................................................................................... 6 Significado de los coeficientes de regresión parcial.................................................................................. 6 FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 DESARROLLO DEL CONTENIDO DEL TEMA 1 TEMA 1 Análisis de regresión múltiple: El problema de la estimación Objetivo Al finalizar la unidad, el estudiante será capaz de emplear modelos de regresión lineal múltiple a la estimación e inferencia de problemas económicos. Introducción La Econometría surge a inicios de la segunda década del siglo XX, para hacer referencia a estudios económicos mediante herramientas estadísticas y matemáticas. La econometría propone formulaciones que sirven de apoyo para verificar provisoriamente planteamientos de la teoría económica. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020 DESARROLLO DE LOS SUBTEMAS DEL TEMA 1 Subtema 1: Modelo con tres variables: notación y supuestos  Generalizando la función de regresión poblacional (FRP) de dos variables se puede escribir la (FRP) de tres variables así: 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2 + 𝛽3 𝑋3 + 𝑢𝑖  Donde Y es la variable dependiente, 𝑋2 y 𝑋3 las variables explicativas (regresoras), 𝑢𝑖 es el término de perturbación estocástica, e i la iésima observación.  En esta ecuación, 𝛽1 es el término del intercepto y como es usual, este término nos da el efecto medio o promedio sobre Y de todas las variables excluidas del modelo, aunque su interpretación mecánica sea el valor promedio de Y cuando 𝑋2 y 𝑋3 se hacen iguales a cero.  Los coeficientes 𝛽2 y 𝛽3 se denominan coeficientes de regresión parcial. Subtema 2: Interpretación de la ecuación de regresión múltiple  Los coeficientes de regresión representan el cambio medio en la variable de respuesta para una unidad de cambio en la variable predictora mientras se mantienen constantes los otros predictores presentes en el modelo.  Este control estadístico que ofrece la regresión es importante, porque aísla el rol de una variable del resto de las variables incluidas en el modelo.  La clave para entender los coeficientes es pensar en ellos como pendientes, y con frecuencia se les llama coeficientes de pendiente. FORMATO CONTROLADO: FR0044/ v1.1 / 11-05-2020  Sin embargo, si el modelo requiere términos polinómicos o de interacción, la interpretación es un poco menos intuitiva.  Como repaso, los términos polinómicos modelan la curvatura en los datos.  Mientras que los términos de interacción indican que el efecto de un predictor depende del valor de otro predictor.  Un término polinómico significativo puede hacer que la interpretación sea menos intuitiva, porque el efecto de cambiar el predictor varía dependiendo del valor de ese predictor.  Del mismo modo, un término de interacción significativo indica que el efecto del predictor varía dependiendo del valor de otro predictor.

Use Quizgecko on...
Browser
Browser