econometria i- ventosa

524
E CONOMETR ´ IA DANIEL V ENTOSA -S ANTAUL ` ARIA Versi´ on Diciembre 2012. Documento hecho en L A T E X

Upload: jorge-luis-zatarain-lizarraga

Post on 21-Nov-2015

286 views

Category:

Documents


15 download

DESCRIPTION

Notas de econometría

TRANSCRIPT

  • ECONOMETRIA

    DANIEL VENTOSA-SANTAULA`RIA

    Version Diciembre 2012. Documento hecho en LATEX

  • 2

  • Indice general

    I Econometra para primerizos 17

    1. Introduccion 211.1. Parabola de Leamer . . . . . . . . . . . . . . . . . . . . . . . . . . 231.2. Fisher tomando el te . . . . . . . . . . . . . . . . . . . . . . . . . . 241.3. Para que hacer econometra? . . . . . . . . . . . . . . . . . . . . 311.4. Orgenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    1.4.1. La trayectoria de los cometas . . . . . . . . . . . . . . . . . 321.4.2. Manchas solares y ciclos venusinos . . . . . . . . . . . . . 33

    2. El modelo de Regresion lineal simple 372.1. Preambulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.2. El concepto de la regresion . . . . . . . . . . . . . . . . . . . . . . 41

    2.2.1. El diagrama de dispersion . . . . . . . . . . . . . . . . . . 412.3. Mnimos Cuadrados Ordinarios: MCO . . . . . . . . . . . . . . . . 442.4. Propiedades de los estimadores . . . . . . . . . . . . . . . . . . . . 49

    2.4.1. Los supuestos del metodo . . . . . . . . . . . . . . . . . . 492.4.2. Caractersticas Importantes del metodo MCO . . . . . . . . 542.4.3. Propiedades de los parametros estimados . . . . . . . . . . 562.4.4. El Teorema de Gauss-Markov . . . . . . . . . . . . . . . . 69

    2.5. Otros procedimientos de Estimacion . . . . . . . . . . . . . . . . . 722.5.1. El metodo de momentos (MOM) . . . . . . . . . . . . . . . 722.5.2. El Metodo de Maxima Verosimilitud . . . . . . . . . . . . . 74

    2.6. El estimador de la varianza . . . . . . . . . . . . . . . . . . . . . . 792.6.1. Los grados de libertad: breve preludio . . . . . . . . . . . . 792.6.2. El estimador insesgado de la varianza en MCO . . . . . . . 812.6.3. Robustez del estimador de la varianza en MCO . . . . . . . 85

    2.7. Inferencia estadstica en MCO . . . . . . . . . . . . . . . . . . . . 86

    3

  • 4 INDICE GENERAL

    2.7.1. Inferencia usando una distribucion de t de student . . . . . . 902.7.2. Inferencia asintotica . . . . . . . . . . . . . . . . . . . . . 932.7.3. Addendum: el p-valor . . . . . . . . . . . . . . . . . . . . 95

    2.8. Analisis de varianza y bondad de ajuste . . . . . . . . . . . . . . . 962.8.1. La medicion de la bondad del ajuste . . . . . . . . . . . . . 962.8.2. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . 1022.8.3. La prueba de significancia conjunta de la regresion . . . . . 1042.8.4. Analisis de Varianza o ANOVA . . . . . . . . . . . . . . . 112

    2.9. La Falacia de la regresion . . . . . . . . . . . . . . . . . . . . . . . 1132.10. Problemas de la Econometra . . . . . . . . . . . . . . . . . . . . . 114

    2.10.1. El problema de la agregacion . . . . . . . . . . . . . . . . . 1142.10.2. Una intuicion sobre el ultimo supuesto: estacionariedad . . . 1162.10.3. Algunas observaciones al respecto . . . . . . . . . . . . . . 118

    2.11. Formas funcionales y especificacion . . . . . . . . . . . . . . . . . 1182.11.1. El Modelo Log-Log . . . . . . . . . . . . . . . . . . . . . 1192.11.2. El Modelo Log-Lin . . . . . . . . . . . . . . . . . . . . . . 1212.11.3. El Modelo Lin-Log . . . . . . . . . . . . . . . . . . . . . . 1222.11.4. El Modelo Recproco . . . . . . . . . . . . . . . . . . . . . 123

    3. El Modelo de Regresion Multiple 1273.1. La especificacion del modelo de regresion multiple . . . . . . . . . 127

    3.1.1. Reglas del calculo matricial y la manipulacion de matrices . 1303.1.2. Optimizacion . . . . . . . . . . . . . . . . . . . . . . . . . 1313.1.3. Propiedad de No-Sesgo de los estimadores y Varianza . . . 132

    3.2. Teorema de Gauss-Markov . . . . . . . . . . . . . . . . . . . . . . 1363.2.1. Demostracion . . . . . . . . . . . . . . . . . . . . . . . . . 1373.2.2. Intuicion . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

    3.3. Estimador Insesgado de la Varianza del Error . . . . . . . . . . . . 1413.3.1. Una matriz idempotente muy util . . . . . . . . . . . . . . 1423.3.2. La varianza del error . . . . . . . . . . . . . . . . . . . . . 144

    3.4. Bondad del ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . 1463.4.1. La R cuadrada . . . . . . . . . . . . . . . . . . . . . . . . 1473.4.2. Inflacion de la R cuadrada y su version ajustada . . . . . . . 1473.4.3. Descomposicion de la varianza por variable explicativa . . . 154

    3.5. Pruebas de Hipotesis, Conjuntas e Individuales . . . . . . . . . . . 1593.5.1. Los estadsticos t . . . . . . . . . . . . . . . . . . . . . . . 1593.5.2. Pruebas conjuntas . . . . . . . . . . . . . . . . . . . . . . . 1603.5.3. Pruebas de desigualdad . . . . . . . . . . . . . . . . . . . . 170

  • INDICE GENERAL 5

    4. La multicolinealidad 1734.1. Multicolinealidad perfecta . . . . . . . . . . . . . . . . . . . . . . 1754.2. Multicolinealidad imperfecta . . . . . . . . . . . . . . . . . . . . . 1794.3. Deteccion de la multicolinealidad . . . . . . . . . . . . . . . . . . 182

    4.3.1. Analisis informal . . . . . . . . . . . . . . . . . . . . . . . 1834.3.2. Metodos mas formales . . . . . . . . . . . . . . . . . . . . 183

    4.4. Analisis de Componentes Principales . . . . . . . . . . . . . . . . . 1864.5. Regresion usando componentes principales . . . . . . . . . . . . . 191

    5. Variables Binarias y regresion por pedazos 1955.1. Variables dicotomicas . . . . . . . . . . . . . . . . . . . . . . . . . 195

    5.1.1. Solucion discontinua . . . . . . . . . . . . . . . . . . . . . 1955.1.2. Regresion por pedazos . . . . . . . . . . . . . . . . . . . . 202

    6. Autocorrelacion y Heteroscedasticidad 2056.1. Autocorrelacion y Heteroscedasticidad . . . . . . . . . . . . . . . . 2076.2. Mnimos Cuadrados Generalizados . . . . . . . . . . . . . . . . . 209

    6.2.1. Ejemplos de aplicacion de MCG . . . . . . . . . . . . . . . 2116.3. Consecuencias del rompimiento de supuestos sobre MCO . . . . . . 219

    6.3.1. Sesgo bajo autocorrelacion o heteroscedasticidad? . . . . . 2196.3.2. Varianza bajo autocorrelacion o heteroscedasticidad . . . . 220

    6.4. Pruebas de Deteccion . . . . . . . . . . . . . . . . . . . . . . . . . 2226.4.1. Deteccion de la Heteroscedasticidad . . . . . . . . . . . . . 2236.4.2. Deteccion de la autocorrelacion . . . . . . . . . . . . . . . 226

    6.5. Matrices de Varianza-covarianza Robustas . . . . . . . . . . . . . . 235

    7. Ejercicios (i) 245

    II Econometra para segundones 265

    8. Sntesis de conocimientos previos 269

    9. Especificacion y Ortogonalidad 2759.1. Las variables independientes y la ortogonalidad . . . . . . . . . . . 2759.2. El supuesto de ortogonalidad . . . . . . . . . . . . . . . . . . . . . 2799.3. Que causa problemas de ortogonalidad? . . . . . . . . . . . . . . . 281

    9.3.1. Errores de Medicion en las Variables . . . . . . . . . . . . . 2819.3.2. Efectos de simultaneidad . . . . . . . . . . . . . . . . . . . 295

  • 6 INDICE GENERAL

    9.3.3. Variables relevantes omitidas . . . . . . . . . . . . . . . . . 3019.3.4. Inclusion de variables irrelevantes. . . . . . . . . . . . . . . 303

    9.4. Deteccion de algunos problemas de ortogonalidad . . . . . . . . . . 3049.4.1. Pruebas de variables omitidas o redundantes . . . . . . . . . 3049.4.2. Prueba de especificacion de Ramsey . . . . . . . . . . . . . 3079.4.3. Heteroscedastidad e incorrecta especificacion . . . . . . . . 311

    10. Variables Instrumentales 31510.1. El estimador de Variables Instrumentales . . . . . . . . . . . . . . . 31710.2. Mnimos Cuadrados en 2 Etapas . . . . . . . . . . . . . . . . . . . 32410.3. Problemas con los instrumentos . . . . . . . . . . . . . . . . . . . 332

    10.3.1. Relevancia de los instrumentos . . . . . . . . . . . . . . . . 33210.3.2. Exogeneidad de los instrumentos . . . . . . . . . . . . . . . 333

    10.4. La Prueba de Hausman . . . . . . . . . . . . . . . . . . . . . . . . 33810.4.1. La prueba de Hausman . . . . . . . . . . . . . . . . . . . . 33910.4.2. La prueba de Hausman multivariada . . . . . . . . . . . . . 34310.4.3. Deteccion de errores de medicion en variables explicativas . 345

    11. Causalidad, exogeneidad y estabilidad 34911.1. La Causalidad en el sentido de Granger . . . . . . . . . . . . . . . 350

    11.1.1. Filosofa detras de Causalidad . . . . . . . . . . . . . . . . 35011.1.2. Causalidad en Probabilidad . . . . . . . . . . . . . . . . . . 35311.1.3. Causalidad en Econometra . . . . . . . . . . . . . . . . . . 35511.1.4. La Granger-Causalidad . . . . . . . . . . . . . . . . . . . . 356

    11.2. Exogeneidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35811.2.1. Exogeneidad a` la Cowles Commission . . . . . . . . . . . 35811.2.2. Exogeneidad a` la Engle, Hendry y Richard . . . . . . . . . 359

    11.3. Mecanismo de Correccion de Error . . . . . . . . . . . . . . . . . . 37011.3.1. Estacionariedad y Ergodicidad . . . . . . . . . . . . . . . . 37111.3.2. Regresion Espuria . . . . . . . . . . . . . . . . . . . . . . 37511.3.3. Prueba de Raz Unitaria . . . . . . . . . . . . . . . . . . . 38411.3.4. Cointegracion . . . . . . . . . . . . . . . . . . . . . . . . . 39111.3.5. Mecanismo de Correccion de Error . . . . . . . . . . . . . 39611.3.6. Probando exogeneidad debil . . . . . . . . . . . . . . . . . 401

    11.4. Probando las demas exogeneidades . . . . . . . . . . . . . . . . . . 40211.5. Estabilidad de los parametros . . . . . . . . . . . . . . . . . . . . . 403

    11.5.1. Prueba quiebre de Chow . . . . . . . . . . . . . . . . . . . 40311.5.2. Prueba pronostico de Chow . . . . . . . . . . . . . . . . . 406

  • INDICE GENERAL 7

    11.5.3. Prueba de Hansen . . . . . . . . . . . . . . . . . . . . . . . 407

    12. Especificaciones Dinamicas y Expectativas 41112.1. Expectativas naives:El modelo de Telarana . . . . . . . . . . . . . . 412

    12.1.1. Ecuacion homogenea: . . . . . . . . . . . . . . . . . . . . 41412.1.2. Solucion particular . . . . . . . . . . . . . . . . . . . . . . 41512.1.3. Combinacion lineal de las soluciones . . . . . . . . . . . . 41612.1.4. Eliminacion de las constantes . . . . . . . . . . . . . . . . 41612.1.5. El impacto de los choques . . . . . . . . . . . . . . . . . . 418

    12.2. Mas sobre Expectativas naives . . . . . . . . . . . . . . . . . . . . 41912.3. Modelos con rezagos distribuidos . . . . . . . . . . . . . . . . . . 42112.4. Expectativas Adaptativas . . . . . . . . . . . . . . . . . . . . . . . 42312.5. Modelo de ajuste de inventarios . . . . . . . . . . . . . . . . . . . 42612.6. Estimacion de modelos dinamicos . . . . . . . . . . . . . . . . . . 42712.7. Parsimonia: metodologa de General a simple . . . . . . . . . . . . 43112.8. Expectativas Racionales . . . . . . . . . . . . . . . . . . . . . . . . 434

    12.8.1. La hipotesis de Expectativas Racionales . . . . . . . . . . . 43412.8.2. Crticas a las Expectativas Racionales . . . . . . . . . . . . 43612.8.3. Probando las Expectativas Racionales . . . . . . . . . . . . 43912.8.4. La Crtica de Lucas . . . . . . . . . . . . . . . . . . . . . . 440

    13. Modelos de ecuaciones simultaneas 44513.1. Historia de los modelos macroeconometricos . . . . . . . . . . . . 44513.2. Sinopsis Metodologica . . . . . . . . . . . . . . . . . . . . . . . . 447

    13.2.1. Otra vez variables exogenas y endogenas . . . . . . . . . . 44813.2.2. Un modelo de oferta y demanda . . . . . . . . . . . . . . . 448

    13.3. El problema de la identificacion . . . . . . . . . . . . . . . . . . . 45113.3.1. Que es la identificacion? . . . . . . . . . . . . . . . . . . 45113.3.2. Mas sobre la identificacion . . . . . . . . . . . . . . . . . . 454

    13.4. Incorporando mas informacion . . . . . . . . . . . . . . . . . . . . 45513.5. Condiciones de identificacion . . . . . . . . . . . . . . . . . . . . . 457

    13.5.1. Restricciones de exclusion . . . . . . . . . . . . . . . . . . 45913.5.2. Restricciones homogeneas lineales . . . . . . . . . . . . . . 46013.5.3. Reagrupando las restricciones estructurales . . . . . . . . . 46013.5.4. Mas restricciones . . . . . . . . . . . . . . . . . . . . . . . 46113.5.5. Elucidando la identificacion . . . . . . . . . . . . . . . . . 46313.5.6. Reglas practicas . . . . . . . . . . . . . . . . . . . . . . . 46513.5.7. Variables Exogenas: algunas sugerencias . . . . . . . . . . 468

  • 8 INDICE GENERAL

    13.6. El efecto desplazamiento (Crowding out) . . . . . . . . . . . . . 47013.6.1. Que es el Crowding out? . . . . . . . . . . . . . . . . . . 47013.6.2. Metodologa y datos . . . . . . . . . . . . . . . . . . . . . 471

    14. Eplogo 477

    15. Ejercicios (ii) 479

    III Apendices 495

    A. Tendencia central y dispersion 497

    B. Operador Esperanza 499B.1. definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 499B.2. Algunas reglas del operador esperanza . . . . . . . . . . . . . . . . 500

    C. La distribucion normal 501

    D. Algebra matricial 503

    E. Independencia entre Parametros y Varianza 505

    F. Origen de MCO: Legendre 509

    G. MCO usando Excel 2007 515

  • Indice de figuras

    1.1. Estadstica y Probabilidad . . . . . . . . . . . . . . . . . . . . . . . 221.2. Distribucion del reto Coca-Pepsi . . . . . . . . . . . . . . . . . . . 261.3. Ciclo de Comercio segun Jevons (1884) . . . . . . . . . . . . . . . 331.4. Ciclo de Negocios segun Moore (Moore, 1914) . . . . . . . . . . . 342.1. Series de tiempo del PIB real y de M2 de E.E.U.U. . . . . . . . . . 382.2. Relacion lineal entre las coordenadas de un crculo . . . . . . . . . 392.3. Ingreso p.c. y esperanza de vida en Mexico, Francia, Japon y Nigeria 422.4. Ingreso per capita y esperanza de vida en 220 pases . . . . . . . . . 432.5. Diagrama de Dispersion o bien Nube de Puntos. . . . . . . . . . . 452.6. Ilustracion de los Supuestos . . . . . . . . . . . . . . . . . . . . . . 522.7. Diagrama de dispersion: normalidad . . . . . . . . . . . . . . . . . 532.8. Distribucion Condicional de yt . . . . . . . . . . . . . . . . . . . . 762.9. Distribucion bajo la hipotesis nula y la alternativa . . . . . . . . . . 892.10. Distribucion de t de student . . . . . . . . . . . . . . . . . . . . . 952.11. Comparacion del ajuste entre dos regresiones . . . . . . . . . . . . 972.12. Analisis de la Variacion . . . . . . . . . . . . . . . . . . . . . . . . 972.13. Distribucion de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . 1072.14. PIB per capita en Mexico, 1900-2000 . . . . . . . . . . . . . . . . 1172.15. Ingreso per capita y esperanza de vida (bis) . . . . . . . . . . . . . 1242.16. Tasa de analfabetismo vs PIB per capita (invertido) en Argentina. . . 1263.1. Diagramas de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . 1563.2. Distribucion de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . 170

    4.1. Diagramas de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . 179

    5.1. Efectos de las variables dicotomicas en la lnea de regresion . . . . 2015.2. Ejemplo de Regresion por pedazos . . . . . . . . . . . . . . . . . . 203

    9

  • 10 INDICE DE FIGURAS

    6.1. Regla de decision de la Durbin-Watson . . . . . . . . . . . . . . . . 2286.2. Correlograma de un AR(1) . . . . . . . . . . . . . . . . . . . . . . 2326.3. Correlograma de un ruido blanco iid . . . . . . . . . . . . . . . . 2336.4. Correlogramas muestrales . . . . . . . . . . . . . . . . . . . . . . 234

    7.1. Diagrama de dispersion . . . . . . . . . . . . . . . . . . . . . . . . 2477.2. Variable yt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

    9.1. Sesgo en un estimador . . . . . . . . . . . . . . . . . . . . . . . . 2809.2. Indicadores de Actividad cientfica . . . . . . . . . . . . . . . . . . 2829.3. Sesgo de una estimacion por MCO bajo simultaneidad. . . . . . . . 2999.4. Relacion entre residuales y valores ajustados . . . . . . . . . . . . . 3119.5. Heteroscedasticidad, autocorrelacion y ortogonalidad . . . . . . . . 3139.6. No-linealidad mal asumida . . . . . . . . . . . . . . . . . . . . . . 314

    10.1. El problema de la identificacion y su solucion. . . . . . . . . . . . . 316

    11.1. Posibles espacios parametricos (modelo Telarana) . . . . . . . . . . 36411.2. Diagrama de Venn en exogeneidad . . . . . . . . . . . . . . . . . . 36811.3. Proceso aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . 37111.4. Regresion espuria . . . . . . . . . . . . . . . . . . . . . . . . . . . 38111.5. Regresion espuria, especificacion correcta . . . . . . . . . . . . . . 38411.6. Distribuion de la Prueba DF . . . . . . . . . . . . . . . . . . . . . 38711.7. Modo de empleo sugerido de la DF . . . . . . . . . . . . . . . . . . 39211.8. Variables cointegradas y Espurias . . . . . . . . . . . . . . . . . . 39411.9. Series cointegradas e independientes . . . . . . . . . . . . . . . . . 39711.10.Relacion cointegrada . . . . . . . . . . . . . . . . . . . . . . . . . 39811.11.Regresion y quiebres . . . . . . . . . . . . . . . . . . . . . . . . . 40411.12.Regresion, quiebres y errores . . . . . . . . . . . . . . . . . . . . . 405

    12.1. Mercado de Maz, segun el modelo de Telarana . . . . . . . . . . . 41312.2. Funcion Impulso-Respuesta en el Modelo de Telarana. . . . . . . . 419

    13.1. Ecuaciones simultaneas . . . . . . . . . . . . . . . . . . . . . . . . 45113.2. Evolucion de la inversion privada y la inversion publica . . . . . . . 472

    C.1. Ejemplos de Densidad Normal . . . . . . . . . . . . . . . . . . . . 502F.1. A.M. Portada del libro de Legendre . . . . . . . . . . . . . . . . . 510F.2. Apendice del libro de Legendre (p.72) . . . . . . . . . . . . . . . . 511

  • INDICE DE FIGURAS 11

    F.3. Apendice del libro de Legendre (p.73) . . . . . . . . . . . . . . . . 512F.4. Apendice del libro de Legendre (p.74) . . . . . . . . . . . . . . . . 513F.5. Apendice del libro de Legendre (p.75) . . . . . . . . . . . . . . . . 514

  • 12 INDICE DE FIGURAS

  • Indice de cuadros

    1.1. Combinatorias del Reto Coca . . . . . . . . . . . . . . . . . . . . . 27

    2.1. Relacion Ingreso-Esperanza de vida . . . . . . . . . . . . . . . . . 422.2. Analisis de Varianza (ANOVA) . . . . . . . . . . . . . . . . . . . . 11311.1. Prueba DF: valores crticos de elementos deterministas (1) . . . . . 39111.2. Prueba DF: valores crticos de elementos deterministas (2) . . . . . 39111.3. Valores Crticos de la prueba Engle-Granger . . . . . . . . . . . . . 39611.4. Interpretacion de signos en el MCE . . . . . . . . . . . . . . . . . . 401

    13.1. Calculo de la Condicion de Rango . . . . . . . . . . . . . . . . . . 467

    13

  • 14 INDICE DE CUADROS

  • Agradecimientos

    Al escribir las mas de 500 paginas de este curso descubr con gran horror la frecuen-cia con la que me equivoco. Algunos de estos errores son tan solo tipograficos; otrosmas son de plano humillantes; los peores son las pifias matematicas. Afortunada-mente, mucha gente, primero en el seno del departamento de economa y finanzasde la Universidad de Guanajuato, y ahora en el CIDE, me ha ayudado a enmen-darlos, especialmente los alumnos. Quiero agradeceren orden cronologicoconparticular enfasis a:Oscar Manjarrez Castro, Miguel Amador, Jose Alfonso Garca Campillo, LizethAdriana Garca Belmonte, Sandra Carolina Segovia Juarez, Lupita Garrido Espino-za, Liliana Lopez Rentera, Berenice Martnez Rivera, Gustavo Alfonso RodrguezAyala, Guillermo Cisneros Gutierrez, Catalina Martnez Hernandez, Gustavo Sa-lazar Monjaras, Omar Gallardo Martnez, Lizet Adriana Perez Cortes, ChristophSchulze, Carlos Uriel Rodrguez Ramrez Salvador, Esmeralda Marisol MorenoYanez, Karla Elizabeth Gonzalez Sainz, Pablo Ortiz Casillas, Juan Pablo de Bot-ton Falcon, Efran Garca Gonzalez, Sandra Thala Espana Gomez, Luis AntonioGomez Lara y Jean-Luc Demonsant.Para mi desgracia, los errores que aun quedan son mi entera responsabilidad.

    15

  • 16 INDICE DE CUADROS

  • Parte I

    Econometra para primerizos

    17

  • 19

    HACER ECONOMETRIA ES COMO TRATAR DE ENTENDER LAS LEYES DELA ELECTRICIDAD USANDO UN RADIO DE TRANSISTORES. G. ORCUTT

    TODOS LOS MODELOS ESTAN MAL, PERO ALGUNOS SON MAS UTILESQUE OTROS. G.E.P BOX

  • 20

  • Captulo 1

    Introduccion

    Existen dificultades al aplicar la estadstica a fenomenos sociales o empresariales.Realizar un experimento para despues analizar estadsticamente los resultados exi-ge un elemento fundamental, que es el diseno de dicho experimento. Pero en eco-noma,1 la experimentacion no solo resultara costosa, sino que en muchos casossera poco etica o sencillamente imposible. Es por eso que la estadstica debe serutilizada con sumo cuidado cuando los datos no provienen de un experimento con-trolado. El hecho es que en muchas ocasiones tendremos que conformarnos conregistros publicos o privados de poca calidad estadstica. Es importante entoncesconocer tecnicas que permitan aminorar un poco las consecuencias de la naturale-za no-experimental de nuestro ambito laboral. Una rama muy versada en ello es laECONOMETRIA. Esta ultima constituye el brazo emprico de la economa.El termino ECONOMETRIA fue creado originalmente para designar; (1) el desa-rrollo de teora economica pura con base en el herramental matematico y; (2) eldesarrollo de tecnicas de estimacion e inferencia emprica. Lo anterior quedo plas-mado en el acta constitutiva de la sociedad econometrica (Econometric Society),fundada el 29 de diciembre de 1930 cuyo objetivo primario era:

    EL AVANCE DE LA TEORIA ECONOMICA EN LO RELATIVO A LAESTADISTICA Y LAS MATEMATICAS. (FRISCH, 1933)

    Actualmente, la ciencia econometrica incluye unicamente a la segunda area; la quecorresponde a la estimacion y a la inferencia estadstica con datos economicos. Eneste punto resulta muy conveniente resaltar el concepto de inferencia estadstica;2

    1As como en astronoma, en finanzas, en ecologa,. . .2Seccion inspirada de las notas del Curso Estadstica Matematica I impartido por el Dr. Miguel

    Nakamura.

    21

  • 22 CAPITULO 1. INTRODUCCI ON

    de igual forma, resulta muy util diferenciar con claridad la estadstica y la probabili-dad. La asociacion entre ambas es, virtualmente generalizada, dado el gran numerode cursos que las mezclan. Resulta importante tener claras las diferencias conside-rando que la econometra se traslapa en numerosas ocasiones con la inferencia es-tadstica. Observe el diagrama (1.1). En el se pretende establecer la diferencia entrela teora de la Probabilidad [encargada de cuantificar posibilidades] y la estadstica[que se ocupa de estudiar fenomenos aleatorios observados e inducir propiedadesprobabilsticas]. La probabilidad es de caracter deductivo (va de lo general a lo par-ticular) mientras que la estadstica es inductiva. En ese sentido, es posible consideraral estadstico (o en nuestro caso, econometrista) como un detective que, con base enevidencia (es decir, observaciones), puede descubrir al culpable (infiere cual es elmodelo probabilstico adecuado). Cuando se parte del estudio teorico del fenomenoestadstico y se construyen resultados que posteriormente habran de cotejarse conla observacion de dicho fenomeno (es nuestro diagrama, la flecha que va de izquier-da a derecha), basicamente se esta llevando a cabo un ejercicio deductivo, mientrasque, cuando se parte de la observacion del fenomeno y se intenta llegar al modeloteorico (la flecha que va de derecha a izquierda), el ejercicio es de naturaleza induc-tiva. Ambos procedimientos conllevan una parte de incertidumbre, solo que esta esdiferente segun cual es. El procedimiento deductivo (en lo que nos ocupa) conlle-va implcitamente una incertidumbre estocastica mientras que el inductivo conllevauna incertidumbre que podramos denotar como inductiva. Ambas categoras seranmejor comprendidas a lo largo de este curso.

    Fenmeno aleatorio Observacin delFenmeno aleatorio

    Teora de la probabilidad

    Inferencia Estadstica

    Deduccin

    Induccin

    Figura 1.1: Estadstica y Probabilidad

    Cuando se hace teora de probabilidad, no es necesario contar con datos. Se puede,por ejemplo, imaginar que existe un dado justo (que no esta cargado) y deducir que

  • 1.1. PAR ABOLA DE LEAMER 23

    cada faz del dado tiene una probabilidad de ocurrencia de 16. En ningun momento

    el dado existio. El camino del estadstico es el opuesto; partiendo de observacionesdebe llegar al modelo de probabilidad adecuado (por ejemplo, inferir con base enlas realizaciones de un dado si este esta o no cargado). Note que hacer el camino ala inversa de la teora de probabilidad conlleva una incertidumbre que la primera notiene. Para lo que a nosotros nos interesa, conviene quedarnos con esta definicionde la inferencia:

    INFERENCIA ESTADISTICA: INDUCCION BASADA EN OBSERVACIONES

    1.1. Parabola de LeamerEn un artculo famoso,3 Leamer hace la comparacion de la ciencia economica conotras ciencias llamadas duras (como la fsica). Acorde a la parabola con la queinicia dicho artculo, la ciencia clasica puede representarse por un granjero que tie-ne interes en confirmar la efectividad de cierto tipo de abono en el rendimiento de sucosecha. Para tal efecto, siembra su campo y anade en algunos surcos seleccionadosal azar el mentado abono ( para que creen que sirve la seleccion aleatoria?); hechoesto, espera la maduracion de la cosecha y mide meticulosamente el rendimientosurco por surco. Obtenidos los datos, procede a elaborar una prueba estadstica dediferencia de medias y confirma que el abono efectivamente hace crecer mas a lasplantas. Escribe sus resultados y los presenta en el CONGRESO ANUAL DE GRAN-JEROS donde la comunidad de cultivadores asimila sin controversia sus resultados.El economista es otro tipo de granjero, en otras latitudes. El tambien esta interesa-do en saber que factores afectan el rendimiento de sus tierras. Lo malo es que nodispone de las mismas herramientas que el granjero anterior; de hecho, solo cuentacon un arbol perdido en la mitad de su campo en el cual se paran a descansar unospajaritos; mientras descansan, las aves defecan, vertiendo as guano en las cercanasdel arbol. El guano es considerado un abono natural. Nuestro granjero procede en-tonces a sembrar, como siempre lo ha hecho y, al momento de recoger su cosecha,mide el rendimiento de esta distinguiendo arbitrariamente entre las zonas aledanasal arbol y las demas. Calcula medias, hace una prueba estadstica y constata dife-rencias en los rendimientos; escribe sus resultados y los presenta en otro congreso,el CONGRESO BI-ANUAL DE GRANJEROS ECONOMOS. La diferencia es queal hacerlo, el auditorio se alborota y uno de los miembros del publico de plano se

    3Leamer (1983) Let s take the con out of Econometrics, American Economic Review, 73 (1), pp.31-43.

  • 24 CAPITULO 1. INTRODUCCI ON

    levanta y manifiesta su inconformidad. Su argumento es que la diferencia de ren-dimientos no esta causado por el guano que arrojan las aves, sino por la sombraque proyecta el arbol; el mismo tiene un arbusto en su jardn y sus calculos as loindican. A raz del comentario se gesta una agria discusion que solo es zanjada porotro granjero, muy lucido que senala que no es posible discriminar entre las doshipotesis de trabajo: hay un problema de identificacion.

    1.2. Fisher tomando el teCuenta la leyenda que Fisher (que era ingles) se encontraba un da tomando el te alas cinco de la tarde con sus colegas de trabajo, todos ellos sendos investigadoresen ciencias duras, tales como la qumica. A la mitad de la conversacion, una de lasdamas presentes afirmo que el te no saba igual segun como lo prepararan. Verterel azucar antes que el te le daba un sabor diferente al que se obtena invirtiendoel orden. Todos se rieron e inclusive trataron de explicarle a la dama que la reac-cion qumica en cualquier caso siempre era la misma, pero esta insista en tener larazon. Fisher, para zanjar la discusion propuso llevar a cabo un pequeno experimen-to. Preparo diez tasas de te. El orden de los ingredientes fue seleccionado al azar ysolo conocido por el. Procedio posteriormente a darselos a probar a la dama quiensenalo en cada probada de que manera se haba preparado esa tasa. La dama suporeconocer correctamente dicho orden en todos los casos. Cual es la probabilidadde que su exito sea debido al azar?

    (12

    )10 0.0009. Sera demasiado inverosmilcreer que diez aciertos fueron solo fruto del azar, por lo que el experimento cons-tituye evidencia estadstica de que el sabor del te difiere segun el orden con que semezclen los ingredientes.

    Ejemplo 1 El reto Pepsi. No hay que irse con la finta; hacer pruebas estadsticas,que si bien estan basadas en una idea simple, requiere de una mente despejada. Ha-gamos un ejemplo practico, muy al estilo de Fisher. Hace unos anos, la companiade bebidas Pepsi-Cola lanzo una agresiva campana de publicidad en la que ofrecaa la gente dos vasos; un vaso contena Coca Cola, mientras que el otro Pepsi Cola.A los encuestados se les peda senalar el que mas les gustaba. La persona tenaque decidir. Tiempo despues, anunciaron que mas gente haba preferido la Pepsique la Coca. Esa conclusion es valida? S lo piensan bien, no. Probar un solovaso y luego escoger la marca del refresco de cola solo tiene dos conclusiones posi-bles...Coca o Pepsi. Imaginen a alguien que hace la prueba y descubre que no tieneidea de lo que acaba de ingerir. Que hara? dira un nombre al azar. Nuevamente,

  • 1.2. FISHER TOMANDO EL T E 25

    si lo piensan bien, tiene una chance entre dos de atinarle de chiripa. Que pasarasi, en vez de probar un vaso servido al azar, probara SIETE vasos servidos al azar?Cual sera la probabilidad de atinarle, por puro azar a la marca del refresco queesta servido en cada vaso? Pues no es difcil calcularlo,(

    1

    2

    )7= 0.0078125

    Pero nuevamente, no se vayan con la finta de este sencillo calculo e infieran rapida-mente que alguien que no le atina a ni un solo vaso tiene el paladar muy torpe. Laprobabilidad de no atinarle, tambien por puro azar, a la bebida en los siete vasoses: (

    1

    2

    )7= 0.0078125

    De hecho, lo mas probable es que alguien que no reconoce los sabores sea capazde atinarle a unos cuantos vasos, por mero azar. Lo que resulta difcil de creer esque le atine a todos de chiripa (o la inversa, que no le atine a ninguno). Cualesson las probabilidades de atinarle a un vaso? Puede que le atine al primero, perotambien es posible que le atine al segundo, o bien solo al tercero. Existen, si lo ven7 casos en los que le atinara a alguno de los siete vasos.

    Solo hay un caso en el que le atinara a todos y tambien, solo hay un caso en elque no le atinara a ninguno. Cuantas posibilidades hay de que le atine a dosvasos cualesquiera? Ya no es tan facil, puede atinarle al primero y al segundo, alprimero y al tercero, al segundo y al tercero,... Ya son muchos mas. Afortunadamen-te es facil saber cuantas combinaciones hay. Simplemente necesitamos calcular lacombinatoria de 7 tomados 2, es decir:

    72

    Hagamos todos los casos posibles (ver tabla 1.1).Hay, de hecho, 128 casos posibles. Ahora s podemos empezar a tomar decisio-nes respecto al paladar de la gente. Lo primero es corroborar el primer calculoque habamos hecho. Dijimos que la probabilidad de atinarle a todos los vasos dechiripao no atinarle a ningunoera 0.0078125. Eso es lo que se obtiene tambienal hacer el siguiente calculo:

    1

    128= 0.0078125

  • 26 CAPITULO 1. INTRODUCCI ON

    0 1 2 3 4 5 6 70

    0.05

    0.1

    0.15

    0.2

    0.25

    0.3

    0.35

    Nmero de xitos (cuantas veces le atin a la bebida del vaso)

    Pro

    babi

    lidad

    Figura 1.2: Distribucion del reto Coca-Pepsi. Note como el area total es igual a uno.

    Con base en lo anterior es facil ver que (i) la probabilidad de atinarle exclusiva-mente a un vaso es: 0.0546; (ii) atinarle a dos vasos: 0.1640; (ii) a tres: 0.2734; (iv)a cuatro: 0.2734; y luego se invierten. Que caso nos parece ser probatorio de queel individuo tiene un fino paladar? Si no le atina a ninguno, o bien le atina a todos,parece inverosmil que ello se deba al azar. Si adoptamos una filosofa frecuentista,veramos que son siete casos de cada mil. As pues, podemos tomar la decision, encaso de encontrarnos con alguien as, de decidir que eso no pudo deberse al azary que esa persona realmente sabe distinguir la coca de la pepsi. El que falle una,o bien que las hierre todas menos una, nuestros calculos muestran que se trata deuna probabilidad de 0.05, es decir una entre veinte. Eso no resulta tan inverosmil,as es que, en caso de ocurrir, se lo atribuiremos al azar.

    Ejercicio 1 Con objeto de hacer mas elocuente la presentacion del metodo de re-gresion, intentaremos hacer un ejemplo usando unos cuantos datos extrados de unamuestra sumamente informal. La informacion, de hecho, sera provista por ustedesy, eventualmente, por sus familiares y amigos. El interes de este ejemplo radica enque resalta algunos de los elementos mas importantes en todo estudio, sea este eco-nometrico o no. En realidad, lo mas fundamental en un estudio es establecer conclaridad la pregunta a la que se le desea dar respuesta. En este caso, formularemos

  • 1.2. FISHER TOMANDO EL T E 27

    Atinarle a: Combinatoria Casos posibles

    0(70

    )1

    1(71

    )7

    2(72

    )21

    3(73

    )35

    4(74

    )35

    5(75

    )21

    6(76

    )7

    7(77

    )1

    Total 128

    Cuadro 1.1: Combinatorias del Reto Coca

    una sumamente sencilla y, esperemos, algo controvertida:

    QUIENES SON MAS IMPUNTUALES, LOS HOMBRES O LAS MUJERES?

    Se trata de una pregunta en extremo trivial; al margen de si esta le parece interesan-te o no, destaca el hecho de que el cuestionamiento es preciso. Para dar respuestaal mismo, existen varias metodologas posibles. En este caso usaremos una que nospermita ilustrar el metodo de estimacion que estudiaremos a lo largo del manual:

  • 28 CAPITULO 1. INTRODUCCI ON

    Mnimos Cuadrados Ordinarios. La idea es determinar si el genero tiene inciden-cia alguna en las costumbres de puntualidadde los individuos que conforman lamuestra (ya si la muestra fuera representativa de cierta poblacion, es otra historia).No obstante la unicidad de nuestra pregunta (genero-puntualidad), existen muchosotros factores que pueden explicar por que la gente es impuntual/puntual: accesoa un medio de transporte eficaz, vivienda cercana al centro de estudio/trabajo, si-tuacion familiar, etc. Si diera la casualidad que todos los hombres de la muestrafueran solteros mientras que todas las mujeres estuvieran casadas con 7 hijos cadauna, muy posiblemente encontraramos evidencia de que las mujeres son mas im-puntuales. Pero la conclusion sera erronea, pues sera la situacion de maternidadla que provoca la impuntualidad. Si resultara que todos los hombres viven a 200kilometros de su lugar trabajo y no dispusieran de un medio de transporte rapidomientras que las mujeres viven al lado del centro de trabajo y encima de todo pue-den llegar a este usando, por ejemplo, el metro, entonces encontraramos que sonlos hombres los mas impuntuales. Ello tambien estara mal concludo, puesto quelas diferencias en puntualidad seran en realidad debidas a otros factores.No tomar en cuenta otros factores ademas del que nos interesa (genero) para estu-diar la puntualidad tendra la grave consecuencia de sesgar la inferencia estadsti-ca. Por ello es importante tomar en cuenta tales factores, es decir, controlar losresultados por tales factores. Si hacemos correctamente el control de otras carac-tersticas de los individuos, nuestro ejercicio estadstico tiene muchas mas posibi-lidades de arrojar resultados validos. As las cosas, se sugiere que se levante lasiguiente encuesta entre sus conocidos y familiares:

    1. Que distancia tiene que recorrer para llegar a su centro de trabajo/estudio?Estime la distancia en kilometros (podra usar Google Maps para ello).

    2. Se desplaza en automovil, usa el transporte publico, camina, hace rondapara llegar al centro de trabajo/estudio?

    3. Que edad tiene?4. Tiene hijos?5. Por la manana, debe compartir el bano con mas de una persona?

    6. En promedio, que tan puntual es? Responda senalando cuantos minutos sue-le llegar tarde/temprano.

    7. Es usted hombre o mujer?

  • 1.2. FISHER TOMANDO EL T E 29

    En principio, debera juntar, como mnimo, unas 30 respuestas a semejante cues-tionario para que el ejercicio tenga alguna oportunidad de arrojar resultados rele-vantes; podra usted usar un cuestionario en lnea como este:https://docs.google.com/spreadsheet/viewform?formkey=dG95X212S2taNUFyX1l6MWV2TWFfR0E6MQ

    Las respuestas de algunas personas aparecen ya en un formato de cuadro en lasiguiente liga:https://docs.google.com/spreadsheet/ccc?key=0AjZR92LJVODOdG95X212S2taNUFyX1l6MWV2TWFfR0E#gid=0

    Recuerde que la pregunta a la que daremos respuesta es: Quien es mas impuntual?la mujer o el hombre?Estimaremos por MCO la siguiente relacion lineal:

    yi = + 1x1i + 2x2i + . . .+ 10x10i + ui

    donde,

    1. yi es la variable que mide la impuntualidad del i-esimo individuo,

    2. , i, para i = 1, 2, . . . , 10 son los parametros que miden la relacion linealentre impuntualidad y cada una de las variables ( es solo la ordenada en elorigen de la recta),

    3. x1i es la edad del i-esimo individuo,

    4. x2i es la distancia entre el hogar y el trabajo/centro de estudio del i-esimoindividuo,

    5. x3i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuotiene auto, 0 si no,

    6. x4i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuousa transporte publico, 0 si no,

    7. x5i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuose desplaza en taxi, 0 si no,

    8. x6i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuohace ronda, 0 si no,

    9. x7i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo compartebano por las mananas, 0 si no,

  • 30 CAPITULO 1. INTRODUCCI ON

    10. x8i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuotiene hijos, 0 si no,

    11. x9i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo individuotrabaja, 0 si estudia,

    12. x10i es una variable que solo puede valer 1 o 0; valdra 1 si el i-esimo indivi-duo es mujer, 0 si es hombre,

    13. ui es un termino de error. No podemos esperar que estos factores antes enu-merados puedan explicar completamente la impuntualidad; todo aquello queno podamos explicar se ira a este termino de error. La idea es que las varia-bles que s inclumos sean capaces de explicar la mayor parte del comporta-miento de la gente, que lo poco que no pudimos explicar sea poco y porende inocuo.

    Note que no inclumos una variable para la posibilidad de que el individuo camine.La razon de ello se estudiara en en captulo destinado a la multicolinealidad;por el momento, simplemente ignore la cuestion. Los resultados no los podemosadelantar, puesto que es un ejercicio que depende de datos que aun no conocemos.Para llevarlo a cabo la estimacion de la recta usaremos el modulo de regresiondel programa Excel 2007. Vea en el apendice G, en la pagina 515 de este manualpara saber como hacer funcionar dicho modulo. En principio, solo tiene que sa-ber que y es la variable dependiente mientras que todas las demas, son variablesindependientes/explicativas. MCO le proporcionara estimaciones numericas de losparametros y i, para i = 1, 2, . . . , 10. Las formulas para obtener tales estimado-res seran objeto de escrupuloso estudio mas adelante; de momento no se preocupepor ello tampoco.Asumamos que ya logro estimar la recta de regresion por MCO. Como debe in-terpretar los resultados y as, eventualmente, dar respuesta a la pregunta orginal?Pues vera que es una mera cuestion de sentido comun. Con un par de ejemplos,quedara esto muy claro:Nos vamos a concentrar en el parametro estimado que acompana a la variableGenero, x10i. Supongamos que dicho estimador es igual a 8; supongamos igual-mente que el estimador de es igual a 5. Note como ello implicara que el i-esimoindividuo, si es mujer, debera ser, segun nuestro modelo, ocho minutos mas pun-tual. Para ver lo anterior, olvidemonos por un momento de todos los demas factores(igualemos a cero todas las demas variables). La ecuacion se reducira a

  • 1.3. PARA QU E HACER ECONOMETRIA? 31

    yi = 5 8x10i,si nuestro individuo es mujer. Siendo que x10i = 1 en ese caso, obtendramos quesemejante individuo suele llegar, segun nuestro modelo, 3 minutos antes de las ci-tas. Si el individuo es hombre, entonces llegara 5 minutos tarde en promedio, segunnuestro modelo, no lo olvide. Ahora bien, el valor del parametro estimado es desuma importancia para la interpretacion de los resultados, economica por lo ge-neral, pero no podemos dejar de lado la interpretacion estadstica. El estimadorde 10 es una variable aleatoria y, por lo mismo, esta sujeta a cierta incertidum-bre/variabilidad. Podra ser estadsticamente indistinguible de cero. Si as fuera,nuestra conclusion sera que el genero no influye en la puntualidad de los indivi-duos. Afortunadamente, si el parametro realmente es cero, entonces una normali-zacion del mismo tendra una distribucion normal estandar. Ello nos permite hacerinferencia estadstica; en otras palabras, podemos hacer una prueba de significan-cia estadstica. Notara que el resultado ofrecido por el programa arroja en unacolumna un estadstico denominado estadstico t. La hipotesis nula de dicho es-tadstico es que el parametro es igual a cero. No podremos rechazar dicha hipotesissi el estadstico t esta entre 1.96 y 1.96.4 Con base en esta prueba, llegue a unaconclusion respecto a la relacion entre el genero y la impuntualidad.

    1.3. Para que hacer econometra?En ultima instancia, el objetivo de la ciencia en general consiste en el desarrollo deinstrumentos (modelos) que permitan realizar predicciones confiables de fenome-nos futuros. Siguiendo una filosofa instrumentalista no se considera que el mo-delo sea verdadero o que la teora represente la verdad. Se considera mas bien quelos elementos y entidades que aparecen en las teoras son ficciones intelectuales va-liosas (Poirier). A este respecto, cabe mencionar la siguiente anecdota (Pindyck):

    LAS PERSONAS QUE PRETENDAN PREDECIR EL FUTURO SERANCONSIDERADAS ALBOROTADORAS BAJO LA SUBDIVISION 3, SECCION 901 DEL

    CODIGO COMUNAL, Y SE HARAN ACREEDORAS A UNA MULTA DE 250DOLARES Y/O 6 MESES DE PRISION.

    No obstante los riesgos en los que aparentemente incurriremos, nosotros nos dedi-caremos a utilizar el herramental estadstico tpico de los economistas para realizar

    4Las razones de ello y la teora detras de esta prueba sera detallada mas adelante.

  • 32 CAPITULO 1. INTRODUCCI ON

    predicciones. Antes de iniciar concretamente con el curso, es interesante comentarun poco cuales son los orgenes de esta disciplina.

    1.4. OrgenesLa econometra fue considerada en un principio como una sntesis creativa de teoray evidencia, con la cual casi todo poda lograrse: descubrir nuevas leyes economi-cas, desarrollo de las existentes, medicion y confirmacion de estas,....Jevons, uno de los primeros economistas abocados al estudio sistematico de la dis-ciplina, afirmo:

    NO DUDO EN AFIRMAR TAMBIEN QUE LA ECONOMIA POLITICA SECONVERTIRIA GRADUALMENTE EN UNA CIENCIA EXACTA, SI LA

    ESTADISTICA COMERCIAL FUERA MAS COMPLETA Y PRECISA DE LO QUEES ACTUALMENTE. DE ESTA FORMA, LAS FORMULACIONES PODRIAN SER

    RESPALDADAS CON GRAN FUERZA POR LOS DATOS ECONOMICOS,JEVONS(1871)

    1.4.1. La trayectoria de los cometas

    Si bien el uso de la estadstica en economa no comenzo a generalizarse hasta finalesdel siglo XIX , vale la pena reparar en los orgenes del metodo que posteriormentesera utilizado en infinidad de disciplinas cientficas, entre ellas, repetimos, la eco-noma. Pues su origen es frances, si bien hay una ligera disputa con los alemanesen lo que concierne a la paternidad. El metodo al que nos referimos, del que ha-blaremos las proximas 200 paginas, es nada menos que el famoso METODO DEM INIMOS CUADRADOS ORDINARIOS, MCO por sus siglas en espanol o bienOLS (Ordinary Least Squares) por sus siglas en ingles. El inventor de esta tecnicaes el Frances Adrien Marie LeGendre. Los detalles de dicha tecnica aparecen enel apendice de su obra NOUVELLES METHODES POUR LA DETERMINATIONDES COME`TES.5 Como bien lo indica el ttulo, MCO fue empleado la primera vezpara ajustar las trayectorias de los cometas. Es un detalle curioso que vale la penaconocer.

    5Nuevos Metodos para determinar cometas. (traduccion)

  • 1.4. ORIGENES 33

    1.4.2. Manchas solares y ciclos venusinosEntre los economistas Jevons y Moore, se gesto un programa econometrico pione-ro para explicar los ciclos economicos, aunque su impacto en la comunidad cientfi-ca exigio bastante tiempo para materializarse. La teora de las manchas solares deJevons ( 1870), por ejemplo, constituyo uno de los primeros intentos serios porcuantificar y aportar evidencia emprica referida a una teora concreta. La idea fun-damental de esta es la siguiente: La actividad solar esta regida por un ciclo que dura11.1 anos. Justamente en cada pico, dicha actividad se incrementa substancialmen-te. Jevons crea que tales picos tenan efectos sobre el clima de la tierra y, por ende,sobre las cosechas y sus rendimientos. Estos efectos repercutiran en los precios delos productos agrcolas y posteriormente en los demas precios [Jevons(1875)]. Laevidencia era escasa y el propio Jevons saba queaun siendo cierte su hipotesisotros factores sociales, economicos y polticos podan perturbar igualmente el ciclo.

    Figura 1.3: Ciclo de Comercio segun Jevons (1884)

    La evidencia desgraciadamente nunca se materializo y los esfuerzos de Jevons solole valieron el rechazo de los colegas. No obstante, el intento marco una pauta: eluso de la estadstica para identificar fenomenos economicos y sociales.6Jevons eventualmente abandono sus practicas econometricas, pero Moore las re-tomo casi 40 anos despues. Desgraciadamente Moore lo hizo mediante una hipote-sis aun mas descabellada para explicar los ciclos de negocios. Moore propuso es-tudiar la orbita de Venus y su posicionamiento con respecto a la Luna y al Sol.

    6Galton y otros autores contemporaneos ya haban hechos sus pininos, pero ninguno de ellos eraeconomista

  • 34 CAPITULO 1. INTRODUCCI ON

    Utilizo tecnicas mucho mas sofisticadas como el analisis armonico (frecuencias)sobre datos de pluviometra del Valle de Ohio (1839-1910); calculo periodogramascon los que mostro que haba ciclos que sobresalan del ruido blanco; entre ellosdestacaba uno de ocho anos y otro mas de treinta y tres anos. Posteriormente ela-boro correlaciones de la pluviometra de Illinois con la cosecha de grano del mismoestado creyendo mostrar as que la lluvia y la cosecha estaban relacionadas causal-mente (con un rezago de 2 anos).

    Figura 1.4: Ciclo de Negocios segun Moore (Moore, 1914)

    Posteriormente, Moore relaciono la produccion de grano con su precio y obtuvoempricamenteuna demanda de grano con...pendiente positiva! Lo anterior fuefruto, entre otras cosas, de un analisis de regresion con tres variables (considerandola ausencia de computadoras, el merito no es poco). Aquello no fue una debacle.Los resultados aparecieron en un libro (1914) y fueron refinados en otro que sepublico en 1923. En otro libro, Moore probo una hipotesis muy desafortunada; su-girio que el origen de los ciclos fuera la orbita de Venus; dicho planeta se colocacada ocho anos en una posicion tal que este queda alineado con el Sol y la Tie-rra. Las repercusiones de estas afirmaciones no tuvieron demasiado eco sobre lacomunidad cientfica.7El desarrollo de la econometra persistio. Esta se consolido considerablemente conla fundacion de la Sociedad Econometrica y se definio con mas precision con los tra-bajos de Timbergen en los anos treinta. La Comision Cowles aporto grandes avances

    7No obstante, Moore tuvo varios discpulos, menos destacados quiza individualmente, pero queen conjunto coadyuvaron a la construccion del cuerpo cientfico de la econometra

  • 1.4. ORIGENES 35

    ya en las decadas de los cuarenta y cincuenta. Lo ocurrido posteriormente, si bienes de gran trascendencia, es demasiado polifacetico para resumirlo en unos pocosparrafos. La econometra clasica sufrio un gran descredito en los setenta debidoa sus limitaciones predictivas y explicativas ante un escenario de fuerte crisis. Laincorporacion y asimilacion de tecnicas de series de tiempo le permitieron salvarmuchos de los escollos senalados. Adicionalmente, el avance informatico y el acce-so a bases de datos cada vez mas grandes y completas permitio el desarrollo de loque hoy se conoce como microeconometra.8

    8Ver, por ejemplo, la breve resena que al respecto hace Ventosa-Santaula`ria(2006) o, mejor aun,la soberbia investigacion de Morgan(1994).

  • 36 CAPITULO 1. INTRODUCCI ON

  • Captulo 2

    El modelo de Regresion lineal simple

    2.1. PreambuloLa herramienta de analisis emprico mas comunmente utilizada (y probablementela mas importante) en economa lleva por nombre Mnimos Cuadrados Ordinarios(analisis de regresion, MCO u OLS, por sus siglas en ingles). Al ser empleada, seasume que la ecuacion a estimar es lineal en todos sus parametros. Antes de entraren mas detalles, cabe hacerse una serie de preguntas relevantes: Para que queremosestimar una ecuacion? De que ecuacion estamos hablando? Como sabemos quelos calculos significan algo? A esas preguntas iremos respondiendo poco a poco,pero importa mas asimilar correctamente desde un principio el interes de esta mate-ria. Mediante el analisis de regresion lineal podremos establecer empricamente unarelacion (no necesariamente causal) entre dos o mas variables; por ejemplo entre in-greso y consumo; y podremos caracterizarla y estudiar algunas de sus propiedades.Dichas relaciones nos son sugeridas por la teora economica. La que utilizamos deejemplo es subyacente a las ideas Keynesianas. Retomemosla durante un momento:basicamente lo que sabemos acorde a dicha teora es que el consumo es una funciondel ingreso, es decir:

    C = f(y)

    Por desgracia, a partir de este punto, las cosas se vuelven mas complicadas. Re-sulta obvio que existen otras variables que tambien explican el comportamiento delconsumo; entre ellas destacan los activos financieros, las preferencias del consumi-dor... En general, todo el mundo coincide al decir que la mas importante de todasellas es el ingreso (disponible), o en todo caso admite que algunas de las otras son

    37

  • 38 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    muy difciles de obtener (como las referidas a las preferencias). En ultima instan-cia, resulta muy conveniente (y altamente recomendable) fundamentar el estudioen teora economica que nos proporcione pistas respecto a las relaciones entre va-riables as como al sentido de causalidad. Consideremos brevemente las variablesque nos interesan. No solo existe una teora que nos senala la relacion entre ellas;empricamente dicha relacion se antoja obvia, cuando menos estadsticamente.

    1910 1920 1930 1940 1950 1960 1970 19802

    4

    6

    8

    4.5 5 5.5 6 6.5 7 7.52

    4

    6

    8

    PIB real (EEUU)

    M2 (E

    EU

    U)

    PIB real (EEUU)M2 (EEUU)

    Figura 2.1: Series de tiempo del PIB real y del Agregado MonetarioM2 de E.E.U.U.y Diagrama de Dispersion. Fuente: Base de datos historica de Nelson y Plosser(1982).

    Pero bueno, aqu nos estamos adelantando un poco. Hace un siglo le hubieramoshecho diferente. Propuesto a finales del siglo antepasado, el coeficiente de correla-cion ha probado ser un instrumento simple, pero a la vez poderoso. El coeficientede correlacion es una cantidad que permite medir el grado de asociacion entre 2variables aleatorias.

    Definicion 1 El coeficiente de correlacion entre dos variables aleatoria es:

    x,y =cov (x, y)

    [V ar(x)]1/2 [V ar(y)]1/2

    donde:

  • 2.1. PRE AMBULO 39

    Cov(x, y) = E [(x x)(y y)]V ar(x) = E [(x x)2]

    El coeficiente de correlacion queda acotado entre 1 y 1.1 x,y 1

    El coeficiente de correlacion es una medida de intensidad de relacion lineal entredos variables. Tomemos como ejemplo la relacion entre Anos de Estudio y Salario.Uno esperara que, conforme mas anos de estudio tenga un individuo, mas alto seasu salario. Digamos que contamos con esa base de datos. Con base en la formulaanterior podemos calcular la correlacion entre ambas variables. Que opinaran sisaliera un coeficiente de correlacion de 0.94?, y si saliera 0.02?, peor aun -0.7? Elcoeficiente de correlacion es un instrumento eficaz para indagar rapidamente la in-tensidad de las relaciones entre variables. Tiene, como todo instrumento, bondadesy defectos. Entre los defectos mas notorios esta su circunscripcion a la linealidad:

    Variable x

    Variable y

    Figura 2.2: Relacion lineal entre las coordenadas de un crculo: Nula

    El coeficiente de correlacion lineal sera incapaz de darnos la mas mnima pista dela relacion entre las coordenadas x y y que obviamente es perfecta. Es importantetomar en cuenta esto cuando se utilice el coeficiente.

  • 40 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Por que el coeficiente de correlacion esta acotado entre 1 y 1? En realidad esfacil demostrarlo. Antes de continuar, haremos algunas aclaraciones. E(x) = x,E(x x)2 = var(x) = 2x, E(y) = y y E(y y)2 = var(y) = 2y . Definamosahora:

    zdef=

    (x x)V ar(x)

    (y y)V ar(y)

    ,

    =(x x)

    x (y y)

    y.

    Resulta obvio que: z2 0, y por lo tanto, aplicandole el operador esperanza a z2 ydesarrollando:1

    E(z2) 0,

    E(z2) = E

    [(x x)2

    2x+

    (y y)22y

    2 (x x) (y y)xy

    ] 0.

    Todos los denominadores en la expresion anterior son, para efectos del operadoresperanza, terminos constantes, por los que salen de dicho operador. Note ademasque el tercer elemento corresponde a la definicion del coeficiente de correlacion:Desarrollando,

    var(x) E(x x)2

    2x+

    var(y) E(y y)2

    2y 2 0,

    1 + 1 2x,y 0,2x,y 2,

    x,y 1.

    Ya tenemos un lado de la desigualdad; ahora solo falta obtener el otro lmite. Defi-namos, como anteriormente (aunque cambiando el signo):

    1Podra encontrar algunas explicaciones relativas al operador esperanza en el apendice B en lapagina 499, aunque se recomienda, si las dudas persisten, consultar algun libro de probabilidad yestadstica.

  • 2.2. EL CONCEPTO DE LA REGRESI ON 41

    z (x x)x

    +(y y)

    y

    E(z2) 0

    E(z2) = E

    [(x x)2

    2x+

    (y y)22y

    +2 (x x) (y y)

    xy

    ] 0

    1 + 1 + 2x,y 02x,y 2x,y 1

    Con esto queda demostrado que:

    1 x,y 1

    2.2. El concepto de la regresionEn la relacion mencionada al principio de este captulo, entre ingreso y gasto, serafacil imaginar que existen otras variables que explican los niveles salariales: loca-lizacion geografica (rural/urbana); antiguedad laboral; genero (lamentablemente);etc. . . Es posible que existan muchas variables capaces de explicar parcialmente elnivel salarial de los individuos. Si utilizamos el coeficiente de correlacion, para me-dir la relacion lineal entre este par de variables, nos quedaramos muy cortos. Esah que la regresion entra en juego, puesto que permite controlar por muchos otrosfactores importantes (recuerde el ejercicio 1 de puntualidad, en la pagina 26).No obstante lo anteior, de momento haremos el ejercicio con solo dos variables. Ellopermite introducir conceptos con suma facilidad; posteriormente generalizaremos elmetodo a K variables independientes.

    2.2.1. El diagrama de dispersionDesarrollemos un ejemplo sencillo para ver relaciones entre variables: Esperanzade vida e Ingreso per capita (Datos de 2007).2 Veamos el caso de Mexico, Francia,Japon y Nigeria:

    2El ingreso per capita esta medido en dolares PPC (paridad poder de Compra).

  • 42 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Pas Ingreso per capita Esperanza de vidaMexico $12,500 75.63Francia $33,800 80.59Japon $33,800 82.02

    Nigeria $2,200 47.44Cuadro 2.1: Relacion Ingreso-Esperanza de vida. Fuente: CIA World Factbook:https://www.cia.gov/library/publications/the-world-factbook/index.html

    Resulta aparente una relacion directa entre nivel de ingreso y esperanza de vida. Losdos pases mas ricos, Francia y Japon, tienen un ingreso alto y una elevada esperan-za de vida; el pas pobre, Nigeria, tambien coincide con la esperanza de vida masreducida. Mexico, en tanto pas de ingreso medio, ofrece una esperanza de vida muysuperior a la de Nigeria, pero no tanto como la de las otras dos naciones. As pues,todo indica que hay relacion. Note como no se ha mencionado la palabra CAU-SALIDAD, sino simplemente RELACION. Podramos representar este hallazgograficamente:

    0 5,000 10,000 15,000 20,000 25,000 30,00040

    45

    50

    55

    60

    65

    70

    75

    80

    85

    Nivel de ingreso (en dlares medidos en PPP)

    Espera

    nza d

    e V

    ida (a

    os)

    Nigeria

    Mxico

    Francia

    Japn

    Figura 2.3: Ingreso per capita y esperanza de vida en Mexico, Francia, Japon yNigeria. Fuente: CIA world factbook.

    La relacion lineal, en todo caso, no es tan obvia. Podramos representar una funcioncreciente, pero no necesariamente lineal. De hecho, con tan pocos datos (cuatro ob-

  • 2.2. EL CONCEPTO DE LA REGRESI ON 43

    servaciones), no es posible efectuar inferencia estadstica alguna. La figura anteriorse denomina DIAGRAMA DE DISPERSIONy algunos autores se refieren a ellacomo NUBE DE PUNTOS. El anterior es quiza una vision mas poetica (y tam-bien mas elocuente) de la figura. Para asimilar mejor el concepto, conviene repetirel diagrama, esta vez con muchos mas pases.

    10,000 20,000 30,000 40,000 50,00060

    65

    70

    75

    80

    85

    Ingreso per cpita (medido en Dlares PPP)

    Espera

    nza d

    e V

    ida (m

    edid

    a en

    ao

    s)

    Figura 2.4: Ingreso per capita y esperanza de vida en 220 pases (excepto algunosen los que la incidencia del SIDA deteriora los datos). Fuente: CIA world factbook.

    Note como la tendencia positiva en la relacion es ahora mas obvia. Tambien resultamucho mas obvio que la lnea es incapaz de pasar por todos los puntos (dejara deser una lnea, claro esta). Esto resulta de que nuestro analisis es, muy probablementeincompleto y por lo tanto, no lo desarrollaremos mas en esta seccion; de momento,basta con asimilar la utilidad del diagrama de dispersion.La tecnica de Mnimos Cuadrados Ordinarios (MCO) consiste en encontrar losparametros de la recta anaranjada de la figura. Lo primero es recordar la forma de laecuacion que genera una recta as; debe tener una ORDENADA EN EL ORIGENyuna PENDIENTE:

    yt = + xt + ut

    El termino ut corresponde al error; este es necesario dado que no podemos esperarpoder explicar todo con nuestra recta. Parte quedara como Error, o residual. Ello

  • 44 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    corresponde a la fraccion no explicada del comportamiento de la variable explicada,yt. Por cierto, dicho comportamiento lo estamos tratando de explicar con la variablext, a la que usualmente se denomina variable explicativa o independiente.

    2.3. Mnimos Cuadrados Ordinarios: MCOEstudiaremos la tecnica OLS o MCO, mas comunmente referida como regresion.Este ultimo termino se lo debemos en buena medida a Sir Francis Galton por suestudio Regresion a la mediocridad: las estaturas de los hijos de padres muyaltos o muy bajos tienden a ser menos extremas.Definicion 2 MCO: es la tecnica que permite encontrar la lnea que mejor se ajustaa los datos; minimiza la suma de las desviaciones al cuadrado entre cada observa-cion y dicha lnea. En otras palabras, la suma de las distancias entre los puntos deldiagrama de dispersion a la lnea de regresional cuadradoes la menor posible(ver figura).

    Donde, al numero de observaciones con que contamos, lo denominaremos, T (ta-mano de muestra). Para poder referirnos a una observacion en particular, agregamosun subndice a las variables. As, por ejemplo, la t-esima observacion de la varia-ble x es xt, donde t = 1, 2, 3, . . . , T Es posible sugerir distintas estrategias paraminimizar esas desviaciones.

    1. De entrada podramos pensar enT

    t=1 desvt, pero....

    2. Podramos probar tambien minimizarT

    t=1 | desvt |No obstante el valor absoluto complicara despues los calculos.

    3. Que tal minimizar desv2t ? Esta parece ser la mas adecuada.Debemos primero tener clara la naturaleza de la funcion a estimar. Esta debe serlineal en los parametros. A la siguiente expresion le llamaremos FUNCION DE RE-GRESION POBLACIONAL INOBSERVABLE.

    yt = + xt + ut,

    donde:

    yt: Variable explicada o dependiente o inclusive regresando,

  • 2.3. MINIMOS CUADRADOS ORDINARIOS: MCO 45

    30 20 10 0 10 2020

    10

    0

    10

    20Diagrama de Dispersin

    yt

    xt

    Figura 2.5: Diagrama de Dispersion o bien Nube de Puntos.

    : Constante u ordenada en el origen,

    : Pendiente,

    xt: Variable explicativa, exogena, predeterminada o aun regresor,

    ut: Termino de Error.

    Dada su condicion de inobservable, tendremos que conformarnos con algo que sele parezca lo mas posible:

    yt = + xt + ut (2.1)

    donde la notacion significa ESTIMADO y a ut se le denomina RESIDUAL.As pues, que nos dice esta funcion sobre la variable que queremos explicar? Em-pecemos por una explicacion geometrica; + xt nos situa en la lnea, pero le faltarecorrer una cierta distancia para alcanzar a la observacion, ut.

  • 46 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Definamosyt = + xt

    Retomando la ecuacion (2.1):

    yt = yt + ut

    ut = yt ytut = yt xt

    Al cuadrado...u2t =

    (yt xt

    )2Sumando...

    u2t =(

    yt xt)2

    Y ahora s, optimizando argmn,

    u2t

    u2t

    = 2(

    yt xt),

    u2t

    = 2

    (yt xt

    )xt.

    Igualamos a cero para obtener el mnimoo maximo:

    1.(

    yt xt)

    = 0 (2.2)

    2.(

    yt xt)xt = 0

    Desarrollamos:

    1. (yt xt

    )= 0

    yt

    xt = 0yt T

    xt = 0

  • 2.3. MINIMOS CUADRADOS ORDINARIOS: MCO 47

    2. xt

    (yt xt

    )= 0

    xtyt

    xt

    x2t = 0

    A las ecuaciones resultantes de este desarrollo se les denomina:

    ECUACIONES NORMALES

    yt T

    xt = 0

    xtyt

    xt

    x2t = 0

    Despejamos de la primera...

    =

    xt

    ytT =

    yt

    xt

    T

    ...y reemplazamos en la segunda

    xtyt

    (yt

    xt

    )T

    xt

    x2t = 0

    Despejamos :

    xtyt

    yt

    xtT

    +

    T

    (xt

    )2

    x2t = 0

    Reacomodamos los terminos,

    [(

    xt)2

    T

    x2t

    ]=

    1

    T

    yt

    xt

    xtyt

    =1T

    yt

    xt

    xtyt1T(

    xt)2 x2t

    =

    xtyt 1T

    yt

    xtx2t 1T (

    xt)

    2

  • 48 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Ahora obtengamos :

    =

    yt

    T

    xt

    T

    = y xSustituyendo el valor de :

    = y (

    xtyt 1T

    yt

    xt)

    x2t 1T (

    xt)2 x

    Retomemos un poco la expresion de . Al dividir arriba y abajo por 1T

    , obtenemos:

    =1T

    (xtyt 1T

    yt

    xt)

    1T

    (x2t 1T (

    xt)2

    )=

    cov(x, y)

    var(x)

    Pero, que hemos obtenido? un mnimo o un maximo? Retomemos las derivadas...

    u2t

    = 2(

    yt xt)

    u2t

    = 2

    (yt xt

    )xt

    Construyamos la Hessiana, que es la matriz de Segundas Derivadas:[2

    u2t

    2

    u2t

    2

    u2t

    2

    u2t

    ]=

    [2T 2

    xt

    2

    xt 2

    x2t

    ]Y veamos los determinantes de los menores:

    1. Primero: 2 T2. Segundo:

    2 T 2

    x2t 4(

    xt

    )2= 4T

    x2t 4

    (xt

    )2= 4

    [T

    x2t (

    xt

    )2]

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 49

    Si el determinante de ambos menores son positivos tendramos en nuestras manosuna MATRIZ DEFINIDA-POSITIVA, lo que equivale a tener la certeza de que obtu-vimos un mnimo.Pero. . . es acaso 4

    [T

    x2t (

    xt)2] positivo? Podramos manipular la formula

    de la varianza muestral para demostrarlo:3

    0 var(xt) T var(xt)

    (xt x)2

    (x2t + x2 2xtx

    (x2t 1

    T

    (xt

    )2 T

    (x2t

    (xt

    )20 4

    [T

    (x2t (

    xt

    )2]La expresion obtenida no es otra cosa sino 4 V ar (xt) T 2, es decir la formula de lavarianza, que es positiva por definicion. As pues podemos concluir que la MATRIZHESSIANA O DISCRIMINANTE es definida-positiva y, por ende, al optimizar loque obtenemos es un mnimo.

    2.4. Propiedades de los estimadores

    2.4.1. Los supuestos del metodoPor medio de Mnimos Cuadrados Ordinarios hemos ajustado una lnea que pasacerca de las observaciones. Conviene ahora empezar a conocer las propiedades dedicha lnea, es decir de los parametros estimados y del residual resultante. Para ello,enunciaremos anticipadamente los supuestos que garantizansi se cumplenquenuestro ejercicio de estimacion sea exitoso.4

    3Haremos caso omiso de los grados de libertad que se pierden al estimar la varianza.4Es importante mencionar que la regresion es como una esperanza condicional: E (yt/xt) =

    + xt, al condicionar en x, i.e. al decir dado x asumimos, de una forma u otra, que conocemosdicha variable. Si no fuera el caso, sacaramos la media, es decir, una esperanza incondicional.

  • 50 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    LOS SUPUESTOS DE MCOa

    1. CORRECTA ESPECIFICACION La relacion entre las variables x yy es lineal y esta dada por:

    yt = + xt + ut

    2. ORTOGONALIDAD Usaremos dos versiones de este supuesto:

    a) Las xs son variables no estocasticas cuyos valores son fijos(no tienen propiedades probabilsticas).

    b) la Covarianza entre x y el termino de error es cero:Cov(xt, ut) = 0 o bien xtut; de ah el nombre del su-puesto.

    3. El error, u, tiene una esperanza igual a cero E(u) = 0.

    4. HOMOSCEDASTICIDAD La varianza del termino de error es lamisma para todas las observaciones:

    E(u2) = 2

    5. NO AUTOCORRELACION (INDEPENDENCIA) El termino de errores una variable aleatoria iid:

    E (uiuj) = 0 i 6= j

    6. El termino de error se distribuye como una variable normal: ut N (0, 2)

    7. ESTACIONARIEDAD (DEBIL) Las variables no tienen un compo-nente de tendencia estocastico ni determinstico:

    E (yt) = para todo t

    E (yt ) (ytj ) = j para todo t y cualquier j

    aResulta de suma importancia conocerlos. Para efectos practicos, recomendamosal lector que los memorice. Conforme avance el curso, la razon de tales supuestos sevolvera evidente y tal memorizacion ya no sera necesaria.

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 51

    El supuesto mas importante es probablemente el primero, el de Correcta Especi-ficacion. Resulta obvio que si suponemos un Proceso Generador de Datos, DGP ,incorrecto para la variable y, el resto de nuestro esfuerzo sera perfectamente inutily la estimacion quedara viciada por construccion. Por desgracia, la relevancia deeste supuesto solo queda igualada con la dificultad intrnseca de validarlo.5 En loque concierne al segundo supuesto, el de Ortogonalidad, usaremos la primera ver-sion (variable xt no estocastica) salvo que se indique lo contrario. esto se impone,de momento, con fines didacticos; muchas demostraciones quedan en extremo sim-plificadas al asumir que la o las variables explicativas no pertenecen a la esferaprobabilstica. Levantar este supuesto y reemplazarlo por la segunda version, quees mas laxa no es particularmente complicado; de hecho, tal accion se lleva a ca-bo en etapas ulteriores del curso (Econometra para segundones). El supuesto deortogonalidad es, al igual que el primero, en extremo importante. La satisfacciondel mismo [en su version Cov(xtut)] puede quedar en entredicho en una cantidadconsiderable de circunstancias, mismas que abordaremos, claro esta; de hecho, suimportancia es tal que dedicaremos gran parte de este manual a su estudio. De mo-mento, asumiremos que s se cumple y eso en su version mas sencilla [la variablex no es estocastica]. Los supuestos 4 y 5 resultan de gran trascendencia tambien,aunque menor que la de los dos primeros. El rompimiento de estos (denominadoheteroscedasticidad y autocorrelacion, respectivamente) degrada considerablemen-te la calidad de la estimacion.

    Conviene tener claro algunos aspectos del tercer supuesto. Asumir que el termino deerror tiene esperanza cero cobra mucho sentido si recordamos que, en dicha varia-ble, echamos todo aquello que no incorporamos a la especificacion. Lo hacemosporque creemos que los elementos no considerados tienen una importancia marginaly no alteran la medicion del fenomeno que realmente nos importa. La equivalenciacon el diseno de un experimento estadstico quiza aclare las cosas. En este ultimo,incorporar el componente aleatorio a la seleccion de muestra permite anular losefectos sobre la variable de interes de otras variables que no nos importan. Dichoazar permite que todo aquello que queremos excluir se cancele por s solo. Loque ocurre con su contrapartida emprica, T1

    ut, resulta obvio, si recordamos

    la primera ecuacion normal igualada a cero. En otras palabras, por construccion,T1

    ut = 0.

    5Una de las funciones mas importantes del econometristaAmerica Latinau EconometraEspanaes justamente la de lograr una correcta especificacion de la ecuacion a estimar

  • 52 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    20 10 0 1020

    10

    0

    10

    20

    20 10 0 1020

    10

    0

    10

    20

    20 10 0 1020

    10

    0

    10

    20

    Independencia y homoscedasticidad Autocorrelacin

    Heteroscedasticidad

    Figura 2.6: (a) Supuestos de homoscesdasticidad y no-autocorrelacion; (b) Autoco-rrelacion; (c) Heteroscedasticidad

    Existen otros resultados interesantes que vale la pena destacar. Desarrollando laespecificacion estimada, obtenemos:

    yt = + xt + utyt = T +

    xt +

    ut

    Si dividimos de ambos lados por T :

    y = + x+ T1

    ut

    T1

    ut = y x (2.3)Que nos recuerda eso? Pues simple y sencillamente a la 1a ECUACION NORMALdividida por T , que igualamos a cero:

    y x = 0

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 53

    Como ya dijimos, el metodo MCO hace que, por construccion, la media de los resi-duales sea cero inequvocamente. POR ELLO, SEA CUAL SEA NUESTRA ESTIMA-CION, TENGA LOS PROBLEMAS QUE TENGA, LA MEDIA DE LOS RESIDUALESESTIMADOS SIEMPRE, SIEMPRE SERA CERO. No obstante, la expresion anteriorhace evidente que las medias de las variables pasan exactamente por la recta deregresion.Resta comentar los supuestos 6 y 7. El primero, el de normalidad nos sirve paraintroducir la probabilidad en el modelo de regresion. Con ello, es posible atribuirpropiedades probabilsticas a nuestros estimadores y, en ultima instancia, llevar acabo inferencia estadstica. Su ausencia hace del metodo de MCO un simple ejer-cicio geometrico.6 Supongamos que ut iidN (0, 2u); las implicaciones de ellopueden esgrimirse graficamente:

    0

    50

    100 0 0.20.4

    0

    50

    100 0 0.20.40

    50

    100 0 0.20.4

    yt

    xt

    Figura 2.7: Diagrama de Dispersion. Visualizacion de la normalidad en la distribu-cion de los errores.

    HOMOSCEDASTICIDAD:

    V ar(ut) = E [ut E(ut)]2= E(u2t )

    = 2u6Ver el papel que jugo la Comision Cowles en el desarrollo de la Econometra

  • 54 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    NO AUTOCORRELACION: Suponga 6= t

    Cov (ut, u ) = E [ut E(ut)] [u E(u )]= E (ut) (u )

    = 0

    Ya para terminar, haremos algunas anotaciones sobre el supuesto No. 7, la estacio-nariedad. TODOS LOS METODOS QUE VEREMOS EN ESTE CURSO Y EN EL QUESIGUE PIERDEN SU VALIDEZ SI LAS SERIES CON LAS QUE TRABAJAMOS PO-SEEN UN ELEMENTO TENDENCIAL. EXISTEN PRUEBAS PARA DETERMINARLO ANTERIOR, PERO EL BAGAJE TEORICO NECESARIO PARA ENTENDERLASSOLO SERA VISTO EN LA SEGUNDA PARTE DEL CURSO.

    2.4.2. Caractersticas Importantes del metodo MCOLas caractersticas de Mnimos Cuadrados Ordinarios que a continuacion detalla-remos resultan importantes pues serviran para apuntalar demostraciones ulteriores.Sirven ademas para acabar el proceso de familiarizacion con MCO. En particular,estudiaremos lo siguiente:

    1. La estimacion de los parametros solo depende de valores muestrales (ya vis-to).

    2. Los estimadores y son puntuales (ya visto).3. Las medias muestrales de los datos pasan por la recta de estimacion (ya visto).4. La media de los residuales es cero (ya visto).5. La correlacion entre residuales, ut y observaciones, xt, es cero:

    u,x =

    (ut u)(xt x)var(ut)

    var(x)

    Nos concentramos en el numerador y tomaremos en consideracion el hechoque:

    u =1

    T

    ut = 0

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 55

    Desarrollando la expresion:u (xt x) =

    utxt x

    ut

    cero

    =

    utxt

    =(

    yt xt)xt

    =

    ytxt

    xt

    x2t

    La ultima lnea del desarrollo debera resultarnos familiar; en efecto, se tratade la 2a ecuacion normal. Como bien sabemos, dicha expresion esta igualadaa cero:

    ytxt

    xt

    x2t = 0

    As pues, por construccion,

    u,x =0

    var(u)var(x)= 0

    6. La correlacion entre los residuales (u) y los valores estimados (yt) es cero.Para mostrar lo anterior, partamos de la formula:

    u,y =

    u(yt y

    )var (u) var (yt)

    Nuevamente, nos ocuparemos solamente del numerador...

    u(yt yt

    )=

    uy y

    u

    cero

    =

    u( + xt

    )=

    ut

    0

    +

    utxt 0

    = 0

  • 56 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Por lo anterior, podemos decir que:

    u,y = 0

    2.4.3. Propiedades de los parametros estimadosEn esta seccion veremos dos cuestiones fundamentales del metodo de MCO: sucapacidad de ofrecer estimadores (1) insesgados y (2) robustos. Es importante re-cordar a lo largo de las demostraciones el uso sistematico de los supuestos antesexpuestos puesto que debe quedar claro que al romperse estos, en muchas ocasio-nes dicho insesgamiento y robustez quedan comprometidos. Antes de probar lasafirmaciones anteriores, necesitamos llevar a cabo un pequeno desarrollo que nossera util a lo largo de este texto. Se trata de probar que el parametro es resultadode una combinacion lineal de las observaciones muestrales: EL ESTIMADOR ESUNA COMBINACION LINEAL DE LAS OBSERVACIONES MUESTRALES, xt.Podemos partir de la formula antes desarrollada del estimador:

    =

    (xt x)(yt y)

    (xt x)2

    Definimos...

    Kt (xt x)(xt x)2

    ...Y lo sustituimos en la formula de

    =

    Kt (yt y)Antes de continuar, veamos las propiedades de Kt

    1.

    Kt =

    1(xt x)2

    (xt x)

    = 0

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 57

    2.

    Ktxt =

    (xt x) xt(xt x)2

    =

    x2t x

    xt

    x2t 1T (

    xt)2

    =

    x2t 1T (

    xt)

    2x2t 1T (

    xt)

    2

    = 1

    3.

    K2t =

    (xt x)2((xt x)2

    )2=

    1((xt x)2

    )2 (xt x)2=

    1(xt x)2

    Retomando el valor de y haciendo uso de las propiedades de Kt, obtenemos losiguiente:

    =

    Kt(yt y)=

    Ktyt y

    Kt

    0

    Si concebimos a Kt como un ponderador, entonces veremos que el estimador de no es otra cosa sino una combinacionponderada, claro estade la variabledependiente (y), como de hecho queda manifiesto en la primera lnea del siguiente

  • 58 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    desarrollo:7

    =

    Ktyt

    =

    Kt( + xt + ut)

    =

    Kt 0

    +

    Ktxt 1

    +

    Ktut

    = +

    Ktut

    Propiedad de No-Sesgo de los parametros estimados

    Aqu veremos finalmente si nuestros estimadores son sesgados; si no lo son, elloimplica E() = . Dado que y dependen de la variable aleatoria yt, ellosmismos son variables aleatorias:

    yt = + xt determinista

    + utaleatorio

    Empecemos por el estimador de la pendiente, ; recuperando la formula de estima-cion de este.8

    =

    Ktyt (2.4)E() = E

    (Ktyt

    )=

    KtE(yt)

    =

    KtE( + xt + ut)

    =

    Kt 0

    +

    Ktxt 1

    +

    KtE(ut) 0

    E() =

    Como se observa en la ultima linea del desarrollo anterior, la esperanza del esti-mador de la pendiente es el verdadero valor de dicha pendiente. En otras palabras,

    7En lo que concierne a , el hecho de ser tambien una combinacion de las y quedara demostradocolateralmente al estudiar su varianza.

    8Intente ver en el proximo desarrollo la relevancia del cumplimiento del supuesto de correctaespecificacion. Note que, de forma implcita, tal cumplimiento resulta condicion sine qua non parala validez de la prueba.

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 59

    MCO provee un estimador insesgado de . Ahora veamos que pasa con el estima-dor de :

    = y x

    Ktyt.

    Reinsertamos la media de y en la sumatoria,

    =

    yt

    T x

    Ktyt,

    =(yt

    T xKtyt

    ).

    Factorizamos,

    =( 1

    T xKt

    )yt, (2.5)

    Y ahora s, sacamos esperanza...

    E() =( 1

    T xKt

    )E(yt)

    =( 1

    T xKt

    )E( + xt + ut)

    =( 1

    T xKt

    )( + xt)

    =1

    T

    +

    1

    T

    xt x

    Kt x

    xtKt

    E() = + x xE() =

    Propiedad de consistencia de los parametros estimados

    Ya vimos que los parametros son insesgados; esta propiedad es importante: incre-menta nuestra confianza en la utilidad de nuestros estimadores. Ahora veamos quetan robustos son. Lo haremos primero con el estimador de la pendiente, , pues-to que la consistencia del estimador de la ordenada en el origen, , depende de la

  • 60 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    consistencia del otro. Antes de continuar con el estudio de la consistencia, es impor-tante hacer una aclaracion al respecto; esta trata de las propiedades de los estimado-res cuando el tamano de la muestra tiende a infinito, es decir, para fines practicos,cuando la muestra es muy grande. Por que hacer esto? Pues simplemente porqueexisten situaciones en las que los estimadores son sesgados, pero consistentes: elestimador tiende a su verdadero valor si la muestra es suficientemente grande. Loanterior ampla la paleta de posibilidades; veremos mucho mas adelante que existenestimadores en extremo utiles que, pese a ser sesgados, son tambien consistentes;su uso es por ende muy recomendable. Por eso, al momento de hacer estimaciones,si sabemos que solo contamos con consistencia, debemos asegurarnos que nuestramuestra sea grande.9

    Definicion 3 Sea T un estimador de basado en una muestra de tamano T. T esun estimador consistente si y solo si:

    lmT

    P(| T |<

    )= 1

    Donde es un numero positivo arbitrariamente chico. Si la expresion es cierta, sedice que T converge en probabilidad a la constante

    plim(T

    )=

    Tp

    Ahora s, retomemos:

    = +

    Ktut

    = +

    (xt x)ut(xt x)2

    Para poder continuar esta demostracion, hemos de modificar uno de los supuestosde manera importante. Nuestro segundo supuesto, el que dicta que las variablesexplicativas no son estocasticas, ha resultado en extremo practico en muchos de losdesarrollos hasta aqu expuestos. No obstante, en este apartado, resulta mas sencillo

    9Desgraciadamente, la definicion de una muestra grande no genera un consenso tan absolutocomo quisieramos. Para efectos de este curso, consideremos que se requieren mas de 300 observa-ciones.

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 61

    asumir que las variables explicativas s son estocasticas. Ello permite emplear Leyesde Grandes Numeros sobre estas.Concretamente, utilizaremos los siguientes resultados:10

    Teorema 1 (Kolmogorov) sea {xt} una secuencia de variables aleatorias i.i.d. quesatisface las siguientes condiciones:

    1. E | xt |

  • 62 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    LAS REGLAS DE LOS PLIM1. El plim de una constante es esa misma constante:

    plim () =

    2. El plim de un producto (o cociente) de dos variables aleatorias esigual al producto de los plim.

    plim (y1 y2) = plim (y1) plim (y2)plim

    (y1y2

    )=

    plim (y1)

    plim (y2)

    3. Teorema de Slutsky:

    Teorema 3 El plim de una funcion continua g de una variablealeatoria y es igual a la funcion aplicada al plim de y.

    plim [g(y)] = g [plim(y)]

    Como se infiere de estas sencillas reglas, el plim es un operador mas flexible queel operador esperanza. Ahora s, veamos lo que ocurre con nuestro estimador deMCO:

    plim() = plim() + plim

    [(xt x)ut(xt x)2

    ]= +

    plim (

    (xt x)ut)plim (

    (xt x)2)

    = +plim

    (1T

    (xt x)ut

    )plim

    (1T

    (xt x)2

    )El incorporar 1

    Tpermite asegurar la convergencia de ambos, el numerador y el deno-

    minador. Para tener las formulas exactas, dicha normalizacion debera ser (T 1),pero, dado que T , ese detalle carece de importancia.Ahora bien, podemos empezar a utilizar los teoremas antes expuestos:

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 63

    plim() = +plim

    (1T

    (xt x)ut

    )2x

    = +

    1 plim

    (1

    T

    xtut

    ) plim

    (1

    T

    xt

    )

    2

    3 plim

    (1

    T

    ut

    )

    2x=

    donde,

    1.

    xtut es i.i.d. por el segundo teorema y, por ende, puede aplicarsele el pri-mero.

    2.

    xt es i.i.d., por ende, puede aplicarsele el primer teorema; queda x.

    3.

    ut es i.i.d., por ende, puede aplicarsele el primer teorema; queda 0.

    Probar la consistencia del estimador de la ordenada en el origen es, en realidad, muysencillo. Para demostrarla, nos aprovecharemos del hecho que las medias muestralespasan por la recta de regresion estimada.

    = y x (2.6)

    Lo anterior no es completamente cierto cuando la especificacion es la verdadera,puesto que la media de los errores no necesariamente es cero:

    y = + x+ u

    No, obstante, en el lmite, s ocurre:

    plim(y) = + plim(x) + plim(u)

    = + x

  • 64 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Para lograr semejante simplificacion, basta recordar el Teorema (1) expuesto en lapagina 61. Por un lado, seguimos asumiendo que la variable explicativa satisfacelos supuestos del teorema por lo que la media tiende a x, y, por el otro, el terminode error, de hecho, tambien los satisface, por lo que la media tiende a cero.Sabiendo eso, retomemos la ecuacion (2.6) y apliquemos lmites en probabilidad.Recuerde que el plim de es :

    plim() = y x= plim(y) x= + x x=

    Varianza de los estimadores

    Hemos visto ya que los parametros estimados son insesgados y consistentes. Fal-tara ver ahora como es la varianza de estos. Ello permitira caracterizar mejor di-chos estimadores. De hecho, todas estas demostraciones pueden considerarse elpreambulo al teorema de Gauss-Markov, que tipifica de manera elocuente a nuestrosestimadores de MCO.

    Varianza de Empezaremos mostrando cual es la varianza de . Anteriormente,cuando estudiamos el no-sesgo de dicho parametro, llegamos a la siguiente ecua-cion:

    =

    Kt(yt y)=

    Ktyt

    Kty

    =

    Ktyt y

    Kt 0

    =

    Ktyt

    =

    Kt( + xt + ut)

    =

    Kt +

    xtKt +

    Ktut

    = +

    Ktut

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 65

    Para calcular la varianza de , E(

    )2, podemos manipular la expresion de

    arriba y escribirla de la siguiente manera:

    =

    Ktut (2.7)(

    )2=

    (Ktut

    )2= (K1u1 +K2u2 + ...+KTuT )

    2

    = K21u21 +K

    22u

    22 + ...+K

    2Tu

    2T + 2K1K2u1u2

    Los terminos cruzados, ui uj para i 6= j desapareceran al momento de aplicarlesla esperanza.11

    E(

    )2= K21E(u

    21) +K

    22E(u

    22) +K

    23E(u

    23) + ...+K

    2TE(u

    2T )

    Aprovechando el supuesto de homoscedasticidad, podemos reemplazar las esperan-zas por 2 y luego factorizar:

    V ar() = K212 +K22

    2 +K232 + ...+K2T

    2

    = 2

    K2t

    V ar() =2

    (xt x)2

    Para entender el ultimo paso, es necesario recordar que

    K2t =1

    (xtx)2. As pues,

    ya tenemos la primera varianza:

    V ar()=

    2(xt x)2

    Comentario 1 Hay una forma aun mas facil de obtener la formula de la varianzade .12 La prueba, ademas, nos permite usar el operador varianza, mismo que raravez aprovechamos:

    11Ello ocurre debido al cumplimiento del supuesto de No autocorrelacion.12Cortesa de Pablo Ortz Casillas.

  • 66 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    = +

    Ktut

    var() = 0 + var(

    Ktut

    )=

    K2t var(ut)

    = 2

    K2t

    =2

    (xt x)2

    Varianza de El calculo de la varianza de es un poco mas complicado. En sec-ciones anteriores habamos visto que =

    ( 1TxKt)yt. A partir de esta expresion

    aplicabamos el operador esperanza, pero ahora no. En vez de eso, sustituimos el va-lor de yt:

    =( 1

    T xKt

    )( + xt + ut)

    =( 1

    T +

    1

    Txt +

    1

    Tut xKt xKtxt xKtut

    ) = + xt +

    1

    T

    ut x

    Kt

    0

    x

    Ktxt 1

    x

    Ktut

    = 1T

    ut + x x

    0

    x

    Ktut

    El termino x se cancela; a los restantes, los reagrupamos en una sola sumatoria,no sin antes factorizar 1

    T...

    = 1T

    ut x

    Ktut (2.8)

    = 1T

    ut 1

    T

    Ktut

    (xt

    ) = 1

    T

    (1

    (xt

    )Kt

    )ut

    = 1T

    Rtut

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 67

    Donde Rt = 1 (

    xt)Kt.13 Elevando al cuadrado ambos lados y desarrollando:

    ( )2 = 1T 2

    (Rtut

    )2=

    1

    T 2(R1u1 +R2u2 +R3u3 + ...+RTuT )

    2

    =1

    T 2(R21u

    21 + ....+R

    2Tu

    2T + 2R1R2u1u2 + ...

    )Nuevamente, los terminos cruzados desapareceran al aplicar el operador esperanza:

    E ( )2 = 1T 2

    E(R21u

    21 + ....+R

    2Tu

    2T + 2R1R2u1u2 + ...

    )=

    1

    T 2(R21

    2 + .....+R2T2)

    =1

    T 2

    R2t

    2

    =2

    T 2

    R2t

    =2

    T 2

    (1

    (xt

    )Kt

    )2=

    2

    T 2

    (1 2

    (xt

    )Kt +

    (xt

    )2K2t

    )

    =2

    T 2

    T 2( xt)Kt 0

    +(

    xt

    )2 K2t 1

    (xtx)2

    V ar() =

    2

    T 2

    (T +

    (

    xt)2

    (xt x)2)

    = 2(1

    T+

    (

    xt) (

    xt)

    T T (xt x)2)

    V ar() = 2[1

    T+

    x2(xt x)2

    ]13Note que la ultima expresion establece que el estimador de es tambien, al igual que el de ,

    una combinacion lineal de las y.

  • 68 CAPITULO 2. EL MODELO DE REGRESI ON LINEAL SIMPLE

    Covarianza entre y Unicamente nos falta obtener la covarianza entre esti-madores, Cov(, ). Esta, en realidad, exige un proceder muy sencillo. Basta tenerpresentes, de los desarrollos anteriores, las siguientes expresiones:

    1. Ecuacion (2.7): (

    )=

    Ktut

    2. Ecuacion (2.8):

    = 1T

    ut x

    Ktut

    = u x(

    )Asimismo, conviene hacer estos dos sencillos calculos:

    1. Esperanza de la media del termino de error:

    E (u) =1

    T

    E (ut)

    = 0

    2. Esperanza de la media del error multiplicada por ( ):

    E[u(

    )]=

    1

    TE[(

    ut

    )(Ktut

    )]=

    1

    TE[K1u

    21 + . . . KTu

    2T + terminos cruzados

    ]= 0

    Ahora s, desarrollamos la formula de la covarianza...

    Cov(, ) = E[( )( )

    ]= E

    [(u x( )

    )( )

    ]= E

    [( )u

    ]

    0

    x E( )2 var()

    Cov(, ) = x2

    (xt x)2

  • 2.4. PROPIEDADES DE LOS ESTIMADORES 69

    2.4.4. El Teorema de Gauss-MarkovEn las secciones anteriores hemos obtenido result