Econometria I- Ventosa

524  Download (0)

Full text

(1)

D

ANIEL

V

ENTOSA

-S

ANTAUL

ARIA

`

(2)
(3)

I

Econometr´ıa para primerizos

17

1. Introducci´on 21

1.1. Par´abola de Leamer . . . 23

1.2. Fisher tomando el t´e . . . 24

1.3. ¿ Para qu´e hacer econometr´ıa? . . . 31

1.4. Or´ıgenes . . . 32

1.4.1. La trayectoria de los cometas . . . 32

1.4.2. Manchas solares y ciclos venusinos . . . 33

2. El modelo de Regresi´on lineal simple 37 2.1. Pre´ambulo . . . 37

2.2. El concepto de la regresi´on . . . 41

2.2.1. El diagrama de dispersi´on . . . 41

2.3. M´ınimos Cuadrados Ordinarios: MCO . . . 44

2.4. Propiedades de los estimadores . . . 49

2.4.1. Los supuestos del m´etodo . . . 49

2.4.2. Caracter´ısticas Importantes del m´etodo MCO . . . 54

2.4.3. Propiedades de los par´ametros estimados . . . 56

2.4.4. El Teorema de Gauss-Markov . . . 69

2.5. Otros procedimientos de Estimaci´on . . . 72

2.5.1. El m´etodo de momentos (MOM) . . . 72

2.5.2. El M´etodo de M´axima Verosimilitud . . . 74

2.6. El estimador de la varianza . . . 79

2.6.1. Los grados de libertad: breve preludio . . . 79

2.6.2. El estimador insesgado de la varianza en MCO . . . 81

2.6.3. Robustez del estimador de la varianza en MCO . . . 85

2.7. Inferencia estad´ıstica en MCO . . . 86

(4)

2.7.1. Inferencia usando una distribuci´on de t de student . . . . 90

2.7.2. Inferencia asint´otica . . . 93

2.7.3. Addendum: el p-valor . . . . 95

2.8. An´alisis de varianza y bondad de ajuste . . . 96

2.8.1. La medici´on de la bondad del ajuste . . . 96

2.8.2. Intervalos de confianza . . . 102

2.8.3. La prueba de significancia conjunta de la regresi´on . . . 104

2.8.4. An´alisis de Varianza o ANOVA . . . 112

2.9. La Falacia de la regresi´on . . . 113

2.10. Problemas de la Econometr´ıa . . . 114

2.10.1. El problema de la agregaci´on . . . 114

2.10.2. Una intuici´on sobre el ´ultimo supuesto: estacionariedad . . . 116

2.10.3. Algunas observaciones al respecto . . . 118

2.11. Formas funcionales y especificaci´on . . . 118

2.11.1. El Modelo Log-Log . . . 119

2.11.2. El Modelo Log-Lin . . . 121

2.11.3. El Modelo Lin-Log . . . 122

2.11.4. El Modelo Rec´ıproco . . . 123

3. El Modelo de Regresi´on M ´ultiple 127 3.1. La especificaci´on del modelo de regresi´on m´ultiple . . . 127

3.1.1. Reglas del c´alculo matricial y la manipulaci´on de matrices . 130 3.1.2. Optimizaci´on . . . 131

3.1.3. Propiedad de No-Sesgo de los estimadores y Varianza . . . 132

3.2. Teorema de Gauss-Markov . . . 136

3.2.1. Demostraci´on . . . 137

3.2.2. Intuici´on . . . 140

3.3. Estimador Insesgado de la Varianza del Error . . . 141

3.3.1. Una matriz idempotente muy ´util . . . 142

3.3.2. La varianza del error . . . 144

3.4. Bondad del ajuste . . . 146

3.4.1. La R cuadrada . . . 147

3.4.2. Inflaci´on de la R cuadrada y su versi´on ajustada . . . 147

3.4.3. Descomposici´on de la varianza por variable explicativa . . . 154

3.5. Pruebas de Hip´otesis, Conjuntas e Individuales . . . 159

3.5.1. Los estad´ısticos t . . . 159

3.5.2. Pruebas conjuntas . . . 160

(5)

4. La multicolinealidad 173

4.1. Multicolinealidad perfecta . . . 175

4.2. Multicolinealidad imperfecta . . . 179

4.3. Detecci´on de la multicolinealidad . . . 182

4.3.1. An´alisis informal . . . 183

4.3.2. M´etodos m´as formales . . . 183

4.4. An´alisis de Componentes Principales . . . 186

4.5. Regresi´on usando componentes principales . . . 191

5. Variables Binarias y regresi´on por pedazos 195 5.1. Variables dicot´omicas . . . 195

5.1.1. Soluci´on discontinua . . . 195

5.1.2. Regresi´on por pedazos . . . 202

6. Autocorrelaci´on y Heteroscedasticidad 205 6.1. Autocorrelaci´on y Heteroscedasticidad . . . 207

6.2. M´ınimos Cuadrados Generalizados . . . 209

6.2.1. Ejemplos de aplicaci´on de MCG . . . 211

6.3. Consecuencias del rompimiento de supuestos sobre MCO . . . 219

6.3.1. ¿Sesgo bajo autocorrelaci´on o heteroscedasticidad? . . . 219

6.3.2. Varianza bajo autocorrelaci´on o heteroscedasticidad . . . . 220

6.4. Pruebas de Detecci´on . . . 222

6.4.1. Detecci´on de la Heteroscedasticidad . . . 223

6.4.2. Detecci´on de la autocorrelaci´on . . . 226

6.5. Matrices de Varianza-covarianza Robustas . . . 235

7. Ejercicios (i) 245

II

Econometr´ıa para segundones

265

8. S´ıntesis de conocimientos previos 269 9. Especificaci´on y Ortogonalidad 275 9.1. Las variables independientes y la ortogonalidad . . . 275

9.2. El supuesto de ortogonalidad . . . 279

9.3. ¿Qu´e causa problemas de ortogonalidad? . . . 281

9.3.1. Errores de Medici´on en las Variables . . . 281

(6)

9.3.3. Variables relevantes omitidas . . . 301

9.3.4. Inclusi´on de variables irrelevantes. . . 303

9.4. Detecci´on de algunos problemas de ortogonalidad . . . 304

9.4.1. Pruebas de variables omitidas o redundantes . . . 304

9.4.2. Prueba de especificaci´on de Ramsey . . . 307

9.4.3. Heteroscedastidad e incorrecta especificaci´on . . . 311

10. Variables Instrumentales 315 10.1. El estimador de Variables Instrumentales . . . 317

10.2. M´ınimos Cuadrados en 2 Etapas . . . 324

10.3. Problemas con los instrumentos . . . 332

10.3.1. Relevancia de los instrumentos . . . 332

10.3.2. Exogeneidad de los instrumentos . . . 333

10.4. La Prueba de Hausman . . . 338

10.4.1. La prueba de Hausman . . . 339

10.4.2. La prueba de Hausman multivariada . . . 343

10.4.3. Detecci´on de errores de medici´on en variables explicativas . 345 11. Causalidad, exogeneidad y estabilidad 349 11.1. La Causalidad en el sentido de Granger . . . 350

11.1.1. Filosof´ıa detr´as de Causalidad . . . 350

11.1.2. Causalidad en Probabilidad . . . 353

11.1.3. Causalidad en Econometr´ıa . . . 355

11.1.4. La Granger-Causalidad . . . 356

11.2. Exogeneidad . . . 358

11.2.1. Exogeneidad `a la Cowles Commission . . . 358

11.2.2. Exogeneidad `a la Engle, Hendry y Richard . . . 359

11.3. Mecanismo de Correcci´on de Error . . . 370

11.3.1. Estacionariedad y Ergodicidad . . . 371

11.3.2. Regresi´on Espuria . . . 375

11.3.3. Prueba de Ra´ız Unitaria . . . 384

11.3.4. Cointegraci´on . . . 391

11.3.5. Mecanismo de Correcci´on de Error . . . 396

11.3.6. Probando exogeneidad d´ebil . . . 401

11.4. Probando las dem´as exogeneidades . . . 402

11.5. Estabilidad de los par´ametros . . . 403

11.5.1. Prueba quiebre de Chow . . . 403

(7)

11.5.3. Prueba de Hansen . . . 407

12. Especificaciones Din´amicas y Expectativas 411 12.1. Expectativas naives:El modelo de Telara˜na . . . 412

12.1.1. Ecuaci´on homog´enea: . . . 414

12.1.2. Soluci´on particular . . . 415

12.1.3. Combinaci´on lineal de las soluciones . . . 416

12.1.4. Eliminaci´on de las constantes . . . 416

12.1.5. El impacto de los choques . . . 418

12.2. M´as sobre Expectativas naives . . . 419

12.3. Modelos con rezagos distribuidos . . . 421

12.4. Expectativas Adaptativas . . . 423

12.5. Modelo de ajuste de inventarios . . . 426

12.6. Estimaci´on de modelos din´amicos . . . 427

12.7. Parsimonia: metodolog´ıa de General a simple . . . 431

12.8. Expectativas Racionales . . . 434

12.8.1. La hip´otesis de Expectativas Racionales . . . 434

12.8.2. Cr´ıticas a las Expectativas Racionales . . . 436

12.8.3. Probando las Expectativas Racionales . . . 439

12.8.4. La Cr´ıtica de Lucas . . . 440

13. Modelos de ecuaciones simult´aneas 445 13.1. Historia de los modelos macroeconom´etricos . . . 445

13.2. Sinopsis Metodol´ogica . . . 447

13.2.1. Otra vez variables ex´ogenas y end´ogenas . . . 448

13.2.2. Un modelo de oferta y demanda . . . 448

13.3. El problema de la identificaci´on . . . 451

13.3.1. ¿Qu´e es la identificaci´on? . . . 451

13.3.2. M´as sobre la identificaci´on . . . 454

13.4. Incorporando m´as informaci´on . . . 455

13.5. Condiciones de identificaci´on . . . 457

13.5.1. Restricciones de exclusi´on . . . 459

13.5.2. Restricciones homog´eneas lineales . . . 460

13.5.3. Reagrupando las restricciones estructurales . . . 460

13.5.4. M´as restricciones . . . 461

13.5.5. Elucidando la identificaci´on . . . 463

13.5.6. Reglas pr´acticas . . . 465

(8)

13.6. El efecto desplazamiento (“Crowding out”) . . . 470 13.6.1. ¿Qu´e es el Crowding out? . . . 470 13.6.2. Metodolog´ıa y datos . . . 471

14. Ep´ılogo 477

15. Ejercicios (ii) 479

III

Ap´endices

495

A. Tendencia central y dispersi´on 497

B. Operador Esperanza 499

B.1. definici´on . . . 499 B.2. Algunas reglas del operador esperanza . . . 500

C. La distribuci´on normal 501

D. ´Algebra matricial 503

E. Independencia entre Par´ametros y Varianza 505

F. Origen de MCO: Legendre 509

(9)

1.1. Estad´ıstica y Probabilidad . . . 22

1.2. Distribuci´on del reto Coca-Pepsi . . . 26

1.3. Ciclo de Comercio seg´un Jevons (1884) . . . 33

1.4. Ciclo de Negocios seg´un Moore (Moore, 1914) . . . 34

2.1. Series de tiempo del PIB real y deM2de E.E.U.U. . . 38

2.2. Relaci´on lineal entre las coordenadas de un c´ırculo . . . 39

2.3. Ingreso p.c. y esperanza de vida en M´exico, Francia, Jap´on y Nigeria 42 2.4. Ingreso per c´apita y esperanza de vida en 220 pa´ıses . . . 43

2.5. Diagrama de Dispersi´on o bien “Nube de Puntos”. . . 45

2.6. Ilustraci´on de los Supuestos . . . 52

2.7. Diagrama de dispersi´on: normalidad . . . 53

2.8. Distribuci´on Condicional deyt . . . 76

2.9. Distribuci´on bajo la hip´otesis nula y la alternativa . . . 89

2.10. Distribuci´on det de student . . . 95

2.11. Comparaci´on del ajuste entre dos regresiones . . . 97

2.12. An´alisis de la Variaci´on . . . 97

2.13. Distribuci´on de Fisher . . . 107

2.14. PIB per c´apita en M´exico, 1900-2000 . . . 117

2.15. Ingreso per c´apita y esperanza de vida (bis) . . . 124

2.16. Tasa de analfabetismo vs PIB per c´apita (invertido) en Argentina. . . 126

3.1. Diagramas de Venn . . . 156

3.2. Distribuci´on de Fisher . . . 170

4.1. Diagramas de Venn . . . 179

5.1. Efectos de las variables dicot´omicas en la l´ınea de regresi´on . . . . 201

5.2. Ejemplo de Regresi´on por pedazos . . . 203

(10)

6.1. Regla de decisi´on de la Durbin-Watson . . . 228

6.2. Correlograma de unAR(1) . . . 232

6.3. Correlograma de un ruido blancoiid’ . . . 233

6.4. Correlogramas muestrales . . . 234

7.1. Diagrama de dispersi´on . . . 247

7.2. Variableyt . . . 256

9.1. Sesgo en un estimador . . . 280

9.2. Indicadores de Actividad cient´ıfica . . . 282

9.3. Sesgo de una estimaci´on por MCO bajo simultaneidad. . . 299

9.4. Relaci´on entre residuales y valores ajustados . . . 311

9.5. Heteroscedasticidad, autocorrelaci´on y ortogonalidad . . . 313

9.6. No-linealidad mal asumida . . . 314

10.1. El problema de la identificaci´on y su soluci´on. . . 316

11.1. Posibles espacios param´etricos (modelo Telara˜na) . . . 364

11.2. Diagrama de Venn en exogeneidad . . . 368

11.3. Proceso aleatorio . . . 371

11.4. Regresi´on espuria . . . 381

11.5. Regresi´on espuria, especificaci´on correcta . . . 384

11.6. Distribui´on de la Prueba DF . . . 387

11.7. Modo de empleo sugerido de la DF . . . 392

11.8. Variables cointegradas y Espurias . . . 394

11.9. Series cointegradas e independientes . . . 397

11.10.Relaci´on cointegrada . . . 398

11.11.Regresi´on y quiebres . . . 404

11.12.Regresi´on, quiebres y errores . . . 405

12.1. Mercado de Ma´ız, seg´un el modelo de Telara˜na . . . 413

12.2. Funci´on Impulso-Respuesta en el Modelo de Telara˜na. . . 419

13.1. Ecuaciones simult´aneas . . . 451

13.2. Evoluci´on de la inversi´on privada y la inversi´on p´ublica . . . 472

C.1. Ejemplos de Densidad Normal . . . 502

F.1. A.M. Portada del libro de Legendre . . . 510

(11)

F.3. Ap´endice del libro de Legendre (p.73) . . . 512 F.4. Ap´endice del libro de Legendre (p.74) . . . 513 F.5. Ap´endice del libro de Legendre (p.75) . . . 514

(12)
(13)

1.1. Combinatorias del Reto Coca . . . 27

2.1. Relaci´on Ingreso-Esperanza de vida . . . 42

2.2. An´alisis de Varianza (ANOVA) . . . 113

11.1. Prueba DF: valores cr´ıticos de elementos deterministas (1) . . . 391

11.2. Prueba DF: valores cr´ıticos de elementos deterministas (2) . . . 391

11.3. Valores Cr´ıticos de la prueba Engle-Granger . . . 396

11.4. Interpretaci´on de signos en el MCE . . . 401

13.1. C´alculo de la Condici´on de Rango . . . 467

(14)
(15)

Al escribir las m´as de 500 p´aginas de este curso descubr´ı con gran horror la frecuen-cia con la que me equivoco. Algunos de estos errores son tan solo tipogr´aficos; otros m´as son de plano humillantes; los peores son las pifias matem´aticas. Afortunada-mente, mucha gente, primero en el seno del departamento de econom´ıa y finanzas de la Universidad de Guanajuato, y ahora en el CIDE, me ha ayudado a enmen-darlos, especialmente los alumnos. Quiero agradecer—en orden cronol´ogico—con particular ´enfasis a:

Oscar Manjarrez Castro, Miguel Amador, Jos´e Alfonso Garc´ıa Campillo, Lizeth Adriana Garc´ıa Belmonte, Sandra Carolina Segovia Ju´arez, Lupita Garrido Espino-za, Liliana L´opez Renter´ıa, Berenice Mart´ınez Rivera, Gustavo Alfonso Rodr´ıguez Ayala, Guillermo Cisneros Gutierrez, Catalina Mart´ınez Hern´andez, Gustavo Sa-lazar Monjar´as, Omar Gallardo Mart´ınez, Lizet Adriana P´erez Cort´es, Christoph Schulze, Carlos Uriel Rodr´ıguez Ram´ırez Salvador, Esmeralda Marisol Moreno Ya˜nez, Karla Elizabeth Gonz´alez Sainz, Pablo Ortiz Casillas, Juan Pablo de Bot-ton Falc´on, Efra´ın Garc´ıa Gonz´alez, Sandra Thal´ıa Espa˜na G´omez, Luis AnBot-tonio G´omez Lara y Jean-Luc Demonsant.

Para mi desgracia, los errores que a´un quedan son mi entera responsabilidad.

(16)
(17)

Econometr´ıa para primerizos

(18)
(19)

‘HACERECONOMETR´IA ES COMOTRATAR DEENTENDER LASLEYES DE LAELECTRICIDAD USANDO UNRADIO DETRANSISTORES’. G. ORCUTT

‘TODOS LOSMODELOS ESTAN´ MAL, PEROALGUNOS SON MAS´ UTILES´

(20)
(21)

Introducci´on

Existen dificultades al aplicar la estad´ıstica a fen´omenos sociales o empresariales. Realizar un experimento para despu´es analizar estad´ısticamente los resultados exi-ge un elemento fundamental, que es el dise˜no de dicho experimento. Pero en eco-nom´ıa,1 la experimentaci´on no s´olo resultar´ıa costosa, sino que en muchos casos ser´ıa poco ´etica o sencillamente imposible. Es por eso que la estad´ıstica debe ser utilizada con sumo cuidado cuando los datos no provienen de un experimento con-trolado. El hecho es que en muchas ocasiones tendremos que conformarnos con registros p´ublicos o privados de poca calidad estad´ıstica. Es importante entonces conocer t´ecnicas que permitan aminorar un poco las consecuencias de la naturale-za no-experimental de nuestro ´ambito laboral. Una rama muy versada en ello es la

“ECONOMETR´IA”. Esta ´ultima constituye el brazo emp´ırico de la econom´ıa.

El t´ermino “ECONOMETR´IA” fue creado originalmente para designar; (1) el

desa-rrollo de teor´ıa econ´omica pura con base en el herramental matem´atico y; (2) el desarrollo de t´ecnicas de estimaci´on e inferencia emp´ırica. Lo anterior qued´o plas-mado en el acta constitutiva de la sociedad econom´etrica (Econometric Society), fundada el 29 de diciembre de 1930 cuyo objetivo primario era:

“EL AVANCE DE LA TEOR´IA ECONOMICA EN LO RELATIVO A LA´ ESTAD´ISTICA Y LAS MATEMATICAS´ .” (FRISCH, 1933)

Actualmente, la ciencia econom´etrica incluye ´unicamente a la segunda ´area; la que corresponde a la estimaci´on y a la inferencia estad´ıstica con datos econ´omicos. En este punto resulta muy conveniente resaltar el concepto de inferencia estad´ıstica;2

1As´ı como en astronom´ıa, en finanzas, en ecolog´ıa,. . .

2Secci´on inspirada de las notas del Curso “Estad´ıstica Matem´atica I” impartido por el Dr. Miguel

Nakamura.

(22)

de igual forma, resulta muy ´util diferenciar con claridad la estad´ıstica y la probabili-dad. La asociaci´on entre ambas es, virtualmente generalizada, dado el gran n´umero de cursos que las mezclan. Resulta importante tener claras las diferencias conside-rando que la econometr´ıa se traslapa en numerosas ocasiones con la inferencia es-tad´ıstica. Observe el diagrama (1.1). En ´el se pretende establecer la diferencia entre la teor´ıa de la Probabilidad [encargada de cuantificar posibilidades] y la estad´ıstica [que se ocupa de estudiar fen´omenos aleatorios observados e inducir propiedades probabil´ısticas]. La probabilidad es de car´acter deductivo (va de lo general a lo par-ticular) mientras que la estad´ıstica es inductiva. En ese sentido, es posible considerar al estad´ıstico (o en nuestro caso, econometrista) como un detective que, con base en evidencia (es decir, observaciones), puede descubrir al culpable (infiere cu´al es el modelo probabil´ıstico adecuado). Cuando se parte del estudio te´orico del fen´omeno estad´ıstico y se construyen resultados que posteriormente habr´ıan de cotejarse con la observaci´on de dicho fen´omeno (es nuestro diagrama, la flecha que va de izquier-da a derecha), b´asicamente se est´a llevando a cabo un ejercicio deductivo, mientras que, cuando se parte de la observaci´on del fen´omeno y se intenta llegar al modelo te´orico (la flecha que va de derecha a izquierda), el ejercicio es de naturaleza induc-tiva. Ambos procedimientos conllevan una parte de incertidumbre, s´olo que ´esta es diferente seg´un cu´al es. El procedimiento deductivo (en lo que nos ocupa) conlle-va impl´ıcitamente una incertidumbre estoc´astica mientras que el inductivo conlleconlle-va una incertidumbre que podr´ıamos denotar como inductiva. Ambas categor´ıas ser´an mejor comprendidas a lo largo de este curso.

Fenómeno aleatorio Fenómeno aleatorioObservación del

Teoría de la probabilidad

Inferencia Estadística

Deducción

Inducción

Figura 1.1: Estad´ıstica y Probabilidad

Cuando se hace teor´ıa de probabilidad, no es necesario contar con datos. Se puede, por ejemplo, imaginar que existe un dado justo (que no est´a cargado) y deducir que

(23)

cada faz del dado tiene una probabilidad de ocurrencia de 16. En ning´un momento el dado existi´o. El camino del estad´ıstico es el opuesto; partiendo de observaciones debe llegar al modelo de probabilidad “adecuado” (por ejemplo, inferir con base en las realizaciones de un dado si ´este est´a o no cargado). Note que hacer el camino a la inversa de la teor´ıa de probabilidad conlleva una incertidumbre que la primera no tiene. Para lo que a nosotros nos interesa, conviene quedarnos con esta definici´on de la inferencia:

INFERENCIA ESTAD´ISTICA: INDUCCION BASADA EN OBSERVACIONES´

1.1.

Par´abola de Leamer

En un art´ıculo famoso,3 Leamer hace la comparaci´on de la ciencia econ´omica con

otras ciencias llamadas “duras” (como la f´ısica). Acorde a la par´abola con la que inicia dicho art´ıculo, la ciencia cl´asica puede representarse por un granjero que tie-ne inter´es en confirmar la efectividad de cierto tipo de abono en el rendimiento de su cosecha. Para tal efecto, siembra su campo y a˜nade en algunos surcos seleccionados al azar el mentado abono (¿ para qu´e creen que sirve la selecci´on aleatoria?); hecho esto, espera la maduraci´on de la cosecha y mide meticulosamente el rendimiento surco por surco. Obtenidos los datos, procede a elaborar una prueba estad´ıstica de diferencia de medias y confirma que el abono efectivamente hace crecer m´as a las plantas. Escribe sus resultados y los presenta en el CONGRESO ANUAL DEGRAN

-JEROSdonde la comunidad de cultivadores asimila sin controversia sus resultados.

El economista es otro tipo de granjero, en otras latitudes. El tambi´en est´a interesa-do en saber qu´e factores afectan el rendimiento de sus tierras. Lo malo es que no dispone de las mismas herramientas que el granjero anterior; de hecho, s´olo cuenta con un ´arbol perdido en la mitad de su campo en el cual se paran a descansar unos pajaritos; mientras descansan, las aves defecan, vertiendo as´ı guano en las cercan´ıas del ´arbol. El guano es considerado un abono natural. Nuestro granjero procede en-tonces a sembrar, como siempre lo ha hecho y, al momento de recoger su cosecha, mide el rendimiento de ´esta distinguiendo arbitrariamente entre las zonas aleda˜nas al ´arbol y las dem´as. Calcula medias, hace una prueba estad´ıstica y constata dife-rencias en los rendimientos; escribe sus resultados y los presenta en otro congreso,

el CONGRESO BI-ANUAL DE GRANJEROS ECONOMOS´ . La diferencia es que

al hacerlo, el auditorio se alborota y uno de los miembros del p´ublico de plano se 3Leamer (1983) Let’ s take the con out of Econometrics, American Economic Review, 73 (1), pp.

(24)

levanta y manifiesta su inconformidad. Su argumento es que la diferencia de ren-dimientos no est´a causado por el guano que arrojan las aves, sino por la sombra que proyecta el ´arbol; ´el mismo tiene un arbusto en su jard´ın y sus c´alculos as´ı lo indican. A ra´ız del comentario se gesta una agria discusi´on que s´olo es zanjada por otro granjero, muy l´ucido que se˜nala que no es posible discriminar entre las dos hip´otesis de trabajo: hay un problema de identificaci´on.

1.2.

Fisher tomando el t´e

Cuenta la leyenda que Fisher (que era ingl´es) se encontraba un d´ıa tomando el t´e a las cinco de la tarde con sus colegas de trabajo, todos ellos sendos investigadores en ciencias duras, tales como la qu´ımica. A la mitad de la conversaci´on, una de las damas presentes afirm´o que el t´e no sab´ıa igual seg´un como lo prepararan. Verter el az´ucar antes que el t´e le daba un sabor diferente al que se obten´ıa invirtiendo el orden. Todos se rieron e inclusive trataron de explicarle a la dama que la reac-ci´on qu´ımica en cualquier caso siempre era la misma, pero ´esta insist´ıa en tener la raz´on. Fisher, para zanjar la discusi´on propuso llevar a cabo un peque˜no experimen-to. Prepar´o diez tasas de t´e. El orden de los ingredientes fue seleccionado al azar y s´olo conocido por ´el. Procedi´o posteriormente a d´arselos a probar a la dama quien se˜nal´o en cada probada de que manera se hab´ıa preparado esa tasa. La dama supo reconocer correctamente dicho orden en todos los casos. ¿Cu´al es la probabilidad de que su ´exito sea debido al azar? 1210 ≈ 0.0009. Ser´ıa demasiado inveros´ımil creer que diez aciertos fueron s´olo fruto del azar, por lo que el experimento cons-tituye evidencia estad´ıstica de que el sabor del t´e difiere seg´un el orden con que se mezclen los ingredientes.

Ejemplo 1 El reto Pepsi. No hay que irse con la finta; hacer pruebas estad´ısticas,

que si bien est´an basadas en una idea simple, requiere de una mente despejada. Ha-gamos un ejemplo pr´actico, muy al estilo de Fisher. Hace unos a˜nos, la compa˜nia de bebidas Pepsi-Cola lanz´o una agresiva campa˜na de publicidad en la que ofrec´ıa a la gente dos vasos; un vaso conten´ıa Coca Cola, mientras que el otro Pepsi Cola. A los encuestados se les ped´ıa se˜nalar el que m´as les gustaba. La persona ten´ıa que decidir. Tiempo despu´es, anunciaron que m´as gente hab´ıa preferido la Pepsi que la Coca. ¿Esa conclusi´on es v´alida? S´ı lo piensan bien, no. Probar un s´olo vaso y luego escoger la marca del refresco de cola s´olo tiene dos conclusiones posi-bles...Coca o Pepsi. Imaginen a alguien que hace la prueba y descubre que no tiene idea de lo que acaba de ingerir. ¿Qu´e har´a? dir´a un nombre al azar. Nuevamente,

(25)

si lo piensan bien, tiene una chance entre dos de atinarle de chiripa. ¿Qu´e pasar´ıa si, en vez de probar un vaso servido al azar, probara SIETEvasos servidos al azar? ¿Cu´al ser´ıa la probabilidad de atinarle, por puro azar a la marca del refresco que est´a servido en cada vaso? Pues no es dif´ıcil calcularlo,

 1 2

7

= 0.0078125

Pero nuevamente, no se vayan con la finta de este sencillo c´alculo e infieran r´apida-mente que alguien que no le atina a ni un solo vaso tiene el paladar muy torpe. La probabilidad de no atinarle, tambi´en por puro azar, a la bebida en los siete vasos

es: 

1 2

7

= 0.0078125

De hecho, lo m´as probable es que alguien que no reconoce los sabores sea capaz de atinarle a unos cuantos vasos, por mero azar. Lo que resulta dif´ıcil de creer es que le atine a todos de chiripa (o la inversa, que no le atine a ninguno). ¿Cu´ales son las probabilidades de atinarle a un vaso? Puede que le atine al primero, pero tambi´en es posible que le atine al segundo, o bien s´olo al tercero. Existen, si lo ven 7 casos en los que le atinar´ıa a alguno de los siete vasos.

S´olo hay un caso en el que le atinar´ıa a todos y tambi´en, s´olo hay un caso en el que no le atinar´ıa a ninguno. ¿Cu´antas posibilidades hay de que le atine a dos vasos cualesquiera? Ya no es tan f´acil, puede atinarle al primero y al segundo, al primero y al tercero, al segundo y al tercero,... Ya son muchos m´as. Afortunadamen-te es f´acil saber cuantas combinaciones hay. SimplemenAfortunadamen-te necesitamos calcular la combinatoria de 7 tomados 2, es decir:

7 2

Hagamos todos los casos posibles (ver tabla 1.1).

Hay, de hecho, 128 casos posibles. Ahora s´ı podemos empezar a tomar

decisio-nes respecto al paladar de la gente. Lo primero es corroborar el primer c´alculo que hab´ıamos hecho. Dijimos que la probabilidad de atinarle a todos los vasos de chiripa—o no atinarle a ninguno—era0.0078125. Eso es lo que se obtiene tambi´en

al hacer el siguiente c´alculo:

1

(26)

0 1 2 3 4 5 6 7 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35

Número de éxitos (cuantas veces le atinó a la bebida del vaso)

Probabilidad

Figura 1.2: Distribuci´on del reto Coca-Pepsi. Note como el ´area total es igual a uno.

Con base en lo anterior es f´acil ver que (i) la probabilidad de atinarle exclusiva-mente a un vaso es:0.0546; (ii) atinarle a dos vasos: 0.1640; (ii) a tres: 0.2734; (iv)

a cuatro:0.2734; y luego se invierten. ¿Qu´e caso nos parece ser probatorio de que

el individuo tiene un fino paladar? Si no le atina a ninguno, o bien le atina a todos, parece inveros´ımil que ello se deba al azar. Si adoptamos una filosof´ıa frecuentista, ver´ıamos que son siete casos de cada mil. As´ı pues, podemos tomar la decisi´on, en caso de encontrarnos con alguien as´ı, de decidir que eso no pudo deberse al azar y que esa persona realmente sabe distinguir la coca de la pepsi. El que falle una, o bien que las hierre todas menos una, nuestros c´alculos muestran que se trata de una probabilidad de 0.05, es decir una entre veinte. Eso no resulta tan inveros´ımil, as´ı es que, en caso de ocurrir, se lo atribuiremos al azar.

Ejercicio 1 Con objeto de hacer m´as elocuente la presentaci´on del m´etodo de

re-gresi´on, intentaremos hacer un ejemplo usando unos cuantos datos extra´ıdos de una muestra sumamente informal. La informaci´on, de hecho, ser´a provista por ustedes y, eventualmente, por sus familiares y amigos. El inter´es de este ejemplo radica en que resalta algunos de los elementos m´as importantes en todo estudio, sea ´este eco-nom´etrico o no. En realidad, lo m´as fundamental en un estudio es establecer con claridad la pregunta a la que se le desea dar respuesta. En este caso, formularemos

(27)

Atinarle a: Combinatoria Casos posibles 0  7 0  1 1  7 1  7 2  7 2  21 3  7 3  35 4  7 4  35 5  7 5  21 6  7 6  7 7  7 7  1 Total 128

Cuadro 1.1: Combinatorias del Reto Coca

una sumamente sencilla y, esperemos, algo controvertida:

¿QUIENES´ SONM ´AS IMPUNTUALES, LOS HOMBRES O LASMUJERES?

Se trata de una pregunta en extremo trivial; al margen de si ´esta le parece interesan-te o no, destaca el hecho de que el cuestionamiento es preciso. Para dar respuesta al mismo, existen varias metodolog´ıas posibles. En este caso usaremos una que nos permita ilustrar el m´etodo de estimaci´on que estudiaremos a lo largo del manual:

(28)

M´ınimos Cuadrados Ordinarios. La idea es determinar si el g´enero tiene inciden-cia alguna en las costumbres de puntualidad—de los individuos que conforman la muestra (ya si la muestra fuera representativa de cierta poblaci´on, es otra historia). No obstante la unicidad de nuestra pregunta (genero-puntualidad), existen muchos otros factores que pueden explicar por qu´e la gente es impuntual/puntual: acceso a un medio de transporte eficaz, vivienda cercana al centro de estudio/trabajo, si-tuaci´on familiar, etc. Si diera la casualidad que todos los hombres de la muestra fueran solteros mientras que todas las mujeres estuvieran casadas con 7 hijos cada una, muy posiblemente encontrar´ıamos evidencia de que las mujeres son m´as im-puntuales. Pero la conclusi´on ser´ıa err´onea, pues ser´ıa la situaci´on de maternidad la que provoca la impuntualidad. Si resultara que todos los hombres viven a 200 kil´ometros de su lugar trabajo y no dispusieran de un medio de transporte r´apido mientras que las mujeres viven al lado del centro de trabajo y encima de todo pue-den llegar a ´este usando, por ejemplo, el metro, entonces encontrar´ıamos que son los hombres los m´as impuntuales. Ello tambi´en estar´ıa mal conclu´ıdo, puesto que las diferencias en puntualidad ser´ıan en realidad debidas a otros factores.

No tomar en cuenta otros factores adem´as del que nos interesa (g´enero) para estu-diar la puntualidad tendr´ıa la grave consecuencia de sesgar la inferencia estad´ısti-ca. Por ello es importante tomar en cuenta tales factores, es decir, controlar los resultados por tales factores. Si hacemos correctamente el control de otras carac-ter´ısticas de los individuos, nuestro ejercicio estad´ıstico tiene muchas m´as posibi-lidades de arrojar resultados v´alidos. As´ı las cosas, se sugiere que se levante la siguiente encuesta entre sus conocidos y familiares:

1. ¿Qu´e distancia tiene que recorrer para llegar a su centro de trabajo/estudio? Estime la distancia en kil´ometros (podr´ıa usar “Google Maps” para ello). 2. ¿Se desplaza en autom´ovil, usa el transporte p´ublico, camina, “hace ronda”

para llegar al centro de trabajo/estudio? 3. ¿Qu´e edad tiene?

4. ¿Tiene hijos?

5. Por la ma˜nana, ¿debe compartir el ba˜no con m´as de una persona?

6. En promedio, ¿qu´e tan puntual es? Responda se˜nalando cuantos minutos sue-le lsue-legar tarde/temprano.

(29)

En principio, deber´ıa juntar, como m´ınimo, unas 30 respuestas a semejante cues-tionario para que el ejercicio tenga alguna oportunidad de arrojar resultados rele-vantes; podr´ıa usted usar un cuestionario en l´ınea como este:

https://docs.google.com/spreadsheet/viewform?formkey=dG95X212S2taNUFyX1l6MWV2TWFfR0E6MQ

Las respuestas de algunas personas aparecen ya en un formato de cuadro en la siguiente liga:

https://docs.google.com/spreadsheet/ccc?key=0AjZR92LJVODOdG95X212S2taNUFyX1l6MWV2TWFfR0E#gid=0

Recuerde que la pregunta a la que daremos respuesta es: ¿Qui´en es m´as impuntual? ¿la mujer o el hombre?

Estimaremos por MCO la siguiente relaci´on lineal:

yi = α + β1x1i+ β2x2i+ . . . + β10x10i+ ui

donde,

1. yies la variable que mide la impuntualidad del i-´esimo individuo,

2. α, βi, para i = 1, 2, . . . , 10 son los par´ametros que miden la relaci´on lineal

entre impuntualidad y cada una de las variables (α es s´olo la ordenada en el

origen de la recta),

3. x1ies la edad del i-´esimo individuo,

4. x2i es la distancia entre el hogar y el trabajo/centro de estudio del i-´esimo

individuo,

5. x3ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo tiene auto, 0 si no,

6. x4ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo usa transporte p´ublico, 0 si no,

7. x5ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo

se desplaza en taxi, 0 si no,

8. x6ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo “hace ronda”, 0 si no,

9. x7ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo comparte ba˜no por las ma˜nanas, 0 si no,

(30)

10. x8ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo tiene hijos, 0 si no,

11. x9ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo individuo trabaja, 0 si estudia,

12. x10ies una variable que s´olo puede valer 1 ´o 0; valdr´a 1 si el i-´esimo indivi-duo es mujer, 0 si es hombre,

13. uies un t´ermino de error. No podemos esperar que estos factores antes enu-merados puedan explicar completamente la impuntualidad; todo aquello que no podamos explicar se ir´a a este t´ermino de error. La idea es que las varia-bles que s´ı inclu´ımos sean capaces de explicar la mayor parte del comporta-miento de la gente, que lo poco que no pudimos explicar sea “poco” y por ende inocuo.

Note que no inclu´ımos una variable para la posibilidad de que el individuo camine. La raz´on de ello se estudiar´a en en cap´ıtulo destinado a la “multicolinealidad”; por el momento, simplemente ignore la cuesti´on. Los resultados no los podemos adelantar, puesto que es un ejercicio que depende de datos que a´un no conocemos. Para llevarlo a cabo la estimaci´on de la recta usaremos el m´odulo de regresi´on del programa Excel 2007. Vea en el ap´endice G, en la p´agina 515 de este manual para saber como hacer funcionar dicho m´odulo. En principio, s´olo tiene que sa-ber quey es la variable dependiente mientras que todas las dem´as, son variables

independientes/explicativas. MCO le proporcionar´a estimaciones num´ericas de los par´ametrosα y βi, parai = 1, 2, . . . , 10. Las f´ormulas para obtener tales

estimado-res ser´an objeto de escrupuloso estudio m´as adelante; de momento no se preocupe por ello tampoco.

Asumamos que ya logr´o estimar la recta de regresi´on por MCO. ¿C´omo debe in-terpretar los resultados y as´ı, eventualmente, dar respuesta a la pregunta orginal? Pues ver´a que es una mera cuesti´on de sentido com´un. Con un par de ejemplos, quedar´a esto muy claro:

Nos vamos a concentrar en el par´ametro estimado que acompa˜na a la variable G´enero,x10i. Supongamos que dicho estimador es igual a−8; supongamos igual-mente que el estimador deα es igual a 5. Note como ello implicar´ıa que el i-´esimo

individuo, si es mujer, deber´ıa ser, seg´un nuestro modelo, ocho minutos m´as pun-tual. Para ver lo anterior, olvid´emonos por un momento de todos los dem´as factores (igualemos a cero todas las dem´as variables). La ecuaci´on se reducir´ıa a

(31)

yi = 5− 8x10i,

si nuestro individuo es mujer. Siendo quex10i = 1 en ese caso, obtendr´ıamos que

semejante individuo suele llegar, seg´un nuestro modelo, 3 minutos antes de las ci-tas. Si el individuo es hombre, entonces llegar´a 5 minutos tarde en promedio, seg´un nuestro modelo, no lo olvide. Ahora bien, el valor del par´ametro estimado es de suma importancia para la interpretaci´on de los resultados, econ´omica por lo ge-neral, pero no podemos dejar de lado la interpretaci´on estad´ıstica. El estimador de β10 es una variable aleatoria y, por lo mismo, est´a sujeta a cierta incertidum-bre/variabilidad. Podr´ıa ser estad´ısticamente indistinguible de cero. Si as´ı fuera, nuestra conclusi´on ser´ıa que el g´enero no influye en la puntualidad de los indivi-duos. Afortunadamente, si el par´ametro realmente es cero, entonces una normali-zaci´on del mismo tendr´ıa una distribuci´on normal est´andar. Ello nos permite hacer inferencia estad´ıstica; en otras palabras, podemos hacer una prueba de significan-cia estad´ıstica. Notar´a que el resultado ofrecido por el programa arroja en una columna un estad´ıstico denominado “estad´ısticot”. La hip´otesis nula de dicho

es-tad´ıstico es que el par´ametro es igual a cero. No podremos rechazar dicha hip´otesis si el estad´ıstico t est´a entre−1.96 y 1.96.4 Con base en esta prueba, llegue a una

conclusi´on respecto a la relaci´on entre el g´enero y la impuntualidad.

1.3.

¿ Para qu´e hacer econometr´ıa?

En ´ultima instancia, el objetivo de la ciencia en general consiste en el desarrollo de instrumentos (modelos) que permitan realizar predicciones confiables de fen´ome-nos futuros. Siguiendo una filosof´ıa instrumentalista no se considera que el mo-delo sea verdadero o que la teor´ıa represente la verdad. Se considera m´as bien que los elementos y entidades que aparecen en las teor´ıas son ficciones intelectuales va-liosas (Poirier). A este respecto, cabe mencionar la siguiente “an´ecdota” (Pindyck):

LAS PERSONAS QUE PRETENDAN PREDECIR EL FUTURO SERAN

CONSIDERADAS ALBOROTADORAS BAJO LA SUBDIVISION´ 3, SECCION´ 901DEL CODIGO COMUNAL´ , Y SE HARAN ACREEDORAS A UNA MULTA DE´ 250

DOLARES Y´ /O 6MESES DE PRISION´ .

No obstante los riesgos en los que aparentemente incurriremos, nosotros nos dedi-caremos a utilizar el herramental estad´ıstico t´ıpico de los economistas para realizar

(32)

predicciones. Antes de iniciar concretamente con el curso, es interesante comentar un poco cu´ales son los or´ıgenes de esta disciplina.

1.4.

Or´ıgenes

La econometr´ıa fue considerada en un principio como una s´ıntesis creativa de teor´ıa y evidencia, con la cual casi todo pod´ıa lograrse: descubrir nuevas leyes econ´omi-cas, desarrollo de las existentes, medici´on y confirmaci´on de estas,....

Jevons, uno de los primeros economistas abocados al estudio sistem´atico de la dis-ciplina, afirm´o:

NO DUDO EN AFIRMAR TAMBIEN QUE LA´ ECONOM´IAPOL´ITICA SE

CONVERTIR´IA GRADUALMENTE EN UNA CIENCIA EXACTA, SI LA

ESTAD´ISTICA COMERCIAL FUERA MAS COMPLETA Y PRECISA DE LO QUE´

ES ACTUALMENTE. DE ESTA FORMA, LAS FORMULACIONES PODR´IAN SER

RESPALDADAS CON GRAN FUERZA POR LOS DATOS ECONOMICOS´ ,

JEVONS(1871)

1.4.1.

La trayectoria de los cometas

Si bien el uso de la estad´ıstica en econom´ıa no comenz´o a generalizarse hasta finales del sigloXIX, vale la pena reparar en los or´ıgenes del m´etodo que posteriormente

ser´ıa utilizado en infinidad de disciplinas cient´ıficas, entre ellas, repetimos, la eco-nom´ıa. Pues su origen es franc´es, si bien hay una ligera disputa con los alemanes en lo que concierne a la paternidad. El m´etodo al que nos referimos, del que ha-blaremos las pr´oximas 200 p´aginas, es nada menos que el famoso M ´ETODO DE

M´INIMOS CUADRADOS ORDINARIOS, M CO por sus siglas en espa˜nol o bien

OLS (Ordinary Least Squares) por sus siglas en ingl´es. El inventor de esta t´ecnica

es el Franc´es Adrien Marie LeGendre. Los detalles de dicha t´ecnica aparecen en el ap´endice de su obra “NOUVELLES M ´ETHODES POUR LA D ´ETERMINATION DESCOMETES` .5Como bien lo indica el t´ıtulo,M CO fue empleado la primera vez

para ajustar las trayectorias de los cometas. Es un detalle curioso que vale la pena conocer.

(33)

1.4.2.

Manchas solares y ciclos venusinos

Entre los economistas Jevons y Moore, se gest´o un “programa” econom´etrico pione-ro para explicar los ciclos econ´omicos, aunque su impacto en la comunidad cient´ıfi-ca exigi´o bastante tiempo para materializarse. La teor´ıa de las manchas solares de Jevons (≈ 1870), por ejemplo, constituy´o uno de los primeros intentos serios por

cuantificar y aportar evidencia emp´ırica referida a una teor´ıa concreta. La idea fun-damental de ´esta es la siguiente: La actividad solar est´a regida por un ciclo que dura 11.1 a˜nos. Justamente en cada pico, dicha actividad se incrementa substancialmen-te. Jevons cre´ıa que tales picos ten´ıan efectos sobre el clima de la tierra y, por ende, sobre las cosechas y sus rendimientos. Estos efectos repercutir´ıan en los precios de los productos agr´ıcolas y posteriormente en los dem´as precios [Jevons(1875)]. La evidencia era escasa y el propio Jevons sab´ıa que—a´un siendo cierte su hip´otesis— otros factores sociales, econ´omicos y pol´ıticos pod´ıan perturbar igualmente el ciclo.

Figura 1.3: Ciclo de Comercio seg´un Jevons (1884)

La evidencia desgraciadamente nunca se materializ´o y los esfuerzos de Jevons s´olo le valieron el rechazo de los colegas. No obstante, el intento marc´o una pauta: el

uso de la estad´ıstica para identificar fen´omenos econ´omicos y sociales.6

Jevons eventualmente abandon´o sus “pr´acticas econom´etricas”, pero Moore las re-tom´o casi 40 a˜nos despu´es. Desgraciadamente Moore lo hizo mediante una hip´ote-sis a´un m´as descabellada para explicar los ciclos de negocios. Moore propuso es-tudiar la ´orbita de Venus y su posicionamiento con respecto a la Luna y al Sol. 6Galton y otros autores contempor´aneos ya hab´ıan hechos sus pininos, pero ninguno de ellos era

(34)

Utiliz´o t´ecnicas mucho m´as sofisticadas como el an´alisis arm´onico (frecuencias) sobre datos de pluviometr´ıa del Valle de Ohio (1839-1910); calcul´o periodogramas con los que “mostr´o” que hab´ıa ciclos que sobresal´ıan del ruido blanco; entre ellos destacaba uno de ocho a˜nos y otro m´as de treinta y tres a˜nos. Posteriormente ela-bor´o correlaciones de la pluviometr´ıa de Illinois con la cosecha de grano del mismo estado creyendo mostrar as´ı que la lluvia y la cosecha estaban relacionadas causal-mente (con un rezago de 2 a˜nos).

Figura 1.4: Ciclo de Negocios seg´un Moore (Moore, 1914)

Posteriormente, Moore relacion´o la producci´on de grano con su precio y obtuvo— emp´ıricamente—una demanda de grano con...¡pendiente positiva! Lo anterior fue fruto, entre otras cosas, de un an´alisis de regresi´on con tres variables (considerando la ausencia de computadoras, el m´erito no es poco). Aquello no fue una debacle. Los resultados aparecieron en un libro (1914) y fueron refinados en otro que se public´o en 1923. En otro libro, Moore prob´o una hip´otesis muy desafortunada; su-giri´o que el origen de los ciclos fuera la ´orbita de Venus; dicho planeta se coloca cada ocho a˜nos en una posici´on tal que ´este queda alineado con el Sol y la Tie-rra. Las repercusiones de estas afirmaciones no tuvieron demasiado eco sobre la comunidad cient´ıfica.7

El desarrollo de la econometr´ıa persisti´o. ´Esta se consolid´o considerablemente con la fundaci´on de la Sociedad Econom´etrica y se defini´o con m´as precisi´on con los tra-bajos de Timbergen en los a˜nos treinta. La Comisi´on Cowles aport´o grandes avances 7No obstante, Moore tuvo varios disc´ıpulos, menos destacados quiz´a individualmente, pero que

(35)

ya en las d´ecadas de los cuarenta y cincuenta. Lo ocurrido posteriormente, si bien es de gran trascendencia, es demasiado polifac´etico para resumirlo en unos pocos p´arrafos. La econometr´ıa cl´asica sufri´o un gran descr´edito en los setenta debido a sus limitaciones predictivas y explicativas ante un escenario de fuerte crisis. La incorporaci´on y asimilaci´on de t´ecnicas de series de tiempo le permitieron salvar muchos de los escollos se˜nalados. Adicionalmente, el avance inform´atico y el acce-so a bases de datos cada vez m´as grandes y completas permiti´o el desarrollo de lo que hoy se conoce como microeconometr´ıa.8

8Ver, por ejemplo, la breve rese˜na que al respecto hace Ventosa-Santaul`aria(2006) o, mejor a´un,

(36)
(37)

El modelo de Regresi´on lineal simple

2.1.

Pre´ambulo

La herramienta de an´alisis emp´ırico m´as com´unmente utilizada (y probablemente la m´as importante) en econom´ıa lleva por nombre M´ınimos Cuadrados Ordinarios (an´alisis de regresi´on, MCO u OLS, por sus siglas en ingl´es). Al ser empleada, se asume que la ecuaci´on a estimar es lineal en todos sus par´ametros. Antes de entrar en m´as detalles, cabe hacerse una serie de preguntas relevantes: ¿Para qu´e queremos estimar una ecuaci´on? ¿De qu´e ecuaci´on estamos hablando? ¿C´omo sabemos que los c´alculos significan algo? A esas preguntas iremos respondiendo poco a poco, pero importa m´as asimilar correctamente desde un principio el inter´es de esta mate-ria. Mediante el an´alisis de regresi´on lineal podremos establecer emp´ıricamente una relaci´on (no necesariamente causal) entre dos o m´as variables; por ejemplo entre in-greso y consumo; y podremos caracterizarla y estudiar algunas de sus propiedades. Dichas relaciones nos son sugeridas por la teor´ıa econ´omica. La que utilizamos de ejemplo es subyacente a las ideas Keynesianas. Retom´emosla durante un momento: b´asicamente lo que sabemos acorde a dicha teor´ıa es que el consumo es una funci´on del ingreso, es decir:

C = f (y)

Por desgracia, a partir de este punto, las cosas se vuelven m´as complicadas. Re-sulta obvio que existen otras variables que tambi´en explican el comportamiento del consumo; entre ellas destacan los activos financieros, las preferencias del consumi-dor... En general, todo el mundo coincide al decir que la m´as importante de todas ellas es el ingreso (disponible), o en todo caso admite que algunas de las otras son

(38)

muy dif´ıciles de obtener (como las referidas a las preferencias). En ´ultima instan-cia, resulta muy conveniente (y altamente recomendable) fundamentar el estudio en teor´ıa econ´omica que nos proporcione pistas respecto a las relaciones entre va-riables as´ı como al sentido de causalidad. Consideremos brevemente las vava-riables que nos interesan. No s´olo existe una teor´ıa que nos se˜nala la relaci´on entre ellas; emp´ıricamente dicha relaci´on se antoja obvia, cuando menos estad´ısticamente.

1910 1920 1930 1940 1950 1960 1970 1980 2 4 6 8 4.5 5 5.5 6 6.5 7 7.5 2 4 6 8

PIB real (EEUU)

M

2

(EEUU)

PIB real (EEUU) M2 (EEUU)

Figura 2.1: Series de tiempo del PIB real y del Agregado MonetarioM2de E.E.U.U.

y Diagrama de Dispersi´on. Fuente: Base de datos hist´orica de Nelson y Plosser (1982).

Pero bueno, aqu´ı nos estamos adelantando un poco. Hace un siglo le hubi´eramos hecho diferente. Propuesto a finales del siglo antepasado, el coeficiente de correla-ci´on ha probado ser un instrumento simple, pero a la vez poderoso. El coeficiente de correlaci´on es una cantidad que permite medir el grado de asociaci´on entre 2 variables aleatorias.

Definici´on 1 El coeficiente de correlaci´on entre dos variables aleatoria es:

ρx,y = cov (x, y)

[V ar(x)]1/2[V ar(y)]1/2

(39)

Cov(x, y) = E [(x− µx)(y− µy)] V ar(x) = E [(x− µx)2]

El coeficiente de correlaci´on queda acotado entre−1 y 1.

−1 ≤ ρx,y ≤ 1

El coeficiente de correlaci´on es una medida de intensidad de relaci´on lineal entre dos variables. Tomemos como ejemplo la relaci´on entre A˜nos de Estudio y Salario. Uno esperar´ıa que, conforme m´as a˜nos de estudio tenga un individuo, m´as alto sea su salario. Digamos que contamos con esa base de datos. Con base en la f´ormula anterior podemos calcular la correlaci´on entre ambas variables. ¿Qu´e opinar´ıan si saliera un coeficiente de correlaci´on de0.94?, ¿y si saliera 0.02?, peor a´un ¿-0.7? El

coeficiente de correlaci´on es un instrumento eficaz para indagar r´apidamente la in-tensidad de las relaciones entre variables. Tiene, como todo instrumento, bondades y defectos. Entre los defectos m´as notorios est´a su circunscripci´on a la linealidad:

Variable x Variable y

Figura 2.2: Relaci´on lineal entre las coordenadas de un c´ırculo: Nula

El coeficiente de correlaci´on lineal ser´ıa incapaz de darnos la m´as m´ınima pista de la relaci´on entre las coordenadas x y y que obviamente es perfecta. Es importante

(40)

¿Por qu´e el coeficiente de correlaci´on est´a acotado entre −1 y 1? En realidad es f´acil demostrarlo. Antes de continuar, haremos algunas aclaraciones.E(x) = µx,

E(x− µx)2 = var(x) = σ2

x,E(y) = µy yE(y− µy)2 = var(y) = σy2. Definamos

ahora: z def= p(x− µx) V ar(x) − (y− µy) p V ar(y), = (x− µx) σx − (y− µy) σy .

Resulta obvio que:z2 ≥ 0, y por lo tanto, aplic´andole el operador esperanza a z2 y

desarrollando:1 E(z2) ≥ 0, E(z2) = E " (x− µx)2 σ2 x + (y− µy) 2 σ2 y − 2 (x− µx) (y− µy) σxσy # ≥ 0.

Todos los denominadores en la expresi´on anterior son, para efectos del operador esperanza, t´erminos constantes, por los que “salen” de dicho operador. Note adem´as que el tercer elemento corresponde a la definici´on del coeficiente de correlaci´on: Desarrollando, var(x) z }| { E(x− µx)2 σ2 x + var(y) z }| { E(y− µy)2 σ2 y − 2ρ ≥ 0, 1 + 1− 2ρx,y ≥ 0, −2ρx,y ≥ −2, ρx,y ≤ 1.

Ya tenemos un lado de la desigualdad; ahora s´olo falta obtener el otro l´ımite. Defi-namos, como anteriormente (aunque cambiando el signo):

1Podr´a encontrar algunas explicaciones relativas al operador esperanza en el ap´endice B en la

p´agina 499, aunque se recomienda, si las dudas persisten, consultar alg´un libro de probabilidad y estad´ıstica.

(41)

z (x− µx) σx + (y− µy) σy E(z2) ≥ 0 E(z2) = E " (x− µx)2 σ2 x + (y− µy) 2 σ2 y + 2 (x− µx) (y− µy) σxσy # ≥ 0 1 + 1 + 2ρx,y ≥ 0 2ρx,y ≥ −2 ρx,y ≥ −1

Con esto queda demostrado que:

−1 ≤ ρx,y ≤ 1

2.2.

El concepto de la regresi´on

En la relaci´on mencionada al principio de este cap´ıtulo, entre ingreso y gasto, ser´ıa f´acil imaginar que existen otras variables que explican los niveles salariales: loca-lizaci´on geogr´afica (rural/urbana); antig¨uedad laboral; g´enero (lamentablemente); etc. . . Es posible que existan muchas variables capaces de explicar parcialmente el nivel salarial de los individuos. Si utilizamos el coeficiente de correlaci´on, para me-dir la relaci´on lineal entre este par de variables, nos quedar´ıamos muy “cortos”. Es ah´ı que la regresi´on entra en juego, puesto que permite controlar por muchos otros factores importantes (recuerde el ejercicio 1 de puntualidad, en la p´agina 26). No obstante lo anteior, de momento haremos el ejercicio con s´olo dos variables. Ello permite introducir conceptos con suma facilidad; posteriormente generalizaremos el m´etodo aK variables independientes.

2.2.1.

El diagrama de dispersi´on

Desarrollemos un ejemplo sencillo para ver relaciones entre variables: Esperanza de vidaeIngreso per c´apita(Datos de 2007).2Veamos el caso de M´exico, Francia, Jap´on y Nigeria:

(42)

Pa´ıs Ingreso per c´apita Esperanza de vida

M´exico $12,500 75.63

Francia $33,800 80.59

Jap´on $33,800 82.02

Nigeria $2,200 47.44

Cuadro 2.1: Relaci´on Ingreso-Esperanza de vida. Fuente: CIA World Factbook:

https://www.cia.gov/library/publications/the-world-factbook/index.html

Resulta aparente una relaci´on directa entre nivel de ingreso y esperanza de vida. Los dos pa´ıses m´as ricos, Francia y Jap´on, tienen un ingreso alto y una elevada esperan-za de vida; el pa´ıs pobre, Nigeria, tambi´en coincide con la esperanesperan-za de vida m´as reducida. M´exico, en tanto pa´ıs de ingreso medio, ofrece una esperanza de vida muy superior a la de Nigeria, pero no tanto como la de las otras dos naciones. As´ı pues, todo indica que hay relaci´on. Note como no se ha mencionado la palabra “CAU -SALIDAD”, sino simplemente“RELACION´ . Podr´ıamos representar este hallazgo gr´aficamente: 0 5,000 10,000 15,000 20,000 25,000 30,000 40 45 50 55 60 65 70 75 80 85

Nivel de ingreso (en dólares medidos en PPP) Esperanza de Vida (años) Nigeria

México

Francia Japón

Figura 2.3: Ingreso per c´apita y esperanza de vida en M´exico, Francia, Jap´on y Nigeria. Fuente: CIA world factbook.

La relaci´on lineal, en todo caso, no es tan obvia. Podr´ıamos representar una funci´on creciente, pero no necesariamente lineal. De hecho, con tan pocos datos (cuatro

(43)

ob-servaciones), no es posible efectuar inferencia estad´ıstica alguna. La figura anterior se denomina “DIAGRAMA DE DISPERSION´ y algunos autores se refieren a ella como “NUBE DE PUNTOS”. El anterior es quiz´a una visi´on m´as po´etica (y tam-bi´en m´as elocuente) de la figura. Para asimilar mejor el concepto, conviene repetir el diagrama, esta vez con muchos m´as pa´ıses.

10,000 20,000 30,000 40,000 50,000 60 65 70 75 80 85

Ingreso per cápita (medido en Dólares PPP)

Esperanza de Vida (medida en años)

Figura 2.4: Ingreso per c´apita y esperanza de vida en 220 pa´ıses (excepto algunos en los que la incidencia del SIDA deteriora los datos). Fuente: CIA world factbook.

Note como la tendencia positiva en la relaci´on es ahora m´as obvia. Tambi´en resulta mucho m´as obvio que la l´ınea es incapaz de pasar por todos los puntos (dejar´ıa de ser una l´ınea, claro est´a). Esto resulta de que nuestro an´alisis es, muy probablemente incompleto y por lo tanto, no lo desarrollaremos m´as en esta secci´on; de momento, basta con asimilar la utilidad del diagrama de dispersi´on.

La t´ecnica de M´ınimos Cuadrados Ordinarios (MCO) consiste en encontrar los par´ametros de la recta anaranjada de la figura. Lo primero es recordar la forma de la ecuaci´on que genera una recta as´ı; debe tener una“ORDENADA EN ELORIGEN”y una“PENDIENTE”:

yt= α + βxt+ ut

El t´ermino utcorresponde al error; ´este es necesario dado que no podemos esperar poder explicar todo con nuestra recta. Parte quedar´a como Error, o residual. Ello

(44)

corresponde a la fracci´on no explicada del comportamiento de la variable explicada,

yt. Por cierto, dicho comportamiento lo estamos tratando de explicar con la variable

xt, a la que usualmente se denomina variable explicativa o independiente.

2.3.

M´ınimos Cuadrados Ordinarios: MCO

Estudiaremos la t´ecnica OLS o MCO, m´as com´unmente referida como regresi´on. Este ´ultimo t´ermino se lo debemos en buena medida a Sir Francis Galton por su estudio “Regresi´on a la mediocridad”: las estaturas de los hijos de padres muy altos o muy bajos tienden a ser menos extremas.

Definici´on 2 MCO: es la t´ecnica que permite encontrar la l´ınea que mejor se ajusta

a los datos; minimiza la suma de las desviaciones al cuadrado entre cada observa-ci´on y dicha l´ınea. En otras palabras, la suma de las distancias entre los puntos del diagrama de dispersi´on a la l´ınea de regresi´on—al cuadrado—es la menor posible (ver figura).

Donde, al n´umero de observaciones con que contamos, lo denominaremos, T

(ta-ma˜no de muestra). Para poder referirnos a una observaci´on en particular, agregamos un sub´ındice a las variables. As´ı, por ejemplo, la t-´esima observaci´on de la varia-ble x es xt, donde t = 1, 2, 3, . . . , T Es posible sugerir distintas estrategias para

minimizar esas desviaciones.

1. De entrada podr´ıamos pensar enPTt=1desvt, pero.... 2. Podr´ıamos probar tambi´en minimizarPTt=1 | desvt|

No obstante el valor absoluto complicar´ıa despu´es los c´alculos. 3. ¿Qu´e tal minimizarPdesv2

t? ´Esta parece ser la m´as adecuada.

Debemos primero tener clara la naturaleza de la funci´on a estimar. ´Esta debe ser lineal en los par´ametros. A la siguiente expresi´on le llamaremos FUNCION DE´ RE

-GRESION´ POBLACIONALINOBSERVABLE.

yt= α + βxt+ ut,

donde:

(45)

−30 −20 −10 0 10 20 −20 −10 0 10 20 Diagrama de Dispersión y t x t

Figura 2.5: Diagrama de Dispersi´on o bien “Nube de Puntos”.

α: Constante u ordenada en el origen, β: Pendiente,

xt: Variable explicativa, ex´ogena, predeterminada o aun regresor,

ut: T´ermino de Error.

Dada su condici´on de inobservable, tendremos que conformarnos con algo que se le parezca lo m´as posible:

yt = ˆα + ˆβxt+ ˆut (2.1)

donde la notaci´on “

ˆ

” significa ESTIMADOy auˆtse le denomina RESIDUAL.

As´ı pues, ¿qu´e nos dice esta funci´on sobre la variable que queremos explicar? Em-pecemos por una explicaci´on geom´etrica;α + ˆˆ βxtnos sit´ua en la l´ınea, pero le falta recorrer una cierta distancia para alcanzar a la observaci´on,utˆ.

(46)

Definamos ˆ yt= ˆα + ˆβxt Retomando la ecuaci´on (2.1): yt = ˆyt+ ˆut ˆ ut = yt− ˆyt ˆ ut = yt− ˆα − ˆβxt Al cuadrado... ˆ u2t =yt− ˆα − ˆβxt2 Sumando... X ˆ u2t =X yt− ˆα − ˆβxt2

Y ahora s´ı, optimizandoarg m´ınα, ˆˆβPuˆ2 t ∂Puˆ2 t ∂ ˆα = −2 X  yt− ˆα − ˆβxt, ∂Puˆ2 t ∂ ˆβ = −2 X  yt− ˆα − ˆβxtxt.

Igualamos a cero para obtener el m´ınimo—o m´aximo:

1.− X yt− ˆα − ˆβxt = 0 (2.2) 2. X yt− ˆα − ˆβxtxt = 0 Desarrollamos: 1. X  yt− ˆα − ˆβxt = 0 X ytXαˆ− ˆβXxt = 0 X yt− ˆαT − ˆβXxt = 0

(47)

2.

X

xtyt− ˆα − ˆβxt = 0 X

xtyt− ˆαXxt− ˆβXx2t = 0

A las ecuaciones resultantes de este desarrollo se les denomina:

ECUACIONESNORMALES X yt− ˆαT − ˆβ X xt = 0 X xtyt− ˆα X xt− ˆβ X x2t = 0 Despejamosα de la primera...ˆ ˆ α = βˆ P xt−Pyt −T = P yt− ˆβPxt T

...y reemplazamos en la segunda

X xtyt− P yt− ˆβPxt T X xt− ˆβ X x2 t = 0 Despejamos ˆβ: X xtyt− P ytPxt T + ˆ β T X xt 2 − ˆβXx2t = 0

Reacomodamos los t´erminos,

ˆ β " (Pxt)2 T − X x2t # = 1 T X ytXxtXxtyt ˆ β = 1 T P yt P xt− P xtyt 1 T ( P xt)2Px2 t ˆ β = P xtyt− 1 T P ytPxt P x2 t − T1 ( P xt)2

(48)

Ahora obtengamosα:ˆ ˆ α = P yt T − ˆ βPxt T = ¯y− ˆβ ¯x Sustituyendo el valor de ˆβ: ˆ α = ¯y P xtyt− 1 T P ytPxt P x2 t − T1 ( P xt)2 x¯

Retomemos un poco la expresi´on de ˆβ. Al dividir arriba y abajo por T1, obtenemos:

ˆ β = 1 T P xtyt− 1 T P ytPxt 1 T P x2 t − T1( P xt)2 = cov(x, y)ˆ ˆ var(x)

Pero, ¿qu´e hemos obtenido? ¿un m´ınimo o un m´aximo? Retomemos las derivadas...

∂Puˆ2 t ∂ ˆα = −2 X  yt− ˆα − ˆβxt ∂Puˆ2 t ∂ ˆβ = −2 X  yt− ˆα − ˆβxtxt

Construyamos la Hessiana, que es la matriz de Segundas Derivadas:

"∂2Puˆ2 t ∂ ˆα∂ ˆα ∂2Puˆ2 t ∂ ˆα∂ ˆβ ∂2Puˆ2 t ∂ ˆβ∂ ˆα ∂2Puˆ2 t ∂ ˆβ∂ ˆβ # =  2T 2Pxt 2Pxt 2Px2t 

Y veamos los determinantes de los menores: 1. Primero:2· T 2. Segundo: 2· T · 2Xx2t − 4Xxt2 = 4TXx2t − 4Xxt2 = 4  T Xx2t −Xxt2 

(49)

Si el determinante de ambos menores son positivos tendr´ıamos en nuestras manos una MATRIZ DEFINIDA-POSITIVA, lo que equivale a tener la certeza de que obtu-vimos un m´ınimo.

Pero. . . ¿es acaso4T Px2 t − (

P

xt)2positivo? Podr´ıamos manipular la f´ormula de la varianza muestral para demostrarlo:3

0 var(xt)ˆ ≤ T ˆvar(xt) ≤ X(xt− ¯x)2 ≤ X(x2 t + ¯x2− 2xtx¯ ≤ X(x2t 1 T X xt2 ≤ T X(x2t −Xxt2 0 ≤ 4  T X(x2 t − X xt 2

La expresi´on obtenida no es otra cosa sino4· V ar (xt)· T2, es decir la f´ormula de la

varianza, que es positiva por definici´on. As´ı pues podemos concluir que laMATRIZ

HESSIANA O DISCRIMINANTE es definida-positiva y, por ende, al optimizar lo

que obtenemos es un m´ınimo.

2.4.

Propiedades de los estimadores

2.4.1.

Los supuestos del m´etodo

Por medio de M´ınimos Cuadrados Ordinarios hemos ajustado una l´ınea que pasa cerca de las observaciones. Conviene ahora empezar a conocer las propiedades de dicha l´ınea, es decir de los par´ametros estimados y del residual resultante. Para ello, enunciaremos anticipadamente los supuestos que garantizan—si se cumplen—que nuestro ejercicio de estimaci´on sea exitoso.4

3Haremos caso omiso de los grados de libertad que se pierden al estimar la varianza. 4Es importante mencionar que la regresi´on es como una esperanza condicional: E (y

t/xt) =

α + βxt, al condicionar enx, i.e. al decir dado x asumimos, de una forma u otra, que conocemos

(50)

L

OS

S

UPUESTOS DE

MCO

a

1. CORRECTAESPECIFICACION´ La relaci´on entre las variablesx y

y es lineal y est´a dada por:

yt= α + βxt+ ut

2. ORTOGONALIDADUsaremos dos versiones de este supuesto:

a) Lasx′s son variables no estoc´asticas cuyos valores son fijos

(no tienen propiedades probabil´ısticas).

b) la Covarianza entre x y el t´ermino de error es cero: Cov(xt, ut) = 0 o bien xt⊥ut; de ah´ı el nombre del

su-puesto.

3. El error,u, tiene una esperanza igual a cero E(u) = 0.

4. HOMOSCEDASTICIDAD La varianza del t´ermino de error es la misma para todas las observaciones:

E(u2) = σ2

5. NO AUTOCORRELACION´ (INDEPENDENCIA) El t´ermino de error es una variable aleatoriaiid:

E (uiuj) = 0 ∀ i 6= j

6. El t´ermino de error se distribuye como una variable normal:ut∼

N (0, σ2)

7. ESTACIONARIEDAD (DEBIL´ ) Las variables no tienen un compo-nente de tendencia estoc´astico ni determin´ıstico:

E (yt) = µ para todo t

E (yt− µ) (yt−j− µ) = γj para todo t y cualquier j

aResulta de suma importancia conocerlos. Para efectos pr´acticos, recomendamos

al lector que los memorice. Conforme avance el curso, la raz´on de tales supuestos se volver´a evidente y tal memorizaci´on ya no ser´a necesaria.

(51)

El supuesto m´as importante es probablemente el primero, el de Correcta

Especi-ficaci´on. Resulta obvio que si suponemos un Proceso Generador de Datos, DGP ,

incorrecto para la variable y, el resto de nuestro esfuerzo ser´a perfectamente in´util

y la estimaci´on quedar´a viciada por construcci´on. Por desgracia, la relevancia de este supuesto s´olo queda igualada con la dificultad intr´ınseca de validarlo.5 En lo que concierne al segundo supuesto, el de Ortogonalidad, usaremos la primera ver-si´on (variable xt no estoc´astica) salvo que se indique lo contrario. ´esto se impone, de momento, con fines did´acticos; muchas demostraciones quedan en extremo sim-plificadas al asumir que la o las variables explicativas no pertenecen a la esfera probabil´ıstica. Levantar este supuesto y reemplazarlo por la segunda versi´on, que es m´as laxa no es particularmente complicado; de hecho, tal acci´on se lleva a ca-bo en etapas ulteriores del curso (Econometr´ıa para segundones). El supuesto de ortogonalidad es, al igual que el primero, en extremo importante. La satisfacci´on del mismo [en su versi´on Cov(xtut)] puede quedar en entredicho en una cantidad

considerable de circunstancias, mismas que abordaremos, claro est´a; de hecho, su importancia es tal que dedicaremos gran parte de este manual a su estudio. De mo-mento, asumiremos que s´ı se cumple y eso en su versi´on m´as sencilla [la variable

x no es estoc´astica]. Los supuestos 4 y 5 resultan de gran trascendencia tambi´en,

aunque menor que la de los dos primeros. El rompimiento de ´estos (denominado heteroscedasticidad y autocorrelaci´on, respectivamente) degrada considerablemen-te la calidad de la estimaci´on.

Conviene tener claro algunos aspectos del tercer supuesto. Asumir que el t´ermino de error tiene esperanza cero cobra mucho sentido si recordamos que, en dicha varia-ble, “echamos” todo aquello que no incorporamos a la especificaci´on. Lo hacemos porque creemos que los elementos no considerados tienen una importancia marginal y no alteran la medici´on del fen´omeno que realmente nos importa. La equivalencia con el dise˜no de un experimento estad´ıstico quiz´a aclare las cosas. En este ´ultimo, incorporar el componente aleatorio a la selecci´on de muestra permite anular los efectos sobre la variable de inter´es de otras variables que no nos importan. Dicho azar permite que todo aquello que queremos excluir se “cancele por s´ı solo”. Lo que ocurre con su contrapartida emp´ırica, T−1Putˆ, resulta obvio, si recordamos

la primera ecuaci´on normal igualada a cero. En otras palabras, por construcci´on,

T−1Putˆ = 0.

5Una de las funciones m´as importantes del econometrista—Am´erica Latina—u Econometra—

(52)

−20 −10 0 10 −20 −10 0 10 20 −20 −10 0 10 −20 −10 0 10 20 −20 −10 0 10 −20 −10 0 10 20

Independencia y homoscedasticidad Autocorrelación

Heteroscedasticidad

Figura 2.6: (a) Supuestos de homoscesdasticidad y no-autocorrelaci´on; (b) Autoco-rrelaci´on; (c) Heteroscedasticidad

Existen otros resultados interesantes que vale la pena destacar. Desarrollando la especificaci´on estimada, obtenemos:

yt = ˆα + ˆβ· xt+ ˆut X

yt = ˆα· T + ˆβ·Xxt+Xutˆ

Si dividimos de ambos lados porT : ¯

y = ˆα + ˆβ· ¯x + T−1Xutˆ

T−1Xutˆ = ¯y− ˆα − ˆβ· ¯x (2.3)

¿Qu´e nos recuerda eso? Pues simple y sencillamente a la 1aECUACION´ NORMAL

dividida porT , que igualamos a cero:

¯

(53)

Como ya dijimos, el m´etodo MCO hace que, por construcci´on, la media de los resi-duales sea cero inequ´ıvocamente. POR ELLO,SEA CUAL SEA NUESTRA ESTIMA

-CION´ ,TENGA LOS PROBLEMAS QUE TENGA,LA MEDIA DE LOS RESIDUALES

ESTIMADOS SIEMPRE,SIEMPRE SERA CERO´ . No obstante, la expresi´on anterior

hace evidente que las medias de las variables pasan exactamente por la recta de regresi´on.

Resta comentar los supuestos 6 y 7. El primero, el de normalidad nos sirve para

introducir la probabilidad en el modelo de regresi´on. Con ello, es posible atribuir propiedades probabil´ısticas a nuestros estimadores y, en ´ultima instancia, llevar a cabo inferencia estad´ıstica. Su ausencia hace del m´etodo de MCO un simple ejer-cicio geom´etrico.6 Supongamos que ut ∼ iidN (0, σ2

u); las implicaciones de ello

pueden esgrimirse gr´aficamente:

0 50 100 0 0.20.4 0 50 100 0 0.20.4 0 50 100 0 0.20.4 y t x t

Figura 2.7: Diagrama de Dispersi´on. Visualizaci´on de la normalidad en la distribu-ci´on de los errores.

HOMOSCEDASTICIDAD:

V ar(ut) = E [ut− E(ut)]2 = E(u2t)

= σu2

Figure

Updating...

References