Elementos de Econometría Aplicada (3a ed.)
Transcript of Elementos de Econometría Aplicada (3a ed.)
Julio H. Cole
ELEMENTOS DE ECONOMETRÍA APLICADA
Tercera Edición
J & G Ediciones ————————————————————————————————–
Guatemala
Para Gina,
con todo mi amor
Copyright © 1996, 2006, 2014 por Julio H. Cole. Derechos reservados.
J & G Ediciones (Guatemala).
Impreso en Guatemala — Printed in Guatemala
Cole, Julio Harold (1955 – )
Elementos de Econometría Aplicada.
Tercera edición [2014]. Bibliografía.
103 p., ilustrado, tablas.
1. Econometría. I. Título.
330.015195 C689
CONTENIDO
Prefacio a la Segunda Edición …………………………………………………. v . Prefacio a la Tercera Edición ………….………………………………………. v .
Capítulo
1. INTRODUCCIÓN …........................................................................................ 1
2. REGRESIÓN LINEAL SIMPLE …...….............................................................. 5
2.1. Introducción
2.2. Método de Mínimos Cuadrados
2.3. Coeficiente de Determinación (R2)
Preguntas de Repaso
Casos Aplicados
3. REPASO DE ALGEBRA MATRICIAL ……....................................................... 20
3.1. Matrices
3.2. Operaciones con Matrices
3.3. Teoremas sobre Matrices
3.4. Clases Especiales de Matrices
3.5. Traza de una Matriz Cuadrada
3.6. Transposición de Matrices
3.7. Matriz Inversa
Preguntas de Repaso
4. REGRESIÓN LINEAL MÚLTIPLE ……............................................................ 27
4.1. Vector Mínimo-Cuadrático
4.2. Inferencia Estadística en la Regresión Lineal
4.3. Coeficiente de Determinación (R2)
4.4. Aplicación — Costos Administrativos en la Banca Comercial
Casos Aplicados
5. AMPLIACIONES DEL MODELO LINEAL ………............................................. 44
5.1. Estimación de Formas No-Lineales
5.2. Variables Binarias o Cualitativas
5.3. Problemas Especiales en la Regresión Lineal
5.3.1. Variables Omitidas y Variables Irrelevantes
5.3.2. Multicolinealidad
5.3.3. Heteroscedasticidad
Preguntas de Repaso
Casos Aplicados
6. AUTOCORRELACIÓN …................................................................................ 67
6.1. Naturaleza del Problema
6.2. Efectos de la Autocorrelación
6.3. Cómo Detectar la Autocorrelación
6.4. Estimación en Presencia de Autocorrelación
Preguntas de Repaso
Caso Aplicado
7. RETARDOS DISTRIBUIDOS ……................................................................... 82
7.1. Variables Retardadas en Econometría
7.2. Autocorrelación en Regresiones con Retardos
7.3. Aplicación — Inflación en Guatemala
Casos Aplicados
ANEXOS .............................................................................................................. 95 . A-1. Areas de la Distribución Normal Estándar
A-2. Percentiles de la Distribución t (Student)
A-3. Valores Críticos de la Distribución Chi-cuadrado
A-4. Estadístico Durbin-Watson: Valores Críticos (5 %) para dL y dU
REFERENCIAS …............................................................................................... 100
PREFACIO A LA SEGUNDA EDICIÓN
La primera edición de este libro se publicó en 1996. Para esta reedición he man-
tenido la estructura del texto original, pero he aprovechado la oportunidad para
realizar algunas ligeras correcciones y cambios de presentación, y también para
incorporar varios casos aplicados que he desarrollado en estos últimos 10 años.
Estos casos han resultado de gran utilidad en el curso introductorio de econome-
tría que imparto desde hace muchos años en la Universidad Francisco Marroquín,
y me alegro de poder ahora compartirlos con un público más amplio.
J. H. C.
Guatemala, 2006
PREFACIO A LA TERCERA EDICIÓN
Para esta tercera edición he mantenido la estructura del texto original, pero he in-
cluido algunos temas adicionales, y he efectuado algunos ligeros cambios de pre-
sentación. He incluido también algunos casos prácticos que he usado con éxito en
mi curso de econometría en la Universidad Francisco Marroquín, pero que no ha-
bía previamente incorporado al texto. Reitero el gusto que me da ahora poder
compartirlos con un público más amplio.
J. H. C.
Guatemala, 2014
[1]
Capítulo 1
INTRODUCCIÓN
―All models are wrong, but some models
are useful …. ‖
— G. E. P. Box1
― … if you torture the data enough, nature
will always confess .… ‖
— R. H. Coase2
La Econometría es aquella rama de la ciencia económica que aplica los
instrumentos de la economía teórica, del análisis matemático y de la estadística
inferencial al análisis cuantitativo de los fenómenos económicos. Las teorías
económicas típicamente expresan relaciones funcionales entre diferentes
variables. La curva de demanda, por ejemplo, representa la cantidad demandada
de una mercancía como función de su precio. En la teoría de la empresa, por otro
lado, el costo de producción se considera como función de la escala de
producción, mientras que en el análisis macroeconómico la ―función consumo‖
relaciona los gastos de consumo con el nivel de ingreso nacional. Todos estos son
ejemplos de relaciones entre dos variables, aunque por supuesto que una
formulación más completa debe incluir varias variables diferentes en cada
relación.
El propósito de la Econometría consiste en desarrollar métodos para la esti-
mación numérica de los parámetros que definen las relaciones funcionales entre
las diversas variables económicas que nos pueden interesar, y para testar y com-
probar las diversas hipótesis que se pueden postular acerca de dichos parámetros.
El primer paso en cualquier investigación econométrica debe ser la especificación
1Empirical Model-Building and Response Surfaces (New York: Wiley, 1987), p. 424.
2―How Should Economists Choose?‖ [1981], en Ideas, Their Origins, and Their Conse-
quences: Lectures to Commemorate the Life and Work of G. Warren Nutter (Washing-
ton: American Enterprise Institute, 1988), p. 74.
[2]
de un modelo matemático para representar la relación que se desea investigar. En
la práctica, lo común es partir de una ―ecuación de regresión‖ que postula una re-
lación causal entre una variable ―dependiente‖ y una o más variables ―indepen-
dientes.‖ (En econometría, una variable es denominada ―dependiente‖ si podemos
suponer que es función de otras variables, y el análisis de regresión consiste en
―explicar‖ los cambios observados en la variable dependiente por medio de los
cambios observados en estas otras variables independientes.) Luego debemos re-
coger datos relevantes de la economía o sector que deseamos describir por medio
del modelo. Como tercer paso, se utilizan estos datos para estimar los parámetros
del modelo. Por último, se realizan pruebas sobre el modelo estimado, a fin de
determinar si constituye una representación adecuada del fenómeno estudiado, o
si debemos realizar modificaciones en la especificación original.
En la econometría aplicada, la forma funcional que más se utiliza en la
práctica para representar la relación causal entre variables dependientes e
independientes es la función ―lineal,‖ que en su forma más general puede
expresarse de la siguiente manera:
Y = 0 + 1X1 + 2X2 + ... + kXk + u
donde Y representa el valor de la variable dependiente, X1, X2, ... , Xk representan
los valores de las variables independientes, 0 representa la ―ordenada en el
origen,‖ 1, 2 , ... , k representan los coeficientes de las respectivas variables
independientes, y u representa un término de error.
En un problema de econometría aplicada, deseamos obtener estimaciones de
los k + 1 parámetros (0, 1, 2, ... , k) que contiene esta ecuación. Consideremos
la interpretación de estos parámetros, obviando por el momento los problemas de
estimación. El parámetro 0 es relativamente fácil de interpretar, ya que como se
mencionó en el párrafo anterior, es simplemente la ―ordenada en el origen,‖ o sea,
el valor de Y cuando todas las variables independientes son exactamente cero. Por
otra parte, los coeficientes 1, 2, etc., pueden interpretarse como las derivadas
parciales de Y respecto de las respectivas variables independientes: así, 1 nos
dice cuánto cambia Y en respuesta a un cambio de una unidad en X1, suponiendo
que las demás variables independientes no cambian, y los demás coeficientes se
pueden interpretar de la misma manera. Obviamente, es muy importante contar
con estimaciones confiables de la magnitud de estos coeficientes, y el trabajo del
econometrista consiste en proporcionar estas estimaciones.
La presencia del término de error (u) en esta ecuación refleja el hecho de que
los datos económicos nunca se ajustan a funciones matemáticamente exactas, de
modo que funciones simples como la anterior sólo pueden considerarse como
aproximaciones a las verdaderas relaciones que se están investigando. Aún si la
[3]
verdadera relación no es lineal, sin embargo, si el rango relevante de variación de
las variables no es muy grande, entonces la forma lineal podría constituir de todas
maneras una buena aproximación a la verdadera forma funcional.
El Prof. Johnston ha propuesto tres diferentes razones para justificar el tér-
mino de error en un análisis econométrico.3 Por un lado, los datos económicos
siempre contienen errores de medición, ya que las variables económicas no pue-
den ser medidas con exactitud. En este sentido, u puede ser interpretado literal-
mente como un ―error‖ genuino. Por otro lado, en un análisis aplicado sólo pue-
den tomarse en cuenta las variables más importantes para la explicación de un fe-
nómeno, y por tanto las ecuaciones en la práctica no pueden incluir todas las va-
riables que pueden afectar una determinada variable dependiente. El efecto neto
de las variables omitidas se refleja en el término de error, que en este sentido es
interpretado como un ―residuo.‖ Por último, y como ya se mencionó en el párrafo
anterior, las relaciones económicas probablemente no serían exactas aún si no
existiera ningún error de medición, y aún si todas las variables relevantes son in-
cluidas en el análisis. En última instancia, las variables económicas dependen de
la acción humana, y existe una cierta indeterminación en el comportamiento hu-
mano que sólo puede ser representada mediante un término de perturbación alea-
torio, cuya varianza es incrementada por los errores de medición y el efecto resi-
dual de variables omitidas. Se reconoce de entrada, por tanto, que las estimacio-
nes econométricas siempre contienen cierto elemento de incertidumbre. Con téc-
nicas adecuadas, se puede tratar de reducir esta incertidumbre, aunque nunca se
podrá eliminar del todo. El estudiante de econometría debe estar siempre cons-
ciente de las limitaciones de sus métodos de análisis.
El propósito de este texto es familiarizar al estudiante de economía y/o
administración con las técnicas más comunes que se emplean en el análisis
econométrico aplicado. Esencialmente, se trata de estimar los coeficientes de
ecuaciones lineales, tales como la ecuación (1). En el siguiente capítulo se discute
el caso más sencillo, el de una sola variable independiente, que puede ser tratado
con técnicas algebraicas relativamente simples. El caso más general de k variables
independientes requiere de técnicas más sofisticadas, y por esto es que el Capítulo
3 se dedica a un repaso de álgebra matricial, previo a la discusión del modelo de
―Regresión Lineal Múltiple,‖ que es el tema del Capítulo 4. En el Capítulo 5 se
consideran ampliaciones del modelo lineal, como ser la estimación de formas no-
lineales y el uso de variable binarias, y se discuten algunos problemas especiales
que frecuentemente surgen en el análisis de regresión, tales como multi-
colinealidad, heteroscedasticidad y el efecto de variables omitidas, mientras que
el importante problema de la autocorrelación es tratado a fondo en el Capítulo 6.
3J. Johnston, Econometric Methods, 2a ed. (Nueva York: McGraw-Hill, 1972), pp. 10-
11.
[4]
Finalmente, el Capítulo 7 trata de los problemas especiales que puede plantear la
presencia de retardos en las ecuaciones de regresión.
La lectura de este texto presupone que el estudiante conoce los rudimentos del
cálculo, y ciertos elementos de estadística matemática. También es conveniente
cierta familiaridad con las computadoras, y particularmente con el manejo de ho-
jas electrónicas tipo Excel. Como lo indica el título, este es un texto para un curso
introductorio de econometría aplicada. Un texto introductorio debe ser selectivo,
y si bien se ha hecho un esfuerzo por incluir la mayoría de las herramientas que
en la práctica debe emplear el investigador típico en la situación típica, sin duda
existen algunas lagunas más o menos importantes. En aras de la brevedad, por
ejemplo, se ha omitido por completo el tema de la estimación de modelos de
ecuaciones simultáneas, de modo que el texto se limita únicamente al caso de
modelos de ecuación única, e incluso en este caso sólo se discuten los problemas
que más comúnmente se plantean en la práctica. El estudiante que desea especia-
lizarse en este campo podrá subsanar estas deficiencias consultando algunos de
los textos citados en la bibliografía.
[5]
Capítulo 2
REGRESIÓN LINEAL SIMPLE
2.1. Introducción.
En este capítulo consideramos el caso más simple de una regresión lineal, que
es el de una ecuación lineal con una variable dependiente (Y), y una sola variable
independiente (X). Este modelo básico puede ser representado como:
Y = 0 + 1X + u
donde 0 y 1 son los parámetros respectivos, y u es el término de error. (Siempre
conviene recordar que en econometría las relaciones entre variables no son fun-
ciones exactas, sino que son únicamente relaciones estadísticas. Por esto siempre
es necesario incluir una variable de error en la relación.)
El parámetro 0, conocido como la ―ordenada en el origen,‖ nos dice cuánto
es Y cuando X = 0. El parámetro 1, conocido como la ―pendiente,‖ nos dice
cuánto aumenta Y por cada aumento de una unidad en X. Estos parámetros son
desconocidos, y nuestro problema consiste en obtener estimaciones numéricas de
los mismos a partir de una muestra de observaciones sobre las variables estudia-
das. El método de estimación más comúnmente empleado en el análisis de regre-
sión es el método de ―mínimos cuadrados.‖ La mejor forma de ilustrar la aplica-
ción de este método es por medio de un ejemplo práctico.
Consideremos el Cuadro 2.1, que muestra datos mensuales de producción y
costos de operación para una empresa británica de transporte de pasajeros por ca-
rretera durante los años 1949-52. (La producción se mide en términos de miles de
millas-vehículo recorridas por mes, y los costos se miden en términos de miles de
libras por mes). Para poder visualizar el grado de relación que existe entre las va-
riables, como primer paso en el análisis es conveniente elaborar un diagrama de
dispersión, que es una representación en un sistema de coordenadas cartesianas
de los datos numéricos observados. En el diagrama resultante, en el eje X se mi-
den las millas-vehículo recorridas, y en el eje Y se mide el costo de operación
mensual. Cada punto en el diagrama muestra la pareja de datos (millas-vehículo y
costos de operación) que corresponde a un mes determinado. Como era de espe-
rarse, existe una relación positiva entre estas variables: una mayor cantidad de
millas-vehículo recorridas corresponde un mayor nivel de costos de operación.
[6]
Por otro lado, también se aprecia por qué este gráfico se denomina un
diagrama de ―dispersión‖: no existe una relación matemáticamente exacta entre
las variables, ya que no toda la variación en el costo de operación puede ser
explicada por la variación en las millas-vehículo. Si entre estas variables existiera
una relación lineal perfecta, entonces todos los puntos caerían a lo largo de la
recta de regresión, que también ha sido trazada y que muestra la relación
―promedio‖ que existe entre las dos variables. En la práctica, se observa que la
mayoría de los puntos no caen directamente sobre la recta, sino que están
―dispersos‖ en torno a ella. Esta dispersión representa la variación en Y que no
puede atribuirse a la variación en X.
————————————————————————————————–
CUADRO 2.1.
OPERACIONES MENSUALES EN UNA EMPRESA DE TRANSPORTE DE PASAJEROS
————————————————————————————————–
Costos Millas- Costos Millas-
Totales Vehículo Totales Vehículo
(miles) (miles) (miles) (miles)
Mes Nº Y X Mes Nº Y X
————————————————————————————————–
1 213.9 3147 20 243.7 4019
2 212.6 3160 21 262.3 4394
3 215.3 3197 22 252.3 4251
4 215.3 3173 23 224.4 3844
5 215.4 3292 24 215.3 3276
6 228.2 3561 25 202.5 3184
7 245.6 4013 26 200.7 3037
8 259.9 4244 27 201.8 3142
9 250.9 4159 28 202.1 3159
10 234.5 3776 29 200.4 3139
11 205.9 3232 30 209.3 3203
12 202.7 3141 31 213.9 3307
13 198.5 2928 32 227.0 3585
14 195.6 3063 33 246.4 4073
15 200.4 3096
16 200.1 3096
17 201.5 3158
18 213.2 3338
19 219.5 3492
————————————————————————————————– Fuente: J. Johnston, Análisis Estadístico de los Costes (Barcelona: Sagitario, S. A.,
…… 1966), p. 118.
[8]
2.2. Método de Mínimos Cuadrados.
En un análisis de regresión, tratamos de contestar dos preguntas básicas:
1. ¿Cuál es la relación estadística que existe entre la variable dependiente (Y) y la
variable independiente (X)? Para contestar esta pregunta, debemos obtener esti-
maciones de los parámetros de la recta de regresión, es decir, los coeficientes 0 y
1 de la ecuación (1). En el ejemplo concreto que nos concierne aquí, el estima-
dor de 1 nos ayuda a responder una pregunta muy importante: ¿cuánto aumenta,
en promedio, el costo de operación por cada milla-vehículo adicional?
2. ¿Qué porcentaje de la variación total en la variable dependiente se puede atri-
buir a la variación en la variable independiente? Para contestar esta pregunta, de-
bemos comparar la dispersión de los datos en torno a la recta de regresión con la
variación total en la variable dependiente.
La primera de estas dos preguntas supone encontrar la recta que ―mejor‖ se
ajusta a los datos observados, lo que obviamente requiere algún criterio de
selección. Supongamos que tenemos dos estimadores de los coeficientes 0 y 1,
que denotaremos por b0 y b1, respectivamente, y consideremos el i-ésimo punto
del diagrama de dispersión, que representa un valor para la variable
independiente (Xi) y un valor para la variable dependiente (Yi). Dado el valor de
Xi, el valor de Y calculado por la recta de regresión será b0 + b1Xi y la diferencia
entre este valor calculado y el valor realmente observado (Yi) será el error
correspondiente a la i-ésima observación:
ei = Yi – b0 – b1Xi
Sea n el número total de observaciones en la muestra (en este ejemplo n = 33).
Para cada observación individual habrá un error correspondiente, y el método de
―minimos cuadrados‖ consiste en encontrar los valores de b0 y b1 que minimizan
la suma de los errores cuadrados para la muestra en conjunto. Es decir, se trata
de minimizar la variable:
2
1
1
0
1
2 )( i
n
i
i
n
i
i XbbYeQ
Nótese que esta expresión es función de b0 y b1, ya que diferentes valores para
estos parámetros producirán diferentes conjuntos de errores. En otras palabras, la
suma de los errores cuadrados es función de la recta de regresión. Según el
criterio de mínimos cuadrados, la ―mejor‖ recta de regresión es la que minimiza
Q. Aplicando un conocido principio del cálculo, para minimizar Q calculamos las
derivadas parciales respecto de b0 y de b1, y las igualamos a 0:
[9]
0)(2 1
1
0
0
i
n
i
i XbbYb
Q
0)(2 1
1
0
1
ii
n
i
i XXbbYb
Q
Esto nos proporciona un sistema de dos ecuaciones con dos incógnitas. Resol-
viendo el sistema podemos obtener los valores de b0 y b1. En la terminología del
análisis de regresión estas ecuaciones son a veces denominadas las ―ecuaciones
normales.‖ Nótese que la primera de estas ecuaciones equivale a la restricción
0 ie , mientras que la segunda equivale a la restricción 0 iieX . Este es
un resultado importante que será utilizado más adelante en este capítulo. (En lo
sucesivo suprimiremos el uso del subíndice en las sumatorias, para facilitar la no-
tación. Se entiende que todas las sumas se efectúan sobre i = 1, 2, ... , n.) Simpli-
ficando estas ecuaciones, podemos obtener las siguientes expresiones equivalen-
tes:
(1) XbnbY 10
(2) 2
10 XbXbXY
La ecuación (1) también puede expresarse como
(3) xbyb 10
donden
Yy
es el promedio aritmético de los valores para Y, y n
Xx
es el
promedio aritmético de los valores para X. Sustituyendo (3) en (2), y reordenando
términos, obtenemos la siguiente expresión para b1:
(4)
XxX
XyXYb
21
Las fórmulas (3) y (4) nos permiten calcular b0 y b1 a partir de los datos observa-
dos. Para el ejemplo de los costos de transporte, tenemos:
1.231,7Y (por tanto 12424.219331.231,7 y )
879,113X (por tanto 8788.450,333879,113 x )
3.020,216,25XY 769,855,3982X
[10]
Sustituyendo estos valores en la fórmula (4) obtenemos:
044673.0)879,113)(8788.450,3(769,855,398
)879,113)(12424.219(3.020,216,251
b
Por último, sustituyendo este valor en la fórmula (3), juntamente con los valores
para x y y , obtenemos:
963.64)8788.450,3)(044673.0(12424.2190 b
Estos dos parámetros definen la recta de regresión, que podemos expresar como
sigue:
XY 044673.0963.64ˆ
(Usamos el símbolo Y para representar el valor calculado de Y según la recta de
regresión. Es muy importante distinguir claramente entre Y y Y, que es el valor
observado de la variable dependiente.) Según esta estimación, y en números
redondos, podemos esperar que en promedio el costo de operación se incremente
alrededor de 0.045 libras por cada milla-vehículo adicional, mientras que el
―costo fijo‖ mensual (i.e., la parte del costo de operación que no varía con las
millas recorridas) es de aproximadamente 65,000 libras al mes, en promedio.
2.3. Coeficiente de Determinación (R2).
Habiendo calculado la recta de regresión, podemos ahora tratar de responder a
la segunda pregunta planteada en la sección anterior: ¿qué porcentaje de la varia-
ción total en el costo de operación (Y) se debe a la variación en las millas-
vehículo recorridas (X)? En otras palabras, y en términos más generales, ¿cuál es
la proporción de la variación total en Y que puede ser ―explicada‖ por la variación
en X? Para poder contestar esta pregunta, debemos antes descomponer la varia-
ción total en Y en sus dos componentes: la variación ―explicada,‖ que se puede
atribuir a la variación en X, y la variación ―no-explicada,‖ que se debe a factores
desconocidos y que representamos por los errores de la regresión.
Por definición de la recta de regresión, tenemos que para cualquier observa-
ción individual el valor observado de Y será igual a la Y ―calculada‖ más el error:
iii eYY ˆ
Nótese que esto implica que ii YY , ya que se recordará que 0ie por
la primera ecuación normal. Esto implica a su vez que el promedio de las Y es
[11]
exactamente igual a y . Si restamos y de ambos lados de esta ecuación y eleva-
mos al cuadrado tendremos:
iiiiiii eyYeyYeyYyY )ˆ(2)ˆ(])ˆ[()( 2222
Por último, si sumamos sobre todas las observaciones tendremos:
(5) eyYeyYyY )ˆ(2)ˆ()( 222
donde nuevamente hemos suprimido los subíndices para simplificar la notación.
Consideremos ahora la expresión:
eYeyeYeyY ˆˆ)ˆ(
ya que 0e , por la primera ecuación normal. A su vez, por la definición de
Y tenemos que:
0)(ˆ1010 XebebeXbbeY
ya que 0e por la primera ecuación normal, y 0Xe por la segunda
ecuación normal. Por tanto, la ecuación (5) se reduce a la siguiente expresión:
222 )ˆ()( eyYyY
En palabras, esto nos indica que la variación total de la variable dependiente (en
torno a su promedio) se puede descomponer en dos partes: (1) la variación total
de la Y ―calculada‖, y (2) la suma de los errores cuadrados. Puesto que la
variación de la Y ―calculada‖ se debe totalmente a la variación en X, a este primer
componente de la variación total en Y se le conoce como la variación ―explicada,‖
ya que es la parte de la variación en Y que puede ser atribuida a la variación en la
variable independiente. El segundo componente de la variación en Y, la suma de
los errores cuadrados, representa la variación ―no-explicada,‖ ya que es la parte
residual de la variación en Y que no puede ser atribuida a la variación en X. Si
expresamos la variación explicada como porcentaje de la variación total,
obtenemos el siguiente estadístico importante que se conoce como el ―coeficiente
de determinación‖:
2
2
2
2
2
)(1
)(
)ˆ(
yY
e
yY
yYR
Los cálculos relevantes para el caso de los costos de transporte se muestran en el
Cuadro 2.2. El valor de 0.9464 para R2 nos indica que la variación en las millas-
vehículo recorridas explica el 94.64 % de la variación en el gasto de operación
mensual. El resto de la variación observada (5.36 %) se debe a otros factores.
[12]
————————————————————————————————–
CUADRO 2.2. CÁLCULO DE R2 PARA EL CASO DE LOS COSTOS DE TRANSPORTE.
————————————————————————————————–
Mes Nº Y X Y e e2 Y
2
————————————————————————————————–
1 213.9 3147 205.5489 8.3511 69.7409 45753.21
2 212.6 3160 206.1297 6.4703 41.8648 45198.76
3 215.3 3197 207.7826 7.5174 56.5113 46354.09
4 215.3 3173 206.7104 8.5896 73.7812 46354.09
5 215.4 3292 212.0265 3.3735 11.3805 46397.16
6 228.2 3561 224.0436 4.1564 17.2757 52075.24
7 245.6 4013 244.2357 1.3643 1.8613 60319.36
8 259.9 4244 254.5552 5.3448 28.5669 67548.01
9 250.9 4159 250.7580 0.1420 0.0202 62950.81
10 234.5 3776 233.6482 0.8518 0.7256 54990.25
11 205.9 3232 209.3461 -3.4461 11.8756 42394.81
12 202.7 3141 205.2809 -2.5809 6.6610 41087.29
13 198.5 2928 195.7655 2.7345 7.4775 39402.25
14 195.6 3063 201.7964 -6.1964 38.3954 38259.36
15 200.4 3096 203.2706 -2.8706 8.2403 40160.16
16 200.1 3096 203.2706 -3.1706 10.0527 40040.01
17 201.5 3158 206.0403 -4.5403 20.6143 40602.25
18 213.2 3338 214.0815 -0.8815 0.7770 45454.24
19 219.5 3492 220.9611 -1.4611 2.1348 48180.25
20 243.7 4019 244.5039 -0.8039 0.6463 59389.69
21 262.3 4394 261.2562 1.0438 1.0895 68801.29
22 252.3 4251 254.8679 -2.5679 6.5941 63655.29
23 224.4 3844 236.6860 -12.2860 150.9458 50355.36
24 215.3 3276 211.3117 3.9883 15.9065 46354.09
25 202.5 3184 207.2018 -4.7018 22.1069 41006.25
26 200.7 3037 200.6349 0.0651 0.0042 40280.49
27 201.8 3142 205.3256 -3.5256 12.4299 40723.24
28 202.1 3159 206.0850 -3.9850 15.8802 40844.41
29 200.4 3139 205.1915 -4.7915 22.9585 40160.16
30 209.3 3203 208.0506 1.2494 1.5610 43806.49
31 213.9 3307 212.6966 1.2034 1.4482 45753.21
32 227.0 3585 225.1157 1.8843 3.5506 51529.00
33 246.4 4073 246.9161 -0.5161 0.2664 60712.96
Sumas 7231.1 113879 7231.0953 (*) 0.0047 663.3451 1596893.53
————————————————————————————————–
2557.384,12)12424.219)(33(53.893,596,1)()( 2222 ynYyY
9464.0)2557.384,123451.663(12 R
————————————————————————————————– (*) La suma algebraica de los errores no es exactamente 0 debido a errores de redondeo.
[13]
PREGUNTAS DE REPASO
1. Defina los siguientes conceptos:
a) diagrama de dispersión
b) recta de regresión
c) criterio de mínimos cuadrados
d) coeficiente de determinación.
2. (Regresión por el Origen) En algunas situaciones, se sabe que la relación en-
tre Y y X ―pasa por el origen‖ en el sentido de que 0 = 0. Este sería el caso
cuando Y = 0 por definición cuando X = 0. En este caso la recta de regresión
sería simplemente Y = 1X + u.
a) Derive la fórmula para b1, el estimador de 1, usando el criterio de míni-
mos cuadrados.
b) Nótese que en este caso la suma algebraica de los errores, ie , ya no es
igual a 0. ¿Por qué? ¿Qué implicaciones tiene esto para la interpretación de
R2?
c) En el caso de una regresión lineal convencional, 0 < R2 < 1 por definición.
Sin embargo, en el caso de una regresión por el origen, se puede dar el caso
de una R2 negativa. Muestre gráficamente de qué forma podría darse esta
situación.
[14]
CASOS APLICADOS
Caso A — Elecciones en Florida
En las elecciones presidenciales norteamericanas de Noviembre 2000 los conten-
dientes principales, George Bush y Al Gore, resultaron casi empatados en térmi-
nos de votos electorales, por lo que el resultado dependía crucialmente de los co-
micios en el estado de Florida, donde el escrutinio inicial no dio un resultado de-
finitivo a favor de ninguno de los candidatos. A medida que proseguía el conteo,
surgieron varias anomalías, una de las cuales tuvo que ver con el condado de
Palm Beach. Entre otras cosas, se alegó que en este condado muchos votantes que
deseaban votar por Gore se confundieron, debido al diseño de la papeleta electo-
ral, y votaron por error por un candidato marginal, Pat Buchanan, del Reform
Party. (El condado de Palm Beach tenía una papeleta electoral un tanto confusa y
con un formato diferente a la de los demás condados en el estado.)
El cuadro adjunto muestra la votación obtenida por Buchanan en todos los con-
dados del estado de Florida, y se aprecia claramente que la cantidad de votos ob-
tenidos por ese candidato en Palm Beach fue exageradamente grande en compa-
ración al resto del estado. Presumiblemente, muchos de estos fueron efectivamen-
te votos erróneos (y probablemente con la intención de votar por Gore, debido al
diseño de la papeleta). La pregunta es si se puede obtener una estimación aproxi-
mada de la cantidad de estos votos erróneos.
Como una primera aproximación, se esperaría que la votación obtenida por Bu-
chanan en un condado determinado estaría positivamente relacionada con la can-
tidad de personas afiliadas al Reform Party residentes en ese condado. Este dato
también se muestra en el cuadro adjunto.
Con esta información:
(a) Construya un diagrama de dispersión, relacionando las dos variables.
(b) Calcule la línea de regresión (excluyendo la observación para Palm
Beach), y con los resultados obtenidos, haga una estimación de la ―vota-
ción excedente‖ obtenida por Buchanan en Palm Beach.
(c) Tomando en cuenta que según los resultados oficiales, Bush ganó a Gore
en Florida por una diferencia de 537 votos (sobre un total de más de
6,100,000 votos emitidos), comente sobre las implicaciones de este análi-
sis para el resultado final de las elecciones presidenciales de ese año.
[15]
RESULTADOS ELECTORALES EN FLORIDA, NOV 2000 — REFORM PARTY (P. BUCHANAN)
Registrados Votos por Registrados Votos por
Condado Reform Party Buchanan Condado Reform Party Buchanan
Alachua 91 263 Lake 80 289
Baker 4 73 Lee 113 305
Bay 55 248 Leon 80 282
Bradford 3 65 Levy 17 67
Brevard 148 570 Liberty 0 39
Broward 332 788 Madison 2 29
Calhoun 2 90 Manatee 140 271
Charlotte 41 182 Marion 108 563
Citrus 44 270 Martin 48 112
Clay 40 186 Monroe 62 47
Collier 118 122 Nassau 13 90
Columbia 35 89 Okaloosa 96 267
Dade 217 560 Okeechobe 27 43
Desoto 7 36 Orange 199 446
Dixie 0 29 Osceola 62 145
Duval 150 652 Pasco 167 570
Escambia 130 502 Pinellas 425 1013
Flagler 30 83 Polk 119 532
Franklin 0 33 Putnam 27 148
Gadsden 11 38 Santa Rosa 55 311
Gilchrist 6 29 Sarasota 154 305
Glades 2 9 Seminole 81 194
Gulf 3 71 St.Johns 59 229
Hamilton 3 23 St.Lucie 25 124
Hardee 4 30 Sumter 21 114
Hendry 10 22 Suwannee 7 108
Hernando 43 242 Taylor 3 27
Highlands 24 127 Union 1 37
Hillsborough 299 847 Volusia 176 496
Holmes 2 76 Wakulla 7 46
Indian River 66 105 Walton 22 120
Jackson 8 102 Washington 9 88
Jefferson 2 29
Lafayette 0 10 PALM BEACH 337 3407
Fuentes: Florida Dept. of State, Division of Elections, "County Voter Registration by Party," Oct 10, 2000 (http://election.dos.state.fl.us/pdf/2000voterreg/2000genparty.pdf); ABC News, "Florida: Real-Time County Returns" (www.abcnews.go.com/sections/poli tics/2000vote/general/FL_county.html), visited June 15, 2001.
[16]
Caso B — Desempleo y Crecimiento Económico
En 1962 el economista norteamericano Arthur Okun planteó un modelo macro-
económico para explicar las variaciones en la tasa de desempleo. Según este mo-
delo, que se conoce hoy en día como la ―ley de Okun,‖ existe una relación lineal
entre el cambio en la tasa de desempleo y la tasa de crecimiento del Producto In-
terno Bruto (PIB) real.4 El siguiente cuadro muestra datos sobre desempleo y cre-
cimiento económico en los Estados Unidos durante el período 1972-2011:
Tasa de Crecimiento Tasa de Crecimiento
Año Desempleo (%) PIB real (%) Año Desempleo (%) PIB real (%)
1972 5.6 5.3 1992 7.5 3.4
1973 4.9 5.8 1993 6.9 2.9
1974 5.6 -0.6 1994 6.1 4.1
1975 8.5 -0.2 1995 5.6 2.5
1976 7.7 5.4 1996 5.4 3.7
1977 7.1 4.6 1997 4.9 4.5
1978 6.1 5.6 1998 4.5 4.4
1979 5.8 3.1 1999 4.2 4.8
1980 7.1 -0.3 2000 4.0 4.1
1981 7.6 2.5 2001 4.7 1.1
1982 9.7 -1.9 2002 5.8 1.8
1983 9.6 4.5 2003 6.0 2.5
1984 7.5 7.2 2004 5.5 3.5
1985 7.2 4.1 2005 5.1 3.1
1986 7.0 3.5 2006 4.6 2.7
1987 6.2 3.2 2007 4.6 1.9
1988 5.5 4.1 2008 5.8 -0.3
1989 5.3 3.6 2009 9.3 -3.5
1990 5.6 1.9 2010 9.6 3.0
1991 6.8 -0.2 2011 8.9 1.7
Fuente: Economic Report of the President, 2012 (Washington: U.S. Government Printing Office, 2012), Table B-4, Table B-43 (pp. 321, 369).
4A. M. Okun, ―Potential GNP: Its Measurement and Significance,‖ Proceedings (Busi-
ness and Economics Section), American Statistical Association, 1962, pp. 98-104. Para
aplicaciones más recientes del modelo de Okun véase Paul Krugman, ―How Fast Can
the U.S. Economy Grow?‖ Harvard Business Review, 75 (1997): 123-29 y J. Crespo
Cuaresma, ―Okun’s Law Revisited,‖ Oxford Bulletin of Economics and Statistics, 65
(2003): 439-51.
[17]
a) Use estos datos para estimar el modelo de Okun, y explique el significado
de los coeficientes obtenidos.
b) En este problema, el punto donde la recta intersecta al eje X tiene un sig-
nificado económico interesante. Determine este punto para este caso, y
explique su significado en términos del modelo de Okun.
Caso C — Desempleo y Crecimiento Económico (cont.)
Como regularidad empírica, la ―Ley de Okun‖ es una de las relaciones macroeco-
nómicas más estables que se conocen. Para comprobarlo, vuelva a estimar el mo-
delo de Okun usando datos sobre desempleo y crecimiento económico en Estados
Unidos durante el período 1929-54. (Para el estudio de las fluctuaciones en el
desempleo, este período muestral es particularmente interesante, porque incluye
el período de la Gran Depresión de los años 30’s.)
Compare con la regresión estimada en el caso anterior, y comente sobre los resul-
tados.
Tasa de Crecimiento Tasa de Crecimiento
Año Desempleo (%) PIB real (%) Año Desempleo (%) PIB real (%)
1929 3.2 …. 1942 4.7 12.1
1930 8.9 -9.5 1943 1.9 11.2
1931 15.9 -7.0 1944 1.2 7.1
1932 23.6 -15.0 1945 1.9 -1.2
1933 24.9 -2.7 1946 3.9 -10.0
1934 21.7 9.4 1947 3.6 -0.1
1935 20.1 10.4 1948 3.4 3.8
1936 17.0 13.3 1949 5.5 -0.1
1937 14.3 5.9 1950 5.0 8.7
1938 19.0 -4.6 1951 3.0 7.5
1939 17.2 8.1 1952 2.7 3.4
1940 14.6 8.7 1953 2.5 4.4
1941 9.9 15.7 1954 5.0 -1.6
Fuentes: (a) Desempleo — Stanley Lebergott, “Annual Estimates of Unemployment in the U.S., 1900-1950,” en The Measurement and Behavior of Unemployment (Princeton University Press, 1957), Table 1, pp. 215-16; (b) Crecimiento PIB real — Economic Report of the President, 1962 (Washington: Government Printing Office, 1962), Table B-3, p. 210.
[18]
Caso D — Costos de Impresión
Se espera que mientras mayor sea el número de páginas en un libro, mayor sea su
costo de impresión, ceteris paribus. Usted desea estimar la relación entre el costo
promedio por ejemplar y el número de páginas, tomando una muestra de los últi-
mos 10 anuarios publicados por una asociación académica5:
Libro No. Número de
Páginas Cantidad de Ejemplares
Costo Total
1 754 12,400 $ 16,253.00
2 677 12,700 $ 15,471.00
3 689 14,000 $ 16,780.00
4 745 14,800 $ 18,914.00
5 675 15,800 $ 19,759.00
6 615 16,000 $ 18,277.00
7 753 17,700 $ 23,440.00
8 698 18,500 $ 23,362.00
9 652 20,000 $ 23,264.00
10 670 22,500 $ 28,405.00
(a) ¿Qué porcentaje de la variación en el costo promedio se explica por la varia-
ción en el número de páginas?
(b) ¿Cuál sería su estimación del costo marginal por ejemplar para un libro de
500 páginas?
5Los datos sobre costos de publicación fueron tomados de H. F. Williamson, ―Report of
the Secretary for the Year 1966,‖ American Economic Review, 57 (May 1967), p. 690
(Exhibit II).
[19]
Caso E — Costos de Operación en Escuelas Públicas
En un estudio de los costos de operación en escuelas públicas del estado de Wis-
consin,6 el economista John Riew clasificó a 109 escuelas secundarias en grupos
según su tamaño (número de estudiantes inscritos), y encontró que el costo anual
promedio por alumno se comportaba de la siguiente manera:
Tamaño de la Escuela
Número de Escuelas
Costo Promedio por Alumno
143-200 6 $ 531.90
201-300 12 $ 480.80
301-400 19 $ 446.30
401-500 17 $ 426.90
501-600 14 $ 442.60
601-700 13 $ 413.10
701-900 9 $ 374.30
901-1100 6 $ 433.20
1101-1600 6 $ 407.30
1601-2400 7 $ 405.60
Total 109
Use estos datos para obtener una estimación aproximada del costo marginal por
alumno en escuelas de este tipo.
6John Riew, ―Economies of Scale in High School Operation,‖ Review of Economics and
Statistics, 48 (1966), p. 282 (Table 2).
[20]
Capítulo 3
REPASO DE ALGEBRA MATRICIAL
En el capítulo anterior se discutió el caso más simple de una regresión lineal con
una sola variable independiente. Por cierto que la aplicabilidad práctica de este
modelo simple es relativamente limitada, ya que generalmente las variaciones en
la variable dependiente no obedecen a un solo factor, sino que más bien existen
varios factores diferentes que pueden estarla influenciando.
En el caso más general de k diferentes variables independientes, nuestro pro-
blema consiste en estimar los coeficientes de la siguiente ecuación:
Y = 0 + 1X1 + 2X2 + ... + kXk + u
Se puede apreciar que en este caso la aplicación del criterio de ―mínimos cuadra-
dos‖ por medio de métodos algebraicos sería sumamente tedioso y complicado.
Afortunadamente, por medio de álgebra matricial se puede obtener una solución
bastante compacta por medio de unas pocas fórmulas muy simples. Por tanto, en
este capítulo repasaremos los elementos del álgebra de matrices que serán reque-
ridos en el resto del texto.
3.1. Matrices.
Una ―matriz‖ es una colección rectangular de elementos, ordenados en filas y
columnas. En su forma más general, una matriz tiene la siguiente forma:
A =
mnmm
n
n
aaa
aaa
aaa
...
......
......
...
...
21
22221
11211
donde aij (el ―elemento característico‖ de la matriz) es el elemento ubicado en la
fila i y la columna j. Si una matriz tiene m filas y n columnas, se dice que es de
[21]
orden ―m por n‖ ( nm ). La expresión [aij] también se usa para denotar a la ma-
triz que tiene aij como elemento característico. En este caso, A = [aij].
Un ―vector‖ es un caso especial de una matriz que tiene una sola fila (―vector
fila‖) o una sola columna (―vector columna‖). En lo que sigue, usaremos letras
mayúsculas para denotar matrices, y letras minúsculas para denotar vectores.
3.2. Operaciones con Matrices.
a) Igualdad de dos matrices — Se dice que dos matrices A y B son iguales cuan-
do son del mismo orden y aij = bij para todo i, j. Esto es, las matrices deben ser
iguales, elemento por elemento.
b) Suma y resta de matrices — Si A y B son del mismo orden, entonces A + B
será una nueva matriz C tal que cij = aij + bij. Esto es, se suman los elementos co-
rrespondientes de las dos matrices. En forma similar, A – B será una nueva matriz
D tal que dij = aij – bij, esto es, se restan los elementos correspondientes de las dos
matrices.
Ejemplo.
A
3 4 1
0 1 2
1 2 0
B
0 0 1
5 6 4
4 1 6
A B
3 4 2
5 7 6
5 3 6
A B
3 4 0
5 5 2
3 1 6
c) Multiplicación escalar — Si es una constante, entonces el ―producto escalar‖
de por una matriz A será tal que A = [aij]. Esto es, se multiplica cada ele-
mento de A por .
d) Multiplicación de matrices — Si A es una matriz de orden nm , y B es una
matriz de orden pn , entonces el producto AB será una matriz C de orden
pm con elemento característico:
n
k
kjikij bac1
[22]
Es decir, el elemento en la i-ésima fila y j-ésima columna de AB se encuentra
multiplicando los elementos de la i-ésima fila de A por los elementos correspon-
dientes de la j-ésima columna de B, y sumando los productos.
Ejemplo.
A
3 4
0 1
1 2
B 5 6
4 1AB
31 22
4 1
13 8
Nótese que para poder multiplicar dos matrices, el número de columnas de la
primera matriz debe ser igual al número de filas de la segunda matriz (caso con-
trario, el producto no está definido). Cuando se multiplican dos matrices, la ma-
triz resultante tendrá el mismo número de filas que la primera matriz, y el mismo
número de columnas que la segunda matriz. Es muy importante el orden en que
se multiplican las matrices, ya que en el caso de álgebra matricial ―el orden de los
factores sí altera el producto‖: BA generalmente no será igual a AB, y podría no
existir.
3.3. Teoremas sobre Matrices.
(i) Ley Conmutativa de la Suma.
A + B = B + A
Este resultado se desprende directamente de la definición de la suma de ma-
trices.
(ii) La Multiplicación de Matrices no es Conmutativa.
Como ya se mencionó en la sección anterior, en general AB ≠ BA (excepto en
el caso algunas matrices especiales). De hecho, a veces alguno de estos productos
ni siquiera estará definido. Los dos productos AB y BA existirán si las matrices
son de orden nm y mn , respectivamente. En ese caso, el primer producto se-
rá de orden mm , y el segundo de orden nn . (Aún en el caso de que los dos
productos sean del mismo orden, en general no serán iguales.)
(iii) Ley Asociativa de la Suma.
(A + B) + C = A + (B + C)
(iv) Ley Asociativa del Producto.
(AB)C = A(BC)
[23]
(v) Ley Distributiva.
A(B + C) = AB + AC
(A + B)C = AC + BC
3.4. Clases Especiales de Matrices.
Matriz Cuadrada: Se dice que una matriz es ―cuadrada‖ si el número de filas
es igual al número de columnas (m = n).
Matriz Diagonal: Es una matriz cuadrada que tiene elementos, no necesaria-
mente iguales, a lo largo de su ―diagonal principal‖ (los elementos aii), y ceros en
el resto. Obviamente, sólo las matrices cuadradas tienen una diagonal principal.
Matriz Identidad: Es una clase especial de matriz diagonal, que sólo tiene
unos en la diagonal principal. Esta es una matriz muy importante, y se representa
por el símbolo especial I. Se comprueba fácilmente que si se multiplica cualquier
matriz A por una matriz identidad del orden apropiado, entonces AI = A y IA =
A.
Matriz Escalar: Es una matriz diagonal que tiene la misma constante en la
diagonal principal. Si la constante es , entonces la matriz escalar se puede repre-
sentar por I.
Matriz Idempotente: Es una matriz cuadrada tal que AA = A.
3.5. Traza de una Matriz Cuadrada.
La ―traza‖ de una matriz cuadrada de orden n, tr(A), se define como la suma
de los elementos de su diagonal principal:
tr(A) =
n
i
iia1
Es obvio que tr(A + B) = tr(A) + tr(B), y tr(A – B) = tr(A) – tr(B).
La traza también tiene la siguiente propiedad importante: Si el producto de dos
matrices A y B es una matriz cuadrada, entonces tr(AB) = tr(BA).
[24]
Demostración. Sea C = AB, donde A es de orden nm , y B es de orden mn .
Entonces el elemento característico de C será:
n
k
kjikij bac1
tr(AB) =
m
i
n
k
n
k
m
i
ikkikiik
m
i
ii abbac1 1 1 11
= tr(BA)
ya que
m
i
ikki ab1
es el elemento dkk de D = BA.
Corolario: tr(ABC) = tr(BCA) = tr(CAB).
3.6. Transposición de Matrices.
A' (―A transpuesta‖) es la matriz que resulta de A tras intercambiar filas por
columnas. El elemento característico de A' es a'ij = aji. Por ejemplo,
A =
3813
214
12231
A' =
321
8122
13431
Si A' = A, se dice que A es una matriz ―simétrica‖. (Obviamente, para que una
matriz sea simétrica, tiene que ser cuadrada.)
Teoremas sobre Transpuestas.
3.6.1. (A')' = A
3.6.2. (A + B)' = A' + B'
3.6.3. (AB)' = B'A'
Demostración. Si C = AB, entonces
n
k
kjikij bac1
. Por tanto, el elemento carac-
terístico de C' será
n
k
kjik
n
k
jkki
n
k
kijkjiij ababbacc111
'''
que es precisamente el elemento característico del producto B'A'.
[25]
Corolario. (ABC)' = C'B'A'
Otro Corolario. AA' y A'A son simétricas. (Nota: En general AA' ≠ A'A, pero
sus trazas son siempre iguales. ¿Por qué?)
3.7. Matriz Inversa.
Se dice que A–1
es la ―inversa‖ de una matriz cuadrada A, si A–1
A = AA–1
= I.
Propiedades de la Inversa.
3.7.1. (A–1
)–1
= A
3.7.2. (AB)–1
= B–1
A–1
Demostración. AB(B–1
A–1
) = A(BB–1
)A–1
= AA–1
= I
3.7.3. (A')–1
= (A–1
)'
Demostración. Se sabe que
(1) A'(A')–1
= I
Transponiendo (1) tenemos ((A')–1
)'A = I. Por tanto,
(2) ((A')–1
)' = A–1
Transponiendo (2) obtenemos el teorema.
Corolario. Si A es simétrica, entonces A = A', y por tanto (A–1
)' = A–1
(la inversa
de una matriz simétrica es simétrica).
[26]
PREGUNTAS DE REPASO
1. Defina los siguientes términos:
a) Matriz cuadrada
b) Matriz identidad
c) Diagonal principal
d) Matriz simétrica
e) Matriz idempotente
f) Traza de una matriz
2. Construya algunos ejemplos numéricos para verificar los teoremas sobre
matrices enunciados en las secciones 3.3, 3.6 y 3.7.
3. Expanda (A + B)(A – B) y (A – B)(A + B). ¿Son iguales? ¿Por qué no?
4. Compruebe que para una matriz X de orden kn , las siguientes matrices son
idempotentes:
a) X(X'X)–1
X'
b) I – X(X'X)–1
X'
5. Compruebe que para una matriz X de orden kn , tr[I – X(X'X)–1
X'] = n – k.
6. Si y es un vector 1n , y X es una matriz kn , ¿cuál es el orden de la si-
guiente expresión?
(X'X)–1
X'y
[27]
Capítulo 4
REGRESIÓN LINEAL MÚLTIPLE
En este capítulo discutiremos el modelo general de regresión múltiple. En la
primera sección derivamos el estimador mínimo-cuadrático para el caso general
de k variables independientes, siguiendo un razonamiento análogo al del Capítulo
2. En la segunda sección introducimos el tema de la inferencia estadística en la
regresión lineal. Este es un tema nuevo, que no ha sido discutido en capítulos
anteriores. En la tercera sección comentamos sobre la interpretación del
coeficiente de determinación (R2) en el contexto de regresiones múltiples.
Finalmente, en la cuarta sección ilustramos la aplicación de los resultados
analíticos obtenidos por medio de un ejemplo numérico.
4.1. Vector Mínimo-Cuadrático.
4.1.1. Planteo del Problema.
Expresamos una variable ―dependiente‖ Y como función lineal de k variables
―independientes‖ X1, X2, ... , Xk:
Y = 0 + 1X1 + 2X2 + ... + kXk + u
donde 0, 1, 2, ... , k son constantes desconocidas, y u es una variable aleatoria
que refleja la variación en Y que no puede atribuirse a las variables independien-
tes (o ―explicativas‖). El problema consiste en obtener estimaciones de los k + 1
coeficientes en este modelo mediante análisis de n observaciones conjuntas sobre
la variable dependiente y las k variables independientes.
Nótese que podemos representar las observaciones sobre Y como un vector y
de orden 1n , mientras que las observaciones sobre las X podemos representar-
las como una matriz X de orden kn :
[28]
—————————————————————————
Observación
Nº Y X1 X2 .... Xk
—————————————————————————
1 Y1 X11 X12 .... X1k
2 Y2 X21 X22 .... X2k
3 Y3 X31 X32 .... X3k
. . . . .... .
. . . . .... . i Yi Xi1 Xi2 .... Xik
. . . . .... .
. . . . .... .
n Yn Xn1 Xn2 .... Xnk
y X
—————————————————————————
Se comprueba además que si la matriz X se aumenta con una columna de 1’s
(para poder tomar en cuenta 0, la ordenada en el origen), entonces el modelo
lineal para las n observaciones se puede expresar como:
y = X + u
donde es un vector de orden 1)1( k cuyos elementos son los coeficientes del
modelo lineal (0, 1, 2, ... , k), X es una matriz de orden )1( kn de obser-
vaciones sobre la variables independientes (incluyendo la columna de 1’s) y u es
un vector-columna de orden 1n cuyos elementos (u1, u2, ... , un) consisten de n
variables aleatorias idénticamente distribuidas.
Dado un vector b de estimadores de los coeficientes, el vector y también pue-
de expresarse como:
y = Xb + e
donde e es un vector de orden 1n cuyos elementos (e1, e2, ... , en) son los resi-
duos obtenidos de la ecuación estimada. (Esto es, e = y – Xb, donde Xb es la Y
―calculada.‖ No debe confundirse b con , ni e con u.)
[29]
4.1.2. Estimación de b.
El vector b que minimiza la suma de los errores cuadrados (e'e) se llama el
―vector mínimo-cuadrático.‖ Por definición,
e'e = 2
22110
2 )...( kkXbXbXbbYe
(Nuevamente, suprimimos los sub-índices i para facilitar la notación.) Para
minimizar e'e, derivamos respecto de cada uno de los k + 1 coeficientes, e
igualamos a cero. Así, obtenemos las ―ecuaciones normales‖:
(1) 0)...(2'
22110
0
kk XbXbXbbY
b
ee
(2) 0)...(2'
122110
1
XXbXbXbbY
b
eekk
(3) 0)...(2'
222110
2
XXbXbXbbY
b
eekk
. . . . . .
(k + 1) 0)...(2'
22110
kkk
k
XXbXbXbbYb
ee
Estas k + 1 ecuaciones también pueden expresarse como
(1) 0e
(2) 01 eX
(3) 02 eX
. . . . . .
(k + 1) 0 eX k
Se puede comprobar fácilmente que en términos de nuestra notación matricial
este sistema de k + 1 ecuaciones puede expresarse como
X'e = 0
[30]
donde 0 es un vector de ceros de orden 1)1( k . Puesto que e = y – Xb, esto
también lo podemos expresar como
X'(y – Xb) = 0
Por tanto,
X'Xb = X'y
Multiplicando ambos lados por (X'X)–1
obtenemos el vector mínimo-cuadrático:
b = (X'X)–1
X'y
Los k + 1 elementos de este vector-columna (b0, b1, b2, ... , bk) son los respectivos
estimadores de 0, 1, 2, ... , k.
En la práctica el investigador no calculará el vector b directamente usando es-
ta fórmula, ya que existen programas de computadora que hacen todos los cálcu-
los requeridos con mayor rapidez y precisión que lo que podría hacerlo una per-
sona armada únicamente de una calculadora manual. Es importante, sin embargo,
tener una idea clara de qué es lo que hace la computadora cuando se corre un pro-
grama de regresión, y además esta expresión nos será muy útil más adelante para
propósitos analíticos.
4.2. Inferencia Estadística en la Regresión Lineal.
4.2.1. Supuestos Básicos.
El objetivo de esta sección es desarrollar procedimientos para testar hipótesis
sobre los coeficientes del modelo lineal. Para esto, debemos hacer ciertas suposi-
ciones sobre el comportamiento estadístico de los errores. Los dos supuestos más
importantes en el modelo clásico de regresión lineal son los siguientes:
Supuesto No. 1: ui tiene una distribución N(0, 2) para toda i.
En palabras, suponemos que todas las ui tienen una misma distribución normal,
con la misma media (0) y la misma varianza (2). Una implicación de este su-
puesto es que E(u) = 0, es decir, que el valor esperado del vector u es un vector
de ceros.
Supuesto No. 2: E(uu') = 2I.
Nótese que el elemento característico de la matriz uu' es uiuj. Por tanto, suponer
que el valor esperado de uu' es una matriz escalar equivale a suponer lo siguiente:
[31]
(1) E(uiuj) = 0 para i ≠ j, o sea, todos los elementos no-diagonales de E(uu') son
cero. Esto implica que las ui son independientes unas de otras.
(2) E(ui2) =
2, o sea, todos los elementos de la diagonal de E(uu') son iguales a
2. Esto implica que cada ui tiene la misma varianza
2. (Si suponemos que la
media de ui es 0, entonces E(ui2) será la varianza de ui.)
4.2.2. Valor Esperado y Matriz de Varianza-Covarianza de b.
Puesto que según el modelo lineal y = X + u, entonces
b = (X'X)–1
X'y = (X'X)–1
X'(X + u) = + (X'X)–1
X'u
Por tanto, el valor esperado del vector b será
E(b) = + E[(X'X)–1
X'u] = + (X'X)–1
X'E(u) =
dado que E(u) = 0. Este es un resultado muy importante, ya que significa que b es
un estimador insesgado de . Además, puesto que b – = (X'X)–1
X'u, entonces
(b – )( b – )' = (X'X)–1
X'uu'X(X'X)–1
(Recuérdese que X'X es una matriz simétrica.) Si obtenemos el valor esperado de
esta expresión y aplicamos el supuesto No. 2, tendremos:
E[(b – )( b – )'] = (X'X)–1
X'E(uu')X(X'X)–1
= (X'X)–1
X'2IX(X'X)
–1
= 2(X'X)
–1
Nótese que el elemento característico de E[(b – )(b – )'] es E[(bi – i)(bj – j)],
que es la covarianza entre bi y bj. Para i = j (los elementos de la diagonal de esta
matriz) esto se reduce a E[(bi – i)2], que es la varianza de bi. Por tanto, a esta
matriz se le llama la ―matriz de varianza-covarianza del vector b‖.
4.2.3. Estimación de 2 y
2(X'X)
–1.
En general, no conocemos 2, pero podemos obtener un estimador insesgado
de la siguiente manera. Por definición, el vector de residuos de la regresión esti-
mada será
e = y – Xb = y – X(X'X)–1
X'y = [I – X(X'X)–1
X']y
= [I – X(X'X)–1
X'](X + u) = [I – X(X'X)–1
X']u
Nótese que la expresión entre corchetes es una matriz simétrica idempotente, y
que la traza de esta matriz es la diferencia entre las trazas de dos matrices identi-
dad:
[32]
tr[I – X(X'X)–1
X'] = tr(I) – tr[X(X'X)–1
X'] = tr(I) – tr[(X'X)–1
X'X] = n – (k + 1)
ya que la primera matriz identidad es de orden n, y la segunda es de orden (k + 1).
Además, la suma de los errores cuadrados (e'e) es de orden 11 , y por tanto será
igual a su traza:
e'e = tr(e'e) = tr(u'[I – X(X'X)–1
X']u) = tr([I – X(X'X)–1
X']uu')
= tr(uu'[I – X(X'X)–1
X'])
Por último, puesto que la traza es una sumatoria,
E(e'e) = E[tr(uu'[I – X(X'X)–1
X'])] = tr[E(uu')(I – X(X'X)–1
X')]
= tr(2I[I – X(X'X)
–1X'] ) =
2tr[I – X(X'X)
–1X'] =
2(n – k – 1)
Por tanto, puede obtenerse un estimador insesgado de 2 calculando:
11
'2
2
kn
e
kn
eeS
i
y el estimador insesgado de 2(X'X)
–1 será S
2(X'X)
–1. Los elementos de la diago-
nal de esta matriz cuadrada de orden (k + 1) son los estimadores de las varianzas
de los coeficientes del vector b: el primer elemento de la diagonal de S2(X'X)
–1 es
la varianza muestral de b0, el segundo elemento es la varianza muestral de b1,
etc.7
4.2.4. Testado de Hipótesis.
Supongamos que se desea testar la siguiente hipótesis nula sobre uno de los
coeficientes de regresión:
H0: i = * (donde * es algún valor numérico). Para testar esta hipótesis, se cal-
cula el siguiente estadístico:
)(
*
i
i
bs
b
7Esto es para el caso general de un modelo que incluye una ordenada en el origen (0).
Si la regresión es ―por el origen‖ (ver Pregunta de Repaso No. 2 del Capítulo 2), enton-
ces tr[I – X(X'X)–1
X'] = n – k, ya que la matriz X sólo tiene k columnas, y el denomina-
dor en la fórmula para S2 es n – k. El primer elemento de la diagonal de S
2(X'X)
–1 es la
varianza muestral de b1, el segundo elemento es la varianza muestral de b2, etc.
[33]
donde s(bi) es la desviación estándar de bi, o sea, la raíz cuadrada del elemento
correspondiente de la diagonal de S2(X'X)
–1. Este estadístico tiene una distribu-
ción t con n – k – 1 grados de libertad.8 Por tanto, si la prueba es ―a dos colas‖
con un nivel de significancia de 5 %, rechazamos H0 si el valor absoluto de este
estadístico es mayor que el valor crítico de t para 2.5 % y n – k – 1 grados de li-
bertad. (Si la prueba es ―a una cola,‖ usamos el valor crítico para 5 %.)
Muchas veces, la hipótesis nula que queremos testar en un análisis de
regresión es H0: i = 0, o sea, la hipótesis de que la variable independiente Xi no
tiene realmente ningún efecto sobre Y. En este caso, para testar esta hipótesis
simplemente se calcula )( i
i
bs
b y se compara con el valor crítico relevante para la
distribución t. En la terminología del análisis de regresión, esta razón se conoce
como la ―razón t,‖ y si rechazamos la hipótesis nula podemos concluir que Xi sí
tiene un efecto sobre Y. A menudo esto se expresa diciendo que Xi es una variable
―significativa,‖ o que su coeficiente (i) es ―significativamente mayor (o menor)
que 0.‖9
4.3. Coeficiente de Determinación (R2).
En un análisis de regresión múltiple, el coeficiente de determinación (R2) se
define igual que en el caso de la regresión simple, y tiene la misma interpretación,
aunque debe tomarse en cuenta que en este caso lo que estamos midiendo es el
porcentaje de la variación en Y que se explica por la variación conjunta de las
variables independientes. (El estudiante podrá comprobar también que la R2
en
una regresión múltiple es igual a la R2
de la regresión simple de Y contra .Y Esta
segunda interpretación es quizá más fácil de visualizar.)
En general, no podemos descomponer la variación explicada en términos de
cuánto aporta cada variable independiente individual, pero existe un caso especial
donde esto sí es posible. Si la correlación entre las diferentes variables explicati-
vas es exactamente cero, entonces la R2 de la regresión múltiple será igual a la
8Para una demostración rigurosa, véase Johnston, Econometric Methods, pp. 135-38.
(Por lo expuesto en la Nota 7, una regresión ―por el origen‖ cuenta con n – k grados de
libertad.)
9A menudo los econometristas usan la siguiente regla empírica para decidir si una varia-
ble es ―significativa‖ en una regresión lineal: Concluir que la variable es significativa si
su coeficiente estimado es por lo menos dos veces mayor, en valor absoluto, que su des-
viación estándar (o sea, si el valor absoluto de la ―razón t‖ es mayor que 2). ¿Cómo jus-
tificaría usted el empleo de este criterio?
[34]
suma de las R2 de las regresiones simples de cada variable explicativa contra Y.
Es muy raro que suceda esto en la práctica, pero si los datos provienen de un ex-
perimento controlado entonces es posible diseñar el experimento en forma tal que
los datos muestrales tengan esta propiedad.
4.3.1. Comparando dos o más regresiones en términos de R
2.
Un problema que surge cuando se calculan diferentes regresiones para una
misma variable dependiente es que los valores de R2 no son estrictamente compa-
rables. Cuando se agregan variables independientes a una regresión, el resultado
es que la R2 necesariamente aumenta, ya sea que las variables adicionales sean
significativas o no. Recordemos que R2 se calcula por medio de la fórmula:
2
2
2
)(1
yY
eR
Supongamos que tenemos dos regresiones: una primera regresión con k varia-
bles independientes (Regresión 1), y una segunda regresión que contiene, además
de estas variables, una variable adicional Xk+1 (Regresión 2). Puesto que 2)( yY será igual para las dos regresiones, el efecto sobre R
2 dependerá de
los que sucede con .2e Para la Regresión 2 la suma de los errores cuadrados
necesariamente será menor o igual que para la Regresión 1, no importando si Xk+1
es significativa o no. Para entender por qué, notemos que si aumenta 2e cuan-
do se agrega Xk+1, entonces significa que los coeficientes estimados para la Re-
gresión 2 no minimizan ,2e ya que existe otro vector de coeficientes que pro-
ducirá una menor suma de errores cuadrados: este sería un vector que mantiene
los coeficientes de la Regresión 1, y asignando 0 para el coeficiente de Xk+1. Por
tanto 2e no puede ser mayor para la Regresión 2, y sólo será igual en las dos
regresiones si el coeficiente estimado de Xk+1 es exactamente 0, lo cual es muy
poco probable que suceda en la práctica ya que incluso si la variable adicional no
tiene realmente ningún efecto sobre Y, su coeficiente estimado será pequeño pero
no 0, debido a la variación muestral. En la práctica, entonces, 2e siempre será
menor para la Regresión 2, y por tanto R2 siempre aumentará.
4.3.2. R2 ajustada (
2
R ).
Esto significa que R2 no es, por sí sola, una buena guía para comparar diferen-
tes regresiones, ya que este coeficiente siempre aumentará si se agregan más va-
riables independientes, aun cuando éstas no son significativas. Debido a esto,
Henri Theil propuso una modificación a la fórmula convencional, para compensar
[35]
por este efecto cuando se comparan regresiones diferentes.10
En el ajuste propues-
to por Theil se toma en cuenta el hecho de que, para un tamaño de muestra de-
terminado, más variables explicativas en una regresión implican menos grados de
libertad para la estimación. A diferencia de la R2 convencional, que compara la
variación no-explicada (suma de los errores cuadrados) con la variación total en
Y, la R2 ―ajustada‖ (que se representa por medio del símbolo
2
R ) compara la va-
rianza de los errores con la varianza de Y:
2
2
2
2
2
)(1
11
1
)
11)(
)(1
yY
e
kn
n
n
yY
kn
e
YVar
eVarR
Esto también puede expresarse como:
)1(1
11 22
Rkn
nR
2
R puede ser negativa, y su valor siempre será menor o igual que la R2 conven-
cional.11
Además, a diferencia de la R2 convencional,
2
R puede aumentar o dis-
minuir cuando se agregan más variables independientes. La dirección del efecto
dependerá de si la reducción en 2e compensa o no la reducción en los grados
de libertad debido a la inclusión de la variable adicional.
4.4. Aplicación — Costos Administrativos en la Banca Comercial.
Ahora podemos finalmente realizar un ejemplo numérico para ilustrar la apli-
cación de estos conceptos. Como ya se mencionó antes, en la práctica la mayor
parte de los cálculos en un análisis de regresión se realizan por medio de un pro-
grama de computación, por lo que no viene al caso ilustrar numéricamente los
cálculos matriciales. El ejemplo concreto que se desarrolla a continuación está
basado en un estudio estadístico de los costos de administración en los bancos
comerciales guatemaltecos durante el año 1991. Los resultados de este análisis
pueden proporcionar una buena indicación sobre el comportamiento de los costos
para el banco ―típico‖ en Guatemala, aunque la naturaleza misma de un estudio
10
Henri Theil, Principles of Econometrics (New York: John Wiley & Sons, 1971),
pp. 178-79.
11
Por lo expuesto en las Notas 7 y 8, cuando la regresión es ―por el origen‖ el denomina-
dor correcto para el factor de ajuste es n – k.
[36]
de este tipo no puede arrojar resultados estrictamente aplicables a cada uno de los
bancos considerados individualmente. No obstante, a pesar de esto, un estudio de
este tipo de todos modos puede ser muy útil, porque los resultados pueden pro-
porcionar una ―norma‖ o ―estándar‖ contra el cual se pueden comparar los costos
administrativos en un banco particular. En ausencia de un estudio de este tipo, un
banco no tiene realmente un criterio para determinar si sus costos son ―acepta-
bles‖ o ―normales,‖ ya que los bancos difieren enormemente en cuanto a cantidad
de activos, número de sucursales, etc., por lo que el único criterio objetivo sería el
de compararse con un banco de similar tamaño y características. Sin embargo, si
se pudiera obtener una fórmula empírica que permita calcular un valor ―normal‖
o ―promedio‖ para los costos administrativos en función de unas pocas variables
que permitan una medición numérica, entonces se podría fácilmente determinar si
el banco en cuestión está ―mejor‖ o ―peor‖ que el banco ―típico‖ a ese respecto.
(Estos resultados también podrían servir para comparar el comportamiento de los
costos administrativos en los bancos comerciales con los de otros tipos de institu-
ciones financieras.) La variable dependiente para el análisis será el nivel anual de
los ―Gastos Generales y de Administración‖ en los diferentes bancos del sistema.
Si se observa el Cuadro 4.1, se podrá apreciar que estos costos (que en lo sucesi-
vo llamaremos simplemente ―costos administrativos‖) varían enormemente de un
banco a otro. Nuestro problema consistirá, por tanto, en encontrar una lista de va-
riables que nos permitan ―explicar,‖ estadísticamente, esta variación observada.
4.3.1. Primera Aproximación.
A un nivel muy elemental, por supuesto, dicha variación no tiene realmente
ningún misterio, ya que los bancos varían mucho en cuanto a su tamaño, y es más
bien de esperarse que los bancos más ―grandes‖ tengan también costos adminis-
trativos más altos por el sólo hecho de ser más grandes. Nuestra tarea será tradu-
cir esta noción intuitiva en un concepto operativo, y para esto debemos tratar de
expresar el ―tamaño‖ de un banco en términos de alguna variable numérica. En
este estudio, la variable escogida para este propósito fue el Total de Activos del
banco. Con esto, y como una primera aproximación para el análisis, la recta de
regresión será la siguiente:
(1) Yi = 0 + 1Xi + ui
donde Yi = Costos Administrativos del banco i, Xi = Activos Totales del banco i.
Los Activos Totales de un banco son una buena medida de su ―tamaño,‖ aun-
que no es la única medida posible, por lo que la decisión de adoptar esta medida
específica es en cierto modo arbitraria. Por otro lado, el empleo de los Activos
Totales como variable independiente en la regresión facilita en cierto modo la in-
terpretación económica de los coeficientes:
[37]
————————————————————————————————————————————————
CUADRO 4.1. BANCOS COMERCIALES PRIVADOS EN GUATEMALA (1991).
Millones de Quetzales
Gastos Generales y de Admin.
Total Activo Promedio
Agencias
G&T 48.8 831.5 30
INDUSTRIAL 43.2 1204.0 18
OCCIDENTE 39.4 1153.5 20
del CAFE 29.8 499.6 25
del AGRO 26.2 466.6 30
AGRICOLA MERC. 24.8 522.3 12
INTERNACIONAL 24.0 376.6 12
INMOBILIARIO 21.5 431.3 20
CONSTRUBANCO 18.3 282.2 10
del EJERCITO 15.6 311.8 13
LLOYD’S 14.3 284.5 7
METROPOLITANO 12.9 339.0 8
BANEX 12.5 462.8 3
del QUETZAL 8.8 205.0 12
PROMOTOR 6.0 162.4 3
CITIBANK 5.9 45.8 1
CONTINENTAL 3.6 113.7 4
REFORMADOR 1.7 237.3 7
UNO 1.0 170.8 5
Fuente: Superintendencia de Bancos, Boletín de Estadísticas Bancarias (Guatemala, 4º Trimestre, 1992).
————————————————————————————————————————————————
(a) El coeficiente 1 nos indica en cuánto incrementa el costo administrativo
anual por cada quetzal adicional de activos que maneja el banco. En otras pala-
bras, este coeficiente nos mide el ―costo marginal‖ de administrar un quetzal adi-
cional de activos. Obviamente, este es un dato sumamente interesante para los
tomadores de decisiones en el sector bancario. Esperamos naturalmente que este
coeficiente sea positivo.
(b) Por otro lado, el coeficiente 0, que matemáticamente es simplemente la ―or-
denada en el origen‖ (o sea, el valor de Y cuando X = 0), nos estaría indicando la
parte del costo administrativo que no varía directamente con el nivel de los acti-
vos del banco. En otras palabras, esta es la parte del costo administrativo que po-
dría interpretarse como un ―costo fijo.‖ Esperamos también que este coeficiente
sea positivo.
[38]
4.3.2. Segunda Aproximación.
Un posible defecto de la ecuación (1) es la suposición de que todos los bancos
tienen los mismos costos fijos. Por otro lado, se puede apreciar en el Cuadro 4.1
que los bancos comerciales varían mucho en cuanto al número de sucursales o
agencias que operan, y este es un factor que seguramente debe afectar el nivel de
los costos administrativos. Por esto, como una segunda aproximación, se estimará
la siguiente regresión adicional:
(2) Y = 0 + 1X1 + 2X2 + u
donde X1 = Activos Totales del banco i, X2 = Número de Agencias del banco i.
(De aquí en adelante suprimiremos el uso del sub-índice i, para facilitar la nota-
ción. Se entiende que cada observación corresponde a un banco diferente.) En es-
ta segunda regresión, el coeficiente 2 nos está midiendo el incremento en el cos-
to administrativo anual que resulta de manejar una agencia adicional. Esperamos,
por tanto, que este coeficiente sea positivo. (Naturalmente que este coeficiente
tendría que interpretarse como un costo ―promedio‖ por agencia, ya que ninguna
agencia es exactamente igual que otra, por lo que difícilmente pueden tener todas
el mismo costo.) Los demás coeficientes tienen la misma interpretación que en la
ecuación (1).
4.3.3. Datos.
Antes de reportar los resultados de las regresiones, es necesario y conveniente
hacer las siguientes aclaraciones sobre los datos:
(a) Se tomó la decisión de incluir en la muestra únicamente a los bancos comer-
ciales privados, ya que los bancos estatales tienen peculiaridades especiales que
posiblemente resulten en un comportamiento diferente en cuanto a sus costos
administrativos. (Puesto que lo que nos interesa es investigar el comportamiento
de los costos administrativos en el banco comercial ―típico,‖ incluir a los bancos
estatales podría resultar en una distorsión de los resultados, ya que dichos bancos
no son ―típicos‖ a ese respecto.)
(b) Podría existir un problema de comparabilidad de los datos sobre Costos
Administrativos y Activos Totales, dada la manera como se reportan los datos en
la fuente original, ya que las cifras sobre Costos Administrativos corresponden a
los gastos anuales efectuados durante un año determinado, mientras que las cifras
sobre Activos Totales corresponden a los valores al 31 de Diciembre de cada año.
No está del todo claro que la cifra correspondiente al final del año sea la más
adecuada para propósitos del análisis, y probablemente sería mejor contar con una
[39]
cifra para los Activos Totales que represente algún valor promedio durante el año.
Para evitar estos problemas, se optó por calcular un promedio aritmético de los
Activos Totales al 31 de Diciembre de 1991, y al 31 de Diciembre del año
anterior. Esta cifra promedio, si bien no es la solución perfecta para este
problema, probablemente se acerca más al nivel promedio de los Activos Totales
en cada año, y en todo caso será mejor que simplemente usar la cifra de fines de
año.
4.3.4. Resultados.
Los resultados para la ecuación (1) fueron los siguientes (los números entre
paréntesis son las desviaciones estándar de los coeficientes estimados):
103906.0203.2ˆ XY R2 = 0.7935
(2.551) (0.00483) n = 19
Se puede apreciar en primer lugar que esta regresión, a pesar de ser muy sencilla,
tiene un alto grado de poder explicativo: el coeficiente de determinación (R2) in-
dica que la variación en los Activos Totales explica casi 80 % de la variación en
los Costos Administrativos. Como era de esperarse, el valor estimado para b1, la
pendiente de la regresión, es positivo y altamente significativo. Para testar for-
malmente la hipótesis nula 1 = 0, calculamos el estadístico b1/s(b1), que en este
caso tiene un valor de 8.087 (= 0.03906 ÷ 0.00483). Consultando la tabla de valo-
res críticos para la distribución t (ver las tablas al final del texto), se puede ver
que para 17 grados de libertad el valor crítico para 5 % a dos colas es de 2.11.
Puesto que 8.087 > 2.11, en este caso se rechaza la hipótesis de que el verdadero
coeficiente 1 es cero, y por tanto concluimos que X1 es una variable significativa.
Por otro lado, el valor estimado para b0 , la ordenada en el origen, aunque positi-
vo, no es significativo, ya que 2.203 ÷ 2.551 = 0.864 < 2.11.
Los resultados para la ecuación (2) fueron los siguientes:
21 661.00275.022.1ˆ XXY
(1.99) (0.0044) (0.157) R2 = 0.9018
La R
2 para esta segunda regresión es poco más de 90 %, aunque, por lo explicado
en la sección anterior, las dos regresiones no son estrictamente comparables en
términos de la R2 convencional, por lo que debemos aplicar el concepto de R
2
ajustada. Para el primer modelo, con n = 19 y k = 1,
7814.0)7935.01(17
181
2
R
[40]
Para el segundo modelo, con k = 2, .8895.0)9018.01(16
181
2
R Se puede
apreciar claramente que la adición de X2, el número de agencias, incrementa bas-
tante el poder explicativo de la regresión.
Al igual que en el caso anterior, el valor estimado para b1 es positivo y signi-
ficativo, y es interesante notar que es menor al estimado en la primera regresión.
Esto implica que la primera regresión probablemente tiende a sobre-estimar este
coeficiente, debido a que omite el efecto de la variable X2. Como era de esperarse,
el valor estimado para b2 es también positivo y altamente significativo. Por otro
lado, se aprecia que el valor estimado para b0 es negativo y no-significativo. Esto
nos apunta a una conclusión interesante: Al parecer, el componente ―fijo‖ de los
costos administrativos depende básicamente del número de agencias que adminis-
tra el banco.
Puesto que el coeficiente b0 no es significativamente diferente de cero en esta
segunda regresión, corresponde ahora volver a estimar esta regresión ―por el ori-
gen,‖ es decir, sin esta constante. Los resultados son los siguientes:
21 621.00266.0ˆ XXY
(0.0041) (0.141) R2 = 0.8995
Aquí se aprecia que el poder explicativo es básicamente igual que en la regresión
anterior, aunque al haber eliminado un coeficiente posiblemente ―redundante,‖
esta tercera regresión nos proporciona en principio estimaciones más eficientes de
los otros coeficientes:
(a) El coeficiente b1, se recordará, nos mide el costo ―marginal‖ de administrar un
quetzal adicional de activos. Según estas estimaciones, por tanto, se podría con-
cluir que en números redondos el costo administrativo de un banco ―típico‖ au-
mentará entre 2 y 3 centavos por año por cada quetzal adicional de activos que
administre.
(b) El coeficiente b2, se recordará, nos mide el incremento en el costo administra-
tivo anual que resulta de manejar una agencia adicional. Según estas estimacio-
nes, por tanto, se podría concluir en números redondos, y tomando en cuenta que
los datos se expresan en términos de millones de quetzales, que el costo adminis-
trativo de un banco ―típico‖ aumentará alrededor de 620,000 quetzales por año
por cada agencia adicional. (Debe recordarse que estas cifras están expresadas en
términos de quetzales de 1991.)
[41]
CASOS APLICADOS
Caso F — Demanda de Fotocopias
En el cuadro adjunto se muestra una estadística de la venta trimestral de fotoco-
pias en la Biblioteca de la Universidad Francisco Marroquín (UFM) durante un
período reciente, y la cantidad de usuarios en dicha biblioteca, clasificados según
varias categorías. (Para facilitar los cálculos, los datos se expresan en términos de
miles de fotocopias y miles de usuarios.) Como se puede observar, el movimiento
de fotocopias varía mucho de un trimestre a otro. Utilice los datos disponibles pa-
ra estimar un modelo de regresión múltiple que explique esta variación.
¿Qué porcentaje de la variación en el volumen de fotocopias se puede explicar
por las variaciones en el número de usuarios de diferente tipo? ¿Cuáles son los
usuarios que más impacto tienen sobre las ventas de fotocopias?
Año, Trimestre
Fotocopias (trimestral)
Visitantes por Trimestre
Estudiantes Universitarios Escolares Otros Total
UFM Otras Univ.
1994 I 55.786 33.813 1.758 1.853 2.336 39.760 II 55.734 30.431 1.352 2.317 1.906 36.006 III 51.222 27.226 1.737 1.695 1.547 32.205
IV 27.344 15.366 1.165 0.872 2.084 19.487
1995 I 52.456 31.724 1.255 1.328 2.177 36.484
II 47.630 26.745 1.140 2.915 1.821 32.621
III 43.670 31.612 1.594 1.835 1.439 36.480
IV 15.314 20.357 0.768 0.307 1.144 22.576
1996 I 67.434 36.322 1.799 1.917 2.790 42.828
II 59.024 29.418 0.962 1.712 1.624 33.716
III 60.868 29.728 1.352 1.634 0.811 33.525
IV 27.214 14.993 0.890 0.307 0.275 16.465
1997 I 57.632 36.361 1.865 2.066 2.622 42.914
II 57.518 38.427 1.276 2.759 2.188 44.650
III 48.266 28.327 1.580 1.933 2.111 33.951
IV 29.928 21.425 1.163 0.514 1.325 24.427
1998 I 56.128 36.398 1.930 2.214 2.451 42.993
II 46.948 30.474 1.670 1.874 2.103 36.121
III 37.942 22.712 1.948 1.342 1.716 27.718
IV 19.682 17.772 0.938 0.341 1.153 20.204
1999 I 45.282 28.261 1.939 1.741 1.639 33.580
II 67.546 27.090 1.711 2.323 1.796 32.920
III 65.364 23.751 2.210 1.732 1.658 29.351
IV 30.064 12.827 0.710 0.182 0.672 14.391
Fuente: Registros de la Biblioteca.
[42]
Caso G — Inflación en América Latina
La llamada Teoría Cuantitativa del Dinero (también conocida como ―monetaris-
mo‖) postula a largo plazo una relación estable entre tres variables macroeconó-
micas muy importantes: el cambio porcentual en el índice general de precios (i.e.,
la tasa de ―inflación‖), el cambio porcentual en la masa monetaria (la tasa de
―crecimiento monetario‖), y el cambio porcentual en el PIB a precios constantes
(la tasa de ―crecimiento real‖).12
Según esta teoría, la inflación estará positiva-
mente relacionada con la tasa de crecimiento monetario, e inversamente relacio-
nada con la tasa de crecimiento económico real.
El cuadro adjunto muestra las tasas anuales promedio de inflación, crecimiento
monetario, y crecimiento real en 16 países latinoamericanos durante el período
1950-69. La inflación fue medida por medio del IPC, y el crecimiento monetario
se basa en el agregado monetario conocido como M1 (efectivo fuera de bancos +
depósitos a la vista en bancos comerciales).
Use estos datos para estimar la siguiente regresión:
Y = 0 + 1X1 + 2X2 + u
donde Y = tasa anual promedio de inflación, X1 = tasa anual promedio de creci-
miento monetario, y X2 = tasa anual promedio de crecimiento en PIB real.
Comente sobre los resultados, e interprete el significado de los coeficientes en
términos de la Teoría Cuantitativa.
12
Para un desarrollo moderno de esta teoría, véase Milton Friedman, ―Money: Quantity
Theory,‖ International Encyclopedia of the Social Sciences (1968), vol. 10, pp. 432-47.
[43]
INFLACIÓN EN 16 PAÍSES LATINOAMERICANOS, 1950-69
Tasa Anual (%) Promedio de:
Inflación
Crecimiento Monetario
Crecimiento PIB Real
Argentina 26.4 24.6 2.4
Bolivia 41.3 41.6 3.0
Brasil 35.1 38.2 3.9
Chile 28.2 35.2 4.6
Colombia 9.2 16.5 5.4
Costa Rica 1.9 9.0 5.7
Ecuador 3.0 8.8 4.7
El Salvador 0.3 3.5 4.6
Guatemala 1.1 5.9 3.9
Honduras 2.1 8.0 4.0
México 5.3 11.3 6.9
Nicaragua 3.4 8.6 3.7
Paraguay 12.5 15.4 5.5
Perú 8.5 13.4 5.7
Uruguay 43.0 40.1 0.7
Venezuela 1.1 7.9 6.8
Fuente: R. C. Vogel, “The Dynamics of Inflation in Latin America, 1950-1969,” American Economic Review, 64 (1974), Table 1, p. 103.
[44]
Capítulo 5
AMPLIACIONES DEL MODELO LINEAL
En este capítulo ampliaremos nuestra discusión del modelo lineal, considerando
primeramente la estimación de formas funcionales no-lineales. La discusión se
concentrará principalmente en la aplicación e interpretación del llamado ―modelo
doble-log,‖ que es el que más se aplica en la práctica. Luego se amplía el modelo
lineal en otra dirección, mediante el uso de variables ―binarias.‖ Por último, se
discuten algunos problemas especiales que pueden surgir en aplicaciones prácti-
cas, como ser el problema de variables omitidas, el problema de ―multicolineali-
dad‖, y el problema de ―heteroscedasticidad.‖
5.1. Estimación de Formas Funcionales No-lineales.
El modelo clásico de regresión lineal se basa en el supuesto de que la varia-
ble dependiente Y es una función lineal de las variables independientes X1, X2,
... , Xk. Ahora bien, esto es mucho menos restrictivo de lo que podría parecer a
primera vista, ya que de hecho es posible estimar los parámetros de algunas fun-
ciones no-lineales por medio del modelo de regresión lineal, si se hacen algunas
transformaciones de las variables.
En esta etapa de nuestro análisis es conveniente hacer una distinción entre (1)
las variables ―explicativas,‖ y (2) los ―regresores‖ que las representan en la ecua-
ción de regresión. Consideremos, por ejemplo, la siguiente relación funcional:
Y = + ln(X)
Obviamente, la relación funcional entre Y y X no es lineal, aunque existe una re-
lación lineal entre Y y el logaritmo de X, y por tanto los parámetros de esta rela-
ción podrían ser estimados por regresión lineal si se toma ln(X) como la variable
independiente. En este caso, si bien la variable ―explicativa‖ es X, el ―regresor‖ es
ln(X). Lo que requiere el modelo clásico de regresión lineal es que la variable de-
pendiente (en la regresión) sea una función lineal de los regresores.13
13
Como un ejemplo, considérese la siguiente función de producción, ―estimada en base a
pruebas de campo realizadas en El Llano, en el Valle Central de Chile en 1962-63:
Y = 18.846512 + 7.586167 N + 2.469969 P – 0.655713 N2 – 0.397513 P
2 + 0.211423 NP
[45]
5.1.1. Modelo Doble-logarítmico.
Tal vez la transformación que más se emplea en la práctica en la econometría
aplicada sea el llamado modelo doble-log, donde todas las variables se expresan
en términos de logaritmos:
ln(Y) = 0 + 1ln(X1) + 2ln(X2) + ... + k ln(Xk) + u
En muchos problemas, el interés del investigador no se centra tanto en la ―pen-
diente,‖ o sea, el cambio en Y que se produce como resultado de un cambio de
una unidad en X, sino en la ―elasticidad,‖ que es el cambio porcentual en Y que se
produce como resultado de un cambio de 1 % en X. En esta situación, el modelo
doble-log es interesante porque los coeficientes del modelo son estimaciones di-
rectas de la elasticidad de Y respecto de las respectivas variables explicativas. Pa-
ra comprobar esto, nótese que
)ln(
)ln(.
i
i
i X
Y
Y
X
X
Y
que es la elasticidad de Y respecto de la i-ésima variable explicativa,14
es preci-
samente el coeficiente i en el modelo doble-log. Debido a esta propiedad, el mo-
delo doble-log se usa con mucha frecuencia en la estimación de funciones de de-
manda.
En el Cuadro 5.1 se detallan las propiedades de otras formas funcionales que
también se emplean a menudo en estudios econométricos. A continuación, ilus-
traremos la aplicación del modelo doble-log por medio de la estimación de una
función de demanda.
donde Y = quintales de trigo por hectárea, N = nitrato de sodio en unidades de 150 kg
por hectárea, y P = triple superfosfato en unidades de 100 kg por hectárea‖ (J. J. Dillon,
The Analysis of Response in Crop and Livestock Production, 2ª ed. [Oxford: Pergamon
Press, 1977], p. 18). El uso de este tipo de función es muy común en el análisis de expe-
rimentos agrícolas. Nótese que en esta ecuación sólo existen dos variables explicativas,
N y P, y su relación con la variable dependiente no es lineal, pero existen cinco regreso-
res, y la relación entre la variable dependiente y los regresores es lineal.
14
R. G. D. Allen, Análisis Matemático para Economistas (Madrid: Aguilar, 1978),
p. 247.
[46]
_________________________________________________________________
Cuadro 5.1.
FORMAS FUNCIONALES ALTERNATIVAS
En la siguiente tabla se hace una comparación de varias formas funcionales dife-
rentes que a menudo se emplean en estudios aplicados. (Para mayor simplicidad,
se presentan las formas funcionales en términos de una sola variable explicativa,
pero los resultados se pueden generalizar para el caso de k variables explicativas).
_________________________________________________________________
Nombre Forma Pendiente Elasticidad
_________________________________________________________________
Lineal Y = 0 + 1X 1 1X/Y
Semi-log Y = 0 + 1ln(X) 1/X 1/Y
Hiperbólica Y = 0 – 1/X 1/X2 1/XY
Doble-log ln(Y) = 0 + 1ln(X) 1Y/X 1
Log-hipérbola ln(Y) = 0 – 1/X 1Y/X2 1/X
_________________________________________________________________
Fuente: A. S. Goldberger, Teoría Econométrica (Madrid: Tecnos, 1970), pp. 227-28.
_________________________________________________________________
5.1.2. Aplicación — Consumo de Textiles en Holanda.
En el Cuadro 5.2 se muestran los datos básicos de un estudio del consumo de
textiles en Holanda durante los años 1923 a 1939 (los datos se expresan como
índices con base 1925 = 100). Podemos utilizar estos datos para calcular la
siguiente regresión doble-log:
ln(Y) = 0 + 1 ln(X1) + 2 ln(X2) + u
donde Y = Indice del consumo per cápita de textiles, X1 = Indice del ingreso real
per cápita, y X2 = Indice del precio relativo de textiles. Estimando esta regresión
por mínimos cuadrados obtenemos los siguientes resultados:
[47]
———————————————————————————————————
Cuadro 5.2. CONSUMO DE TEXTILES EN HOLANDA, 1923-1939 (INDICES, 1925 = 100).
———————————————————————————————————
Volumen de
Consumo de Ingreso Precio
Textiles per Real per Relativo
Cápita Cápita de Textiles
———————————————————————————————————
1923 99.2 96.7 101.0
1924 99.0 98.1 100.1
1925 100.0 100.0 100.0
1926 111.6 104.9 90.6
1927 122.2 104.9 86.5
1928 117.6 109.5 89.7
1929 121.1 110.8 90.6
1930 136.0 112.3 82.8
1931 154.2 109.3 70.1
1932 153.6 105.3 65.4
1933 158.5 101.7 61.3
1934 140.6 95.4 62.5
1935 136.2 96.4 63.6
1936 168.0 97.6 52.6
1937 154.3 102.4 59.7
1938 149.0 101.6 59.5
1939 165.5 103.8 61.3
———————————————————————————————————
Fuente: H. Theil, Principles of Econometrics (Nueva York: J. Wiley & Sons, 1971),
Table 3.1, p. 102.
———————————————————————————————————
)ˆln(Y = 3.1636 + 1.1432 ln(X1) – 0.8288 ln(X2)
(0.7048) (0.1560) (0.0361)
R² = 0.9744 n = 17
(Recuérdese que en esta presentación compacta, el número entre paréntesis deba-
jo de cada coeficiente estimado es su respectiva desviación estándar. El estudian-
te deberá procurar replicar por sí mismo los resultados de esta regresión.15
) Como
era de esperarse, la variable de precio relativo tiene un coeficiente negativo,
15
En toda esta sección hemos estado empleando logaritmos naturales, pero da lo mismo
usar logaritmos base 10. Las estimaciones de b1, b2, …, bk son iguales, y la única dife-
rencia es en la estimación de la constante b0 y su desviación estándar, que con logarit-
mos naturales serán 2.3026 veces mayores que con logaritmos base 10.
[48]
mientras que la variable de ingreso tiene un coeficiente positivo, resultados que
son consistentes con la teoría elemental de la demanda. La razón t para el caso de
X1 es de 7.33 (= 1.1432 ÷ 0.156) y para X2 esta razón es de – 22.96 (= – 0.8288 ÷
0.0.0361). El valor crítico de la distribución t para 5 % y 14 grados de libertad es
2.145 (en pruebas a dos colas), que en ambos casos es excedido por amplio mar-
gen, por lo que podemos concluir que ambas variables son altamente significati-
vas. Por último, las estimaciones indican que la elasticidad-precio de la demanda
de textiles es alrededor de – 0.83, mientras que la elasticidad-ingreso es alrededor
de 1.14. Estos resultados implican, por tanto, que ceteris paribus un aumento de
10 % en el precio relativo de los textiles producirá, en promedio, una reducción
de 8.3 % en el consumo, mientras que un aumento de 10 % en el ingreso per cápi-
ta producirá, en promedio, un aumento de 11.4 % en el consumo de textiles.
5.2. Variables Binarias o Cualitativas.
Otra útil extensión del modelo lineal es el empleo de variables binarias o
cualitativas. Hasta ahora hemos supuesto que todas las variables en el modelo de
regresión pueden medirse cuantitativamente. A veces, sin embargo, la variable
dependiente se verá afectada por factores cualitativos que no pueden medirse
numéricamente, pero no por eso dejan de ser importantes. Estos factores se
pueden tomar en cuenta por medio del empleo de variables binarias.16
Estas son
variables artificiales que sólo pueden tomar dos posibles valores, 1 o 0,
dependiendo de la presencia o ausencia del factor cualitativo que deseamos
incorporar en la regresión. Estas variables también son conocidas como variables
―categóricas‖ o ―dicotómicas‖, ya que el objeto es clasificar las observaciones en
categorías mutuamente excluyentes: por ejemplo, hombre/mujer, fumador/no-
fumador, nacional/extranjero, etc. Muchas veces estas variables también se usan
en el contexto de series cronológicas (por ejemplo, para medir efectos
estacionales).
Como un ejemplo, consideremos el Cuadro 5.3, que muestra datos sobre
eficiencia en el consumo de combustible y otras características de 32 modelos de
automóviles de la temporada 1973-74. De estos 32 vehículos, 19 son de
transmisión automática, y 13 son de transmisión manual. Se puede notar que, en
promedio, el millaje para los vehículos con caja manual tiende a ser bastante
mayor que para los vehículos con caja automática, y al parecer la diferencia es
estadísticamente significativa. Por otro lado, los vehículos con caja automática
tienden a ser más pesados, y también tienden a tener motores más potentes, y se
sabe que estos factores tienden a incrementar el consumo de combustible. Por
tanto, si queremos saber si el tipo de transmisión per se tiene algún efecto sobre tiendenes
16
En inglés la expresión que se usa es ―dummy variables.‖
[49]
————————————————————————————————————
Cuadro 5.3. DATOS TÉCNICOS SOBRE 32 MODELOS DE AUTOMÓVIL, 1973-74.
————————————————————————————————————
Caja Automática Caja Manual
Millas por
galón Peso (lbs.)
Potencia (caballos de
fuerza)
Millas por
galón Peso (lbs.)
Potencia (caballos de
fuerza)
1 21.4 3215 110 1 21.0 2620 110
2 18.7 3440 175 2 21.0 2875 110
3 18.1 3460 105 3 22.8 2320 93
4 14.3 3570 245 4 32.4 2200 66
5 24.4 3190 62 5 30.4 1615 52
6 22.8 3150 95 6 33.9 1835 65
7 19.2 3440 123 7 27.3 1935 66
8 17.8 3440 123 8 26.0 2140 91
9 16.4 4070 180 9 30.4 1513 113
10 17.3 3730 180 10 15.8 3170 264
11 15.2 3780 180 11 19.7 2770 175
12 10.4 5250 205 12 15.0 3570 335
13 10.4 5424 215 13 21.4 2780 109
14 14.7 5345 230
15 21.5 2465 97
16 15.5 3520 150
17 15.2 3435 150
18 13.3 3840 245
19 19.2 3845 175
Promedio 17.147 3768.9 160.3
24.392 2411.0 126.8
Desv. Est. 3.834 777.4 53.9
6.167 617.0 84.1
————————————————————————————————————
Fuente: H. V. Henderson y P. F. Velleman, ―Building Multiple Regression Models Inter-
actively,‖ Biometrics, 37 (1981), Table 1, p. 396.
————————————————————————————————————
[50]
el consumo de combustible, tenemos que controlar por estos otros factores. Para
esto, podemos calcular la siguiente regresión múltiple:
Y = 0 + 1X1 + 2X2 + 3X3 + u
donde Y es el millaje (en millas por galón de gasolina), X1 es una variable binaria
(= 0 si el vehículo tiene caja automática, = 1 si es de caja manual), X2 es el peso
del vehículo (en libras), y X3 es la potencia del motor (en caballos de fuerza).
Estimando esta regresión con los datos del Cuadro 5.3 obtenemos:
Y = 34.003 + 2.0837 X1 – 0.0029 X2 – 0.0375X3
(2.643) (1.3764) (0.0009) (0.0096)
R2 = 0.8399 n = 32
Se aprecia aquí que el peso del vehículo y la potencia del motor tienen ambos un
efecto negativo sobre la eficiencia en el consumo de combustible, tal como se es-
peraba, y estos efectos son estadísticamente significativos. Por otro lado, también
se aprecia que, una vez controlamos por los efectos del peso y la potencia, el tipo
de transmisión (automática o manual) no tiene realmente un efecto muy grande
sobre el millaje y el efecto estimado no es estadísticamente significativo: si bien
el coeficiente para esta variable es positivo, su razón t (1.514) está muy por deba-
jo del valor crítico de la distribución t para niveles convencionales de significan-
cia. Por tanto, aunque a primera vista los resultados parecen indicar lo contrario,
no podemos concluir en base a estos datos que el tipo de transmisión tenga por sí
mismo un efecto significativo sobre la eficiencia en el consumo de combustible.
5.2.1. Caso Especial.
El caso de los automóviles es un buen ejemplo para ilustrar cómo se pueden
utilizar variables binarias para estimar los efectos de factores cualitativos en el
contexto de una regresión múltiple.17
Con relación a este tema, hay un aspecto
adicional que vale la pena resaltar. Si se calcula una regresión de Y únicamente
contra una variable binaria, entonces el resultado es equivalente a una prueba de
diferencia de medias convencional. En este caso, la regresión de Y contra X1 da el
siguiente resultado:
Y = 17.147 + 7.245 X1
(1.125) (1.7644)
17
La variable dependiente también podría ser binaria, pero esto plantea problemas
especiales de estimación, que sobrepasan los alcances de este libro. El método de
mínimos cuadrados ordinarios ya no es aplicable en este contexto, y para esto existen
otros métodos no-lineales (por ejemplo, los modelos probit y logit) que son más
apropiados para este caso. Estos modelos son tratados en detalle en textos avanzados de
econometría.
[51]
En este modelo b0 es una estimación del millaje promedio para vehículos con caja
automática (X1 = 0), y es exactamente igual al promedio muestral para esta clase
de vehículos en el Cuadro 5.3. Por otro lado, b1 es una estimación del millaje
adicional para vehículos con caja manual (X1 = 1), y el coeficiente estimado es
igual a la diferencia entre los dos promedios muestrales (24.392 – 17.147 =
7.245). Por tanto, testar la hipótesis de que b1 no es significativamente diferente
de 0 es equivalente a testar la hipótesis de que la diferencia entre las dos medias
muestrales no es estadísticamente significativa.18
5.2.2. Variables Binarias en Regresiones Semi-logarítmicas.19
A veces hay que tener ciertas precauciones al interpretar el coeficiente de una
variable binaria. Un error muy común se da cuando se incluyen variables binarias
en regresiones semi-logarítmicas de la forma:
ln(Y) = 0 + 1X1 + 2X2 + ... + k Xk + u
Si Xi es una variable continua, entonces su coeficiente estimado (bi) es un estima-
dor de la derivada parcial de ln(Y) respecto de Xi :
iii
iX
Y
YX
Y
Y
Y
X
Yb
.
1.
)ln()ln(
Esto, multiplicado por 100, es igual al cambio porcentual en Y debido a un cam-
bio marginal en Xi. Por tanto, en una regresión semi-logarítmica cada coeficiente
puede interpretarse como el cambio porcentual en Y debido a un cambio en la
respectiva variable independiente. Sin embargo, esta interpretación sería incorrec-
ta si Xi es una variable binaria, ya que una variable binaria no es continua, y por
tanto el concepto de una derivada parcial es inaplicable.
Para poder medir el cambio porcentual en Y causado por la presencia del
factor cualitativo representado por una variable binaria, supongamos que la
variable binaria es X1 y que el cambio en Y debido a la presencia del factor
cualitativo es de g por ciento. Nótese que el modelo semi-logarítmico puede
expresarse de la siguiente forma:
18
El estudiante podrá comprobar que la razón t para b1 en esta regresión es exactamente
igual al estadístico de prueba para una prueba de diferencia de medias convencional, y
tiene el mismo número de grados de libertad. 19
La discussion en esta sección se basa en R. Halvorsen y R. Palmquist, ―The Interpreta-
tion of Dummy Variables in Semilogarithmic Equations,‖ American Economic Review,
70 (1980): 474-75.
[52]
))...(()1)(( 2210 kk XXXeegeY
Si X1 = 0, el segundo factor (asociado con la variable binaria) será igual a 1, y si
X1 = 1 este factor será igual a 1 + g, y por tanto g es el cambio porcentual en Y
debido al efecto de la variable binaria. Al expresar esta ecuación en términos de
ln(Y), se puede apreciar que 1= ln(1 + g), y puesto que el estimador de 1 es b1,
el estimador de g será
1ˆ 1 b
eg
y el estimador del cambio porcentual en Y será igual a .ˆ100 g
Para ilustrar podemos usar nuevamente el problema de los automóviles. Si
con esos datos calculamos una regresión semi-logarítmica obtenemos el siguiente
resultado (donde las variables tienen las mismas definiciones que en el caso ante-
rior):
)ˆln(Y = 3.7491 + 0.0517 X1 – 0.000176 X2 – 0.00168 X3
(0.1166) (0.0607) (0.00004) (0.00042)
R2 = 0.8723 n = 32
En términos de R2
este modelo funciona ligeramente mejor que el modelo lineal
estándar.20
Nuevamente, el peso (X2) y la potencia (X3) del automóvil tienen un
efecto negativo sobre el millaje, y estos efectos son estadísticamente
significativos. El coeficiente de la variable binaria implica que tener caja manual
(X1 = 1) incrementa el millaje en 5.3 % (e0.0517
– 1 = 0.053), aunque este efecto no
es significativo.
La magnitud del ajuste en este caso no es muy grande, precisamente porque el
efecto de la variable cualitativa es pequeño. Si el coeficiente de la variable binaria
fuera de 0.517, por ejemplo, entonces el cambio porcentual en Y para X1 = 1 sería
de 67.7 % (e0.517
– 1 = 0.677), una diferencia de 16 % comparado con el
estimador no ajustado. Interpretar el coeficiente de una variable binaria en una
regresión semi-logarítmica como el cambio porcentual en Y debido al efecto de
una variable cualitativa podría causar serios errores si este efecto es relativamente
grande.
20
Véase, sin embargo, la Pregunta de Repaso No. 2, al final de este capítulo.
[53]
5.3. Problemas Especiales en la Regresión Lineal.
5.3.1. Variables Omitidas y Variables Irrelevantes.
En el capítulo anterior se demostró que el vector mínimo-cuadrático b es un
estimador insesgado del vector de coeficientes del modelo ―verdadero‖:
y = X + u
En este punto conviene anotar la siguiente salvedad: el vector b será un estimador
insesgado de , siempre que el modelo de regresión esté bien especificado, o sea,
siempre que se incluyan todas las variables explicativas relevantes. Como se verá
a continuación, si existen algunas variables relevantes que no fueron incluidas en
la regresión, entonces el vector b ya no será generalmente insesgado. Para apre-
ciar esto, recordemos que en nuestra notación matricial, X es una matriz de orden
)1( kn que representa las k variables independientes que afectan a Y (inclu-
yendo una columna de 1’s para representar a la ordenada en el origen). Ahora
bien, puede suceder muchas veces que por una u otra razón no se incluyen todas
las k variables en la regresión estimada: podría ser que no se dispongan de los da-
tos necesarios, o podría ser que se omita alguna variable relevante por simple ig-
norancia. En este caso, la matriz de observaciones usada en la regresión será ―in-
completa‖ en el sentido de que no incluye todas las columnas de X. Para facilitar
el análisis, representemos por X1 la matriz de observaciones sobre las variables
―incluidas,‖ y por X2 la matriz de las variables ―omitidas.‖ Por tanto, el modelo
lineal completo puede ser expresado como:
y = X11 + X22 + u
donde 1 es el vector de los coeficientes de las variables incluidas, y 2 es el vec-
tor de coeficientes de las variables omitidas. Puesto que las variables omitidas no
son incluidas en el análisis, el modelo estimado será
y = X1b1 + e
Obviamente, si las variables omitidas son realmente relevantes, entonces se co-
meterá un error de entrada al suponer que todos sus coeficientes son cero. La pre-
gunta interesante, sin embargo, es si esta omisión tendrá algún efecto sobre la es-
timación del vector b1. Concretamente, podemos plantearnos la pregunta: ¿Será
ahora b1 un estimador insesgado de 1? En otras palabras, ¿si se omiten una o
más variables relevantes de una regresión, introduce esta omisión un sesgo en la
estimación de los otros coeficientes? Para contestar esta pregunta, debemos cal-
cular el valor esperado del vector b1. Notemos en primer lugar que el estimador
mínimo-cuadrático de b1 será:
[54]
b1 = (X1'X1)–1
X1'y
Ahora bien, puesto que y = X11 + X22 + u, entonces
b1 = (X1'X1)–1
X1'(X11 + X22 + u) = 1 + (X1'X1)–1
X1'X22 + (X1'X1)–1
X1'u
El valor esperado de b1 será:
E(b1) = 1 + (X1'X1)–1
X1'X22 + (X1'X1)–1
X1'E(u) = 1 + (X1'X1)–1
X1'X22
Por tanto, b1 generalmente no será un estimador insesgado de 1, ya que general-
mente (X1'X1)–1
X1'X22 ≠ 0. De hecho, esta expresión sólo será igual a 0 bajo dos
condiciones muy especiales:
(1) Si 2 = 0, o sea, si las variables omitidas son realmente ―irrelevantes.‖ En
ese caso, el modelo estimado es realmente el modelo ―completo,‖ y por tanto no
existe ningún problema. Obviamente, este caso no es muy interesante.
(2) Si (X1'X1)–1
X1'X2 = 0. Para entender mejor el significado de esta condición,
nótese que cada columna de esta matriz representa los coeficientes de la regresión
de una de las variables omitidas sobre las variables incluidas. (Para visualizarlo
mejor, consideremos el caso de una sola variable omitida: en ese caso,
(X1'X1)–1
X1'X2 se reduce a un vector, y ese vector no es más que el vector de los
coeficientes de la regresión de la variable omitida sobre las variables incluidas.)
En palabras, lo que esto significa es que no habrá sesgo en la estimación de b1 si
las variables omitidas y las variables incluidas son completamente independientes
unas de otras.
Esta segunda condición es muy difícil que se cumpla en la práctica, al menos
literalmente, y por tanto se puede concluir en términos generales que la omisión
de variables relevantes en una regresión lineal introducirá algún grado de sesgo
en los coeficientes estimados. Esto no significa, por otro lado, que este sesgo será
necesariamente muy grande. Si las variables omitidas no son muy importantes
(esto es, si los coeficientes del vector 2 son ―pequeños‖) y/o si no existe mucha
correlación entre las variables omitidas y las variables incluidas (esto es, si los
elementos de la matriz (X1'X1)–1
X1'X2 son ―pequeños‖), entonces el sesgo será
también pequeño. Por otro lado, si este no es el caso entonces las estimaciones re-
sultantes podrían estar seriamente erradas. Siempre es bueno tener en mente esta
posibilidad, ya que el método de mínimos cuadrados sólo garantiza buenos resul-
tados si el modelo está bien especificado.
Consideremos ahora el problema contrario: ¿Cuál es el efecto de incluir una
variable irrelevante en una regresión lineal? En este caso, las consecuencias son
[55]
menos graves, ya que el verdadero coeficiente de la variable irrelevante es cero, y
lo que tenderá a suceder es que se obtendrá un coeficiente ―no-significativo‖ para
esta variable. Supongamos, por ejemplo, que se estima el siguiente modelo:
Y = b0 + b1X1 + b2X2 + b3X3 + e
Si X3 es realmente irrelevante, entonces 3 = 0. El método de mínimos cuadrados
producirá estimadores insesgados de todos los coeficientes en el modelo estima-
do, incluyendo el coeficiente de la variable irrelevante. En este caso, el valor es-
perado de b3 (el estimador de 3) será precisamente 0. Por cierto que en la prácti-
ca el valor estimado de b3 nunca será exactamente 0, debido a las variaciones de
muestreo, pero puede esperarse que por lo general resulte poco significativo. Lo
más importante, sin embargo, es que la presencia de la variable irrelevante no in-
troduce ningún sesgo en las estimaciones de los demás coeficientes.
Esto no significa, por otro lado, que la presencia de la variable irrelevante no
implica costo alguno. De hecho, existen consecuencias importantes, pero en este
caso el costo no se hace sentir en términos de sesgo sino en términos de la preci-
sión de los estimadores. Lo que tenderá a suceder es que la presencia de variables
irrelevantes incrementará las desviaciones estándar de los coeficientes de las de-
más variables. Esto se debe a una razón muy simple: estadísticamente, lo que su-
cede es que parte de la información contenida en la muestra se está desperdician-
do en la estimación de un parámetro que no existe. Puesto que la información no
está siendo utilizada eficientemente, entonces la precisión de las estimaciones
tenderá a reducirse. En este caso, al incrementarse las desviaciones estándar de
los coeficientes de regresión, se reducirá la ―razón t‖ de todos los coeficientes, y
éstos aparecerán como menos significativos de lo que realmente son. Incluso po-
dría darse el caso de que se concluya erróneamente de que alguna de las variables
no es significativa cuando en realidad sí lo es.
¿Qué conclusiones prácticas se desprenden de este análisis? En la práctica,
por supuesto, el investigador no puede saber de antemano si una determinada va-
riable es relevante o no, ya que generalmente esta es precisamente una de las pre-
guntas que se desean resolver por medio de la investigación. Por otro lado, se
aprecia por el análisis anterior que las consecuencias de omitir variables relevan-
tes son generalmente más graves que las consecuencias de incluir variables irre-
levantes. Por tanto, es mejor errar en la dirección de incluir variables irrelevantes,
que correr el riesgo de omitir alguna variable relevante. Estas consideraciones su-
gieren la conveniencia de aplicar la siguiente estrategia: en la primera etapa de la
investigación, es mejor incluir todas las variables que puedan considerarse como
relevantes. En pocas palabras, ―si está en la duda de si incluir una variable o no,
inclúyala.‖ Si como resultado de la primera regresión algunas de las variables re-
sultan no-significativas, entonces se podrá proceder a descartarlas, y re-estimar la
regresión únicamente con las variables significativas.
[56]
5.3.2. Multicolinealidad.
(a) Naturaleza del Problema.
Imaginemos la siguiente paradoja: se estima una regresión múltiple, se obtie-
ne una alta R2 (digamos, mayor que 0.8), pero ninguno de los coeficientes esti-
mados es significativo, es decir, en ningún caso podemos rechazar la hipótesis de
que el verdadero coeficiente es 0. A primera vista, esto podría parecer contradic-
torio, ya que si la regresión tiene bastante poder explicativo (R2 es alta), entonces
quiere decir que por lo menos una de las variables independientes debe ser signi-
ficativa. Sin embargo, esta situación es de hecho muy común en la econometría
aplicada, y se debe a un problema estadístico conocido como multicolinealidad.
En una regresión lineal múltiple, la multicolinealidad se presenta cuando las
variables explicativas están fuertemente correlacionadas entre sí, ya que si las va-
riables explicativas varían juntas, entonces no se podrá separar el efecto indivi-
dual de cada una. Esto da lugar al síntoma clásico de una alta R2, pero coeficien-
tes individuales poco significativos, porque si bien la alta R2 efectivamente impli-
ca que por lo menos una de las variables independientes es significativa, el pro-
blema es que no podemos determinar cuáles son significativas y cuáles no.
Estadísticamente, la multicolinealidad produce estimadores insesgados de los
coeficientes de regresión, pero con varianzas muy grandes. Esto es de esperarse,
ya que al no poder distinguir el efecto separado de cada variable, las estimaciones
de los coeficientes serán necesariamente muy imprecisas. Para apreciar mejor las
implicaciones de la multicolinealidad, hay que recordar el significado del coefi-
ciente j en el modelo lineal: en última instancia, lo que se trata de medir con este
coeficiente es la derivada parcial de Y respecto de Xj, o sea, el efecto de un cam-
bio en Xj, manteniendo constantes las demás variables independientes. El pro-
blema, sin embargo, es que en la muestra las otras X’s no sólo no se mantienen
constantes, sino que de hecho varían junto con Xj. En este caso es muy difícil se-
parar el efecto individual de cada variable.
Se aprecia entonces que la multicolinealidad es básicamente un problema de
información. Lo que sucede es que estamos pidiendo a los datos más de lo que
nos pueden decir. La muestra de observaciones no contiene suficiente informa-
ción como para estimar el efecto separado de cada variable explicativa. Puesto
que se trata de un problema muestral, es muy poco lo que puede hacerse para re-
solver el problema si no es posible obtener información adicional. Por ejemplo,
se podría pensar en descartar alguna de las variables explicativas, para romper así
la multicolinealidad. Sin embargo, si la variable descartada es una variable rele-
vante, entonces esto podría agravar los problemas, ya que se producirá un sesgo
en los coeficientes de las otras X’s (ver sección anterior). En este caso, los coefi-
[57]
cientes de las variables no-descartadas recogerán su propio efecto, más parte del
efecto de la variable descartada.
Puesto que el problema de multicolinealidad es en última instancia un pro-
blema de información insuficiente, se desprende que la única solución real con-
sistirá en obtener más información. Nótese, sin embargo, que una ampliación de
la muestra (más observaciones) no servirá de mucho si las observaciones adicio-
nales están también correlacionadas entre sí. En otras palabras, seguiremos en la
misma situación si las nuevas observaciones son simplemente ―más de lo mis-
mo.‖ Desafortunadamente, muchas veces esta es precisamente la situación que se
presenta en la investigación económica.
(b) Medidas del Grado de Multicolinealidad.
Regla de Klein — Por la discusión anterior, se aprecia que la multicolineali-
dad no es una cuestión de ―todo o nada,‖ sino más bien una cuestión de grado. En
la mayoría de los casos prácticos es inevitable que exista algún grado de correla-
ción entre los regresores, ya que en la econometría empírica es muy raro que los
datos provengan de un experimento controlado. Lo que necesitamos, entonces, es
algún criterio para determinar si la multicolinealidad existente es ―aceptable,‖ o si
es suficientemente severa como para invalidar los resultados de un análisis. Para
esto existen algunas reglas empíricas. Una de ellas se basa en la siguiente obser-
vación del Profesor Lawrence Klein:
La multicolinealidad o inter-correlación entre las variables no es siempre un
problema, a menos que sea alta en relación con el grado general de correlación
múltiple entre todas las variables [de la regresión].21
Maddala22
se basó en esta observación para formular el siguiente criterio, que se
conoce como la regla de Klein: La multicolinealidad debe considerarse un pro-
blema si para alguno de los regresores 2
jR > R2, donde 2
jR es el coeficiente de de-
terminación de la regresión de Xj contra todas las demás variables explicativas, y
R2 es el coeficiente de determinación de la regresión completa.
Como ejemplo, tomemos nuevamente el caso de los automóviles. En este
caso 2
1R = 0.5597, 2
2R = 0.7351 y 2
3R = 0.5211. Por tanto, puesto que la R2 para
la regresión completa es 0.8399, según el criterio de Klein la multicolinealidad no
es un problema serio en esta regresión.
21
L. R. Klein, An Introduction to Econometrics (London: Prentice-Hall International,
1962), p. 101. 22G. S. Maddala, Econometría (Madrid: McGraw-Hill, 1985), p. 195.
[58]
Factor de Inflación de Varianza — Este criterio se basa en el hecho de que la
varianza muestral del coeficiente de la variable Xj depende en parte de la correla-
ción entre Xj y las demás variables explicativas:
2
2
1
1
)()1()(
jj
jRXVarn
SbVar
donde Var(bj) es la varianza muestral de bj, Var(Xj) es la varianza muestral de Xj,
y S2 es la varianza estimada de los errores de la regresión.
23 Se puede apreciar
aquí que Var(bj) se minimiza cuando 2
jR = 0. Dados los valores muestrales de Xj,
la varianza muestral de bj se va incrementando a medida que aumenta 2
jR (i.e., el
grado de multicolinealidad). Por esto, a la expresión entre paréntesis se le conoce
como el ―factor de inflación de varianza‖ (FIV), ya que mide el aumento en la
varianza de bj que se puede atribuir al hecho de que los regresores no son
completamente independientes entre sí.24
(En la terminología del álgebra lineal,
esto se expresa diciendo que las columnas de la matriz X no son vectores
―ortogonales‖.) Idealmente quisiéramos que FIV = 1, aunque esto es muy difícil
que suceda en la práctica. Como regla empírica, se considera que la
multicolinealidad es ―demasiado‖ alta si para alguno de los coeficientes FIV > 10,
es decir, si la varianza muestral del coeficiente estimado es más de 10 veces
mayor que lo que sería si los regresores fueran ortogonales.25
Aplicando este criterio para el caso de los automóviles tenemos:
271.25597.01
1
1
12
1
1
RFIV
775.37351.01
1
1
12
2
2
RFIV
23
Ver, por ejemplo, W. H. Greene, Econometric Analysis, 5ª ed. (Upper Saddle River,
NJ: Prentice Hall, 2003), p. 57. El estudiante podrá verificar numéricamente que el re-
sultado obtenido al calcular Var(bj) por medio de esta fórmula es idéntico al elemento
correspondiente de la diagonal de la matriz S2(X'X)
–1.
24
Numéricamente, el factor de inflación de varianza para Xj es igual al j-ésimo elemento
diagonal de la inversa de la matriz de correlaciones de los regresores. 25
La expresión ―factor de inflación de varianza‖ fue acuñada por D. W. Marquardt
(―Generalized Inverses, Ridge Regression, Biased Linear Estimation, and Nonlinear
Estimation,‖ Technometrics, 12 [1970], p. 606). Marquardt también fue el primero en
proponer la ―regla del 10‖ (ibid., p. 610).
[59]
088.25211.01
1
1
12
3
3
RFIV
Para los tres regresores FIV < 10, lo cual confirma la conclusión obtenida por
medio de la regla de Klein. Aunque hay cierto grado de correlación entre los
regresores, la multicolinealidad no es un problema serio en esta regresión.26
5.3.3. Heteroscedasticidad.
La heteroscedasticidad es un problema que surge cuando los errores en una
regresión lineal no tienen varianza constante. Esto en sí no plantea un problema
para el cálculo de los coeficientes mínimo-cuadráticos, ya que éstos siguen siendo
estimadores insesgados, pero sí afecta la varianza de los coeficientes estimados.
Se recordará del Capítulo 4 que la inferencia estadística en el modelo clásico
de regresión lineal se basa en los siguientes dos supuestos:
(1) E(u) = 0, lo que equivale a suponer que E(ui) = 0 para todo i. Con base en es-
te supuesto concluimos que b es un estimador insesgado de .
(2) E(uu') = 2I, lo que equivale a suponer que todos los errores tienen la misma
varianza, y que los errores para las diferentes observaciones son independientes.
Con base en este supuesto, concluimos que la matriz de varianza-covarianza del
vector b es 2(X'X)
–1, que estimamos por medio de S
2(X'X)
–1.
Cuando existe heteroscedasticidad falla el segundo de estos supuestos básicos,
y entonces la matriz de varianza-covarianza ya no es igual a 2(X'X)
–1. Siempre
podemos calcular S2(X'X)
–1, pero los elementos diagonales de esta matriz ya no
serán estimadores insesgados de las varianzas de los coeficientes de regresión. De
hecho, las ―varianzas‖ calculadas de este modo tenderán a subestimar las verda-
deras varianzas muestrales.
En una regresión simple es relativamente fácil detectar si existe heteroscedas-
ticidad, ya que se puede visualizar por medio del diagrama de dispersión. En la
Figura 6.1 se muestra el perfil típico de una regresión con heteroscedasticidad.
Cuando hay dos o más variables explicativas el problema ya no se puede visuali-
zar de este modo, pero es posible detectar la heteroscedasticidad por medios nu-
méricos.o
26
Aunque en este caso los dos criterios apuntan a la misma conclusión, esto no siempre
será el caso. La ―regla del 10‖ implica un valor máximo aceptable de 2
jR = 0.9. La regla
de Klein, por otro lado, podría violarse con valores mucho menores de 2
jR , ya que la
conclusión también depende del valor de R2.
[60]
Figura 5.1. Diagrama de Dispersión con Heteroscedasticidad.
0
20
40
60
80
100
0 20 40 60 80 100 120
Existen muchas diferentes pruebas de heteroscedasticidad, pero en la actuali-
dad la prueba que más se utiliza se conoce como la prueba de White.27
Para efec-
tuar esta prueba primero se calcula la regresión por mínimos cuadrados ordina-
rios. Luego, si se trata de una regresión simple, se calcula la siguiente regresión
auxiliar:
2
210
2 XaXaae
Aquí la variable dependiente es el error cuadrado de la regresión estimada, y hay
dos regresores: la variable explicativa (X) y el cuadrado de X. Si la regresión es-
timada tiene dos variables explicativas, X1 y X2, entonces la regresión auxiliar
tendrá la forma:
215
2
2423
2
12110
2 XXaXaXaXaXaae
27Halbert White, ―A Heteroskedasticity-Consistent Covariance Matrix Estimator and a
Direct Test for Heteroskedasticity,‖ Econometrica, 48 (1980): 817–38.
[61]
En este caso la regresión auxiliar tendrá cinco regresores. En general, la regresión
auxiliar para e2 incluye como regresores todas las variables explicativas, sus cua-
drados, y todos sus productos cruzados.
Luego se toma la R2 de la regresión auxiliar, que denotaremos como 2
aR , y se
multiplica por el número de observaciones. White demostró que si la varianza de
los errores es constante (no existe heteroscedasticidad) entonces 2
aRn tendrá
una distribución chi-cuadrado ( 2 ) con grados de libertad igual al número de re-
gresores en la regresión auxiliar. Tendemos a rechazar la hipótesis de varianza
constante si este producto es ―grande,‖ y por tanto la prueba es ―a una cola‖: con-
cluimos que existe heteroscedasticidad en una regresión si 2
aRn es mayor que el
valor crítico de la distribución chi-cuadrado para los grados de libertad relevan-
tes. (Si se trata de una regresión simple la prueba de White tendrá 2 grados de li-
bertad, y si es una regresión con dos variables explicativas la prueba tendrá 5 gra-
dos de libertad, si son tres variables la prueba tendrá 9 grados de libertad, etc.)
Como ejemplo, podemos utilizar el caso de los costos bancarios, del capítulo
anterior (Sección 4.4). En este problema, X1 = Activos y X2 = Agencias. Calcu-
lando la regresión auxiliar con los errores de la regresión estimada obtenemos:
ê2 21
2
22
2
11 0078.00664.00935.1000085.00254.0752.26 XXXXXX
2
aR = 0.21102 n = 19
Por tanto, 2
aRn = 0094.421102.019 , y puesto que el valor crítico de una
variable chi-cuadrado con 5 grados de libertad y 5 % en la cola derecha es 11.07,
se concluye que no existe heteroscedasticidad en esta regresión.28
28
En caso de que exista heteroscedasticidad, no es necesario ajustar los coeficientes
mínimo-cuadráticos, ya que estos siguen siendo insesgados, pero se debe hacer un ajuste
a la matriz de varianza-covarianza, a fin de obtener estimadores correctos de las
varianzas de los coeficientes estimados. White también desarrolló un método para
efectuar dicho ajuste, pero la explicación de este procedimiento sobrepasa los alcances
de este texto introductorio. La mayoría de los paquetes de software econométrico
(E-Views, GRETL, etc.) incorporan el ―ajuste de White‖ como una opción estándar.
[62]
PREGUNTAS DE REPASO
1. Explique, en palabras, de qué forma podría darse la siguiente situación: Se estima
una regresión lineal, se obtiene una alta R2, pero ninguna de las variables independientes
es ―significativa.‖
2. Si se estima una regresión doble-log o semi-logarítmica, debe tenerse en mente que la
R2 de la regresión estimada mide la proporción de la variación del logaritmo de Y que ha
sido explicada, que no es lo mismo que la proporción de la variación de Y. Para poder
estimar esto último (que es lo que realmente nos interesa en fin de cuentas), debemos
tomar antilogaritmos de los valores calculados de ln(Y), y compararlos con los valores
observados de Y por medio de la fórmula convencional para R2. Haga este ejercicio para
el caso de la demanda de textiles (Secc. 5.1.2) y para el caso de los automóviles (Secc.
5.2.2).
3. En un estudio sobre determinantes del ahorro en países subdesarrollados29
, se repor-
taron las siguientes regresiones para una muestra de 47 países:
)ln(5416.0)ln(8402.1)ln(0258.0ln1624.03209.9ln 21 DDgN
Y
Y
S
)ln(5014.0)ln(8012.1)ln(0271.0ln1501.16341.4ln 21 DDgN
Y
N
S
donde Y = Producto Interno Bruto (PIB), N = población total, S/Y = ahorro nacional (ex-
presado como % del PIB), S/N = ahorro nacional per cápita, g = tasa de crecimiento del
PIB per cápita, D1 = porcentaje de la población menor de 15 años de edad, y D2 = por-
centaje de la población mayor a 65 años de edad.
a) Explique por qué estos resultados estimados no pueden ser correctos.
b) ¿Cree usted que este es un buen modelo teórico para este problema?
4. Para el caso de los costos bancarios (Secc. 4.4), aplique el criterio del ―factor de in-
flación de varianza‖ para medir el grado de multicolinealidad en la regresión estimada.
5. Para el problema de los automóviles (Secc. 5.2), determine si existe
heteroscedasticidad en estas regresiones (tanto en el modelo lineal como en el modelo
semi-logarítmico). Normalmente, en una regresión con tres variables explicativas la
prueba de White tendría 9 grados de libertad. Sin embargo, en este caso sólo tenemos 8
grados de libertad. ¿Por qué?
29
K. L. Gupta, ―Dependency Rates and Savings Rates: Comment,‖ American Economic
Review, 61 (1971): 469-71. La motivación para este problema se basa en un comentario
por A. S. Goldberger, ―Dependency Rates and Savings Rates: Further Comment,‖ Amer-
ican Economic Review, 63 (1973): 232-33.
[63]
CASOS APLICADOS
Caso H — Demanda de Automóviles
En 1958 el Profesor Daniel Suits publicó un estudio econométrico de la demanda
de carros nuevos en los Estados Unidos. Las variables consideradas para el análi-
sis fueron las siguientes:
X1 = Indice del Precio Real de Automóviles Nuevos
X2 = Ingreso Disponible Real (en miles de millones de dólares)
X3 = Automóviles en Circulación al principio de cada año (millones de unidades)
Y = Ventas de Automóviles Nuevos (millones de unidades).
Los datos se muestran en el cuadro siguiente (nótese que Suits excluyó de su aná-
lisis los datos correspondientes al período 1942-48, por considerarlos poco repre-
sentativos):
————————————————————————————————–
X1 X2 X3 Y
————————————————————————————————–
1932 126.5 83.4 18.7 1.10
1933 128.5 82.6 17.9 1.53
1934 128.5 90.9 18.9 1.93
1935 120.5 99.3 19.4 2.87
1936 117.0 111.6 20.1 3.51
1937 121.0 115.6 21.5 3.51
1938 133.8 109.0 22.3 1.96
1939 131.0 118.5 22.7 2.72
1940 134.3 127.0 23.2 3.46
1941 144.9 147.9 24.5 3.76
1949 186.6 184.9 30.6 4.87
1950 186.6 200.5 33.1 6.37
1951 181.5 203.7 35.7 5.09
1952 195.7 209.2 37.6 4.19
1953 188.2 218.7 39.3 5.78
1954 190.2 221.6 41.6 5.47
1955 196.6 236.3 43.0 7.20
1956 193.4 247.2 47.0 5.90
————————————————————————————————– Fuente: D. B. Suits, ―The Demand for New Automobiles in the United States,‖ Review
of Economics and Statistics, 40 (1958), p. 279.
[64]
Con estos datos, calcule las siguientes regresiones:
ln(Y) = b0 + b1 ln(X1) + b2 ln(X2) + e
ln(Y) = b0 + b1 ln(X1) + b2 ln(X2) + b3 ln(X3) + e
(a) ¿Cuál de estas dos regresiones funciona mejor? Razone su respuesta.
(b) ¿Cómo se interpreta el significado del coeficiente de la variable X3 en la se-
gunda regresión? ¿Tiene sentido este resultado? ¿Por qué?
Caso I — Convergencia Regional en México
Según el modelo neo-clásico de crecimiento económico, propuesto por Robert
Solow en los años 50’s,30
a largo plazo la tasa de crecimiento en el ingreso per
cápita tiende a disminuir, a medida que aumenta el nivel de ingreso per cápita,
debido al efecto de rendimientos decrecientes en el empleo de capital físico. Esto
implica que si se comparan diferentes países durante un determinado período, se
esperaría encontrar una relación inversa entre la tasa de crecimiento económico
en un país y su nivel de ingreso inicial. Este efecto se conoce como ―convergen-
cia,‖ ya que implica que a largo plazo los niveles de ingreso per cápita tienden a
igualarse entre diferentes regiones. En la práctica sólo se observa este efecto a ni-
vel internacional cuando se comparan países más o menos similares (ya que es
una predicción ceteris paribus, y cuando los países son muy disimilares tiende a
predominar el efecto de otros factores). Por otro lado, sí se observa comúnmente
este efecto cuando se comparan diferentes regiones de un mismo país.31
En el cuadro adjunto, se muestra una estadística de la evolución del ingreso real
per cápita en los diferentes estados de México, entre 1940 y 1995. Use estos datos
para estimar la siguiente regresión:
Y = b + bln(X) + e
donde Y = tasa anual promedio de crecimiento del ingreso real per cápita, 1940-
95, X = ingreso real per cápita en 1940. ¿Son compatibles estos resultados con la
hipótesis de convergencia?
30
R. M. Solow, ―A Contribution to the Theory of Economic Growth,‖ Quarterly Journal
of Economics, 70 (1956): 65-94. 31
Véase, por ejemplo, R. J. Barro, Economic Growth and Convergence, Occasional
Papers No. 46 (San Francisco: International Center for Economic Growth, 1994), y
Xavier Sala-i-Martin, ―The Classical Approach to Convergence Analysis,‖ Economic
Journal, 106 (1996): 1019-36.
[65]
MÉXICO — INGRESO PER CÁPITA ESTATAL, 1940-1995 (pesos de 1995).
Estado 1940 1995
1 Aguascalientes 10384 21013
2 Baja California 22361 25311
3 Baja California del Sur 9573 23989
4 Campeche 3758 35806
5 Chiapas 2934 8341
6 Chihuahua 8578 24973
7 Coahuila 8537 25654
8 Colima 6909 17970
9 Distrito Federal 17816 45323
10 Durango 12132 15270
11 Guanajuato 4359 12494
12 Guerrero 2181 10258
13 Hidalgo 4414 10515
14 Jalisco 5309 17535
15 México 3408 14430
16 Michoacán 3327 10193
17 Morelos 6936 15682
18 Nayarit 4836 10515
19 Nuevo León 9073 31453
20 Oaxaca 1892 8404
21 Puebla 3569 12809
22 Querétaro 11016 21451
23 Quintana Roo 21965 29276
24 San Luis Potosí 4372 13757
25 Sinaloa 4840 14310
26 Sonora 6399 23298
27 Tabasco 2459 12422
28 Tamaulipas 7508 19895
29 Tlaxcala 3605 9628
30 Veracruz 5203 11911
31 Yucatán 7990 13426
32 Zacatecas 3734 10663
Fuente: G. Esquivel, “Convergencia Regional en México, 1940-1995,” El Trimestre Económico, 66
(1999), Cuadro A1, p. 759.
[66]
Caso J — Producción de Algodón
Los siguientes datos muestran los resultados de un experimento agrícola realizado en
1957 por la Universidad Estatal de Mississippi para investigar los efectos de varia-
ciones en el uso de dos fertilizantes, nitrógeno y ácido fosfórico, sobre el rendimien-
to en el cultivo del algodón:
Rendimiento en el Cultivo de Algodón (kg/Ha) para Diferentes
Combinaciones de Nitrógeno y Acido Fosfórico
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Acido Fosfórico (kg/Ha)
Nitrógeno ——————————————————————————
(kg/Ha) 0 8 16 24 32 40 48 56
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
0 710 800 873 932 975 1003 1014 1012
8 985 1078 1155 1217 1264 1295 1311 1312
16 1205 1301 1382 1448 1498 1534 1553 1558
24 1370 1470 1555 1625 1679 1718 1742 1749
32 1481 1584 1673 1747 1804 1847 1875 1886
40 1538 1645 1737 1814 1876 1922 1954 1969
48 1539 1651 1747 1828 1893 1943 1978 1997
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Fuente: C. E. Bishop y W. D. Toussaint, Introducción al Análisis de Economía Agrí-
cola (México: Limusa-Wiley, 1966), p. 119. El experimento original también inclu-
ye resultados para aplicaciones de 56 kg de nitrógeno, y para aplicaciones de 64 kg
de ácido fosfórico, pero se han omitido estos valores del análisis, ya que con estas
cantidades de fertilizante los rendimientos empiezan a disminuir.
(a) Sea Y = rendimiento de la cosecha, X1 = cantidad empleada de nitrógeno, y X2 =
cantidad empleada de ácido fosfórico. Use estos datos para estimar la siguiente fun-
ción por regresión lineal:
Y = A(1+X1)b(1+X2)
c
donde A, b y c son constantes desconocidas. ¿Cómo interpreta usted el significado de
la constante A en esta función?
(b) Determine si existe ―heteroscedasticidad‖ en esta regresión.
(c) Suponiendo que el fertilizante es el único costo variable, y que los otros costos
de cultivo suman $500.00 por hectárea (costo fijo), determine la cantidad óptima que
debería emplearse de cada fertilizante, si el precio del algodón es de $0.80 por kg, y
los costos de aplicación de nitrógeno y de ácido fosfórico son de $5.60 y $2.80 por
kg, respectivamente.
(d) ¿Cuánto deberíamos emplear de cada fertilizante si quisiéramos minimizar el
costo promedio por kg de algodón?
[67]
Capítulo 6
AUTOCORRELACIÓN
En el capítulo anterior se mencionaron algunos problemas prácticos que a menu-
do surgen en las aplicaciones del análisis de regresión. Nos corresponde ahora en
este capítulo tratar el tema de la ―autocorrelación,‖ que es otro problema muy
común en la investigación econométrica aplicada.
6.1. Naturaleza del Problema.
Hasta este punto hemos desarrollado nuestro análisis sin prestar mayor aten-
ción al orden en que se presentan las diferentes observaciones. De hecho, existen
situaciones donde este orden no tiene en sí mayor significado. Por ejemplo, en el
caso de los costos bancarios (Cuadro 4.1), los datos para cada banco fueron orde-
nados de acuerdo al nivel de sus costos administrativos, pero podrían haberse
presentado en cualquier otro orden (por ejemplo, alfabéticamente según el nom-
bre del banco) sin alterar en nada el análisis o las conclusiones.
Esta no es, sin embargo, una situación muy común en econometría, ya que en
la investigación económica los datos por lo general consisten de ―series cronoló-
gicas.‖ En una serie cronológica, cada observación sobre cada variable corres-
ponde a un período de tiempo determinado, y el orden de presentación de los da-
tos es muy importante, ya que corresponde a la secuencia temporal en que fueron
generadas las diferentes observaciones. En este caso, es común agregar un subín-
dice en la notación para indicar el período al cual corresponde cada observación.
De esta forma, expresamos nuestro modelo lineal de la siguiente manera:
Yt = 0 + 1X1t + 2X2t + … + kXkt + ut
donde el subíndice t indica que los valores de las diferentes variables correspon-
den al período t. Cuando los datos son series cronológicas, es muy importante
distinguir a qué período corresponden las observaciones, ya que podría ser que el
valor de la variable dependiente en un período determinado dependa de valores
de las variables explicativas que corresponden a períodos anteriores (o sea, de
valores ―retardados‖ de las variables explicativas). Por ejemplo, en un estudio
[68]
sobre la demanda de alimentos en los Estados Unidos,32
Tobin estimó la siguiente
regresión:
log(Ct) = 1.57 + 0.45 log(Yt ) + 0.11 log(Yt–1) – 0.53 log(Pt)
donde Ct es un índice del consumo per cápita de alimentos en el año t, Yt repre-
senta el ingreso real per cápita en el año t, y Pt es un índice de precios de alimen-
tos en el año t. Se aprecia que en este modelo el consumo de alimentos en un año
determinado no sólo depende del ingreso en ese año, sino también del ingreso del
año anterior. En este caso, si bien Yt y su valor retardado Yt–1 representan una
misma variable independiente, deben ser tratados como regresores diferentes en
la ecuación de regresión. (Los problemas especiales planteados por la presencia
de variables retardadas serán discutidos más a fondo en el siguiente capítulo.)
El problema de autocorrelación surge cuando los errores correspondientes a
diferentes períodos no son independientes. Concretamente, decimos que los erro-
res en una regresión están ―auto-correlacionados‖ si el valor del error en cualquier
período t (ut) depende de los errores correspondientes a períodos anteriores. Co-
mo veremos a continuación, esto viola uno de los supuestos básicos del método
de mínimos cuadrados, y puede conducir a errores en la interpretación de los coe-
ficientes de regresión.
Para visualizar mejor el significado de la autocorrelación en los errores, con-
sideremos la Figura 6.1, que muestra los errores correspondientes a una regresión
basada en los datos del Caso F (Capítulo 4):
Y = 5.869 + 0.923 X1 + 4.446 X2
(8.258) (0.511) (2.997)
R2 = 0.6391 n = 24
donde Y = Fotocopias, X1 = Total de estudiantes universitarios, y X2 = Escolares
más otros usuarios.33
Se puede apreciar claramente que en este caso los errores no son
independientes entre sí, ya que no fluctúan en forma completamente aleatoria,
sino que tienden a estar agrupados en secuencias de acuerdo a su signo: tienden a
haber secuencias de valores positivos alternadas por secuencias de valores
negativos, etc. Este es el típico patrón de una serie que muestra ―autocorrelación
positiva.‖
32
James Tobin, ―A Statistical Demand Function for Food in the U.S.A.,‖ Journal of the
Royal Statistical Society, Series A, 113 (1950): 132. 33
Esta no es necesariamente la mejor especificación para este problema.
[69]
-20
-10
0
10
20
30
1994 1995 1996 1997 1998 1999
Figura 6.1. DEMANDA DE FOTOCOPIAS
(errores de la regresión estimada)
En general, la autocorrelación en los errores se puede representar por medio
del siguiente proceso ―auto-regresivo‖:
ut = ut–1 + vt
donde vt es una variable aleatoria independiente con media 0 y varianza constan-
te, y es el ―coeficiente de autocorrelación.‖ En la terminología del análisis de
series cronológicas, esta expresión se conoce como un ―proceso auto-regresivo de
primer orden.‖ Si > 0, entonces decimos que existe autocorrelación positiva, y
se presentará una situación similar a la del caso que hemos tomado como ejem-
plo. En este caso, tiende a haber cierta persistencia en los signos de los errores. Si
< 0, entonces decimos que la autocorrelación es negativa, y en este caso los
cambios de signos en los errores son demasiado frecuentes. En ambos casos, los
errores en períodos sucesivos no son independientes, ya que el valor del error en
un período determinado depende parcialmente del error del período anterior. Los
[70]
errores sólo serán completamente independientes si = 0, o sea, si existe ―auto-
correlación cero.‖
En este punto, surgen naturalmente tres preguntas básicas: (1) ¿Qué efectos
tiene la autocorrelación sobre las estimaciones de los coeficientes de regresión?
(2) ¿Cómo se detecta la presencia de autocorrelación en una regresión lineal? (3)
¿Qué se puede hacer para contrarrestar los efectos de la autocorrelación? A fin de
organizar mejor la discusión, trataremos cada uno de estos temas en secciones se-
paradas.
6.2. Efectos de la Autocorrelación.
Supongamos que deseamos estimar la siguiente ecuación lineal:
Yt = 0 + 1X1t + 2X2t + … + kXkt + ut
que en forma matricial expresamos como:
y = X + u
En el modelo clásico de regresión lineal, estimamos el vector de coeficientes
por medio del vector mínimo-cuadrático b = (X'X)–1
X'y. Recordemos nuevamen-
te el segundo supuesto básico del modelo clásico de regresión lineal (Secc. 4.2):
E(uu') = 2I, lo que en términos de nuestra nueva notación equivale a suponer
que E(ut2) =
2 para todo t, y E(utut–s) = 0 para todo s ≠ 0. Es decir, suponemos
que todos los errores tienen la misma varianza, y que los errores para períodos di-
ferentes son independientes. (Se podrá apreciar intuitivamente que la segunda
parte de este supuesto es lo que falla cuando existe autocorrelación.) Con base en
este supuesto, concluimos que la matriz de varianza-covarianza del vector b es
2(X'X)
–1, que estimamos por medio de S
2(X'X)
–1.
Supongamos ahora que los errores en el modelo lineal siguen el siguiente
proceso auto-regresivo:
ut = ut–1 + vt
donde vt es una variable aleatoria independiente con media 0 y varianza constan-
te, y || < 1. (Se podrá apreciar intuitivamente que esta condición es necesaria pa-
ra que el proceso sea ―estable.‖) Esto implica que
utut–1 = (ut–1 + vt)ut–1
Si calculamos el valor esperado de esta expresión obtenemos:
[71]
E(utut–1) = E(2
1tu )
ya que vt es una variable completamente aleatoria, y por tanto será independiente
de ut–1 (es decir, E(vtut–1) = 0). La expresión anterior sólo será igual a 0 si = 0,
es decir, si no existe autocorrelación. Si no es cero, entonces E(utut–1) tampoco
será cero, ya que E(2
1tu ) es necesariamente positiva. Por tanto, esto significa que
si existe autocorrelación (ya sea positiva o negativa), entonces los errores en pe-
ríodos sucesivos no serán independientes. Esto implica que el supuesto de que
E(uu') = 2I ya no es válido, lo que implica a su vez que la matriz de varianza-
covarianza del vector b ya no será de la forma 2(X'X)
–1. Por tanto, no tiene ya
sentido estimar esta matriz por medio de S2(X'X)
–1. Por supuesto que siempre es
posible calcular esta matriz, pero ya no se puede interpretar de la manera conven-
cional. Se recordará que en el caso clásico los elementos de la diagonal de esta
matriz son los estimadores de las varianzas de los coeficientes de regresión. Sin
embargo, si existe autocorrelación en los errores este ya no es el caso. De hecho,
si los errores están auto-correlacionados y tratamos de estimar las varianzas de
los coeficientes por medio del método convencional (que dicho sea de paso, es el
método que viene automáticamente incorporado en los programas de regresión
por computadoras), entonces se tenderá a subestimar estas varianzas. Por otro la-
do, nótese que
ut–1 = ut–2 + vt–1
Por tanto,
ut = ut–2 + vt–1) + vt = vt + vt–1 + 2ut–2 = vt + vt–1 +
2vt–2 +
3vt–3 + ….
El valor esperado de ut será entonces:
E(ut) = E(vt)+ Evt–1) + 2Evt–2) +
3E(vt–3) + …. = 0
Esto será cierto para toda t, y por tanto se sigue manteniendo válido el supuesto
de que E(u) = 0. Esto implica que el vector b sigue siendo insesgado, ya que esta
conclusión depende únicamente de este supuesto.
Para resumir, la autocorrelación no introduce sesgo en los coeficientes de re-
gresión, pero sí hace que se tiendan a subestimar las varianzas de estos coeficien-
tes, si estas varianzas se estiman por medio de la fórmula convencional. En tér-
minos prácticos, esto implica que se tenderá sobre-estimar la ―significancia‖ de
los coeficientes (porque se tenderá a sobre-estimar la ―razón t‖ de cada coeficien-
te), e incluso podría darse el caso de que se tienda a concluir que una variable es
significativa aún cuando realmente no lo sea.
[72]
6.3. Cómo Detectar la Autocorrelación.
La discusión anterior implica que la autocorrelación es un problema serio, y
por tanto es muy importante contar con alguna técnica para detectarla si es que
existe. Lo que necesitamos es alguna prueba confiable para testar la hipótesis
nula:
H0: = 0
Si no podemos rechazar esta hipótesis entonces concluimos que no existe auto-
correlación, lo que significa que los supuestos del modelo clásico de regresión se
aplican, lo mismo que las inferencias basadas en esos supuestos. Por otro lado, si
en un caso determinado encontramos que debemos rechazar esta hipótesis nula,
entonces concluimos que existe autocorrelación, y en ese caso debemos tratar de
remediar la situación, empleando algún método de estimación alternativo.
6.3.1. Prueba de Durbin-Watson.
En la práctica, la prueba que más comúnmente se emplea se basa en el si-
guiente estadístico propuesto por Durbin y Watson34
:
n
t
t
n
t
tt
e
ee
d
1
2
2
2
1 )(
Nótese que este estadístico se basa en los errores de la regresión estimada (que
son los únicos que podemos observar en la práctica). Si desarrollamos el numera-
dor de esta expresión, encontramos que
n
t
t
n
t
t
n
t
tt
n
t
t
e
eeee
d
1
2
1
1
2
2
1
2
2 2
Además, si apreciamos que en forma aproximada
n
t
n
t
t
n
t
tt eee2 1
21
1
22, entonces
el estadístico Durbin-Watson será aproximadamente igual a
2
122
t
tt
e
ee,
34
J. Durbin y G. S. Watson, ―Testing for Serial Correlation in Least Squares Regres-
sion,‖ Biometrika, 37 (1950): 409-28, 38 (1951): 159-78.
[73]
donde hemos suprimido los subíndices de las sumatorias para simplificar la
notación. La expresión entre corchetes es el estimador mínimo-cuadrático del
coeficiente de la regresión (por el origen) de et contra et–1, y el valor esperado de
este coeficiente es precisamente , el coeficiente de autocorrelación. Por tanto,
puesto que varía entre –1 y 1, el valor esperado de d varía entre 0 y 4. Si la
hipótesis nula de cero autocorrelación es cierta ( = 0), entonces el estadístico
Durbin-Watson (que a menudo se representa por las siglas DW) tendrá un valor
esperado de 2. Si d es menor que 2, entonces existirá evidencia de
autocorrelación positiva, y si es mayor que 2 existirá evidencia de autocorrelación
negativa. La relación entre d y se puede visualizar mejor en el siguiente gráfico:
Autocorrelación
———————————————————
Positiva Cero Negativa
1 0 –1
: |—————————|—————————|
0 2 4
d: |—————————|—————————|
Naturalmente que d nunca será exactamente igual a 2 aún cuando sea realmente
cero, debido a variaciones muestrales, por lo que en la práctica sólo rechazamos
la hipótesis de que = 0 cuando d se aleje ―demasiado‖ de 2 (en cualquiera de las
dos direcciones). Durbin y Watson tabularon los valores críticos de d para testar
H0: = 0 contra la alternativa de autocorrelación positiva para varios niveles de
significancia. En la Tabla A-4 del Apéndice presentamos los valores críticos ta-
bulados para 5 % de significancia (que es el nivel que más comúnmente se em-
plea en la práctica).35
Se aprecia que los valores críticos dependen tanto del nú-
mero de observaciones (n) como del número de variables independientes (k), y
que para cada combinación de n y k de hecho existen dos valores críticos: un va-
lor inferior (dL) y un valor superior (dU). En la práctica, la prueba Durbin-Watson
se reduce a la siguiente regla de decisión:
(a) Si d > dU, aceptar H0 (concluir que no existe autocorrelación)
(b) Si d < dL, rechazar H0 (concluir que existe autocorrelación positiva)
(c) Si dL < d < dU, la prueba no es concluyente.
35
La Tabla A-4 del Apéndice se basa en las tablas ampliadas reportadas por N. E. Savin
y K. J. White, ―The Durbin-Watson Test for Serial Correlation with Extreme Sample
Sizes or Many Regressors,‖ Econometrica, 45 (1977): 1989-96.
[74]
Si d > 2, entonces la alternativa relevante es < 0 (autocorrelación negativa). En
este caso, se puede calcular 4 – d, y aplicar la regla anterior como si se estuviera
considerando la alternativa de autocorrelación positiva:
(a) Si 4 – d > dU, aceptar H0 (concluir que no existe autocorrelación)
(b) Si 4 – d < dL, rechazar H0 (concluir que existe autocorrelación negativa)
(c) Si dL < 4 – d < dU, la prueba no es concluyente.
6.3.2. Limitaciones de la Prueba Durbin-Watson.
Uno de los problemas con la prueba Durbin-Watson es la ―región de incerti-
dumbre‖ entre dL y dU, que puede ser muy amplia cuando existen relativamente
pocas observaciones, o cuando el número de regresores es muy grande. En este
caso, en principio no se justifica ninguna conclusión, de modo que ―no sabemos
si existe autocorrelación, pero tampoco estamos seguros de que no existe.‖ Por
cierto que en la práctica tenemos que tomar alguna decisión: o aceptamos las es-
timaciones mínimo-cuadráticas tal cual, o empleamos otro método de estimación.
Si adoptamos la primera alternativa, entonces implícitamente estamos suponiendo
que no existe autocorrelación en los errores de la regresión. La cuestión es si se
justifica tomar esta actitud cuando d cae en la región de incertidumbre. En vista
de que en este caso las consecuencias de aceptar erróneamente la hipótesis nula
(Error Tipo II) son más graves que las de rechazarla incorrectamente (Error Tipo
I), parecería más conveniente concluir que existe autocorrelación a no ser que es-
temos seguros de lo contrario. Por esto, muchos autores recomiendan la siguiente
estrategia conservadora: si d < dU (o si 4 – d < dU), entonces rechazar H0 y con-
cluir que existe autocorrelación.
Otra de las limitaciones de la prueba Durbin-Watson es que los valores críti-
cos tabulados están definidos únicamente para regresiones ―con constante.‖ En el
caso de regresiones por el origen, el valor crítico superior (dU) es igual que en el
caso convencional de regresión con constante, pero el valor crítico inferior (dL) es
menor, lo que implica una mayor ―región de incertidumbre.‖36
Por último, es muy
importante anotar que la prueba Durbin-Watson tampoco es aplicable cuando los
regresores incluyen valores retardados de la variable dependiente. Este caso será
discutido con mayor detalle en el capítulo siguiente.
36
R. W. Farebrother, ―The Durbin-Watson Test for Serial Correlation When There is No
Intercept in the Regression,‖ Econometrica, 48 (1980): 1553-63.
[75]
6.3.3. Ejemplo Práctico.
Para ilustrar la aplicación de la prueba Durbin-Watson consideremos nueva-
mente el ejemplo de la demanda de fotocopias. Los cálculos necesarios se deta-
llan en el Cuadro 6.1. En este caso, para 24 observaciones y 2 variables indepen-
dientes tenemos que los valores críticos para la prueba Durbin-Watson son dL =
1.188 y dU = 1.546. Puesto que 0.921 < 1.188, concluimos que existe evidencia de
autocorrelación positiva en esta regresión.
6.4. Estimación en Presencia de Autocorrelación.
Vimos en la sección 6.2 que cuando los errores en una regresión están auto-
correlacionados, entonces se viola uno de los supuestos del modelo clásico de
regresión lineal, y por tanto las inferencias estadísticas basadas en esos supuestos
ya no son válidas. En este caso, se deberá adoptar algún método de estimación
alternativo. El método más comúnmente empleado es el llamado ―método
iterativo de Cochrane-Orcutt.‖37
Para simplificar la presentación, supongamos que deseamos estimar el si-
guiente modelo lineal simple (las conclusiones se pueden generalizar fácilmente
para el caso de k variables independientes):
(1) Yt = 0 + 1Xt + ut
y que los errores siguen el siguiente proceso auto-regresivo:
(2) ut = ut–1 + vt
Si retardamos la ecuación (1) en un período y pre-multiplicamos por , tendre-
mos:
(3) Yt–1 = 0 + 1Xt–1 + ut–1
Si restamos (1) menos (3), y reordenamos términos, tendremos finalmente:
(4) Yt – Yt–1 = 0(1 – ) + 1(Xt – Xt–1) + vt
Nótese que el error vt en la ecuación (4) ya no está auto-correlacionado, por lo
que en principio podría ser estimada por mínimos cuadrados ordinarios. Por tan-
to, si conociéramos el valor del coeficiente de autocorrelación (), entonces po-
dríamos obtener estimaciones de los coeficientes de la ecuación (1) por medio de
37
P. Cochrane y G. H. Orcutt, ―Application of Least Squares Regression to Relationships
Containing Autocorrelated Error Terms,‖ Journal of the American Statistical Associa-
tion, 44 (1949): 32-61.
[76]
————————————————————————————————–
Cuadro 6.1. CÁLCULO DEL ESTADÍSTICO DURBIN-WATSON PARA
EL CASO DE LA DEMANDA DE FOTOCOPIAS.
————————————————————————————————–
Y Y et et2 (et – et–1)
2
————————————————————————————————–
1994.1 55.786 57.327 -1.541 2.375 ¨¨ .2 55.734 53.982 1.752 3.070 10.844 .3 51.222 47.017 4.205 17.682 6.017 .4 27.344 34.270 -6.926 47.969 123.899
1995.1 52.456 51.893 0.563 0.317 56.085 .2 47.630 52.664 -5.034 25.341 31.326 .3 43.670 51.076 -7.406 54.849 5.626 .4 15.314 31.819 -16.505 272.415 82.792
1996.1 67.434 61.984 5.450 29.703 482.022 .2 59.024 48.743 10.281 105.699 23.339 .3 60.868 45.427 15.441 238.424 26.626 .4 27.214 23.117 4.097 16.785 128.686
1997.1 57.632 61.996 -4.364 19.044 71.589 .2 57.518 64.511 -6.993 48.902 6.912 .3 48.266 51.454 -3.188 10.163 14.478 .4 29.928 34.895 -4.967 24.671 3.165
1998.1 56.128 61.988 -5.860 34.340 0.797 .2 46.948 53.221 -6.273 39.351 0.171 .3 37.942 42.227 -4.285 18.361 3.952 .4 19.682 29.781 -10.099 101.990 33.803
1999.1 45.282 48.772 -3.490 12.180 43.679 .2 67.546 50.767 16.779 281.535 410.832 .3 65.364 44.904 20.460 418.612 13.550 .4 30.064 22.161 7.903 62.457 157.678
Sumas: 1886.235 1737.868 d = 1737.868 ÷ 1886.235 = 0.921
————————————————————————————————–
[77]
una estimación de la ecuación (4), que viene expresada en términos de las varia-
bles transformadas (Yt – Yt–1) y (Xt – Xt–1).
El problema, naturalmente, es que no conocemos , y por tanto debemos es-
timarlo. Denotemos el valor estimado de por . En el método Cochrane-Orcutt
se procede por pasos de acuerdo a la siguiente secuencia:
Paso Nº 1. Estimar la ecuación (1) por mínimos cuadrados ordinarios.
Paso Nº 2. Estimar a partir de los errores de la ecuación (1) por medio de:
2
1ˆ
t
tt
e
ee
que también podría estimarse como (1 – 0.5d), donde d es el estadístico Dur-
bin-Watson.38
Paso Nº 3. Sustituir el valor estimado de en la ecuación (4), y estimar los coefi-
cientes de esta regresión por mínimos cuadrados ordinarios. [Nótese que la
ordenada en el origen de la ecuación (4) no es un estimador de 0 sino de
0(1–). Para obtener el estimador de 0 deberá dividirse entre (1 – ).]
Paso Nº 4. Sustituir los coeficientes estimados en la ecuación (1), recalcular los
errores, y repetir los pasos 2, 3, y 4.
El proceso se repite iterativamente hasta que converge a un valor fijo. En la
práctica se decide de antemano detener el proceso cuando el cambio en el valor
estimado de de una iteración a otra es menor que algún valor pequeño (diga-
mos, 0.001). Generalmente se produce la convergencia al cabo de unas pocas ite-
raciones.
El método Cochrane-Orcutt es bastante conocido, y muchos paquetes de re-
gresión traen incorporados alguna variante del mismo. Obviamente se trata de un
método mucho más sofisticado que el método de mínimos cuadrados ordinarios.
La pregunta interesante, sin embargo, es si realmente produce mejores resultados.
38
Otra alternativa sería estimar por medio del método propuesto por J. Durbin (―The
Fitting of Time-Series Models,‖ Review of the International Statistical Institute, 28
[1960], p. 237). Si expresamos la ecuación (4) como:
Yt = 0(1 – ) + 1Xt – 1Xt–1 + Yt–1 + vt
y estimamos esta regresión por mínimos cuadrados ordinarios, podríamos tomar el
coeficiente de Yt–1 como un estimador de
[78]
El problema, por supuesto, es que el proceso de estimación no está basado en el
verdadero valor de , sino en su estimador . Debido a esto, es muy común
observar en la práctica que las estimaciones obtenidas por el método Cochrane-
Orcutt difieren mucho de las estimaciones obtenidas por mínimos cuadrados
ordinarios (a tal grado que los coeficientes muchas veces terminan incluso con los
signos cambiados). En este punto es bueno recordar que aún con errores auto-
correlacionados, el vector mínimo-cuadrático sigue siendo al fin y al cabo inses-
gado.
Por último, conviene siempre tener en mente que los métodos tipo Cochrane-
Orcutt no son un remedio para la autocorrelación, sino una forma de estimar los
coeficientes de regresión, dado que los errores están auto-correlacionados. Por
otro lado, la autocorrelación muchas veces es un síntoma de algún problema más
básico: por ejemplo, podría reflejar el efecto de alguna variable omitida, o de al-
gún error en la forma funcional de la ecuación de regresión. En este sentido, antes
de recurrir a técnicas sofisticadas (que en última instancia sólo atacan el ―sínto-
ma‖), es preferible tratar de eliminar la autocorrelación, investigando más a fondo
los factores que podrían estarla causando.
[79]
PREGUNTAS DE REPASO
1. Defina los siguientes conceptos:
a) serie cronológica
b) autocorrelación
c) estadístico Durbin-Watson.
2. ¿Qué efectos tiene la autocorrelación sobre los estimadores mínimo-
cuadráticos en el modelo clásico de regresión?
3. Para los Casos B y C del Capítulo 2 (―ley de Okun‖), determine si existe
heteroscedasticidad y/o autocorrelación en estas regresiones.
4. ¿Cuáles son las principales limitaciones de la prueba Durbin-Watson?
5. Explique los pasos que deben seguirse para estimar una regresión por medio
del método Cochrane-Orcutt.
[80]
CASO APLICADO
Caso K — Función Consumo
Los datos en el cuadro adjunto fueron tomados de un antiguo estudio sobre la
―función consumo‖ en los Estados Unidos. Se desea estimar la siguiente
regresión lineal:
Ct = b0 + b1Yt + et
donde Ct = Gasto de consumo personal en el trimestre t, Yt = Ingreso personal
disponible en el trimestre t (ambos expresados en billones de dólares de 1954), y
et es el error o residuo de la regresión estimada.
a) Determine si hay autocorrelación en esta regresión.
b) Use estos datos para estimar el coeficiente de autocorrelación () por medio
del método de Durbin.
[81]
CONSUMO E INGRESO PERSONAL EN ESTADOS UNIDOS, 1947-61 (trimestral).
Año Trimestre C(t) Y(t) Año Trimestre C(t) Y(t)
1947 I 192.5 202.3 1956 I 263.2 282.0
II 196.1 197.1 II 263.7 286.2
III 196.9 202.9 III 263.4 287.7
IV 197.0 202.2 IV 266.9 291.0
1948 I 198.1 203.5 1957 I 268.9 291.1
II 199.0 211.7 II 270.4 294.6
III 199.4 215.3 III 273.4 296.1
IV 200.6 215.1 IV 272.1 293.3
1949 I 199.9 212.9 1958 I 268.9 291.3
II 203.6 213.9 II 270.9 292.6
III 204.8 214.0 III 274.4 299.9
IV 209.0 214.9 IV 278.7 302.1
1950 I 210.7 228.0 1959 I 283.8 305.9
II 214.2 227.3 II 289.7 312.5
III 225.6 232.0 III 290.8 311.3
IV 217.0 236.1 IV 292.8 313.2
1951 I 222.3 230.9 1960 I 295.4 315.4
II 214.5 236.3 II 299.5 320.3
III 217.5 239.1 III 298.6 321.0
IV 219.8 240.8 IV 299.6 320.1
1952 I 220.0 238.1 1961 I 297.0 318.4
II 222.7 240.9 II 301.6 324.8
III 223.8 245.8
IV 230.2 248.8
1953 I 234.0 253.3
II 236.2 256.1
III 236.0 255.9
IV 234.1 255.9
1954 I 233.4 254.4
II 236.4 254.8
III 239.0 257.0
IV 243.2 260.9
1955 I 248.7 263.0
II 253.7 271.5
III 259.9 276.5
IV 261.8 281.4
Fuente: Z. Griliches, et al., “Notes on Estimated Aggregate Quarterly Consumption Functions,” Econometrica, 30 (1962), pp. 499-500 (Data Appendix).
[82]
Capítulo 7
RETARDOS DISTRIBUIDOS
En este capítulo final, discutiremos la estimación de regresiones que incluyen va-
riables retardadas en la lista de regresores. Como veremos, cuando los datos bási-
cos consisten de series cronológicas, la inclusión de variables retardadas permite
ampliar la flexibilidad del modelo de regresión, pero también plantea problemas
especiales de estimación, que justifican una discusión por separado.
7.1. Variables Retardadas en Econometría.
Cuando se especifica una relación entre variables económicas que son repre-
sentadas por medio de series cronológicas, generalmente es poco realista suponer
que el efecto total de un cambio en las variables explicativas se produce en un
mismo período. Más bien, en muchas situaciones es de esperarse que este efecto
quedará distribuido entre varios períodos futuros. Esto implica a su vez que el va-
lor de Y correspondiente a un período determinado dependerá en parte de los va-
lores de las X’s en ese mismo período, pero también dependerá de los valores de
las X’s correspondientes a períodos anteriores.
Para tomar un ejemplo concreto, recordemos el Caso G del Capítulo 4, donde
se aplicó un modelo basado en la ―Teoría Cuantitativa del Dinero‖ para explicar
la variación en las tasas de inflación en un grupo de países latinoamericanos. Un
problema que se presenta al aplicar este modelo a los datos anuales de un país es-
pecífico es que, en el corto plazo, generalmente existe un retardo en el efecto de
variaciones en la masa monetaria. Por tanto, si aumenta la tasa de crecimiento
monetario en un período determinado, la inflación en ese período también aumen-
tará, aunque probablemente no en la misma proporción, ya que el efecto inflacio-
nario de un cambio monetario toma cierto tiempo. Por esto, parte del efecto del
cambio monetario no se reflejará de inmediato, sino que se reflejará posterior-
mente en la inflación de períodos futuros. Por otro lado, y viéndolo desde otro
ángulo, esto implica que la tasa de inflación en el período actual no depende úni-
camente de la tasa contemporánea de crecimiento monetario, sino que también
dependerá del crecimiento monetario de períodos anteriores. Por tanto, si expre-
samos la tasa de inflación como función únicamente del crecimiento monetario
contemporáneo se obtendrán resultados sesgados, ya que la regresión tenderá a
[83]
subestimar el efecto total de un cambio monetario, debido a la omisión del efecto
retardado. (Debemos recordar en este punto la discusión del Capítulo 5 sobre los
efectos de ―variables omitidas.‖)
Por otro lado, si bien es fácil justificar la presencia de variables retardadas en
una regresión, la teoría relevante rara vez proporciona guías claras sobre la dura-
ción exacta del retardo en un caso concreto, ya que generalmente esta es precisa-
mente una de las cuestiones que deseamos determinar por medio de la investiga-
ción. Si suponemos, para simplificar la presentación, de que Y depende de una so-
la variable explicativa X, entonces podríamos especificar un modelo lineal de la
forma:
(1) Yt = 0 + 1Xt + 2Xt–1 + ... + k+1Xt–k + ut
donde Yt depende del valor contemporáneo de X, y de los valores de X correspon-
dientes a los k períodos anteriores. Una ecuación de este tipo se conoce como un
―retardo distribuido.‖ En principio, se podría determinar el número de valores
retardados (k) por ―prueba y error,‖ empezando con un número relativamente
grande y examinando la significancia de los coeficientes estimados. En la práctica
este procedimiento no es siempre factible, por varias razones. En primer lugar, el
número de observaciones en la muestra impone una limitación al número de re-
tardos que pueden considerarse, ya que si incluimos demasiados valores retarda-
dos en la ecuación, nos quedarán pocos grados de libertad para la estimación. Por
otro lado, típicamente los diferentes valores retardados de X estarán correlaciona-
dos entre sí, lo que puede crear problemas de multicolinealidad.
7.1.1. Transformación de Koyck.39
Una forma de evitar estos problemas es suponer que el retardo es en principio
―infinito,‖ pero imponer algún tipo de restricción sobre la forma de los coeficien-
tes. Supongamos que la relación entre Y y X tiene el siguiente retardo distribuido:
(2) Yt = 0 + 1Xt + 2Xt–1 + 3Xt–2 + … + ut
Por supuesto que sería imposible estimar este modelo directamente. No obstante,
se puede reducir el problema a proporciones manejables si imponemos ciertas
restricciones sobre los coeficientes 1, 2, .... En muchas situaciones, por ejem-
plo, parece razonable suponer que la magnitud del efecto de un cambio en X dis-
39
La discusión en esta sección y la siguiente se basa en Goldberger, Teoría Econométri-
ca, Cap. 6 (pp. 289-90), y Marc Nerlove, ―Distributed Lags,‖ International Encyclope-
dia of the Social Sciences (1968), vol. 4, pp. 214-17. Véase también A. S. Goldberger,
―Review of Distributed Lags and Demand Analysis for Agricultural and Other Com-
modities by Marc Nerlove,‖ American Economic Review, 48 (1958): 1011-13.
[84]
minuye con el tiempo, por lo que esperamos un impacto inicial relativamente
fuerte, un efecto menos fuerte en el período siguiente, etc. Si este es el caso, en-
tonces los coeficientes de la ecuación (2) tenderían a disminuir sistemáticamente
a medida que retrocedemos más y más en el pasado. La llamada ―transformación
de Koyck‖ se basa en el supuesto de que estos coeficientes disminuyen en forma
geométrica:
i = i–1
para i = 1, 2, .... )10(
Con este supuesto, podemos expresar la ecuación (2) como:
(3) Yt = 0 + Xt + Xt–1 + 2Xt–2 + ... + ut
Si retardamos la ecuación (3) en un período y pre-multiplicamos por tendre-
mos:
(4) Yt–1 = 0 + Xt–1 + 2Xt–2 +
3Xt–3 + ... + ut–1
Por último, restando (3) menos (4) y reordenando, obtenemos:
(5) Yt = (1 – )0 + Xt + Yt–1 + (ut – ut–1)
De esta forma, el problema se reduce a la estimación de únicamente tres paráme-
tros. Se notará, sin embargo, que esta ecuación implica un término de error un
tanto complicado. Por otra parte, Nerlove ha propuesto un mecanismo de retardo
que produce una regresión muy similar a la de Koyck, pero con un error más sim-
ple.
7.1.2. Modelo de Ajuste Parcial (Nerlove).
El modelo de Nerlove se basa en el supuesto de que existe una relación lineal
de ―largo plazo‖ entre Y y X, que se expresa de la forma:
(6) Y* = 0 + 1Xt
Aquí, Y* representa el valor de Y que se observaría si el valor de X se mantuviera
igual a Xt por un tiempo ―muy largo.‖ Si cambia X, entonces Y* también cambia,
pero el valor observado de la variable dependiente (Yt) no se ajusta de inmediato
al valor de largo plazo, de modo que en cualquier período determinado habrá dis-
crepancias entre Y* y Yt. En el modelo de Nerlove, se supone que estas discrepan-
cias se corrigen de acuerdo al siguiente mecanismo de ―ajuste parcial‖:
(7) Yt – Yt–1 = (Y* – Yt–1) + ut )10(
[85]
En este modelo, el ―coeficiente de ajuste‖ () mide la rapidez con que Yt se ajusta
a un cambio en Xt. Si es muy grande, entonces el ajuste es rápido, mientras que
si es pequeño, entonces el ajuste es lento. (En el caso límite, si = 1 entonces Yt
= Y*
+ ut, todo el ajuste se produce en el mismo período, y las únicas discrepan-
cias se deben a las fluctuaciones del error aleatorio.) Si sustituimos (6) en (7) y
reordenamos términos, obtenemos:
(8) Yt = 0 + 1Xt + (1 – )Yt–1 + ut
Nótese que este modelo es formalmente idéntico al modelo de Koyck, pero con la
diferencia de que el término de error es más sencillo. Para estimar los parámetros
del modelo, calculamos la siguiente regresión:
(9) Yt = b0 + b1Xt + b2Yt–1 + et
En esta regresión, b0 es el estimador de 0, b1 es el estimador de 1, y b2 es el
estimador de (1 – ). A partir de estos estimadores, podemos estimar 0 por me-
dio de b0/(1 – b2), y 1 por medio de b1/(1 – b2). [Para facilitar la presentación,
hemos desarrollado el modelo de ajuste parcial en términos de una sola variable
explicativa, pero los resultados se pueden fácilmente generalizar para el caso de k
variables independientes. Sin embargo, para evitar confusiones, debe tenerse en
mente que para estimar los parámetros del modelo de largo plazo (0, 1, 2, etc.)
lo que nos interesa es dividir los coeficientes de la regresión (9) entre el estima-
dor de , que será igual a 1 menos el coeficiente de Yt–1 en esa regresión.]
7.2. Autocorrelación en Regresiones con Retardos.
En el capítulo anterior, se mencionó que la prueba Durbin-Watson no es apli-
cable cuando la lista de regresores incluye variables dependientes retardadas. De
hecho, Nerlove y Wallis han demostraron que en este caso el valor del estadístico
Durbin-Watson estará sesgado hacia 2, por lo que se tenderá a aceptar la hipótesis
de cero autocorrelación, aun cuando los errores realmente estén autocorrelacio-
nados.40
En vista de esto, Durbin41
ha propuesto el siguiente estadístico alternativo:
)(1)5.01(
bVarn
ndh
40
Marc Nerlove y K. F. Wallis, ―Use of the Durbin-Watson Statistic in Inappropriate
Situations,‖ Econometrica, 34 (1966): 235-38.
41J. Durbin, ―Testing for Serial Correlation in Least Squares Regression When Some of
the Regressors are Lagged Dependent Variables,‖ Econometrica, 38 (1970): 410-21.
[86]
donde d es el convencional estadístico Durbin-Watson, y Var(b) es la varianza
muestral del coeficiente de Yt–1. (Nótese que el estadístico h no estará definido si
nVar(b) > 1.) Durbin demostró que en grandes muestras h tiene una distribución
que se aproxima a la de una variable normal estándar (es decir, una variable nor-
mal con media 0 y varianza 1). Por tanto, para testar la hipótesis de cero auto-
correlación ( = 0) contra la alternativa de autocorrelación positiva ( > 0) con un
nivel de significancia de 5 %, rechazamos la hipótesis nula y concluimos que
existe autocorrelación si h > 1.645. (Si la alternativa es autocorrelación negativa,
concluimos que existe autocorrelación si h < –1.645.) La prueba h de Durbin es
―asintótica‖ en el sentido de que, en principio, sólo se aplica para el caso de
muestras muy grandes (digamos, n > 30). Sin embargo, Park ha encontrado que la
prueba también funciona razonablemente bien incluso cuando las muestras no son
muy grandes.42
7.3. Aplicación — Inflación en Guatemala.
En un clásico estudio sobre la inflación chilena,43
Harberger propuso el si-
guiente modelo:
Pt = b0 + b1Mt + b2Mt–1 + b3Qt + et
donde Pt representa la tasa de inflación en el año t, Mt es la tasa de crecimiento en
la masa monetaria en el año t, Qt es el cambio porcentual en el PIB real en el año
t, y et es el error o residuo de la regresión estimada. Se puede apreciar que la re-
gresión incluye también como variable independiente el crecimiento monetario
del año anterior, Mt–1, para poder tomar en cuenta posibles ―retardos‖ en el efecto
del crecimiento monetario.44
Este modelo ha sido usado para estudiar la inflación
42
S.-B. Park, ―On the Small-Sample Power of Durbin’s h Test,‖ Journal of the American
Statistical Association, 70 (1975): 60-63.
43A. C. Harberger, ―The Dynamics of Inflation in Chile,‖ en C. F. Christ, et al.,
Measurement in Economics: Studies in Mathematical Economics and Econometrics in
Memory of Yehuda Grunfeld (Stanford University Press, 1963), pp. 219-50. 44
Otra forma de expresar esta misma ecuación es:
Pt = b0 + (b1 + b2)Mt – b2(Mt – Mt–1) + b3Qt + et
donde la tasa de inflación en un período determinado depende de la tasa de crecimiento
monetario en ese período, y del cambio en la tasa de crecimiento monetario. Esto intro-
duce un elemento dinámico en la relación a corto plazo entre inflación y crecimiento
monetario. La relación de largo plazo se da cuando Mt = Mt–1 (i.e., el crecimiento mone-
tario se mantiene constante de un período a otro), y la ecuación entonces se reduce a
Pt = b0 + (b1 + b2)Mt + b3Qt + et
por lo que en el largo plazo el efecto de una determinada tasa de crecimiento monetario
está dado por (b1 + b2).
[87]
en muchos países, con buenos resultados. Algunos economistas, sin embargo,
consideran que el modelo de Harberger no siempre capta bien el retardo en el
efecto monetario, y proponen más bien que se incluya, en lugar del crecimiento
monetario retardado, un valor retardado de la variable dependiente, o sea, la tasa
de inflación del año anterior. En otras palabras, proponen que un modelo más
adecuado sería de la forma:
Pt = b0 + b1Mt + b2Qt + b3Pt–1 + et
que podría interpretarse en términos de un modelo de ajuste parcial tipo Nerlove.
Este segundo modelo fue estimado con datos para Guatemala para el período
1962-95 (Cuadro 7.1). Los resultados obtenidos fueron los siguientes:
Pt = 2.0899 + 0.5922 Mt – 0.8506 Qt + 0.3067 Pt–1
(2.243) (0.1008) (0.3668) (0.1080)
R2 = 0.701 n = 34
Se puede apreciar que, en términos generales, esta regresión funciona relativa-
mente bien. En primer lugar, los regresores explican poco más de 70 % de la va-
riación anual en la tasa de inflación, y en segundo lugar, los coeficientes estima-
dos son todos significativos (con excepción de la constante).
Para determinar si existe autocorrelación en este modelo, calculamos el
estadístico h. Los cálculos básicos se detallan en el Cuadro 7.2. Con estos datos
calculamos el valor del estadístico h de la siguiente manera:
d = 2028.9718 1080.991 = 1.87696 Var(b) = (0.108)2 = 0.01166
4617.001166.0341
34)87696.15.01(
h
En este caso, puesto que h < 1.645, no rechazamos la hipótesis de cero auto-
correlación.
Dado que la constante b0 no es significativa en esta regresión, podemos
obtener estimaciones más eficientes de los otros coeficientes por medio de una
―regresión por el origen.‖ Los resultados son los siguientes:
Pt = 0.6235 Mt – 0.6324 Qt + 0.3403 Pt–1
(0.0948) (0.2817) (0.1016)
R2 = 0.6925 n = 34
[88]
Cuadro 7.2. INFLACIÓN, MASA MONETARIA Y PIB REAL EN GUATEMALA, 1961-1995 (cambios porcentuales anuales)
Año IPC M1 PIB
1961 -0.5 -1.4 4.3
1962 2.1 0.4 3.5
1963 0.1 13.8 9.5
1964 -0.2 8.8 4.6
1965 -0.8 3.2 4.4
1966 0.7 8.4 5.5
1967 0.5 -2.9 4.1
1968 1.9 7.8 8.8
1969 2.1 4.4 4.7
1970 2.4 7.0 5.7
1971 -0.5 1.8 5.6
1972 0.6 11.7 7.3
1973 14.4 26.1 6.8
1974 15.9 27.0 6.4
1975 13.1 9.5 2.0
1976 10.7 32.3 7.4
1977 12.6 24.7 7.8
1978 7.9 10.5 5.0
1979 11.5 9.8 4.7
1980 10.7 1.6 3.7
1981 11.4 1.3 0.7
1982 0.1 6.3 -3.5
1983 4.7 1.0 -2.6
1984 3.4 5.2 0.5
1985 18.7 32.8 -0.6
1986 36.9 34.7 0.1
1987 12.3 14.8 3.5
1988 10.8 11.9 3.9
1989 13.0 14.0 3.9
1990 41.0 39.8 3.1
1991 35.1 20.3 3.7
1992 10.2 19.3 4.8
1993 13.4 19.7 3.9
1994 12.5 29.5 4.0
1995 8.4 21.3 4.9
IPC = Indice de Precios al Consumidor M1 = Efectivo fuera de bancos + Depósitos a la vista en bancos comerciales PIB = Producto Interno Bruto real
Fuente: J. H. Cole, “Inflación en Guatemala, 1961-95,” Banca Central, No. 32 (1997), p. 24.
[89]
————————————————————————————————–
Cuadro 7.2. ERRORES DEL MODELO DE INFLACIÓN EN GUATEMALA.
————————————————————————————————–
Y Y et et2 (et – et–1)
2
————————————————————————————————– 1962 2.1 -0.8036 2.9036 8.4309 31.6868
1963 0.1 2.8255 -2.7255 7.4284 0.7983
1964 -0.2 3.4190 -3.6190 13.0972 6.9590
1965 -0.8 0.1810 -0.9810 0.9624 0.2112
1966 0.7 2.1406 -1.4406 2.0753 23.4314
1967 0.5 -2.9000 3.4000 11.5600 0.7693
1968 1.9 -0.6229 2.5229 6.3650 2.9016
1969 2.1 1.2805 0.8195 0.6716 0.2029
1970 2.4 2.0309 0.3691 0.1362 0.0000
1971 -0.5 -0.8713 0.3713 0.1379 5.8903
1972 0.6 2.6557 -2.0557 4.2259 20.3410
1973 14.4 11.9456 2.4544 6.0241 13.0011
1974 15.9 17.0513 -1.1513 1.3255 11.2916
1975 13.1 10.8910 2.2090 4.8797 109.1921
1976 10.7 18.9405 -8.2405 67.9058 55.9025
1977 12.6 13.3637 -0.7637 0.5832 0.5541
1978 7.9 7.9193 -0.0193 0.0004 27.0494
1979 11.5 6.3184 5.1816 26.8490 4.4142
1980 10.7 3.4174 7.2826 53.0363 2.0412
1981 11.4 5.5461 5.8539 34.2681 325.7267
1982 0.1 12.2940 -12.1940 148.6936 143.2761
1983 4.7 4.9242 -0.2242 0.0503 6.5597
1984 3.4 6.1854 -2.7854 7.7585 2.4986
1985 18.7 23.0661 -4.3661 19.0628 168.4181
1986 36.9 28.2885 8.6115 74.1579 240.4360
1987 12.3 19.1945 -6.8945 47.5341 65.6505
1988 10.8 9.5920 1.2080 1.4593 2.0065
1989 13.0 10.3755 2.6245 6.8880 129.2064
1990 41.0 27.0086 13.9914 195.7593 5.9059
1991 35.1 23.5388 11.5612 133.6613 464.9457
1992 10.2 20.2014 -10.0014 100.0280 96.7194
1993 13.4 13.5668 -0.1668 0.0278 57.7539
1994 12.5 20.2664 -7.7664 60.3170 3.2303
1995 8.4 14.3691 -5.9691 35.6302 31.6868
Sumas: 1080.9910 2028.9718
————————————————————————————————–
[90]
Si interpretamos esta regresión en términos de un modelo de ajuste parcial, en-
tonces las estimaciones de los coeficientes de largo plazo para las variables expli-
cativas serían:
Crecimiento Monetario 0.6235 (1 – 0.3403) = 0.945
Crecimiento PIB Real – 0.6324 (1 – 0.3403) = – 0.959
Por tanto, de acuerdo a estas estimaciones, el efecto final de un aumento en la
masa monetaria será un aumento de aproximadamente la misma proporción en el
nivel general de precios, mientras que el efecto final de un aumento en el PIB real
será una reducción de aproximadamente la misma proporción en el nivel de pre-
cios. Estos resultados son compatibles con la teoría económica relevante.
[91]
CASOS APLICADOS
Caso L — Curva de Phillips
En un trabajo sobre la ―Curva de Phillips‖ en Estados Unidos,45
William Niska-
nen propuso el siguiente modelo para representar la relación a corto plazo entre la
tasa anual de desempleo (U) y la tasa anual de inflación (I):
Ut = b0 + b1It + b2 It–1 + b3Ut–1 + et
El cuadro adjunto muestra los datos relevantes para el período 1960-2001.
(1) Estime el modelo propuesto por Niskanen.
(2) Determine si existe autocorrelación en esta regresión.
Año Desempleo (%) Inflación (%) Año Desempleo (%) Inflación (%)
1960 5.5 1.7 1981 7.6 10.3
1961 6.7 1.0 1982 9.7 6.2
1962 5.5 1.0 1983 9.6 3.2
1963 5.7 1.3 1984 7.5 4.3
1964 5.2 1.3 1985 7.2 3.6
1965 4.5 1.6 1986 7.0 1.9
1966 3.8 2.9 1987 6.2 3.6
1967 3.8 3.1 1988 5.5 4.1
1968 3.6 4.2 1989 5.3 4.8
1969 3.5 5.5 1990 5.6 5.4
1970 4.9 5.7 1991 6.8 4.2
1971 5.9 4.4 1992 7.5 3.0
1972 5.6 3.2 1993 6.9 3.0
1973 4.9 6.2 1994 6.1 2.6
1974 5.6 11.0 1995 5.6 2.8
1975 8.5 9.1 1996 5.4 3.0
1976 7.7 5.8 1997 4.9 2.3
1977 7.1 6.5 1998 4.5 1.6
1978 6.1 7.6 1999 4.2 2.2
1979 5.8 11.3 2000 4.0 3.4
1980 7.1 13.5 2001 4.7 2.8
Fuente: Economic Report of the President, 2006, Table B-42 y Table B-64.
45William A. Niskanen, ―On the Death of the Phillips Curve,‖ Cato Journal, 22 (2002):
193-98.
[92]
Caso M — Inflación en Guatemala
En la sección 7.3 de este capítulo se aplicó un modelo ―monetarista‖ con retardos
para explicar la variación anual en la tasa de inflación en Guatemala. Para medir
la inflación, se utilizó el Indice de Precios al Consumidor (IPC). En el cuadro ad-
junto, se muestra una desagregación del cambio en el IPC en Guatemala, en tér-
minos de sus dos principales componentes: Alimentos y No-Alimentos.
Con estos datos, repita el análisis de la sección 7.3, estimando regresiones sepa-
radas para los dos componentes del IPC.
¿Qué conclusiones deriva usted de este ejercicio?
INDICE DE PRECIOS AL CONSUMIDOR EN GUATEMALA, 1961-1995 (cambios porcentuales anuales)
Año
IPC Año
IPC
Total Alimentos No-Alim. Total Alimentos No-Alim.
1961 -0.5 -1.1 0.3 1981 11.4 11.3 11.5
1962 2.1 1.9 2.4 1982 0.1 -2.8 2.4
1963 0.1 0.3 -0.2 1983 4.7 3.3 5.8
1964 -0.2 -0.5 0.2 1984 3.4 2.0 4.4
1965 -0.8 -0.1 -1.7 1985 18.7 20.6 17.3
1966 0.7 -0.1 1.8 1986 36.9 39.2 35.2
1967 0.5 0.0 1.2 1987 12.3 15.6 9.9
1968 1.9 3.6 -0.4 1988 10.8 14.2 8.3
1969 2.1 1.1 3.4 1989 13.0 13.3 12.8
1970 2.4 4.0 0.3 1990 41.0 47.1 36.5
1971 -0.5 -1.9 1.4 1991 35.1 32.3 37.1
1972 0.6 0.1 1.3 1992 10.2 7.2 12.4
1973 14.4 19.3 7.8 1993 13.4 14.5 12.5
1974 15.9 15.9 15.9 1994 12.5 16.1 9.9
1975 13.1 14.6 11.9 1995 8.4 8.8 8.1
1976 10.7 9.6 11.6
1977 12.6 11.0 13.8
1978 7.9 4.6 10.5
1979 11.5 10.3 12.4
1980 10.7 11.2 10.3
Fuente: J. H. Cole, “Inflación en Guatemala, 1961-95,” Banca Central, No. 32 (1997), p. 24.
[93]
Caso N — Demanda de Importaciones en Guatemala
En el cuadro adjunto se muestran datos relacionados con las importaciones en
Guatemala durante el perìodo de 1965 a 2000. Para eliminar el efecto de la infla-
ción, los datos han sido expresados en términos de quetzales de 1958, de modo
que estas cifras ―deflatadas‖ se pueden interpretar como las importaciones
―reales‖ en el sentido de que reflejan cambios en la demanda física de bienes im-
portados. Como una primera aproximación, podemos expresar la ―demanda de
importaciones‖ como función del costo relativo de los productos importados
(comparado con el costo de bienes producidos domésticamente) y del nivel de in-
greso real.
Para medir la primera de estas variables explicativas, tomamos la razón entre el
Deflactor de Importaciones y el Deflactor del Producto Interno Bruto (PIB) total,
y para medir la segunda variable explicativa tomamos el PIB real (a precios de
1958). Puesto que lo que nos interesa saber es la elasticidad de la demanda de
importaciones respecto de cada una de estas variables, estimamos el siguiente
modelo doble-log:
ln(Imp)t = b0 + b1ln(Pm)t + b2ln(PIB)t + b3ln(Imp)t–1 + et
donde ―Imp‖ son las importaciones reales, ―Pm‖ es el precio relativo de las im-
portaciones, y ―PIB‖ es el Producto Interno Bruto real. Para tomar en cuenta po-
sibles retardos en el efecto de estas variables, se agrega también el valor retardado
de la variable dependiente como una tercera variable explicativa.46
(a) Con estos datos estime el modelo propuesto, y utilice los resultados para cal-
cular la elasticidad-precio y la elasticidad-ingreso de la demanda de importacio-
nes, tanto en el corto plazo como en el largo plazo.
(b) Determine si en este modelo existen problemas de autocorrelación.
46
Para una justificación de esta forma funcional y su interpretación en términos de un
modelo de ajuste parcial, véase M. S. Khan, ―Import and Export Demand in Developing
Countries,‖ IMF Staff Papers, 21 (1974): 678-93.
[94]
IMPORTACIONES EN GUATEMALA, 1965-2000.
Año Importaciones
Reales 1/
Precio Relativo 2/
PIB Real 1/
1965 247.0 1.076 1355.2
1966 251.0 1.090 1429.9
1967 267.0 1.088 1488.6
1968 277.7 1.074 1619.2
1969 271.8 1.087 1695.9
1970 293.2 1.087 1792.8
1971 312.0 1.134 1892.8
1972 294.7 1.277 2031.6
1973 324.2 1.352 2169.4
1974 416.4 1.598 2307.7
1975 352.1 1.573 2352.7
1976 457.1 1.524 2526.5
1977 498.1 1.431 2723.8
1978 521.6 1.495 2859.9
1979 482.8 1.603 2994.6
1980 441.2 1.755 3106.9
1981 424.6 1.738 3127.6
1982 334.3 1.687 3016.6
1983 269.2 1.589 2939.6
1984 287.2 1.589 2953.5
1985 250.3 2.358 2936.1
1986 213.6 2.009 2940.2
1987 315.9 2.149 3044.4
1988 327.7 2.117 3162.9
1989 346.9 2.130 3287.6
1990 344.3 2.336 3389.6
1991 369.2 2.055 3513.6
1992 506.0 1.992 3683.6
1993 527.3 1.894 3828.3
1994 553.5 1.790 3982.7
1995 595.5 1.785 4179.8
1996 554.7 1.752 4303.4
1997 662.8 1.599 4491.2
1998 825.2 1.500 4715.5
1999 831.1 1.612 4896.9
2000 882.2 1.679 5072.5
Deflactor de Importación 1/ Millones de quetzales de 1958 2/ Precio Relativo = ———————————— Deflactor del PIB Fuente: Banco de Guatemala, Sección Cuentas Nacionales.
[95]
ANEXOS
A-1. Areas de la Distribución Normal Estándar …………………………….... 96
p.
A-2. Percentiles de la Distribución t (Student) ……………………………….. 97
p.
A-3. Valores Críticos de la Distribución Chi-cuadrado ……………………… 98
p.
A-4. Estadístico Durbin-Watson: Valores Críticos (5 %) para dL y dU ……….. 99
p
[96]
A-1. Areas de la Distribución Normal Estándar.
z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 0.0000 0.0040 0.0080 0.0120 0.0160 0.0199 0.0239 0.0279 0.0319 0.0359
0.1 0.0398 0.0438 0.0478 0.0517 0.0557 0.0596 0.0636 0.0675 0.0714 0.0753
0.2 0.0793 0.0832 0.0871 0.0910 0.0948 0.0987 0.1026 0.1064 0.1103 0.1141
0.3 0.1179 0.1217 0.1255 0.1293 0.1331 0.1368 0.1406 0.1443 0.1480 0.1517
0.4 0.1554 0.1591 0.1628 0.1664 0.1700 0.1736 0.1772 0.1808 0.1844 0.1879
0.5 0.1915 0.1950 0.1985 0.2019 0.2054 0.2088 0.2123 0.2157 0.2190 0.2224
0.6 0.2257 0.2291 0.2324 0.2357 0.2389 0.2422 0.2454 0.2486 0.2517 0.2549
0.7 0.2580 0.2611 0.2642 0.2673 0.2704 0.2734 0.2764 0.2794 0.2823 0.2852
0.8 0.2881 0.2910 0.2939 0.2967 0.2995 0.3023 0.3051 0.3078 0.3106 0.3133
0.9 0.3159 0.3186 0.3212 0.3238 0.3264 0.3289 0.3315 0.3340 0.3365 0.3389
1.0 0.3413 0.3438 0.3461 0.3485 0.3508 0.3531 0.3554 0.3577 0.3599 0.3621
1.1 0.3643 0.3665 0.3686 0.3708 0.3729 0.3749 0.3770 0.3790 0.3810 0.3830
1.2 0.3849 0.3869 0.3888 0.3907 0.3925 0.3944 0.3962 0.3980 0.3997 0.4015
1.3 0.4032 0.4049 0.4066 0.4082 0.4099 0.4115 0.4131 0.4147 0.4162 0.4177
1.4 0.4192 0.4207 0.4222 0.4236 0.4251 0.4265 0.4279 0.4292 0.4306 0.4319
1.5 0.4332 0.4345 0.4357 0.4370 0.4382 0.4394 0.4406 0.4418 0.4429 0.4441
1.6 0.4452 0.4463 0.4474 0.4484 0.4495 0.4505 0.4515 0.4525 0.4535 0.4545
1.7 0.4554 0.4564 0.4573 0.4582 0.4591 0.4599 0.4608 0.4616 0.4625 0.4633
1.8 0.4641 0.4649 0.4656 0.4664 0.4671 0.4678 0.4686 0.4693 0.4699 0.4706
1.9 0.4713 0.4719 0.4726 0.4732 0.4738 0.4744 0.4750 0.4756 0.4761 0.4767
2.0 0.4772 0.4778 0.4783 0.4788 0.4793 0.4798 0.4803 0.4808 0.4812 0.4817
2.1 0.4821 0.4826 0.4830 0.4834 0.4838 0.4842 0.4846 0.4850 0.4854 0.4857
2.2 0.4861 0.4864 0.4868 0.4871 0.4875 0.4878 0.4881 0.4884 0.4887 0.4890
2.3 0.4893 0.4896 0.4898 0.4901 0.4904 0.4906 0.4909 0.4911 0.4913 0.4916
2.4 0.4918 0.4920 0.4922 0.4925 0.4927 0.4929 0.4931 0.4932 0.4934 0.4936
2.5 0.4938 0.4940 0.4941 0.4943 0.4945 0.4946 0.4948 0.4949 0.4951 0.4952
2.6 0.4953 0.4955 0.4956 0.4957 0.4959 0.4960 0.4961 0.4962 0.4963 0.4964
2.7 0.4965 0.4966 0.4967 0.4968 0.4969 0.4970 0.4971 0.4972 0.4973 0.4974
2.8 0.4974 0.4975 0.4976 0.4977 0.4977 0.4978 0.4979 0.4979 0.4980 0.4981
2.9 0.4981 0.4982 0.4982 0.4983 0.4984 0.4984 0.4985 0.4985 0.4986 0.4986
3.0 0.4987 0.4987 0.4987 0.4988 0.4988 0.4989 0.4989 0.4989 0.4990 0.4990
Fuente: Hoel (1971)
0 z
[97]
A-2. Percentiles de la Distribución t (Student).
1 –
0.90 0.95 0.975 0.99 0.995
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
60 1.296 1.671 2.000 2.390 2.660
80 1.292 1.664 1.990 2.374 2.639
100 1.290 1.660 1.984 2.364 2.626
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
Fuente: Hoel (1971)
A-3. Valores Críticos de la Distribución Chi-cuadrado.
Grados de libertad
Area en la cola derecha
0.99 0.98 0.95 0.90 0.80 0.50 0.20 0.10 0.05 0.02 0.01
1 0.000157 0.000628 0.00393 0.0158 0.0642 0.455 1.642 2.706 3.841 5.412 6.635
2 0.0201 0.0404 0.103 0.211 0.446 1.386 3.219 4.605 5.991 7.824 9.210
3 0.115 0.185 0.352 0.584 1.005 2.366 4.642 6.251 7.815 9.837 11.345
4 0.297 0.429 0.711 1.064 1.649 3.357 5.989 7.779 9.488 11.668 13.277
5 0.554 0.752 1.145 1.610 2.343 4.351 7.289 9.236 11.070 13.388 15.086
6 0.872 1.134 1.635 2.204 3.070 5.348 8.558 10.645 12.592 15.033 16.812
7 1.239 1.564 2.167 2.833 3.822 6.346 9.803 12.017 14.067 16.622 18.475
8 1.646 2.032 2.733 3.490 4.594 7.344 11.030 13.362 15.507 18.168 20.090
9 2.088 2.532 3.325 4.168 5.380 8.343 12.242 14.684 16.919 19.679 21.666
10 2.558 3.059 3.940 4.865 6.179 9.342 13.442 15.987 18.307 21.161 23.209
11 3.053 3.609 4.575 5.578 6.989 10.341 14.631 17.275 19.675 22.618 24.725
12 3.571 4.178 5.226 6.304 7.807 11.340 15.812 18.549 21.026 24.054 26.217
13 4.107 4.765 5.892 7.042 8.634 12.340 16.985 19.812 22.362 25.472 27.688
14 4.660 5.368 6.571 7.790 9.467 13.339 18.151 21.064 23.685 26.873 29.141
15 5.229 5.985 7.261 8.547 10.307 14.339 19.311 22.307 24.996 28.259 30.578
16 5.812 6.614 7.962 9.312 11.152 15.338 20.465 23.542 26.296 29.633 32.000
17 6.408 7.255 8.672 10.085 12.002 16.338 21.615 24.769 27.587 30.995 33.409
18 7.015 7.906 9.390 10.865 12.857 17.338 22.760 25.989 28.869 32.346 34.805
19 7.633 8.567 10.117 11.651 13.716 18.338 23.900 27.204 30.144 33.687 36.191
20 8.260 9.237 10.851 12.443 14.578 19.337 25.038 28.412 31.410 35.020 37.566
21 8.897 9.915 11.591 13.240 15.445 20.337 26.171 29.615 32.671 36.343 38.932
22 9.542 10.600 12.338 14.041 16.314 21.337 27.301 30.813 33.924 37.659 40.289
23 10.196 11.293 13.091 14.848 17.187 22.337 28.429 32.007 35.172 38.968 41.638
24 10.856 11.992 13.848 15.659 18.062 23.337 29.553 33.196 36.415 40.270 42.980
25 11.524 12.697 14.611 16.473 18.940 24.337 30.675 34.382 37.652 41.566 44.314
26 12.198 13.409 15.379 17.292 19.820 25.336 31.795 35.563 38.885 42.856 45.642
27 12.879 14.125 16.151 18.114 20.703 26.336 32.912 36.741 40.113 44.140 46.963
28 13.565 14.847 16.928 18.939 21.588 27.336 34.027 37.916 41.337 45.419 48.278
29 14.256 15.574 17.708 19.768 22.475 28.336 35.139 39.087 42.557 46.693 49.588
30 14.953 16.306 18.493 20.599 23.364 29.336 36.250 40.256 43.773 47.962 50.892
Fuente: Hoel (1971)
[99]
A-4. Estadístico Durbin-Watson: Valores críticos (5 %) para dL y dU.
n k = 1 k = 2 k = 3 k = 4 k = 5 k = 6
dL dU dL dU dL dU dL dU dL dU dL dU
12 0.971 1.331 0.812 1.579 0.658 1.864 0.512 2.177 0.380 2.506 0.268 2.832
13 1.010 1.340 0.861 1.562 0.715 1.816 0.574 2.094 0.444 2.390 0.328 2.692
14 1.045 1.350 0.905 1.551 0.767 1.779 0.632 2.030 0.505 2.296 0.389 2.572
15 1.077 1.361 0.946 1.543 0.814 1.750 0.685 1.977 0.562 2.220 0.447 2.471
16 1.106 1.371 0.982 1.539 0.857 1.728 0.734 1.935 0.615 2.157 0.502 2.388
17 1.133 1.381 1.015 1.536 0.897 1.710 0.779 1.900 0.664 2.104 0.554 2.318
18 1.158 1.391 1.046 1.535 0.933 1.696 0.820 1.872 0.710 2.060 0.603 2.258
19 1.180 1.401 1.074 1.536 0.967 1.685 0.859 1.848 0.752 2.023 0.649 2.206
20 1.201 1.411 1.100 1.537 0.998 1.676 0.894 1.828 0.792 1.991 0.691 2.162
21 1.221 1.420 1.125 1.538 1.026 1.669 0.927 1.812 0.829 1.964 0.731 2.124
22 1.239 1.429 1.147 1.541 1.053 1.664 0.958 1.797 0.863 1.940 0.769 2.090
23 1.257 1.437 1.168 1.543 1.078 1.660 0.986 1.785 0.895 1.920 0.804 2.061
24 1.273 1.446 1.188 1.546 1.101 1.656 1.013 1.775 0.925 1.902 0.837 2.035
25 1.288 1.454 1.206 1.550 1.123 1.654 1.038 1.767 0.953 1.886 0.868 2.013
26 1.302 1.461 1.224 1.553 1.143 1.652 1.062 1.759 0.979 1.873 0.897 1.992
27 1.316 1.469 1.240 1.556 1.162 1.651 1.084 1.753 1.004 1.861 0.925 1.974
28 1.328 1.476 1.255 1.560 1.181 1.650 1.104 1.747 1.028 1.850 0.951 1.959
29 1.341 1.483 1.270 1.563 1.198 1.650 1.124 1.743 1.050 1.841 0.975 1.944
30 1.352 1.489 1.284 1.567 1.214 1.650 1.143 1.739 1.071 1.833 0.998 1.931
31 1.363 1.496 1.297 1.570 1.229 1.650 1.160 1.735 1.090 1.825 1.020 1.920
32 1.373 1.502 1.309 1.574 1.244 1.650 1.177 1.732 1.109 1.819 1.041 1.909
33 1.383 1.508 1.321 1.577 1.258 1.651 1.193 1.730 1.127 1.813 1.061 1.900
34 1.393 1.514 1.333 1.580 1.271 1.652 1.208 1.728 1.144 1.808 1.079 1.891
35 1.402 1.519 1.343 1.584 1.283 1.653 1.222 1.726 1.160 1.803 1.097 1.884
36 1.411 1.525 1.354 1.587 1.295 1.654 1.236 1.724 1.175 1.799 1.114 1.876
37 1.419 1.530 1.364 1.590 1.307 1.655 1.249 1.723 1.190 1.795 1.131 1.870
38 1.427 1.535 1.373 1.594 1.318 1.656 1.261 1.722 1.204 1.792 1.146 1.864
39 1.435 1.540 1.382 1.597 1.328 1.658 1.273 1.722 1.218 1.789 1.161 1.859
40 1.442 1.544 1.391 1.600 1.338 1.659 1.285 1.721 1.230 1.786 1.175 1.854
45 1.475 1.566 1.430 1.615 1.383 1.666 1.336 1.720 1.287 1.776 1.238 1.835
50 1.503 1.585 1.462 1.628 1.421 1.674 1.378 1.721 1.335 1.771 1.291 1.822
55 1.528 1.601 1.490 1.641 1.452 1.681 1.414 1.724 1.374 1.768 1.334 1.814
60 1.549 1.616 1.514 1.652 1.480 1.689 1.444 1.727 1.408 1.767 1.372 1.808
65 1.567 1.629 1.536 1.662 1.503 1.696 1.471 1.731 1.438 1.767 1.404 1.805
70 1.583 1.641 1.554 1.672 1.525 1.703 1.494 1.735 1.464 1.768 1.433 1.802
75 1.598 1.652 1.571 1.680 1.543 1.709 1.515 1.739 1.487 1.770 1.458 1.801
80 1.611 1.662 1.586 1.688 1.560 1.715 1.534 1.743 1.507 1.772 1.480 1.801
90 1.635 1.679 1.612 1.703 1.589 1.726 1.566 1.751 1.542 1.776 1.518 1.801
100 1.654 1.694 1.634 1.715 1.613 1.736 1.592 1.758 1.571 1.780 1.550 1.803
150 1.720 1.746 1.706 1.760 1.693 1.774 1.679 1.788 1.665 1.802 1.651 1.817
200 1.758 1.778 1.748 1.789 1.738 1.799 1.728 1.810 1.718 1.820 1.707 1.831
Fuente: Savin y White (1977)
[100]
REFERENCIAS
A. Textos de Econometría.
Doti, James L. y Esmael Adibi. The Practice of Econometrics with EViews. Irvine, CA:
Quantitative Micro Software, 1998.
Edwards, A. L. Multiple Regression and the Analysis of Variance and Covariance. San
Francisco: W. H. Freeman & Co., 1979.
Goldberger, Arthur S. Teoría Econométrica. Madrid: Editorial Tecnos, 1970. Versión
original: Econometric Theory [1964].
Goldberger, Arthur S. Topics in Regression Analysis. New York: Macmillan, 1968.
Greene, William H. Econometric Analysis, 5ª ed. Upper Saddle River, NJ: Prentice Hall,
2003.
Gujarati, Damodar N. Econometría, 2ª ed. México: McGraw-Hill, 1992. Versión origi-
nal: Basic Econometrics [1988].
Hernández Alonso, José. Ejercicios de Econometría, 2ª ed. Madrid: ESIC Editorial,
1992.
Hill, R. Carter, William E. Griffiths y George G. Judge. Undergraduate Econometrics,
2ª ed. New York: John Wiley & Sons, 2001.
Johnston, J. Econometric Methods, 2a ed. Nueva York: McGraw-Hill, 1972.
Klein, Lawrence R. An Introduction to Econometrics. London: Prentice-Hall Internatio-
nal, 1962.
Maddala, G. S. Econometría. Madrid: McGraw-Hill, 1985. Versión original: Econome-
trics [1977].
Martín, Guillermina, José M. Labeaga y Francisco Mochón M. Introducción a la Eco-
nometría. Madrid: Prentice-Hall, 1997.
Neter, John y William Wasserman. Applied Linear Statistical Models. Homewood, Ill.:
R. D. Irwin, 1974.
Novales, Alfonso. Econometría, 2ª ed. Madrid: McGraw-Hill, 1993.
Rao, Potluri y R. L. Miller. Applied Econometrics. Belmont, CA: Wadsworth Pub. Co.,
1971.
Studenmund, A. H. y Henry J. Cassidy. Using Econometrics: A Practical Guide. Bos-
ton: Little, Brown and Co., 1987.
Theil, Henri. Principles of Econometrics. New York: John Wiley & Sons, 1971.
[101]
Tirado de Alonso, Irma y M. Dutta. Métodos Econométricos. Cincinnati, OH: South-
Western Publishing Co., 1982.
Walters, A. A. Introducción a la Econometría. Barcelona: Oikos-Tau, 1977. Versión
original: An Introduction to Econometrics [1968].
Wonnacott, Ronald J. y Thomas H. Wonnacott. Econometrics. New York: John Wiley &
Sons, 1970.
Wooldridge, Jeffrey M. Introducción a la Econometría: Un Enfoque Moderno, 4ª ed.
México: Cengage Learning, 2009. Versión original: Introductory Econometrics: A
Modern Approach [2006].
B. Otras Referencias.
Alcaide, Ángel (ed). Lecturas de Econometría. Madrid: Gredos, 1972.
Allen, R. G. D. Análisis Matemático para Economistas. Madrid: Aguilar, 1946. Versión
original: Mathematical Analysis for Economists [1938].
Barro, Robert J. Economic Growth and Convergence. Occasional Papers No. 46. San
Francisco: International Center for Economic Growth, 1994.
Benston, George J. “Multiple Regression Analysis of Cost Behavior,” Accounting Re-
view, 41 (1966): 657-72. (University of Rochester, Graduate School of Manage-
ment, Systems Analysis Reprint Series No. S-6.)
Bishop, C. E. y W. D. Toussaint. Introducción al Análisis de Economía Agrícola. Méxi-
co: Limusa-Wiley, 1966. Versión original: Introduction to Agricultural Economic
Analysis [1958].
Cochrane, D. y G. H. Orcutt. “Application of Least Squares Regression to Relationships
Containing Autocorrelated Errors,” Journal of the American Statistical Association,
44 (1949): 32-61.
Cole, Julio H. “Inflación en Guatemala, 1961-95,” Banca Central, No. 32 (1997): 21-25.
Crespo Cuaresma, Jesús. “Okun’s Law Revisited,” Oxford Bulletin of Economics and
Statistics, 65 (2003): 439-51.
Dillon, John J. The Analysis of Response in Crop and Livestock Production, 2ª ed. Ox-
ford: Pergamon Press, 1977.
Durbin, J. y G. S. Watson. “Testing for Serial Correlation in Least Squares Regression,”
Biometrika, 37 (1950): 409-28, 38 (1951): 159-78.
Durbin, J. “The Fitting of Time-Series Models,” Review of the International Statistical
Institute, 28 (1960): 233-43.
Durbin, J. “Testing for Serial Correlation in Least-Squares Regression When Some of
the Regressors are Lagged Dependent Variables,” Econometrica, 38 (1970): 410-21.
[102]
Esquivel, Gerardo. “Convergencia Regional en México, 1940-1995,” El Trimestre Eco-
nómico, 66 (1999): 725-61.
Farebrother, R. W. “The Durbin-Watson Test for Serial Correlation When There is No
Intercept in the Regression,” Econometrica, 48 (1980): 1553-63.
Friedman, Milton. “Money: Quantity Theory,” International Encyclopedia of the Social
Sciences (1968), vol. 10, pp. 432-47.
Goldberger, Arthur S. “Review of Distributed Lags and Demand Analysis for Agricul-
tural and Other Commodities by Marc Nerlove,” American Economic Review, 48
(1958): 1011-13.
Goldberger, Arthur S. “Dependency Rates and Savings Rates: Further Comment,” Amer-
ican Economic Review, 63 (1973): 232-33.
Griliches, Z., et al., “Notes on Estimated Aggregate Quarterly Consumption Functions,”
Econometrica, 30 (1962): 491-500.
Gupta, Kanhaya L. “Dependency Rates and Savings Rates: Comment,” American Eco-
nomic Review, 61 (1971): 469-71.
Halvorsen, Robert y Raymond Palmquist. “The Interpretation of Dummy Variables in
Semilogarithmic Equations,” American Economic Review, 70 (1980): 474-75.
Harberger, Arnold C. “The Dynamics of Inflation in Chile,” en C. F. Christ, et al.,
Measurement in Economics: Studies in Mathematical Economics and Econometrics
in Memory of Yehuda Grunfeld, pp. 219-50. Stanford, CA: Stanford University
Press, 1963.
Henderson, Harold V. y Paul F. Velleman. “Building Multiple Regression Models Inter-
actively,” Biometrics, 37 (1981): 391-411.
Hoel, Paul G. Introduction to Mathematical Statistics, 4ª ed. Nueva York: John Wiley &
Sons, 1971.
Johnston, J. Análisis Estadístico de los Costes. Barcelona: Sagitario, S. A., 1966. Ver-
sión original: Statistical Cost Analysis [1960].
Khan, M. S. “Import and Export Demand in Developing Countries,” IMF Staff Papers,
21 (1974): 678-93.
Krugman, Paul. “How Fast Can the U.S. Economy Grow?” Harvard Business Review,
75 (July-Aug 1997): 123-29.
Lebergott, Stanley. “Annual Estimates of Unemployment in the United States, 1900-
1950,” en The Measurement and Behavior of Unemployment, pp. 213-41. Princeton:
Princeton University Press, 1957.
Marquardt, Donald W. “Generalized Inverses, Ridge Regression, Biased Linear Estima-
tion, and Nonlinear Estimation,” Technometrics, 12 (1970): 591-612.
[103]
Merrington, Maxine. “Percentage Points of the t-Distribution,” Biometrika, 32 (1941):
300.
Nerlove, Marc. “Distributed Lags,” International Encyclopedia of the Social Sciences
(1968), vol. 4, pp. 214-17.
Nerlove, Marc y K. F. Wallis. “Use of the Durbin-Watson Statistic in Inappropriate
Situations,” Econometrica, 34 (1966): 235-38.
Niskanen, William A. “On the Death of the Phillips Curve,” Cato Journal, 22 (2002):
193-98.
Okun, Arthur M. “Potential GNP: Its Measurement and Significance.” Proceedings
(Business and Economics Section), American Statistical Association, 1962, pp. 98-
104.
Park, Soo-Bin. “On the Small-Sample Power of Durbin’s h Test,” Journal of the Ameri-
can Statistical Association, 70 (1975): 60-63.
Riew, John. “Economies of Scale in High School Operation,” Review of Economics and
Statistics, 48 (1966): 280-87.
Sala-i-Martin, Xavier. “The Classical Approach to Convergence Analysis,” Economic
Journal, 106 (1996): 1019-36.
Savin, N. E. y K. J. White. “The Durbin-Watson Test for Serial Correlation with Ex-
treme Sample Sizes or Many Regressors,” Econometrica, 45 (1977): 1989-96.
Solow, Robert M. “A Contribution to the Theory of Economic Growth,” Quarterly
Journal of Economics, 70 (1956): 65-94.
Suits, Daniel B. “The Demand for New Automobiles in the United States,” Review of
Economics and Statistics, 40 (1958): 273-80.
Tobin, James. “A Statistical Demand Function for Food in the U.S.A.,” Journal of the
Royal Statistical Society, Series A, 113 (1950): 113-41.
Vogel, Robert C. “The Dynamics of Inflation in Latin America, 1950-1969,” American
Economic Review, 64 (1974): 102-14.
White, Halbert. “A Heteroskedasticity-Consistent Covariance Matrix Estimator and a
Direct Test for Heteroskedasticity,” Econometrica, 48 (1980): 817–38.