exposicion 4 econometria ii (1)
DESCRIPTION
EconometríaTRANSCRIPT
ERRORES EN LAS VARIABLES
ERRORES EN LA MEDICIN DE LAS VARIABLES
La variables con error de medida pueden alterar las propiedades de las estimaciones de los parmetros de regresin.
Error de medicin en las variables
En la prctica, son muy posibles los errores de medida (as como los errores de especificacin del modelo).
Dichos errores pueden alterar sustancialmente las propiedades de las estimaciones de los parmetros de la regresin.
Se tiende a pasar por alto el problema de los errores de medida. Una de las tcnicas que puede resolver el problema de errores de medicin es la estimacin de variables instrumentales.
CASO I: Y SE MIDE CON ERROR
Supongamos que el verdadero modelo de regresin (expresado en forma matricial) es el siguiente:
El procedimiento de medicin nos proporciona los valores de la variable en lugar de los valores de .
Supondremos que:
El modelo de regresin se estima tomando como variable dependiente.
Donde:
: Errores asociados con el error de medicin.
Ntese:
Si la media de no fuera igual a cero, la regresin estimada necesita de un trmino constante.
El nico efecto del error de media de los valores de la variable dependiente ser un incremento de la varianza del error.
Regla General:
Es imposible separar los efectos de los errores asociados con el modelo de regresin de los efectos de los errores de media.
Resultado:
La estimacin de la pendiente ser insesgada:
E (,xi)=0 y consistente.
PROPIEDAD DE INSESGAMIENTO:
Donde:
La estimacin de la pendiente es insesgada puesto que
EFICIENCIA: VARIANZA MNIMA
Donde:
Por tanto los estimadores de MCO empleando son mas ineficientes que los obtenidos con Y (sin error de medida)
Suponiendo que
Se tiene:
Es as que:
El nico efecto del error de medida de los valores de la variable dependiente ser un incremento de la varianza del error. Sin embargo esta mayor varianza del error ser tenida en cuenta en la estimacin de , la varianza residual estimada, y podrn aplicarse todas las pruebas estadsticas. Por regla es imposible separar los efectos de los errores asociados con el modelo de regresin de los efectos de los errores de medida.
CONSISTENCIA
Si la Cov(X, )=0 es decir, si el error de medida en la variable dependiente no esta sistemticamente relacionado con las variables explicativas, el estimador de MCO es consistente.
Si estimamos por MCO un modelo de regresin empleando en vez de Y, los estimadores sern consistentes y la inferencia habitual ser valida si Cov(X, )=0 y E()=0
CONVERGENCIA EN DISTRIBUCIN
Por lo tanto se puede afirmar que cuando la variable Y este mal medida y n es lo sufientemente grande se tiene que sigue una distribucin normal con esperanza asinttica a su parmetro es decir es insesgado asintticamente as como con una matriz de var-cov asintotica.
CASO II: X SE MIDE CON ERROR
Aunque este caso no es nada realista suponemos que:
Donde es el verdadero valor de X y es el valor observado. El verdadero modelo de regresin satisface todas las hiptesis del modelo de regresin clsico con errores normales:
Mientras que la regresin que realmente se halla es:
Incluso si suponemos que el error de medida de X se distribuye normalmente con media igual a cero, que no existe correlacin serial y que es independiente del error en la verdadera ecuacin, se plantea problemas al utilizar como tcnica de estimacin la de los mnimos cuadrados ordinarios MCO.
Veremos esto ms claramente teniendo en cuenta que el error y la variable estn correlacionados (su covarianza es distinta de cero).
En particular:
Donde
Es endgeno
Por tanto, las estimaciones minimocuadrticas de los parmetros de regresin sern sesgadas e inconsistentes, estando relacionados el sesgo y la inconsistencia con la varianza del error de media.
CONSISTENCIA
Por tanto hay sesgo asinttico
De lo anterior podemos decir:
Si V (X) es grande en relacin a V (v1), la inconsistencia puede llegar a ser despreciable es decir insignificante.
En un modelo de regresin mltiple, en general el error de medida en una variable explicativa produce inconsistencia de todos los coeficientes estimados.
Solamente en el caso improbable de que las variables explicativas sean ortogonales a la variable medida con error, los estimadores de sus pendientes sern consistentes.
Consecuencias con el
Otro de los costos de una dependiente con errores de medicin es un ms bajo.
Sabemos que:
, dividiendo para n
, aplicando el plim
, aplicando Slustky
Consecuencias con el
, reemplazando
Consecuencias con el
Ntese que si usamos tenemos que:
Entonces el con la variable dependiente mal medida ser menor que con la variable sin errores de medicin.
CASO III: X E Y SON MEDIDAS CON ERROR
En este caso no obtendremos conclusiones diferentes a las del caso anterior, pero ser til examinarlo con detalle. Los supuestos son los siguientes:
no estn correlacionadas entre s al igual que con , y cada proceso de error no implica en s mismo una correlacin serial.
CASO III: X E Y SON MEDIDAS CON ERROR
La ecuacin de regresin estimada sera de la forma:
Ahora considrese el estimador de mnimos cuadrados ordinarios :
No se puede evaluar el sesgo de
CASO III: X E Y SON MEDIDAS CON ERROR
Dado que son todas estocsticas, no es fcil evaluar el sesgo de . La razn para esto es que el valor esperado de la razn de dos variables aleatorias no es igual a la razn del valor esperado de las variables. Sin embargo, podemos evaluar la consistencia de evaluando la expresin para en el lmite conforme el tamao de la muestra se hace ms grande. Este clculo se denota .
CASO III: X E Y SON MEDIDAS CON ERROR
CASO III: X E Y SON MEDIDAS CON ERROR
En vista de que no estn correlacionadas entre s al igual que con , resulta que:
CASO III: X E Y SON MEDIDAS CON ERROR
Esto sugiere que la presencia del error de medicin del tipo mencionado, conducir a una subestimacin del parmetro de regresin verdadero si se usan tcnicas de mnimo cuadrado ordinarios. Vemos adems, que si la variancia del error de medida de X es conocida la regresin nos proporcionar estimaciones consistentes de los parmetros. Por desgracia, no es este el caso ms frecuente.
CASO III: X E Y SON MEDIDAS CON ERROR
Queremos ver si la renta familiar tiene algn efecto en las calificaciones
medias obtenidas en la universidad.
No esta claro que la renta familiar tenga un efecto directo sobre el
rendimiento universitario.
La estrategia recomendada ser incluir dicha variable como regresor y
contrastar si su coeficiente es igual a cero.
CAL = b0 + b1I + b2PRE + b3SEL + , donde
CAL = Nota media en la universidad,
I = Ingresos familiares,
PRE = Nota media del curso previo al acceso a la universidad,
SEL = Nota media de selectividad.
Supongamos que los datos se obtienen encuestando directamente a los estudiantes.
Es posible que declaren la renta familiar de manera incorrecta, de manera que observamos I = I + v.
Aun suponiendo que el error de medida v no esta correlacionado con I ni con el resto de las variables explicativas (PRE, SEL), los estimadores de los parmetros utilizando I (en vez de I , que es inobservable) sern inconsistentes.
En particular, tenderamos a subestimar b1.
Por tanto, si contrastramos H0 : b1 = 0, ser mas probable que no
rechazaramos H0.
En este ejemplo, es difcil dilucidar la magnitud y direccin de los
sesgos de inconsistencia de b2 y b3.