exposicion 4 econometria ii (1)

26
ERRORES EN LA MEDICIÓN DE LAS VARIABLES o La variables con error de medida pueden alterar las propiedades de las estimaciones de los parámetros de regresión.

Upload: sol-bigoni

Post on 16-Sep-2015

241 views

Category:

Documents


13 download

DESCRIPTION

Econometría

TRANSCRIPT

ERRORES EN LAS VARIABLES

ERRORES EN LA MEDICIN DE LAS VARIABLES

La variables con error de medida pueden alterar las propiedades de las estimaciones de los parmetros de regresin.

Error de medicin en las variables

En la prctica, son muy posibles los errores de medida (as como los errores de especificacin del modelo).

Dichos errores pueden alterar sustancialmente las propiedades de las estimaciones de los parmetros de la regresin.

Se tiende a pasar por alto el problema de los errores de medida. Una de las tcnicas que puede resolver el problema de errores de medicin es la estimacin de variables instrumentales.

CASO I: Y SE MIDE CON ERROR

Supongamos que el verdadero modelo de regresin (expresado en forma matricial) es el siguiente:

El procedimiento de medicin nos proporciona los valores de la variable en lugar de los valores de .

Supondremos que:

El modelo de regresin se estima tomando como variable dependiente.

Donde:

: Errores asociados con el error de medicin.

Ntese:

Si la media de no fuera igual a cero, la regresin estimada necesita de un trmino constante.

El nico efecto del error de media de los valores de la variable dependiente ser un incremento de la varianza del error.

Regla General:

Es imposible separar los efectos de los errores asociados con el modelo de regresin de los efectos de los errores de media.

Resultado:

La estimacin de la pendiente ser insesgada:

E (,xi)=0 y consistente.

PROPIEDAD DE INSESGAMIENTO:

Donde:

La estimacin de la pendiente es insesgada puesto que

EFICIENCIA: VARIANZA MNIMA

Donde:

Por tanto los estimadores de MCO empleando son mas ineficientes que los obtenidos con Y (sin error de medida)

Suponiendo que

Se tiene:

Es as que:

El nico efecto del error de medida de los valores de la variable dependiente ser un incremento de la varianza del error. Sin embargo esta mayor varianza del error ser tenida en cuenta en la estimacin de , la varianza residual estimada, y podrn aplicarse todas las pruebas estadsticas. Por regla es imposible separar los efectos de los errores asociados con el modelo de regresin de los efectos de los errores de medida.

CONSISTENCIA

Si la Cov(X, )=0 es decir, si el error de medida en la variable dependiente no esta sistemticamente relacionado con las variables explicativas, el estimador de MCO es consistente.

Si estimamos por MCO un modelo de regresin empleando en vez de Y, los estimadores sern consistentes y la inferencia habitual ser valida si Cov(X, )=0 y E()=0

CONVERGENCIA EN DISTRIBUCIN

Por lo tanto se puede afirmar que cuando la variable Y este mal medida y n es lo sufientemente grande se tiene que sigue una distribucin normal con esperanza asinttica a su parmetro es decir es insesgado asintticamente as como con una matriz de var-cov asintotica.

CASO II: X SE MIDE CON ERROR

Aunque este caso no es nada realista suponemos que:

Donde es el verdadero valor de X y es el valor observado. El verdadero modelo de regresin satisface todas las hiptesis del modelo de regresin clsico con errores normales:

Mientras que la regresin que realmente se halla es:

Incluso si suponemos que el error de medida de X se distribuye normalmente con media igual a cero, que no existe correlacin serial y que es independiente del error en la verdadera ecuacin, se plantea problemas al utilizar como tcnica de estimacin la de los mnimos cuadrados ordinarios MCO.

Veremos esto ms claramente teniendo en cuenta que el error y la variable estn correlacionados (su covarianza es distinta de cero).

En particular:

Donde

Es endgeno

Por tanto, las estimaciones minimocuadrticas de los parmetros de regresin sern sesgadas e inconsistentes, estando relacionados el sesgo y la inconsistencia con la varianza del error de media.

CONSISTENCIA

Por tanto hay sesgo asinttico

De lo anterior podemos decir:

Si V (X) es grande en relacin a V (v1), la inconsistencia puede llegar a ser despreciable es decir insignificante.

En un modelo de regresin mltiple, en general el error de medida en una variable explicativa produce inconsistencia de todos los coeficientes estimados.

Solamente en el caso improbable de que las variables explicativas sean ortogonales a la variable medida con error, los estimadores de sus pendientes sern consistentes.

Consecuencias con el

Otro de los costos de una dependiente con errores de medicin es un ms bajo.

Sabemos que:

, dividiendo para n

, aplicando el plim

, aplicando Slustky

Consecuencias con el

, reemplazando

Consecuencias con el

Ntese que si usamos tenemos que:

Entonces el con la variable dependiente mal medida ser menor que con la variable sin errores de medicin.

CASO III: X E Y SON MEDIDAS CON ERROR

En este caso no obtendremos conclusiones diferentes a las del caso anterior, pero ser til examinarlo con detalle. Los supuestos son los siguientes:

no estn correlacionadas entre s al igual que con , y cada proceso de error no implica en s mismo una correlacin serial.

CASO III: X E Y SON MEDIDAS CON ERROR

La ecuacin de regresin estimada sera de la forma:

Ahora considrese el estimador de mnimos cuadrados ordinarios :

No se puede evaluar el sesgo de

CASO III: X E Y SON MEDIDAS CON ERROR

Dado que son todas estocsticas, no es fcil evaluar el sesgo de . La razn para esto es que el valor esperado de la razn de dos variables aleatorias no es igual a la razn del valor esperado de las variables. Sin embargo, podemos evaluar la consistencia de evaluando la expresin para en el lmite conforme el tamao de la muestra se hace ms grande. Este clculo se denota .

CASO III: X E Y SON MEDIDAS CON ERROR

CASO III: X E Y SON MEDIDAS CON ERROR

En vista de que no estn correlacionadas entre s al igual que con , resulta que:

CASO III: X E Y SON MEDIDAS CON ERROR

Esto sugiere que la presencia del error de medicin del tipo mencionado, conducir a una subestimacin del parmetro de regresin verdadero si se usan tcnicas de mnimo cuadrado ordinarios. Vemos adems, que si la variancia del error de medida de X es conocida la regresin nos proporcionar estimaciones consistentes de los parmetros. Por desgracia, no es este el caso ms frecuente.

CASO III: X E Y SON MEDIDAS CON ERROR

Queremos ver si la renta familiar tiene algn efecto en las calificaciones

medias obtenidas en la universidad.

No esta claro que la renta familiar tenga un efecto directo sobre el

rendimiento universitario.

La estrategia recomendada ser incluir dicha variable como regresor y

contrastar si su coeficiente es igual a cero.

CAL = b0 + b1I + b2PRE + b3SEL + , donde

CAL = Nota media en la universidad,

I = Ingresos familiares,

PRE = Nota media del curso previo al acceso a la universidad,

SEL = Nota media de selectividad.

Supongamos que los datos se obtienen encuestando directamente a los estudiantes.

Es posible que declaren la renta familiar de manera incorrecta, de manera que observamos I = I + v.

Aun suponiendo que el error de medida v no esta correlacionado con I ni con el resto de las variables explicativas (PRE, SEL), los estimadores de los parmetros utilizando I (en vez de I , que es inobservable) sern inconsistentes.

En particular, tenderamos a subestimar b1.

Por tanto, si contrastramos H0 : b1 = 0, ser mas probable que no

rechazaramos H0.

En este ejemplo, es difcil dilucidar la magnitud y direccin de los

sesgos de inconsistencia de b2 y b3.