procesos estacionarios univariados1 1. … distribuyen (la letra "d") independiente...

49
1 Notas de Clase 2012-2 Prof. Erick Lahura PROCESOS ESTACIONARIOS UNIVARIADOS 1 1. Series de Tiempo Un proceso estocástico es una secuencia de variables aleatorias , donde la variable de indexación puede ser discreta o continua. Por ejemplo, puede denotar el tiempo (discreto). Una serie de tiempo es un proceso estocástico indexado por el tiempo: Ejemplo. Sea la variable aleatoria tal que y . Una muestra aleatoria de tamaño obtenida de es la secuencia tal que cada término tiene la misma distribución, pero son independientes entre sí. En este caso, la muestra aleatoria se denota como y se lee "los términos se distribuyen (la letra "d") independiente (primera "i") e idénticamente (segunda "i") con media cero y varianza . Considere una muestra de tamaño proveniente de una variable aleatoria , que usualmente se denota como . La muestra observada representa números, una posible “realización” del proceso estocástico subyacente que generó los datos: Si se observara el proceso por un número infinito de períodos, la secuencia sigue siendo una sola realización. En el mundo real, solo observamos una posible realización del proceso estocástico. 2. Momentos de una series de tiempo Para ilustrar la el concepto de una serie de tiempo, considere I computadoras que pueden generar una muestras de tamaño que intentan replicar I posibles realizaciones provenientes de un proceso estocástico (el cual puede tener infinitas realizaciones). 1 Estas notas de clase se basan en diferentes fuentes, especialmente Hamilton (1994) y Enders (2010).

Upload: vuongdan

Post on 11-May-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

1

Notas de Clase 2012-2 Prof. Erick Lahura

PROCESOS ESTACIONARIOS UNIVARIADOS1 1. Series de Tiempo

Un proceso estocástico es una secuencia de variables aleatorias , donde la variable de indexación puede ser

discreta o continua. Por ejemplo, puede denotar el tiempo (discreto).

Una serie de tiempo es un proceso estocástico indexado por el tiempo:

Ejemplo. Sea la variable aleatoria tal que y . Una muestra aleatoria de tamaño obtenida de es la secuencia

tal que cada término tiene la misma distribución, pero son independientes entre sí.

En este caso, la muestra aleatoria se denota como y se

lee "los términos se distribuyen (la letra "d") independiente (primera "i") e idénticamente (segunda "i") con media cero y varianza .

Considere una muestra de tamaño proveniente de una variable aleatoria , que usualmente se denota como .

La muestra observada representa números, una posible

“realización” del proceso estocástico subyacente que generó los datos: Si se observara el proceso por un número infinito de períodos, la

secuencia sigue siendo una sola realización.

En el mundo real, solo observamos una posible realización del proceso

estocástico.

2. Momentos de una series de tiempo

Para ilustrar la el concepto de una serie de tiempo, considere I computadoras que pueden generar una muestras de tamaño que intentan replicar I posibles realizaciones provenientes de un proceso estocástico (el cual puede tener infinitas realizaciones).

1 Estas notas de clase se basan en diferentes fuentes, especialmente Hamilton (1994) y Enders (2010).

2

Notas de Clase 2012-2 Prof. Erick Lahura

La Figura 1 muestra el resultado de que cada una de las computadoras generen una muestra de tamaño , donde es muy grande:

Figura 1: Proceso Estocástico Serie de Tiempo

)(

2

)(

1

)(

)(

2

)(

1

)(

0

)(

1

)2(

2

)2(

1

)2(

)2(

2

)2(

1

)2(

0

)2(

1

)3(

2

)3(

1

)3(

)3(

2

)3(

1

)3(

0

)3(

1

)2(

2

)2(

1

)2(

)2(

2

)2(

1

)2(

0

)2(

1

)1(

2

)1(

1

)1(

)1(

2

)1(

1

)1(

0

)1(

1

I

t

I

t

I

t

I

I

I

I

I

t

I

t

I

t

I

I

I

I

t

t

t

t

t

t

t

t

t

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

y

La observación asociada al período de cada secuencia puede

considerarse como parte de una muestra de realizaciones de la variable aleatoria .

Se asume que la variable aleatoria , que es uno de los componentes de

la secuencia de variables aleatorias , tiene una función de densidad incondicional, ; por ejemplo, una función de

densidad Normal o Gausiana, dada por la fórmula

.

2.1. Valor esperado de

El valor esperado de la observación t de una serie de tiempo hace referencia

a la media de la distribución,

.

Bajo el supuesto de que las observaciones son "independientes e idénticamente distribuidas", la “Ley de los Grandes Números” establece que la probabilidad límite del promedio muestral en la observación (ensemble

average), que se obtiene al promediar los valores de cada realización

disponible, es igual al valor esperado de :

3

Notas de Clase 2012-2 Prof. Erick Lahura

En algunas ocasiones se denomina "media incondicional de y se denota como .

2.2. Varianza y Autocovarianzas de

La varianza de , denotada por , se define como:

Si se define el vector columna

Cada realización i genera un valor particular del vector.

Nuestro interés es calcular la distribución de probabilidades de

a

través de las realizaciones . La distribución se llama distribución conjunta de y a

partir de ella se calculan las autocovarianzas.

La autocovarianza de orden o autocovarianza, se define

como:

Se llama autocovarianza porque es la covarianza de consigo misma, pero evaluada en períodos de tiempo diferente.

La autocovarianza puede verse como el elemento de la matriz

de varianzas y covarianzas del vector . Por ello, las autocovarianzas representan los segundos momentos de .

Nuevamente, bajo el supuesto de que las observaciones son " ", la autocovarianza puede verse como la probabilidad límite de un promedio

“ensemble”:

4

Notas de Clase 2012-2 Prof. Erick Lahura

3. Procesos Univariados de Series de Tiempo

3.1. Ruido Blanco (White Noise)

Un proceso ruido blanco es una secuencia de variables aleatorias

cuyos elementos tienen media cero, varianza y no están correlacionados entre sí:

Si se asume que y son independientes para todo , es decir,

, entonces el proceso se denomina ruido blanco independiente.

Si se asume además que cada término tiene distribución normal o Gausiana, entonces el proceso de denomina ruido blanco Gausiano, y se escribe

.

Si , o para todo , entonces se dice que es un proceso ruido blanco.

3.2. Procesos Autoregresivos

Sea un proceso ruido blanco. Se dice que es un proceso autoregresivo de orden “p” o si está descrito por:

En particular: es un proceso .

es un proceso .

5

Notas de Clase 2012-2 Prof. Erick Lahura

3.3. Procesos de Promedios (Medias) Móviles

Sea un proceso ruido blanco. Se dice que es un proceso de promedios (medias) móviles de orden “q” o si está descrito por:

En particular: es un proceso .

es un proceso .

3.4. Procesos Mixtos Autoregresivos y de Promedios (Medias) Móviles

Sea un proceso ruido blanco. Se dice que es un proceso mixto autoregresivo de orden “p” y de promedios (medias) móviles de orden “q” o si está descrito por:

En particular: es un proceso .

es un proceso .

es un proceso .

6

Notas de Clase 2012-2 Prof. Erick Lahura

4. Estacionariedad y Ergodicidad 4.1. Estacionariedad

El proceso de series de tiempo es estacionario en covarianzas o débilmente estacionario cuando la media y las autocovarianzas existen (i.e. son finitas) y no dependen de la fecha :

Para cualquier proceso estacionario en covarianzas,

Ejemplos:

es un proceso estacionario en covarianzas por definición.

Si es la suma de una constante y un proceso ruido blanco

Gausiano, , , entonces es un proceso estacionario en

covarianzas: , , .

es la suma de una tendencia temporal y un ruido blanco Gausiano: . Entonces: y por lo tanto no es un proceso estacionario en covarianzas.

El proceso tY es estrictamente estacionario (ES) o fuertemente estacionario

(FE) cuando para cualquier valor de la distribución conjunta de depende solo de los intervalos que separan las

fechas y no de la fecha . Por ejemplo, la distribución de es igual a la

distribución de , para todo . La estacionariedad estricta o fuerte requiere que la distribución conjunta

de probabilidades sea la misma sin importar el punto inicial o final de la serie de tiempo; es decir, el proceso generador de datos (PGD) es constante en el tiempo.

Un proceso se denomina Gausiano si la densidad conjunta es Gausiana para cualquier .

7

Notas de Clase 2012-2 Prof. Erick Lahura

4.2. Nota adicional: relación entre estacionariedad débil (ED) y fuerte (EF).

ED no siempre implica EF: ED no implica EF: la mayoría de distribuciones están caracterizadas por

más momentos además de la media y covarianzas, los cuales pueden depender del tiempo.

ED sí implica EF: cuando el proceso es Gausiano o Normal, pues sólo dependen de dos momentos, la media y varianza.

EF no siempre implica ED: EF no implica ED: un proceso Cauchy no tiene momentos. Un proceso

estocástico EF puede obtenerse de una distribución Cauchy i.i.d.

EF sí implica ED: es el caso más común, asumiendo que todos los momentos - incluidos la media y covarianzas - existen.

La palabra "estacionariedad" hará referencia a estacionariedad débil.

La estacionariedad es importante para la estimación de parámetros: Sugiere que algo es fijo a través de la secuencia de variables aleatorias.

Si pudiéramos observar el proceso por un período de tiempo

“suficientemente largo”, aprenderíamos sobre el PGD subyacente. 4.3. Ergodicidad

Un proceso de series de tiempo es ergódico si para cualquier par de

funciones acotadas :

La intuición de la ergodicidad es que si los eventos están "suficientemente separados" en el tiempo, entonces son asintóticamente independientes a pesar de que provienen de observaciones dependientes.

Un proceso de series de tiempo es estacionario en covarianzas y ergódico si los momentos muestrales "temporales" convergen en probabilidad hacia los

8

Notas de Clase 2012-2 Prof. Erick Lahura

momentos "emsemble" (que no cambian con el tiempo por el supuesto de estacionariedad). La ergodicidad de un proceso estacionario implica que la Ley de los

Grandes Números también se puede aplicar a las series de tiempo.

En particular, un proceso estacionario en covarianzas es ergódico para la media si el promedio muestral "temporal" converge en probabilidad al promedio “ensemble” o )( tYE cuando T :

Una condición suficiente para que se cumpla la ergodicidad para la media

es que la autocovarianza j se acerque a cero suficientemente rápido a

medida que j aumenta. Formalmente:

Un proceso estacionario en covarianzas es ergódico para los segundos momentos si para todo j :

Cuando es un proceso Gausiano y estacionario,

es

una condición suficiente para asegurar la ergodicidad para todos los momentos.

La estacionariedad es importante para la estimación de parámetros. Sin embargo, no es suficiente y requiere de la condición de ergodicidad: Si el proceso generador de datos (PGD) subyacente es estacionario y

pudiéramos observar el proceso por un período de tiempo “suficientemente largo”, entonces podríamos aprender sobre el PGD.

Sin embargo, para asegurar que este período “suficientemente largo” es útil, necesitamos la condición de ergodicidad.

9

Notas de Clase 2012-2 Prof. Erick Lahura

Ejemplo: Ruido Blanco

Un proceso ruido blanco es una secuencia cuyos elementos tienen

media cero, varianza y no están correlacionados entre sí.

Un ruido blanco es estacionario y ergódico. Ejemplo: Proceso Estacionario y No Ergódico

Sea , donde:

La media de la realización

es generada a partir

de una distribución normal, .

es un proceso ruido blanco Gausiano.

Este proceso es estacionario:

Sin embargo, no es ergódico para la media:

01

)(11 )(

1

)(

1

)(

1

)(

iT

t

t

iT

t

t

iT

t

i

tTT

YT

10

Notas de Clase 2012-2 Prof. Erick Lahura

5. Coeficientes de autocorrelación y correlación parcial.

5.1. Coeficientes de autocorrelación poblacional

El coeficiente de autocorrelación de un proceso estacionario en covarianzas, se define como:

La función de autocorrelación (ACF) describe la correlación entre e

como función de .

El gráfico de la función de autocorrelación se denomina “correlograma”.

Observaciones: para todo .2

Para cualquier proceso estacionario en covarianzas, .

Para un proceso ruido blanco, para .

5.2. Estimadores de los coeficientes de autocorrelación

El estimador de un coeficiente de autocorrelación está dado por la correlación muestral correspondiente:

Si se asume que es estacionaria y tiene errores normalmente distribuidos, y que los datos fueron generados por un proceso Gausiano , es decir para , entonces la varianza de puede

aproximarse usando:

2 Este resultado se demuestra con la desigualdad Cauchy-Schwarz.

11

Notas de Clase 2012-2 Prof. Erick Lahura

De esta forma, en particular, si se sospecha que los datos fueron generados por un ruido blanco Gausiano, entonces para cualquier el estimado

debe pertenecer al intervalo

aproximadamente 95% de

veces, pues .

En general, si el proceso que generó los datos originales de tiene autocorrelación, entonces para ; por ello, los patrones

de podrían representar errores de muestreo y no patrones del verdadero

.

5.3. Coeficientes de autocorrelación parcial poblacionales

El coeficiente de correlación parcial mide la correlación entre e luego de “limpiar” el efecto de la posible relación de cada una de estas

variables con rezagos intermedios .

El coeficiente de autocorrelación parcial poblacional,

, se

define como el último coeficiente en una proyección lineal de sobre sus valores más recientes:

El primer coeficiente de autocorrelación parcial poblacional,

, se define como el último coeficiente en una proyección lineal de sobre su valor más reciente, ,

El segundo coeficiente de autocorrelación parcial poblacional,

, se define como el último coeficiente en una proyección lineal de sobre sus valores más recientes,

La función de autocorrelación parcial (PACF) describe a estos coeficientes como función de .

Sea el componente de no correlacionado con las variables

, y sea el componente de no correlacionado

12

Notas de Clase 2012-2 Prof. Erick Lahura

con las variables . Entonces, el coeficiente de

autocorrelación parcial entre e también se puede definir como:

5.4. Estimadores de los coeficientes de autocorrelación parcial

El estimador del “j-ésimo” coeficiente de autocorrelación parcial está dado

por el estimador MCO,

,de la regresión:

Si se asume que es estacionaria y tiene errores normalmente distribuidos, y que los datos fueron generados por un proceso , es decir

para todo , entonces la varianza de

alrededor del

verdadero valor (cero) puede ser aproximada con:

Si los datos fueran generados por un proceso , entonces

y

serían asintóticamente independientes para .

En general, se recomienda analizar hasta un máximo de coeficientes de autocorrelación y correlación parcial.

5.5. Aplicación

Dadas las características de un proceso ruido blanco, el correlograma (ACF) y la función de los coeficientes de correlación parcial (PACF) poblacionales son tales que todos sus coeficientes son cero.

Si se estiman las funciones ACF y PACF para un proceso ruido blanco, sus gráficos serían muy similares a los siguientes:

13

Notas de Clase 2012-2 Prof. Erick Lahura

Los valores del estadístico Q y la probabilidad presentados en las dos últimas columnas corresponden a una prueba de hipótesis que evalúa la existencia de los coeficientes de autocorrelación.

En particular, el estadístico Q asociado al rezago "j" corresponde a la siguiente prueba de hipótesis: Hipótesis nula: los coeficientes de autocorrelación son

cero, es decir, no existe autocorrelación hasta el orden "j".

Hipótesis alternativa: al menos uno de los coeficientes de autocorrelación es diferente de cero.

Estadístico de prueba: Estadístico Ljung-Box o estadístico Q,

Regla de Rechazo: Se rechaza la hipótesis nula al 5% de significancia

cuando o cuando " " es menor a 0.05.

Los resultados muestran que no es posible rechazar la hipótesis nula en ningún caso; es decir, todos los coeficientes de autocorrelación son cero.

14

Notas de Clase 2012-2 Prof. Erick Lahura

6. Procesos de Medias Móviles 6.1. Proceso

Sea un proceso ruido blanco. Un proceso de media móvil de primer orden o está descrito por:

La media, autocovarianzas, coeficientes de autocorrelación simple y coeficientes de autocorrelación parcial del proceso son:

Dadas la media y autocovarianzas se tiene que un proceso es estacionario cuando .

Además, el proceso MA(1) es ergódico para la media pues satisface la condición suficiente de ergodicidad para la media:

Si es un proceso ruido blanco Gausiano, entonces el proceso es ergódico para todos los momentos.

Ejemplos de función de autocorrelación poblacional.

15

Notas de Clase 2012-2 Prof. Erick Lahura

Ejemplos de función de autocorrelación simple y parcial estimadas.

16

Notas de Clase 2012-2 Prof. Erick Lahura

Notas sobre el proceso MA(1)

El valor máximo del coeficiente de autocorrelación para un proceso es y el mínimo es , y se dan cuando ó , respectivamente, como se ilustra en el siguiente gráfico:

Siempre hay dos valores de theta que producen el mismo coeficiente de

autocorrelación. Si , entonces:

Ejemplo: los procesos e tienen la

misma función de autocorrelación:

-.6

-.4

-.2

.0

.2

.4

.6

-5 -4 -3 -2 -1 0 1 2 3 4 5

THETA

RH

O

Correlograma de un proceso MA(1)

17

Notas de Clase 2012-2 Prof. Erick Lahura

6.2. Proceso

Sea un proceso ruido blanco. Un proceso de promedios (medias) móviles de orden o está definido como:

y son números reales finitos.

La media, autocovarianzas, coeficientes de autocorrelación simple y coeficientes de autocorrelación parcial del proceso son:

Dadas la media y autocovarianzas se tiene que un proceso es estacionario para valores finitos de .

Además, un proceso satisface la condición suficiente de ergodicidad para la media:

Si es un proceso ruido blanco Gausiano, entonces el proceso es ergódico para todos los momentos.

Ejemplo. Para un proceso MA(2), la media, autocovariancias y coeficientes de autocorrelación simple y parcial son:

18

Notas de Clase 2012-2 Prof. Erick Lahura

Si , entonces el correlograma poblacional consta de

dos coeficientes diferentes de cero (el de orden 1 y el de orden 2).

Las funciones de autocorrelación simple y parcial estimadas serían:

19

Notas de Clase 2012-2 Prof. Erick Lahura

6.3. Proceso

Sea un proceso ruido blanco. Un proceso de medias móviles de orden infinito o puede ser escrito como: ó, alternativamente,

La media, autocovarianzas y coeficientes de autocorrelación simple y parcial de una proceso son:

Puede demostrarse que el proceso es estacionario si los coeficientes satisfacen la condición de aditividad cuadrática (square-summability):

20

Notas de Clase 2012-2 Prof. Erick Lahura

Otra condición usualmente conveniente y ligeramente más fuerte se denomina aditividad absoluta (absolute summability):

La aditividad absoluta implica aditividad cuadrática, pero no viceversa.

Bajo el supuesto de que los coeficientes son “absolutamente sumables”, se demuestra que

con lo cual un proceso es :

Estacionario en covarianzas.

Ergódico para la media.

Si es un proceso ruido blanco Gausiano, entonces el proceso es ergódico para todos los momentos.

Para un proceso los coeficientes de autocorrelación son infinitos.

21

Notas de Clase 2012-2 Prof. Erick Lahura

7. Procesos Autorregresivos 7.1. Proceso

Sea un proceso ruido blanco. Un proceso autorregresivo de primer orden o está descrito por:

El proceso AR(1) puede verse como una ecuación en diferencias de orden 1:

donde .

Si la raíz de la EeD(1) asociada es estable, es decir , entonces la media, autocovarianzas y coeficientes de autocorrelación simple y parcial del proceso AR(1) son:

A partir de los momentos, se deduce que el proceso AR(1) es estacionario en covarianzas. Además, se puede demostrar que es ergódico para la media.

La estacionariedad en covarianzas y la ergodicidad para la media del proceso AR(1) resulta del hecho que este proceso es equivalente a un proceso sólo cuando la raíz de la EeD(1) asociada es estable, es decir . El proceso AR(1) puede escribirse en términos del operador de rezagos:

22

Notas de Clase 2012-2 Prof. Erick Lahura

La ecuación en diferencia asociada al proceso AR(1) tiene solución

estable si: la raíz del polinomio característico está fuera del círculo

unitario, es decir, .

equivalentemente, si la raíz de está dentro del círculo unitario, es decir, .

Si la EeD(1) tiene solución estable, es decir , entonces

existe:

y es posible calcular:

Si se define y entonces la condición

asegura que el proceso es equivalente a un proceso :

Además,

23

Notas de Clase 2012-2 Prof. Erick Lahura

Entonces, la condición asegura que la representación

existe y que es estacionaria y ergódica para la media.

Por lo tanto, esta misma condición asegura que el proceso es estacionario y ergódico para la media.

En otras palabras, cuando , existe un proceso estacionario en

covarianzas y ergódico que satisface la EeD . Este proceso estacionario es la solución estable de .

Del análisis de ecuaciones en diferencias se sabe que si los efectos de sobre no desaparecen sino que se acumulan a lo largo del tiempo.

Por ello, no es sorprendente que cuando no exista un proceso

estacionario en covarianzas para con varianza finita que satisfaga .

La función de autocorrelación es exactamente igual al multipicador

dinámico o impulso respuesta de una , lo cual implica que: El efecto de un incremento unitario de sobre es igual a

la correlación entre e .

El efecto de un incremento unitario de sobre es igual a la

correlación entre e .

Ejemplo: Proceso Ruido Blanco

24

Notas de Clase 2012-2 Prof. Erick Lahura

Ejemplo: Procesos Autoregresivos de Orden 1

Ejemplos de funciones de autocorrelación simple y parcial estimadas

25

Notas de Clase 2012-2 Prof. Erick Lahura

Cálculo de los momentos de un proceso

Pueden calcularse a partir de dos enfoques alternativos: Usando la representación del proceso :

Asumiendo que el proceso es estacionario en covarianzas y

usando .

Enfoque 2:

Media de :

Esta expresión sólo es razonable cuando .

Esto se puede demostrar intuitivamente, por ejemplo, si se asume

y : En este caso, la ecuación establece que en

promedio será positivo. Sin embargo, la fórmula de la media indica que el promedio es

negativo, , lo cual sería una contradicción.

Varianza de :

de donde:

26

Notas de Clase 2012-2 Prof. Erick Lahura

Nótese que el término es cero porque no depende de :

.

Autocovarianzas de :

La ecuación toma la forma:

La solución general es

.

En este caso, donde para todo y el punto inicial es , la

solución es o .

Este resultado evidencia por qué la función impulso respuesta y la función de autocorrelación coinciden: ambos representan la solución de una con parámetro , valor inicial y sin choques,

es la solución de donde

27

Notas de Clase 2012-2 Prof. Erick Lahura

7.2. Proceso

Sea un proceso ruido blanco. Un proceso autorregresivo de segundo orden o está descrito por:

El proceso AR(2) puede verse como una ecuación en diferencias de orden 2:

donde .

Si las raíces de la EeD(2) asociada son estables, entonces la media, autocovarianzas y coeficientes de autocorrelación simple y parcial del proceso AR(2) son:

de donde y , y los coeficientes de correlación parcial son:

28

Notas de Clase 2012-2 Prof. Erick Lahura

A partir de los momentos, se deduce que el proceso AR(2) es estacionario en covarianzas. Además, se puede demostrar que es ergódico para la media.

La estacionariedad en covarianzas y la ergodicidad para la media del proceso AR(2) resulta del hecho que este proceso es equivalente a un proceso sólo cuando las raíces de la EeD(2) asociada son estables. El proceso AR(2) puede escribirse en términos del operador de rezagos:

La ecuación en diferencia asociada al proceso AR(2) tiene solución

estable si las raíces del polinomio característico

están fuera del círculo unitario o si las raíces de están dentro del círculo unitario.

Si la EeD(2) tiene solución estable, entonces

existe:

por lo cual el proceso AR(2) es equivalente a un proceso :

y, por lo tanto, el proceso es estacionario en covarianzas y ergódico para la media.

El valor de cada coeficiente está dado por:

. Además, cuando las

raíces de son diferentes:

donde y

.

29

Notas de Clase 2012-2 Prof. Erick Lahura

Cálculo de los momentos de un proceso Media

Bajo el enfoque 1, el proceso AR(2) puede re-escribirse usando el operador :

Dado que es un proceso absolutamente aditivo:

Bajo el enfoque 2, si se asume que el proceso es , se obtiene el mismo resultado.

Varianzas y Autocovarianzas

Usando la expresión de la media :

Entonces, para :

30

Notas de Clase 2012-2 Prof. Erick Lahura

Las autocovarianzas están descritas por la misma que el proceso . Por ello, se comportan como las soluciones de una :

Un proceso es cuando los coeficientes están dentro del “triángulo

referencial”.

La función de autocovarianzas es la suma de dos funciones de que decaen exponencialmente si está dentro del triángulo y encima de la parábola.

La función de autocovarianzas es una función seno-coseno de y decreciente

si está dentro del triángulo y debajo de la parábola.

Las autocorrelaciones se obtienen dividiendo las autocovarianzas por :

de donde y .

La varianza puede obtenerse de la siguiente forma:

Reemplazando y :

31

Notas de Clase 2012-2 Prof. Erick Lahura

Ejemplo: correlograma simple y parcial estimado para un proceso AR(2)

32

Notas de Clase 2012-2 Prof. Erick Lahura

7.3. Proceso

Sea un proceso ruido blanco. Un proceso autoregresivo de orden o está descrito por:

El proceso AR(p) puede verse como una ecuación en diferencias de orden p:

donde .

Si las raíces de la EeD(p) asociada son estables, entonces la media, autocovarianzas y coeficientes de autocorrelación simple y parcial del proceso AR(2) son:

A partir de los momentos, se deduce que el proceso AR(p) es estacionario en covarianzas. Además, se puede demostrar que es ergódico para la media.

La estacionariedad en covarianzas y la ergodicidad para la media del proceso AR(p) resulta del hecho que este proceso es equivalente a un proceso cuando las raíces de la EeD(p) asociada son estables.

El proceso AR(p) puede escribirse en términos del operador de rezagos:

La ecuación en diferencia asociada al proceso AR(p) tiene solución

estable si las raíces del polinomio característico

33

Notas de Clase 2012-2 Prof. Erick Lahura

están fuera del círculo unitario o si las raíces de

están dentro del círculo unitario.

Si la EeD(p) tiene solución estable, entonces

1 existe:

por lo cual el proceso AR(p) es equivalente a un proceso :

y, por lo tanto, el proceso es estacionario en covarianzas y ergódico para la media.

Cálculo de los momentos de un proceso

La media puede encontrarse asumiendo estacionariedad y tomando valor esperado a ambos lados del proceso :

La varianza y autocovarianzas se pueden obtener multiplicando por

la expresión:

y tomando expectativas:

34

Notas de Clase 2012-2 Prof. Erick Lahura

Usando , este sistema de ecuaciones puede resolverse para

obteniendo como funciones de .

Puede demostrarse que el vector dado por está

dado por los primeros elementos de la primera columna de la matriz

de orden .

Dividiendo la función de autocovarianzas por se obtienen las ecuaciones Yule-Waker:

Así, las autocovarianzas y autocorrelaciones están descritas por la misma del proceso . Si las raíces son distintas, sus respectivas soluciones toman la forma:

donde los valores propios son soluciones de:

35

Notas de Clase 2012-2 Prof. Erick Lahura

8. Procesos ARMA(p,q)

Sea un proceso ruido blanco. Un proceso está descrito por:

El proceso ARMA(p,q) puede verse como una ecuación en diferencias de orden p:

donde .

La media, autocovarianzas y coeficientes de correlación simple y parcial de proceso ARMA(p,q) son:

Para las autocovarianzas son más complicadas que las correspondientes a un proceso .

Si las raíces de la EeD(p) asociada son estables, entonces la media y autocovarianzas del proceso ARMA(p,q) son tales que el proceso es estacionario en covarianzas y ergódico para la media.

La estacionariedad en covarianzas y la ergodicidad para la media del proceso ARMA(p,q) resulta del hecho que este proceso es equivalente a un proceso cuando las raíces de la EeD(p) asociada son estables.

El proceso ARMA(p,q) puede escribirse en términos del operador de

rezagos:

36

Notas de Clase 2012-2 Prof. Erick Lahura

La ecuación en diferencia asociada al proceso ARMA(p,q) tiene solución

estable si las raíces del polinomio característico

=0 están fuera del círculo unitario o si las raíces de

están dentro del círculo

unitario.

Si la EeD(p) tiene solución estable, entonces

1 existe, por lo cual el proceso AR(p) es equivalente a un proceso :

Así, dado que el proceso es equivalente a un proceso , la estacionariedad de un proceso está determinado completamente por los parámetros de la parte autoregresiva

y no por los parámetros de la parte de medias móviles,

.

Autocovarianzas y Autocorrelaciones

La varianza y autocovarianzas se pueden obtener multiplicando por

y tomando expectativas a la expresión:

Luego de rezagos, la función de autocovarianzas (y la de autocorrelación) está descrita por la siguiente :

37

Notas de Clase 2012-2 Prof. Erick Lahura

Para las autocovarianzas son más complicadas que las correspondientes a un proceso .

Para y raíces distintas, las autocovarianzas están dadas por:

donde las condiciones iniciales son diferentes a las del proceso

, y .

Ejemplo: correlograma simple y parcial estimado para un proceso ARMA(1,1)

38

Notas de Clase 2012-2 Prof. Erick Lahura

9. Parametrización Redundante en modelos ARMA

Si , entonces las siguientes son dos representaciones equivalentes de un proceso :

Para verificar esto,

Esto sugiere que si tenemos un modelo tal que (el negativo de la raíz del término MA) es muy parecido a (la raíz del término AR), entonces los datos podrían ser modelados de forma más parsimoniosa como un proceso ruido blanco.

Esta idea se generaliza a procesos de mayor orden y con raíces similares:

39

Notas de Clase 2012-2 Prof. Erick Lahura

10. La función generadora de autocovarianzas (AGF)

Sea

la secuencia de autocovarianzas de un proceso estacionario en

covarianzas . Si

es absolutamente sumable, es posible resumirla

en una función denominada función generadora de autocovarianzas o AGF:

El escalar es un número complejo que está sobre el círculo unitario:

Donde y es el ángulo radián que hace con el eje real. SI la

función generadora de autocovarianzas se evalúa en y se divide por , la función resultante se denomina espectro poblacional (population spectrum) de :

Para un proceso con autocovarianzas absolutamente sumables, la función existe y es posible usarla para calcular todas las autocovarianzas.

Si dos procesos diferentes comparten la misma función generadora de autocovarianzas, entonces tienen la misma secuencia de autocovarianzas.

9.1. AGF para procesos MA

Para el caso de un proceso MA(1),

la AGF puede obtenerse reemplazando en su definición las autocovarianzas del proceso:

de donde se obtiene:

40

Notas de Clase 2012-2 Prof. Erick Lahura

La AGF de un proceso MA(2) es:

La AGF de un proceso MA(q) es:

Para el caso de un proceso MA( ), definido como:

donde

, y , la AGF es:

9.2. AGF para procesos AR

Un proceso estacionario AR(1), , puede escribirse como un MA( ):

Entonces, la AGF de un proceso AR(1) es:

La AGF de un proceso AR(p) es:

9.2. AGF para procesos ARMA

La AGF de un proceso ARMA(p,q) es:

41

Notas de Clase 2012-2 Prof. Erick Lahura

11. Invertibilidad

Algunos resultados del análisis previo: Un polinomio en el operador de rezagos tiene inversa si

existe.

Un proceso AR(p) es invertible si las raíces características asociadas a

son menores a uno en valor absoluto.

Se dice que un proceso MA(q) es invertible si las raíces características

asociadas al polinomio

son menores a

uno en valor absoluto.

En particular, se dice que un proceso MA(1):

es invertible si , lo cual implica que un proceso MA(1) puede ser escrito como un proceso :

Sin embargo, dado un proceso MA(q) invertible es posible encontrar un proceso MA(q) no invertible, i.e. con , cuyos primer y segundo momentos sean iguales.

11.1. Procesos MA(1) diferentes y momentos iguales

Asuma que . Entonces, el siguiente proceso MA(1) es invertible:

42

Notas de Clase 2012-2 Prof. Erick Lahura

Asuma que y Entonces, el siguiente proceso MA(1):

donde

, es un proceso no es invertible

Sin embargo, es posible demostrar que estos dos procesos son tales que, el

primer y segundo momento de son iguales a los de :

La AGF del proceso es:

Reemplazando y :

11.2. Doble representación de un procesos MA(1)

Una serie descrita por un proceso MA(1) puede ser representada tanto por un proceso MA(1) invertible como por uno “no invertible”.

En particular, asuma que está descrita por el siguiente proceso MA(1) no invertible:

donde .

también puede ser descrita por un MA(1) invertible:

donde y :

43

Notas de Clase 2012-2 Prof. Erick Lahura

El error asociado a la representación invertible se denomina error

fundamental, y es un ruido blanco con varianza .3

De la misma manera, si el proceso original que describe a es invertible:

donde , entonces también puede ser descrita por un MA(1) no-invertible:

donde y :

Si entonces no existe. En este caso a también se le denomina innovación fundamental de tY .

En la práctica se priorizan procesos invertibles porque son consistentes con la metodología Box-Jenkins basada en el uso de ACF y PACF: Un proceso "no invertible" no tiene una representación autoregresiva

finita o convergente.

ACF y PACF requieren que el proceso tenga una representación AR finita o convergente.

Ejemplo: Considere la siguiente representación invertible para con

:

En términos de sus raíces: Su representación invertible es: , donde

3 Ver Hamilton(1994), p.66.

44

Notas de Clase 2012-2 Prof. Erick Lahura

12. Metodología Box-Jenkins

El enfoque Box-Jenkins para la modelación de series de tiempo fue desarrollada por Box y Jenkins (1970) en el contexto de predicción.

En general, los modelos complicados pueden ajustar bien los datos

históricos usados en la muestra de estimación. Sin embargo, usualmente su desempeño es muy pobre cuando se usan para predecir fuera de la muestra.

Nelson (1972) encuentra que modelos ARMA(p,q) con valores pequeños

para y , usualmente producen mejores predicciones que modelos grandes.

El enfoque BJ se basa en las siguientes etapas:

(1) TRANSFORMACIÓN. Transformar los datos, de ser necesario, para que el supuesto de

estacionariedad en covarianzas sea razonable, y de esta forma poder estimar un modelo .

El gráfico de la serie y la función de autocorrelación (ACF) puede ayudar a identificar si la serie posiblemente presenta componentes no estacionarios, como observaciones atípicas (outliers).

(2) IDENTIFICACIÓN. Hacer un "guess" inicial de valores pequeños para " " y " ". Para esto, se puede utilizar la función de autocorrelación (ACF) y la

función de autocorrelación parcial (PACF). Box and Jenkins denominan a este paso "identificación".

(3) ESTIMACIÓN. Estimar los parámetros de la parte autorregresiva, , y de la parte

de medias móviles, . Para ello, utilizar Máxima Verosimilitud (o MCO).

(4) DIAGNÓSTICO. Analizar cada modelo estimado utilizando estadísticos de bondad de

ajuste/selección de modelos ( , AIC, SIC); pruebas sobre los errores ("outliers", heteroscedasticidad, autocorrelación, normalidad); y pruebas de capacidad predictiva (Error Cuadrático Medio, Coeficiente de desigualdad de Theil, Prueba Diebold y Mariano).

45

Notas de Clase 2012-2 Prof. Erick Lahura

Aplicación 1: Modelos ARMA con datos simulados wfcreate(wf="ARIMA",page="original") m 1990m1 2010m12 smpl @all series wn=nrnd series y1=0 series y2=0 series x1=0 series x2=0 series y1x1=0 series y2x1=0 series y1x2=0 series y2x2=0 smpl 1991m1 2010m12 series y1=0.5*y1(-1)+0.5*nrnd series y2=0.7*y2(-1)-0.5*y2(-2)+0.5*nrnd series x1=0.9*wn(-1)+wn series x2=0.5*wn(-1)+0.4*wn(-2)+wn series y1x1=0.3*y1x1(-1)+0.8*wn(-1)+wn series y2x1=0.3* y2x1(-1)+0.6* y2x1(-2)+0.5*wn(-1)+wn series y1x2=0.3* y1x2 (-1)+0.6*wn(-1)+0.5*wn(-2)+wn series y2x2=0.3* y2x2 (-1)+0.5* y2x2(-2)+0.6*wn(-1)+0.5*wn(-2)+wn

46

Notas de Clase 2012-2 Prof. Erick Lahura

Aplicación 2: Tasa de interés

La pregunta es si la tasa de interés revierte a la media o no. Apliaremos la metodología Box-Jenkins para modelar este ratio.

Paso 1: Transformaciones

Gráficamente, la serie es estacionaria en niveles y en primeras diferencias.

Niveles

Primera diferencia

-2

-1

0

1

2

3

4

80 90 00 10 20 30 40 50 60 70 80 90 00

TASA

-1.5

-1.0

-0.5

0.0

0.5

1.0

1.5

80 90 00 10 20 30 40 50 60 70 80 90 00

Differenced TASA

47

Notas de Clase 2012-2 Prof. Erick Lahura

El correlograma parece sugerir que la serie es estacionaria en niveles, pues decrece rápidamente:

La elección del orden del rezago para la prueba puede ser un problema: Si se elige un número de rezagos muy pequeño, la prueba podría no

detectar autocorrelación en rezagos grandes. Sin embargo, si se elige un número de rezagos muy grande, la prueba

podría tener poco poder pues la correlación significativa en rezagos cortos puede diluirse por correlaciones no significativas con otro número de rezagos. Se sugiere T/4.

Dado el ACF en niveles, se procede a analizar el ACF de la serie en niveles: El ACF decrece rápidamente, lo que sugiere que el nivel de la serie es

estacionario o integrado de orden cero. Más adelante confirmaremos esto con pruebas estadísticas de raíz

unitaria. Paso 2: Identificación

Las funciones ACF y PACF sugieren que la serie puede estar descrita por un proceso AR(1) o por un proceso ARMA(1,1). Asumiremos, además, que otros candidatos posibles son los que se presentan en la siguiente tabla.

48

Notas de Clase 2012-2 Prof. Erick Lahura

Pasos 3 y 4: Estimación y Diagnóstico

A partir del análisis podemos observar que los modelos AR(1) y MA(4) son los mejores. Usando la prueba Diebold-Mariano, analizamos su capacidad predictiva para diferentes horizontes de predicción:

El modelo 1 es AR(1) y el modelo 2 es MA(4). Se rechaza la hipótesis nula de la prueba DM y se concluye que el modelo AR(1) predice mejor hasta 6 períodos adelante.

49

Notas de Clase 2012-2 Prof. Erick Lahura

Anexo 1: Nota sobre criterios de selección / bondad de ajuste

Los más utilizados son el Criterio de Información de Akaike (AIC) y el de Schwarz (SIC) también denominado criterio Bayesiano (BIC).

Al añadir más rezagos pueden generarse dos problemas: (i) pérdida de grados de libertad, (ii) pérdida de capacidad predictiva del modelo estimado si se añaden coeficientes extraños.

Los criterios AIC y BIC ponderan la suma de los cuadrados de los residuos (RSS) y el uso de un modelo parsimonioso.

Al comparar modelos ARMA se debe usar el mismo número de observaciones. Si y se comparan dos modelos AR(1) y AR(2), se debe usar para comparar.

El criterio SIC siempre seleccionará un modelo más parsimonioso que AIC porque .

Estos criterios son útiles para comparar modelos "no anidados". Usualmente, la alternativa de usar una prueba F no es recomendable:

Si tenemos AR(2) y MA(1), la prueba F se calcula a partir de la estimación

de un modelo ARMA(2,1).

Entre otras cosas, puede suceder que ambos modelos se acepten o que se rechacen.

SIC tiene mejores propiedades asintóticas. Sin embargo AIC se comporta mejor en muestras pequeñas.

Si los resultados son diferentes,

y se elige usar SIC, se debe verificar si los residuos son ruido blanco. y se elige usar AIC, los coeficientes deben ser todos significativos a

niveles convencionales.

Los resultados son confiables si ambos estadísticos proporcionan el mismo resultado.