modelos lineales dinámicos bayesianos

31
Universidad San Francisco Abril 2010 1 Modelos Lineales Dinámicos Bayesianos 1 por Juan Sebastián Araujo D. 1. Introducción El siguiente documento presenta una aproximación a los modelos lineales dinámicos (DLM por sus siglas en inglés) desde un punto de vista de la teoría bayesiana. Por ende, se pretende realizar pronósticos mediante una actualización de las distribuciones de variables estocásticas que influyen en las observaciones a través del tiempo dada nueva información. En términos generales entonces, los DLM se definen según la estructura cuádruple F t , G t , V t , W t para cada tiempo t . Este conjunto lleva implícitas las siguientes ecuaciones: Ec. de observaciones: Y t F t t v t , v t N0, V t Ec. de Sistema: t G t t1 w t , w t N0, W t Información Inicial: 0 |D 0 Nm 0 , C 0 En la sección 2 se presentan los modelos polinomiales de primer orden, de los cuales se pueden obtener ideas y conclusiones importantes para el desarrollo general de los DLM. En la sección 3 se analiza el caso de las regresiones dinámicas que, entre otras cosas, permiten justificar la existencia de la ecuación de sistema. La sección 4 trata de la formalización de los DLM en base a lo encontrado en las partes anteriores. La sección 5 presenta ejemplos ejecutados en R. Finalmente las partes 6 y 7 entrega la bibliografía y el algoritmo en R respectivamente. 2. Modelos Polinomiales de Primer Orden 2.1 Ideas Iniciales El modelo polinomial de primero orden para pronosticar un proceso estocástico Y t , se representa por el conjunto 1, 1, V t , W t tal que Y t t v t , v t N0, V t , 1 El siguiente documento está basado íntegramente en West y Harrison (1997).

Upload: juan-sebastian-araujo

Post on 19-Jun-2015

1.112 views

Category:

Documents


3 download

DESCRIPTION

Explicación introductoria de DLM con teoría Bayesiana

TRANSCRIPT

Page 1: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

1

Modelos Lineales Dinámicos Bayesianos1

por

Juan Sebastián Araujo D. 1. Introducción

El siguiente documento presenta una aproximación a los modelos lineales dinámicos (DLM por sus siglas en inglés) desde un punto de vista de la teoría bayesiana. Por ende, se pretende realizar pronósticos mediante una actualización de las distribuciones de variables estocásticas que influyen en las observaciones a través del tiempo dada nueva información.

En términos generales entonces, los DLM se definen según la estructura cuádruple Ft,Gt,Vt,Wt para cada tiempo t . Este conjunto lleva implícitas las siguientes ecuaciones: Ec. de observaciones: Yt Ft t vt, vt N0,Vt Ec. de Sistema: t Gt t−1 wt, wt N0,Wt Información Inicial: 0 |D0 Nm0 ,C0

En la sección 2 se presentan los modelos polinomiales de primer orden, de los cuales se pueden obtener ideas y conclusiones importantes para el desarrollo general de los DLM. En la sección 3 se analiza el caso de las regresiones dinámicas que, entre otras cosas, permiten justificar la existencia de la ecuación de sistema. La sección 4 trata de la formalización de los DLM en base a lo encontrado en las partes anteriores. La sección 5 presenta ejemplos ejecutados en R. Finalmente las partes 6 y 7 entrega la bibliografía y el algoritmo en R respectivamente. 2. Modelos Polinomiales de Primer Orden 2.1 Ideas Iniciales

El modelo polinomial de primero orden para pronosticar un proceso estocástico Yt , se representa por el conjunto 1,1,Vt,Wt tal que

Yt t v t, v t N0,Vt,

1 El siguiente documento está basado íntegramente en West y Harrison (1997).

Page 2: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

2

donde v t se denomina error observacional, y la tendencia t sigue un camino aleatorio simple

t t−1 wt, wt N0,Wt, en el que wt es conocido como error de evolución.

En un principio, se asumirá que las varianzas Vt y Wt son conocidas, y también que los v t y wt son variables aleatorias interna y mutuamente independientes. Es así que las ecuaciones anteriores pueden redefinirse de la siguiente manera:

Yt |t Nt,Vt

t |t−1 Nt−1 ,Wt , debido a que se presentan como una combinación lineal de variables con distribución normal i.i.d.

Por otra parte, nótese que si la razón definida por rt Wt/Vt es pequeña para todo t , la tendencia t es poco variable a través del tiempo. En consecuencia, el modelo puede emplearse para pronósticos de corto plazo. Esto implica que, dada la información existente Dt , el valor esperado de Ytk , ∀k ≥ 0 es

EYtk |t Etk |t t EYtk |Dt Et |Dt mt,

donde mt es un valor conocido en el tiempo t . 2.2 El Modelo Cerrado

Para la definición y los teoremas presentados a continuación, se asumirá al DLM como cerrado. En cuanto a esto, se dice que un modelo es cerrado al no considerar información externa al mismo. Se cumple entonces que el conjunto de información Dt Yt,Dt−1 . Definición 1. Para cada tiempo t , el DLM 1,1,Vt,Wt se define por: Ec. de observaciones: Yt t v t, v t N0,Vt Ec. de Sistema: t t−1 wt, wt N0,Wt Información Inicial: 0 |D0 Nm0 ,C0

Definido el modelo, interesa entonces estudiar los pronósticos para uno y más periodos a partir de t . Los teoremas siguientes permiten cumplir este objetivo.

Page 3: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

3

Teorema 1. Para el DLM definido por 1,1,Vt,Wt , el pronóstico para el siguiente período y la distribución a posteriori para la tendencia, se puede obtener secuencialmente tal que (a) Dist. a posteriori para t−1 : t−1 |Dt−1 Nmt−1 ,Ct−1 (b) Dist. a priori para t : t |Dt−1 Nmt−1 ,Rt Rt Ct−1 Wt (c) Pronóstico para un período: Yt |Dt−1 Nmt−1 ,Qt Qt Rt Vt (d) Dist. a posterior para t : t |Dt Nmt,Ct

mt mt−1

RtQt

et mt−1 Atet et Yt − mt−1

Ct

RtQt

Vt AtVt

Analizando las ecuaciones del teorema 1, se pueden observar tres detalles importantes: - Primero, surge la razón Rt/Qt conocida como coeficiente de adaptación a nuevos datos

y denotada como At , la cual cumple con la desigualdad

RtQt

t2 1

, donde t es la correlación entre Yt y t dada la información Dt−1 . - Segundo, resulta evidente que el valor mt es un promedio ponderado entre el valor

observado y la tendencia media a priori, es decir,

mt AtYt 1 − Atmt−1 . - Tercero, la precisión del modelo t definida por la inversa de la varianza

observacional, mejora al agregar nueva información. Es así que (i) Precisión a priori

t |Dt−1 Rt−1

(ii) Precisión posterior

t |Dt Ct−1

Qt

RtVt Rt Vt

RtVt Rt

−1 Vt−1 ≥ Rt

−1

Ahora bien, interesa de igual modo estudiar los pronósticos de más de un periodo a

=< tA0

Page 4: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

4

partir de t . Para hacerlo hay que considerar dos variables distintas: Ytk |Dt que se define como el pronóstico para k ≥ 1 períodos adelante, y Xtk|Dt definido por el pronóstico k -step lead time, donde

Xtk Yt1 . . .Ytk ∑j1

kYtj

Teorema 2. Para k ≥ 1 existen las siguientes distribuciones (a) k periodos adelante: Ytk |Dt Nmt,Qtk (b) k -step lead time: Xtk|Dt Nkmt,Ltk donde

Qtk Ct ∑j1

kWtj Vtk

Ltk k 2Cj ∑j1

kVtj ∑

j1

kj2Wtk1−j

. 2.3 El Modelo Constante

Una variación al modelo antes descrito es aquel que asume a las varianzas de los errores observacionales y de evolución no cambian a lo largo del tiempo. Dicho modelo se conoce como DLM constante y se define según el conjunto 1,1,V,W tal que Ec. de observaciones: Yt t v t, v t N0,V Ec. de Sistema: t t−1 wt, wt N0,W Información Inicial: 0 |D0 Nm0 ,C0

Dado esto, es posible hacer un análisis de convergencia límite como indica el teorema siguiente. Teorema 3. Definida la razón constante r W/V ; a medida que t → , At → A , Ct → C AV , donde

limt→ At A r2 1 4

r − 1

Y de igual manera

r A2

1 − A

Qt → Q V1 − A

Page 5: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

5

Rt → R AQ

W A2Q

V 1 − AQ

Nótese que según el teorema, si A 1 implica que V 0 y por ende r → . En

este caso el modelo se reduce a un camino aleatorio puro donde Yt Yt−1 wt . De darse este caso, el predictor mt Yt y el modelo presentará poca utilidad para fines predictivos. Por el contrario, cuando A → 0 se cumple que mt ≈ mt−1 y ninguno de los cambios en la serie de tiempo será tomado por el predictor. Todo esto permite concluir que A es un indicador de la sensibilidad de dicho predictor frente a los valores de las observaciones. Corolario 1. Considerando el DLM constante y el Teorema 2, se tiene que la distribución de los pronósticos es (a) k periodos adelante: Ytk |Dt Nmt,Qtk (b) k-step lead time: Xtk|Dt Nkmt,Ltk donde

Qtk Ct kW V

Ltk k 2Cj kV k 12k 1W

6 . 2.4 Importancia y Determinación de la Varianza de Evolución Wt

Suponga que para analizar cierto proceso, se escoge un DLM constante con varianza observacional V y ratio r , cuando verdaderamente los datos están generados por valores V0 y r0 . El modelo entonces presentaría en su forma asintótica la ecuación

ΔYt et − et−1 ,

donde 1 − A y et |Dt−1 N0,Q con Q V/ por el teorema 3. Por su parte, el verdadero modelo presentaría la ecuación

ΔYt at − 0at−1 , donde 0 1 − A0 y at |Dt−1 N0,Q0 con Q0 V0 /0 .

A fin de estudiar la incidencia de una mala selección de variables, se igualan las dos expresiones anteriores tal que

Page 6: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

6

et − et−1 at − 0at−1

et at − 0 ∑j0

t jat−j1

. De aquí se obtiene que si t → :

Eet |D0 0

Varet |D0 Q0 1 − 0 2

1 − 2

Surge entonces la pregunta, ¿qué valores de W deberían seleccionarse para que Varet |D0 ≈ Q0 ? El teorema 3 permite responder la interrogante, ya que si W → 0 r → 0 → 1 Varet |D0 → por lo que hay una penalización muy fuerte sin importar el valor V escogido. Por otra parte, si W → r → → 0 Varet |D0 → Q01 0

2 . En consecuencia, es preferible siempre tomar valores de W grandes cuando no se está seguro si los parámetros iniciales seleccionados son los correctos.

Ahora bien, por el teorema 3 se sabe también que

R C W C1 − A

W A1 − A C ,

es decir, W es una proporción fija de C . Y tomando como factor de descuento a 1 − A tal que

0.8 ≤ ≤ 1, es posible definir una valor para Wt mediante la fórmula

Wt 1 −

Ct−1 . 2.5 El Desconocimiento de la Varianza Observacional Vt

En la práctica, la varianza observacional Vt no suele ser conocida aunque se pueden tener indicios a priori sobre su comportamiento. En este apartado se considerará únicamente el caso en que Vt V , donde V es una constante desconocida. También se hará uso de la precisión que, como se mencionó líneas arriba, se calcula como la inversa de la varianza observacional tal que

Page 7: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

7

1V V−1

.

Nótese entonces que gracias al teorema 3 es posible representar a Wt y Ct como múltiplos de V . Es así que para el primer caso

wt |Dt−1 N0,VWt∗ ,

donde Wt

∗ es la varianza de wt cuando V 1. Definición 2. Para cada tiempo t , el DLM se define por Ec. de observaciones: Yt t v t, v t N0,V Ec. de Sistema: t t−1 wt, wt N0,VWt

∗ Información Inicial: 0 |D0 ,V Nm0 ,VC0

∗ |D0 Γn0 /2,d0 /2 , donde Wt

∗, C0∗, n0 y d0 son conocidas en t 0.

Dada la distribución gamma a priori que sigue la precisión, se tiene que

E |D0 n0d0

1S0

,

donde S0 d0 /n0 es una estimación puntual a priori de V . Además, se puede redefinir la información inicial tal que

0 |D0 t n 0m0 ,C0, donde C0 S0C0

∗ . Teorema 4. Dado el DLM de la definición 2, se tienen los siguientes resultados para t ≥ 1: Ec. de observaciones: Yt t v t, v t N0,V Ec. de Sistema: t t−1 wt, wt tn t−10,Wt Información Inicial: t−1 |Dt−1 t n t−1mt−1 ,Ct−1 |Dt−1 Γnt−1 /2,nt−1St−1 /2 Pronóstico: t |Dt−1 tn t−1mt−1 ,Rt Yt |Dt−1 t n t−1f t,Qt Rt Ct−1 Wt f t mt−1 Qt Rt St−1 Adaptación: |Dt Γnt/2,ntSt/2 t |Dt t n tmt,Ct

Page 8: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

8

nt nt−1 1

St St−1

et2

Qt− 1 St−1

nt mt mt−1 Atet Ct AtSt et Yt − f t

At

RtQt .

3. Modelos de Regresión Dinámica 3.1 Ideas Iniciales

En general, los modelos de regresión estudian el efecto de variables independientes o regresoras X en una variable respuesta Y. Cuando estos modelos se dinamizan, haciendo que las mencionadas variables estén en función del tiempo t , se puede expresar el valor de Yt tal que

EYt Xt .

Sin embargo en este contexto, no existen argumentos suficientes que garanticen que los parámetros serán constantes en todos los t . Por el contrario, es esperable que la estructura de los procesos Xt y Yt cambien con el paso del tiempo, por lo que es preferible redefinir el modelo de regresión tal que

EYt Xtt , donde una representación simple y adecuada para los parámetros t puede darse con caminos aleatorios, de modo que

Et t−1 t−1 , con su varianza correspondiente. 3.2 El Modelo de Regresión como DLM

Para definir el modelo DLM es importante recalcar dos características de la matriz de regresores. Primero, en ella existen n variables denotadas X1 , . . . ,Xn . Segundo, estas variables toman distintos valores a lo largo del tiempo por lo que, para un tiempo t cualquiera, la i-ésima variable se representa como Xit .

Page 9: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

9

Definición 3. Para cada t , el DLM de regresión se define como Ec. de observaciones: Yt Ft

T t v t, v t N0,Vt Ec. de Sistema: t t−1 wt, wt N0,Wt , donde Ft 1,Xt1 . . .Xtn T es la matriz de regresores, t es el vector de parámetros y Wt es la matriz de varianza de evolución para t .

La definición indica que los parámetros siguen un camino aleatorio como se planteó líneas arriba, y que los cambios en los mismos se deben fundamentalmente al error de evolución wt . Nótese además que el modelo de regresión estático presenta igualmente esta forma con Wt 0 y t constante.

Ahora bien, a fin de facilitar el estudio de los DLM de regresión, una variación del modelo que emplee una sola variable predictora y un valor del intercepto de 0, resulta sumamente útil. Es así que es posible definir la siguiente estructura en consideración a estas características. Definición 4. Sea el DLM Ft, 1,Vt,Wt tal que Ec. de observaciones: Yt Ft t v t, v t N0,Vt Ec. de Sistema: t t−1 wt, wt N0,Wt Información Inicial: 0 |D0 Nm0 ,C0, donde m0 es una media conocida en t 0, y Ft X1t . 3.3 Ecuaciones de Actualización y Pronóstico

En consideración al modelo propuesto en la definición 4 y a los conceptos tratados en la sección 2, es posible plantear los siguientes teoremas. Teorema 5. El pronóstico para un período adelante y las distribuciones posteriores se obtienen como sigue: (a) Dist. a posteriori para t−1 : t−1 |Dt−1 Nmt−1 ,Ct−1 (b) Dist. a priori para t : t |Dt−1 Nmt−1 ,Rt Rt Ct−1 Wt (c) Pronóstico para un período: Yt |Dt−1 Nf t,Qt f t Ftmt−1 Qt Ft

2Rt Vt (d) Dist. a posterior para t : t |Dt Nmt,Ct mt mt−1 Atet

Ct

RtQt

Vt AtVtFt

At

FtRtQt

et Yt − f t .

Page 10: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

10

Teorema 6. Para k ≥ 1, las distribuciones del pronóstico para k períodos adelante son

Ytk |Dt Nf tk,Qtk tk |Dt Nmt,Rtk,

donde

f tk Ftkmt

Rtk Ct ∑j1

kWtj

Qtk Ftk2 Rtk Vtk .

Las ecuaciones de los teoremas 5 y 6 entregan cuatro conclusiones importantes:

- La media posterior mt se obtiene mediante una corrección en base al error de

predicción et que se suma a la media a priori mt−1 de forma semejante al teorema 1. Además, el factor de corrección At siempre lleva el signo del regresor Ft .

- En cuanto a la precisión, la posterior siempre es mayor que la a priori para Ft ̸ 0 ya que

t |Dt Ct

−1 Rt−1 Ft

2Vt−1 ≥ t |Dt−1 Rt

−1 .

Nótese también que este valor es directamente proporcional a |Ft | , de modo que si Ft 0, Yt no entrega información adicional para la actualización de t . Es más, si para una secuencia de t , Ft 0, entonces la distribución posterior se vuelve cada vez menos precisa debido a la continua agregación de Wt .

- Si se suponen varianzas constantes, entonces se cumple lo siguiente para t → y la

razón rF WF2

V :

At → AF rF2 1 4

rF − 1

Ct → CF AFVF2 ;

en consecuencia, si F es acotado, At y Ct también serán acotados tal que

a F b At ∈ Aa,Ab, Ct ∈ Cmax|a|, |b|,Cmin|u| : u ∈ a,b

Page 11: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

11

- En el modelo estático (Wt 0, ∀t ), donde es constante, se cumple que

∑j1

tFj

2Vj−1

mt CtC0−1m0 Ct∑

j1

tFj

2Vj−1Yj

, y cuando C0 −1 es pequeño, mt es el estimador de máxima verosimilitud de y Ct es la varianza asociada. 3.4 Ventajas de los DLM de Acuerdo al Caso Presentado

El DLM de regresión tiene claras ventajas por sobre el modelo estático; y éstas pueden extenderse a todos los casos de DLM. A continuación se detallan las más evidentes.

Cuando se usan modelos dinámicos, se responde de mejor manera a la nueva información. Esto por el contrario, no sucede en modelos estáticos con Wt 0 para todo t . La implicancia directa de lo anterior, es que los primeros son más robustos para pronosticar en el corto plazo gracias a su mayor precisión.

Como ya se destacó, el coeficiente de adaptación At sigue el signo del regresor Ft . Además cuando Ft → 0 Ct se hace más grande ya que Yt no entrega nueva información para el movimiento entre t−1 y t . Por otra parte si |Ft | aumenta entonces Ct disminuye y el coeficiente de adaptación aumenta proporcionalmente. 3.5 Varianzas Observacionales y de Evolución

En términos generales, el proceso es semejante al visto en el apartado 2.5 donde se considera V como constante y desconocido, y su estimación se basa en el análisis bayesiano de la distribución gamma que sigue la precisión . De igual manera se puede definir Wt mediante la aproximación vista en 2.4 por el factor de descuento tal que

Wt Ct−1−1 − 1

Rt −1Ct .

Es así, que las ecuaciones para la regresión DLM con intercepto en el origen y varianza observacional contante (con estimación puntual St ) son las siguientes: Ec. de observaciones: Yt Ft t v t, v t N0,V Ec. de Sistema: t t−1 wt, wt tn t−10,Wt

( ) +== −− 10

1) CCD tttφ

Page 12: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

12

Información Inicial: t−1 |Dt−1 t n t−1mt−1 ,Ct−1 |Dt−1 Γnt−1 /2,nt−1St−1 /2 Pronóstico: t |Dt−1 t n t−1mt−1 ,Rt Yt |Dt−1 t n t−1f t,Qt Rt Ct−1 Wt f t Ftmt−1 Qt Ft

2Rt St−1 Adaptación: |Dt Γnt/2,ntSt/2 t |Dt t n tmt,Ct nt nt−1 1

St St−1

et2

Qt− 1 St−1

nt mt mt−1 Atet

Ct

RtQt

St et Yt − f t

At

FtRtQt .

4. El Modelo Lineal Dinámico 4.1 Ideas Iniciales

Las secciones anteriores muestran características básicas pero importantes de los modelos DLM en consideración al análisis bayesiano. En cuanto a esto, lo primero que se debe hacer es examinar el contexto del pronóstico y seleccionar una parametrización adecuada t−1 tal que la información histórica relevante para predecir el futuro esté incluida en la información acerca de t−1 . Esto implica que la distribución de probabilidad t−1 |Dt−1 es suficiente para pronosticar.

Además, las predicciones al respecto de t deberán siempre acompañarse de pronósticos de las observaciones Yt , de modo que si se considera un sistema cerrado, t |Dt tendrá suficiente información para predecir el conjunto Yt1 , t1 , . . . ,Ytk, tk, ∀k 1.

Por otra parte, el siguiente principio se aplica siempre: "una combinación lineal de DLM normales e independientes es asimismo un DLM normal. Esto permite que el modelo combinado sea robusto, y que si una de las partes está errada, el resto de los términos del modelo no se verán afectados.

Finalmente, la distribución conjunta de las observaciones y los parámetros se puede

Page 13: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

13

derivar usando leyes de probabilidad tal que

PYt, t |Dt−1 PYt | t,Dt−1P t |Dt−1, de donde el pronóstico corresponde a la distribución Yt |Dt−1 y la distribución posterior de los parámetros es t |Yt,Dt−1 t |Dt . 4.2 Definiciones y Notación Fundamental

Sean los vectores de observaciones Yt y parámetros t , los cuales son de dimensiones r 1 y n 1 respectivamente. Definición 5. El modelo DLM se define por el conjunto Ft,Gt,Vt,Wt para cada t , en el que Ft y Gt son matrices conocidas de dimensiones n r y n n respectivamente, y Vt y Wt son matrices de varianza conocidas de dimensiones r r y n n respectivamente. Se puede entonces relacionar los vectores Yt y t tal que Ec. observaciones:

Yt | t,Dt−1 NFtT t,Vt

Yt FtT t vt, vt N0,Vt

Ec. de sistema:

t | t−1 ,Dt−1 NGt t−1 ,Wt t Gt t−1 wt, wt N0,Wt.

De estas ecuaciones se puede deducir que Ft es la matriz de valores conocidos de

las variables independientes, t es el vector de estado o sistema, FtT t es la respuesta

esperada, vt es el error de observaciones, Gt es la matriz de evolución y wt es el error de evolución.

La siguiente definición presenta el DLM univariado con el que se trabajará en los apartados siguientes. Definición 6. Para cada t , el DLM univariado Ft,Gt,Vt,Wt se define por Ec. de observaciones: Yt Ft

T t v t, v t N0,Vt Ec. de Sistema: t Gt t−1 wt, wt N0,Wt Información Inicial: 0 |D0 Nm0 ,C0 4.3 Ecuaciones de Actualización y Pronóstico Teorema 7. Para el DLM univariado, el pronóstico para un período adelante y las

Page 14: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

14

distribuciones posteriores se obtienen como sigue: (a) Dist. a posteriori para t−1 : t−1 |Dt−1 Nmt−1 ,Ct−1 (b) Dist. a priori para t : t |Dt−1 Nat,Rt at Gtmt−1 Rt GtCt−1Gt

T Wt (c) Pronóstico para un período: Yt |Dt−1 Nf t,Qt f t Ft

Tat Qt Ft

TRtFt Vt (d) Dist. a posterior para t : t |Dt Nmt,Ct mt at Atet Ct Rt − AtQtAt

T At RtFtQt

−1 et Yt − f t

Dadas estas ecuaciones, algunas identidades útiles que surgen son: (a) At R tFtQt

−1 CtFtVt−1

(b) Ct R t − AtQtAtT R tI − FtAt

T (c) Ct

−1 R t−1 FtVt

−1FtT

(d) Qt 1 − FtTAt−1Vt

(e) FtTAt 1 − VtQt

−1 . Estas identidades se pueden aplicar tanto al modelo univariado como a uno multivariado reemplazando 1 por la matriz I donde corresponda. Definición 7. Para k ≥ 0 la función de pronóstico f tk se define por

f tk Etk |Dt EFtkT tk Dt,

donde

h FhTh

es la función de respuesta media para todo tiempo h ≥ 0. Teorema 8. Para 0 ≤ j k , para cada tiempo t la distribución conjunta futura es normal y se define por las siguientes covarianzas y distribuciones marginales para k períodos adelante Dist. de Estado: tk |Dt Natk,Rtk Dist. de Pronóstico: Ytk |Dt Nf tk,Qtk Covar. de Estado: Cov tk, tj |Dt Ctk, j Covar. de Obseraciones: CovYtk ,Ytj |Dt Ftk

T Ctk, jFtj

Page 15: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

15

Otras Covarianzas: CovYtk, tj |Dt FtkT Ctk, j

Cov tk ,Ytj |Dt Ctk, jFtj , donde

f tk Ftk

T atk

Qtk FtkT R tkFtk Vtk

atk Gtkatk − 1 at0i0

k−1Gtk−i

R tk GtkR tk − 1GtkT Wtk

Ctk, j GtkCtk − 1, j, k j 1, . . .

y con valores iniciales

at0 mt

R t0 Ct

Ctj, j R tj .

4.4 Varianzas Observacionales y de Evolución

En la práctica, las matrices Ft y Gt son generalmente definidas por el investigador. De igual forma, Wt puede definirse en base al factor de descuento . Sin embargo, la varianza Vt suele ser desconocida y grande en comparación a Wt . Es así que para facilitar el análisis se supondrá que Vt V para todo t ; asimismo, se asumirá que precisión observacional se define por V−1 y que todas las varianzas y covarianzas están escaladas por V . Definición 8. Para cada t , el DLM univariado se define por Ec. de observaciones: Yt Ft

T t v t, v t N0,V Ec. de Sistema: t Gt t−1 wt, wt N0,VWt

∗ Información Inicial: 0 |D0 , Nm0 ,VC0

∗ 0 |D0 Γn0 /2,n0S0 /2, con Ft,Gt,Wt

∗, m0 , C0∗, n0 y S0 especificados inicialmente.

Teorema 9. Dado el DLM de la definición 8, los siguientes resultados de distribuciones se obtienen para cada t ≥ 1:

Page 16: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

16

Ec. de observaciones: Yt FtT t v t, v t N0,V

Ec. de Sistema: t Gt t−1 wt, wt t n t−10,Wt Información Inicial: t−1 |Dt−1 t n t−1mt−1 ,Ct−1 |Dt−1 Γnt−1 /2,nt−1St−1 /2 Pronóstico: t |Dt−1 t n t−1at,Rt Yt |Dt−1 t n t−1f t,Qt Rt GtCt−1Gt

T Wt at Gtmt−1 f t Ft

Tat Qt Ft

TRtFt St−1 Adaptación: |Dt Γnt/2,ntSt/2 t |Dt t n tmt,Ct nt nt−1 1

St St−1

et2

Qt− 1 St−1

nt mt at Atet

Ct

StSt−1

R t − AtQtAtT

et Yt − f t At R tFtQt

−1 Dist. de Pronósticos: tk |Dt Natk,R tk Ytk |Dt Nf tk,Qtk . 5. Ilustraciones 5.1 Modelo Polinomial de Primer Orden

La tabla 1 presenta información acerca de las diferencias del tipo de cambio £/$ para un periodo de 9 años y 7 meses. Cabe resaltar que los datos se encuentran expresados en escala logarítmica como es común para variables de esta naturaleza.

1.35 1.00 -1.96 -2.17 -1.78 -4.21 -3.30 -1.43 -1.35 -0.34 -1.38 0.30-0.10 -4.13 -5.12 -2.13 -1.17 -1.24 1.01 -3.02 -5.40 -0.12 2.47 2.06-0.18 0.29 0.23 0.00 0.06 0.17 0.98 0.17 1.59 2.62 1.96 4.280.26 -1.66 -3.03 -1.80 1.04 3.06 2.50 0.87 2.42 -2.37 1.22 1.05-0.05 1.68 1.70 -0.73 2.59 6.77 -0.98 -1.71 -2.53 -0.61 3.14 2.961.01 -3.69 0.45 3.89 1.38 1.57 -0.08 1.30 0.62 -0.87 -2.11 2.48-4.73 -2.70 -2.45 -4.17 -5.76 -5.09 -2.92 -0.22 1.42 3.26 0.05 -0.95-2.14 -2.19 -1.96 2.18 -2.97 -1.89 0.12 -0.76 -0.94 -3.90 -0.86 -2.88-2.58 -2.78 3.30 2.06 -1.54 -1.30 -1.78 -0.13 -0.20 -1.35 -2.82 -1.972.25 1.17 -2.29 -2.49 -0.87 -4.15 -0.53

Tabla 1

Page 17: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

17

La figura 1 muestra el comportamiento de la mencionada información a través del

tiempo. Destaca en la gráfica un aparente proceso estacionario con media en 0 .

Time

tsin

dex

0 20 40 60 80 100

-6-4

-20

24

6

Figura 1

Suponiendo que m0 0 y C0 1 según la opinión de varios expertos, se desea

pronosticar el cambio en la tasa para el siguiente mes. Mediante un DLM polinomial de primer orden es posible resolver el problema asumiendo que la varianza observacional Vt es desconocida y considerando que la precisión presenta la distribución inicial 0 |D0 Γ0.5,0.005.

Dada la incertidumbre que se tiene al respecto del modelo, se asumen dos casos de coeficientes de descuento y luego de analizar sus resultados, se escogerá la mejor tal que: (a) Si 0.8 se tienen los resultados detallados en la tabla 2.

Page 18: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

18

t Wt Rt Qt PronósticoCoef. De

Adaptación Yt et1 mt Ct nt St0 1.35 1.00 1.00 0.011 0.25 1.25 1.26 0.00 0.99 1.00 1.00 0.99 0.01 2.00 0.012 0.00 0.01 0.02 0.99 0.55 -1.96 -2.95 -0.64 0.72 3.00 1.303 0.18 0.90 2.20 -0.64 0.41 -2.17 -1.53 -1.27 0.54 4.00 1.324 0.14 0.68 2.00 -1.27 0.34 -1.78 -0.51 -1.44 0.37 5.00 1.095 0.09 0.46 1.55 -1.44 0.30 -4.21 -2.77 -2.26 0.54 6.00 1.816 0.13 0.67 2.48 -2.26 0.27 -3.30 -1.04 -2.54 0.45 7.00 1.667 0.11 0.56 2.23 -2.54 0.25 -1.43 1.11 -2.26 0.40 8.00 1.578 0.10 0.50 2.07 -2.26 0.24 -1.35 0.91 -2.04 0.35 9.00 1.479 0.09 0.44 1.91 -2.04 0.23 -0.34 1.70 -1.65 0.36 10.00 1.54… … … … … … … … … … … …

109 0.20 1.00 5.00 -0.64 0.20 1.17 1.81 -0.28 0.80 110.00 3.99110 0.20 1.00 4.99 -0.28 0.20 -2.29 -2.01 -0.68 0.80 111.00 3.98111 0.20 1.00 4.98 -0.68 0.20 -2.49 -1.81 -1.04 0.79 112.00 3.97112 0.20 0.99 4.96 -1.04 0.20 -0.87 0.17 -1.01 0.79 113.00 3.94113 0.20 0.98 4.92 -1.01 0.20 -4.15 -3.14 -1.64 0.79 114.00 3.97114 0.20 0.99 4.96 -1.64 0.20 -0.53 1.11 -1.41 0.79 115.00 3.95115 0.20 0.99 4.93 -1.41 0.20

Tabla 2 (b) Si 1.0 se tienen los resultados detallados en la tabla 3:

t Wt Rt Qt PronósticoCoef. De

Adaptación Yt et1 mt Ct nt St0 1.35 0.00 1.00 1.00 0.011 0.00 1.00 1.01 0.00 0.99 1.00 1.00 0.99 0.01 2.00 0.012 0.00 0.01 0.02 0.99 0.50 -1.96 -2.95 -0.48 0.73 3.00 1.463 0.00 0.73 2.19 -0.48 0.33 -2.17 -1.69 -1.04 0.52 4.00 1.584 0.00 0.52 2.10 -1.04 0.25 -1.78 -0.74 -1.22 0.34 5.00 1.345 0.00 0.34 1.68 -1.22 0.20 -4.21 -2.99 -1.82 0.46 6.00 2.316 0.00 0.46 2.77 -1.82 0.17 -3.30 -1.48 -2.07 0.37 7.00 2.247 0.00 0.37 2.61 -2.07 0.14 -1.43 0.64 -1.98 0.29 8.00 2.008 0.00 0.29 2.29 -1.98 0.12 -1.35 0.63 -1.90 0.23 9.00 1.829 0.00 0.23 2.05 -1.90 0.11 -0.34 1.56 -1.72 0.21 10.00 1.85… … … … … … … … … … … …

109 0.00 0.05 5.42 -0.47 0.01 1.17 1.64 -0.46 0.05 110.00 5.34110 0.00 0.05 5.39 -0.46 0.01 -2.29 -1.83 -0.47 0.05 111.00 5.32111 0.00 0.05 5.37 -0.47 0.01 -2.49 -2.02 -0.49 0.05 112.00 5.31112 0.00 0.05 5.36 -0.49 0.01 -0.87 -0.38 -0.49 0.05 113.00 5.27113 0.00 0.05 5.31 -0.49 0.01 -4.15 -3.66 -0.53 0.05 114.00 5.34114 0.00 0.05 5.38 -0.53 0.01 -0.53 0.00 -0.53 0.05 115.00 5.29115 0.00 0.05 5.34 -0.53 0.01

Tabla 3

La figura 2 presenta el ajuste de los modelos a los datos. Nótese que el primero, al tener At mayor, reacciona más ante los cambios en los datos. Esto implica también que el caso con 1 se presenta como un camino aleatorio puro, donde Wt 0 para todo t .

Page 19: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

19

0 20 40 60 80 100

-6-4

-20

24

6

t

Yt

delta = 0.8delta = 1.0

Figura 2

Ahora bien, haciendo una comparación en base a estadísticos como el MAD y el

MSE se tiene que

Delta MAD MSE0.8 1.77 5.001.0 1.94 5.49

Tabla 4

Y por ende, se concluye que el primer modelo es el más conveniente entregando un pronóstico para el próximo mes de −1.41, con una varianza de 4.93. En cuanto a esto, la figura 3 presenta el comportamiento de algunas variables del modelo seleccionado. Es evidente que éstas convergen a cierto valor a medida que t → , lo cual es una demostración empírica del teorema 3.

Page 20: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

20

0 20 40 60 80 100

0.2

0.4

0.6

0.8

1.0

t[-1]

At[-

1]

0 20 40 60 80 100

01

23

4

t

St

0 20 40 60 80 100

0.0

0.4

0.8

t

Ct

0 20 40 60 80 100

01

23

45

t

Qt

Figura 3

5.2 DLM de Regresión

El siguiente ejemplo pretende modelar la ecuación de demanda con estructura Cobb-Douglas

Yt Pt t , donde Yt representa la participación de mercado de una empresa, Pt es el precio por un producto de dicha firma y el parámetro t es la elasticidad precio de la demanda.

La tabla 5 presenta información trimestral de estas variables. Los datos han sido transformados a su forma logarítmica a fin de linealizar la ecuación anterior.

Page 21: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

21

t Y P1 0.45 -0.52 0.83 -1.33 1.45 -1.54 0.88 -0.845 -1.43 -0.656 -1.5 -1.197 -2.33 2.128 -0.78 0.469 0.58 -0.63

10 1.1 -1.2211 NA -212 NA 2

Tabla 5

Estudiando estos datos, se observa un comportamiento acorde con las leyes de demanda como lo evidencia la figura 4, en la que una dinámica de espejo es notoria entre las variables de participación y precio.

Time

ts(s

hare

)

2 4 6 8 10

-20

1

Time

ts(p

rice[

-(11:

12)])

2 4 6 8 10

-10

12

Figura 4

Se intenta pronosticar el valor de Y11 y Y12 , por lo que inicialmente se corre una

regresión simple sin intercepto. Se obtienen así los siguientes resultados:

Page 22: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

22

Call: lm(formula = share ~price[-(11:12)] - 1) Residuals: Min 1Q Median 3Q Max -2.25992 -0.85371 0.06527 0.28511 0.49212 Coefficients: Estimate Std. Error t value Pr(>|t|) price[-(11:12)] -0.6386 0.2918 -2.188 0.0564. --- Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1 Residual standard error: 1.065 on 9 degrees of freedom Multiple R-squared: 0.3473, Adjusted R-squared: 0.2748 F-statistic: 4.789 on 1 and 9 DF, p-value: 0.0564

-1 0 1 2

-2-1

01

price[-(11:12)]

shar

e

Figura 5

Si bien el estimado de la elasticidad parece adecuado, los valores p de los test t y F

alertan sobre posibles fallos. La figura 5 además indica que existen aparentes puntos de influencia con capacidad para alterar las conclusiones. Es así que se decide utilizar una regresión DLM con tasa de descuento 0.6 a fin de corregir estos problemas. En cuanto a esto, la figura 6 evidencia que el comportamiento de la elasticidad no es constante a través del tiempo, por lo que un DLM podría ser conveniente

Page 23: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

23

Time

tsel

ast

2 4 6 8 10

-10

12

Figura 6

Se supone entonces que m0 0 y C0 1. Y se asumirán dos casos en que el

primero presenta una varianza observacional Vt conocida y constante en el tiempo, y el segundo tiene varianza observacional desconocida con una precisión dada por 0 |D0 Γ0.5,0.01 . Entonces: (a) Si Vt 0.2 para todo t , se tienen los resultados detallados en la tabla 6.

t Wt Rt Qt PronósticoCoef. De

Adaptación Yt et1 mt Ct Vt1 0.45 0.00 1.00 0.202 0.67 1.67 3.02 0.00 -0.72 0.83 0.83 -0.60 0.11 0.203 0.07 0.18 0.61 0.89 -0.45 1.45 0.56 -0.85 0.06 0.204 0.04 0.10 0.27 0.71 -0.31 0.88 0.17 -0.90 0.07 0.205 0.05 0.12 0.25 0.58 -0.32 -1.43 -2.01 -0.26 0.10 0.206 0.07 0.16 0.43 0.31 -0.45 -1.50 -1.81 0.55 0.08 0.207 0.05 0.13 0.77 1.18 0.35 -2.33 -3.51 -0.67 0.03 0.208 0.02 0.05 0.21 -0.31 0.12 -0.78 -0.47 -0.72 0.05 0.209 0.03 0.09 0.23 0.46 -0.23 0.58 0.12 -0.75 0.07 0.20

10 0.05 0.12 0.38 0.92 -0.39 1.10 0.18 -0.82 0.06 0.2011 0.04 0.11 0.63 1.65 -0.34 0.03 0.2012 0.02 0.06 0.43 -1.65 0.27 0.03 0.20

Tabla 6 (b) Si Vt es desconocida, se tienen los resultados detallados en la tabla 7.

Page 24: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

24

t Wt Rt Qt PronósticoCoef. De

Adaptación Yt et2 mt Ct St Pt1 0.45 0.00 1.00 0.20 5.002 0.67 1.67 3.02 0.00 -0.72 0.83 0.83 -0.60 0.07 0.12 8.143 0.05 0.11 0.38 0.89 -0.45 1.45 0.56 -0.85 0.03 0.12 8.664 0.02 0.06 0.16 0.71 -0.31 0.88 0.17 -0.90 0.03 0.09 10.895 0.02 0.06 0.12 0.58 -0.32 -1.43 -2.01 -0.26 0.35 0.72 1.396 0.23 0.58 1.54 0.31 -0.45 -1.50 -1.81 0.55 0.32 0.85 1.187 0.21 0.54 3.26 1.18 0.35 -2.33 -3.51 -0.67 0.20 1.19 0.848 0.13 0.33 1.26 -0.31 0.12 -0.78 -0.47 -0.72 0.28 1.07 0.949 0.18 0.46 1.25 0.46 -0.23 0.58 0.12 -0.75 0.35 0.95 1.05

10 0.23 0.58 1.82 0.92 -0.39 1.10 0.18 -0.82 0.27 0.86 1.1711 0.18 0.46 2.69 1.65 -0.3412 -1.65

Tabla 7

Nótese que en ambas situaciones los pronósticos ( f t ), los residuos (et ) y las elasticidades estimadas (mt ) resultan ser iguales.

Para comparar estos modelos con la regresión lineal simple hecha anteriormente, la figura 7 muestra el ajuste de los coeficientes estimados con relación a la elasticidad observada. Adicional a esto, los estadísticos MAD y MSE de ambos casos se presentan en la tabla 8.

Time

tsel

ast

2 4 6 8 10

-10

12

DLMReg. Simple

Figura 7

Page 25: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

25

Modelo MAD MSE

Reg.Simple 0.59 0.85DLM 0.81 1.74

Tabla 8

Se concluye entonces que si bien, la regresión simple es más precisa, el DLM es capaz de ajustarse de mejor manera a los cambios en la información que se presente. Finalmente la tabla 9 presenta los pronósticos para las observaciones 11 y 12 según ambos modelos.

t Reg.Sim DLM11 1.28 1.6512 -1.28 -1.65

Tabla 9

Page 26: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

26

6. Bibliografía y Referencias - WEST Mike, HARRISON Jeff, Bayesian Forecasting and Dynamic Models, 2º Ed.,

1997, Springer Series in Statistics.

Page 27: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

27

7. Algoritmo en R para la sección 6 ##EJERCICIO 1## index=c(1.35,1,-1.96,-2.17,-1.78,-4.21,-3.30,-1.43,-1.35, -0.34,-1.38,0.3,-0.1,-4.13,-5.12,-2.13,-1.17,-1.24,1.01, -3.02,-5.4,-0.12,2.47,2.06,-0.18,0.29,0.23,0,0.06,0.17, 0.98,0.17,1.59,2.62,1.96,4.28,0.26,-1.66,-3.03,-1.8,1.04, 3.06,2.5,0.87,2.42,-2.37,1.22,1.05,-0.05,1.68,1.7,-0.73,2.59, 6.77,-0.98,-1.71,-2.53,-0.61,3.14,2.96,1.01,-3.69,0.45, 3.89,1.38,1.57,-0.08,1.3,0.62,-0.87,-2.11,2.48,-4.73,-2.7, -2.45,-4.17,-5.76,-5.09,-2.92,-0.22,1.42,3.26,0.05,-0.95, -2.14,-2.19,-1.96,2.18,-2.97,-1.89,0.12,-0.76,-0.94, -3.9,-0.86,-2.88,-2.58,-2.78,3.3,2.06,-1.54,-1.3,-1.78,-0.13, -0.2,-1.35,-2.82,-1.97,2.25,1.17,-2.29,-2.49,-0.87,-4.15, -0.53) tsindex=ts(index) plot(tsindex) abline(h=0) m0=0 C0=1 n0=1 d0=0.01 S0=d0/n0 t=seq(0,115,1) #coeficiente delta=0.8# delta=0.8 Wt=c(0) Rt=c(0) Qt=c(0) ft1=c(0) At=c(0) Yt=c(index[1]) et1=c(0) mt=c(m0) Ct=c(C0) nt=c(n0) dt=c(d0) St=c(S0) Pt=c(1/S0) for (i in 1:115){ Wt=c(Wt,(1-delta)*Ct[i]/delta) Rt=c(Rt,Ct[i]+Wt[i+1])

Page 28: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

28

Qt=c(Qt,Rt[i+1]+St[i]) ft1=c(ft1,mt[i]) At=c(At,Rt[i+1]/Qt[i+1]) Yt=c(Yt,index[i+1]) et1=c(et1,Yt[i+1]-ft1[i+1]) mt=c(mt,mt[i]+At[i+1]*et1[i+1]) nt=c(nt,nt[i]+1) St=c(St,St[i]+St[i]*(-1+et1[i+1]**2/Qt[i+1])/nt[i+1]) Ct=c(Ct,At[i+1]*St[i+1]) Pt=c(Pt,1/Ct[i+1]) } table1=cbind(t,Wt,Rt,Qt,ft1,At,Yt,et1,mt,Ct,nt,St,Pt) #coeficiente delta=1# delta=1 Wt=c(0) Rt=c(0) Qt=c(0) ft2=c(0) At=c(0) Yt=c(index[1]) et2=c(0) mt=c(m0) Ct=c(C0) nt=c(n0) dt=c(d0) St=c(S0) Pt=c(1/S0) for (i in 1:115){ Wt=c(Wt,(1-delta)*Ct[i]/delta) Rt=c(Rt,Ct[i]+Wt[i+1]) Qt=c(Qt,Rt[i+1]+St[i]) ft2=c(ft2,mt[i]) At=c(At,Rt[i+1]/Qt[i+1]) Yt=c(Yt,index[i+1]) et2=c(et2,Yt[i+1]-ft2[i+1]) mt=c(mt,mt[i]+At[i+1]*et2[i+1]) nt=c(nt,nt[i]+1) St=c(St,St[i]+St[i]*(-1+et2[i+1]**2/Qt[i+1])/nt[i+1]) Ct=c(Ct,At[i+1]*St[i+1]) Pt=c(Pt,1/Ct[i+1]) } table2=cbind(t,Wt,Rt,Qt,ft2,At,Yt,et2,mt,Ct,nt,St,Pt) #Selección del mejor modelo# plot(t,Yt)

Page 29: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

29

lines(t,ft1,col="blue") lines(t,ft2,col="red") legend(80,7,c("delta = 0.8","delta = 1.0"),col=c("blue","red"),lty=1) table1[110:116,] table2[110:116,] MAD1=sum(abs(et1[-length(et1)]))/length(index) MAD2=sum(abs(et2[-length(et1)]))/length(index) MSE1=sum(et1[-length(et1)]**2)/length(index) MSE2=sum(et2[-length(et1)]**2)/length(index) MAD1 MAD2 MSE1 MSE2 #Estudio de convergencia# par(mfrow=c(2,2)) plot(t[-1],At[-1],type="l") plot(t,St,type="l") plot(t,Ct,type="l") plot(t,Qt,type="l") ##EJERCICIO 2## share=c(0.45,0.83,1.45,0.88,-1.43,-1.50,-2.33,-0.78,0.58,1.10) price=c(-0.5,-1.3,-1.5,-0.84,-0.65,-1.19,2.12,0.46,-0.63,-1.22,-2,2) par(mfrow=c(2,1)) plot(ts(share)) plot(ts(price[-(11:12)])) par(mfrow=c(1,1)) reg.sim=lm(share~price[-(11:12)]-1) summary(reg.sim) plot(price[-(11:12)],share) abline(reg.sim) elast=share/price[-(11:12)] tselast=ts(elast) plot(tselast,type="l") m0=0 C0=1

Page 30: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

30

t=seq(1,12,1) #varianza observacional conocida# delta=0.6 V=0.2 Wt=c(0) Rt=c(0) Qt=c(0) ft=c(0) At=c(0) Yt=c(share[1]) et1=c(0) mt1=c(m0) Ct=c(C0) Vt=c(V) Pt=c(1/V) for (i in 1:11){ Wt=c(Wt,(1-delta)*Ct[i]/delta) Rt=c(Rt,Ct[i]+Wt[i+1]) Qt=c(Qt,(price[i+1]**2)*Rt[i+1]+Vt[i]) ft=c(ft,price[i+1]*mt1[i]) At=c(At,price[i+1]*Rt[i+1]/Qt[i+1]) Yt=c(Yt,share[i+1]) et1=c(et1,Yt[i+1]-ft[i+1]) mt1=c(mt1,mt1[i]+At[i+1]*et1[i+1]) Vt=c(Vt,V) Ct=c(Ct,Rt[i+1]*Vt[i+1]/Qt[i+1]) Pt=c(Pt,1/Vt[i+1]) } table1=cbind(t,Wt,Rt,Qt,ft,price,At,Yt,et1,mt1,Ct,Vt,Pt) #Varianza observacional desconocida# delta=0.6 n0=1 S0=0.2 Wt=c(0) Rt=c(0) Qt=c(0) ft=c(0) At=c(0) Yt=c(share[1]) et2=c(0) mt2=c(m0) Ct=c(C0) St=c(S0) nt=c(n0)

Page 31: Modelos Lineales Dinámicos Bayesianos

Universidad San Francisco Abril 2010

31

Pt=c(1/V) for (i in 1:11){ Wt=c(Wt,(1-delta)*Ct[i]/delta) Rt=c(Rt,Ct[i]+Wt[i+1]) Qt=c(Qt,(price[i+1]**2)*Rt[i+1]+St[i]) ft=c(ft,price[i+1]*mt2[i]) At=c(At,price[i+1]*Rt[i+1]/Qt[i+1]) Yt=c(Yt,share[i+1]) et2=c(et2,Yt[i+1]-ft[i+1]) mt2=c(mt2,mt2[i]+At[i+1]*et2[i+1]) nt=c(nt,nt[i]+1) St=c(St,St[i]+St[i]*(-1+et2[i+1]**2/Qt[i+1])/nt[i+1]) Ct=c(Ct,Rt[i+1]*St[i+1]/Qt[i+1]) Pt=c(Pt,1/St[i+1]) } table2=cbind(t,Wt,Rt,Qt,ft,price,At,Yt,et2,mt2,Ct,St,Pt) #Presentación de Resultados# plot(tselast,type="p") lines(t,mt1,col="red") lines(c(0,10),c(reg.sim$coef,reg.sim$coef),col="blue") legend(7,2,c("DLM","Reg. Simple"),col=c("red","blue"),lty=c(1,1)) table1 table2 MAD1=sum(abs(et1[-(11:12)]))/length(share) MAD2=sum(abs(reg.sim$residuals))/length(share) MSE1=sum(et1[-(11:12)]**2)/length(share) MSE2=sum((reg.sim$residuals)**2)/length(share) MAD1 MAD2 MSE1 MSE2 #Pronósticos para más periodos# share11.DLM=mt2[10]*price[11] share12.DLM=mt2[10]*price[12] share11.reg=reg.sim$coef*price[11] share12.reg=reg.sim$coef*price[12] share11.DLM share11.reg share12.DLM share12.reg