revisiones de uteratura mÉtodos bayesianos en mejoramiento...

17
~ REVISIONES DE UTERATURA ( MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL BAYESIAN METHODS IN ANIMAL GENETIC IMPROVEMENT ALEJANDRO JARA Y NELSoN BARRÍA Dpto. Fomento de la Producción Animal Fac. Cs. Veto y Pecuarias Universidad de Chile Santa Rosa # 11.735, La Granja Fono: 6785572 Fax: 5416840 e-mail: [email protected] INTRODUCCIÓN '- i En la actualidad, la metodología BLUP (Best Linear Unbiased Predictor) es utilizada ampliamente en la evaluación gen ética de reproductores debido a las propiedades deseables que esta presenta (Henderson, 1963; 1973, 1975, 1984, 1988; Fernando y Gianola, 1986, 1990; Giapola et al., 1986). Henderson (1963,1973) desarrolló esta metodología que, a diferencia de los Indices de Selección (Best Linear Predictor, BLP), no requiere del conocimiento del primer momento de las distribucio- nes. El BLUP, se define como una función lineal de los datos que minimiza la varianza de los errores de predicción dentro de los predictores insesgados (Henderson, 1963). Bulmer (1980), Gianola y Goffinet (1982), y Fernando y Gianola (1984; 1986) han mostrado que, bajo normalidad multivariada, las soluciones BLUP son el promedio condicional del mérito dado un grupo de contrastes linealmente independientes. Esta propiedad se cumple, cuando el segundo momento de la distribución conjunta de los datos y los valores parametrales es conocida. Sin embargo, el segundo momento raramente se conoce y debe ser estimado desde los datos. Si los estimadores de los parámetros de dispersión son utilizados en lugar de los valores verdaderos, los predictores del mérito dejan de ser BLUP y las propiedades en cuanto al ordenamiento de los predictores son desconocidas, resultando, además, en estimadores de tendencia genética y ambiental con propiedades desconocidas en cuanto a su distribución. Por otra parte, el supuesto de normalidad es claramente violado cuando los datos son en naturaleza categóricos, como por ejemplo, puntajes de facilidad de parto (Wang, 1998). En mejoramiento animal, los parámetros de dispersión son frecuentemente estimados utilizando máxima verosimilitud restringida (Restricted Maximum Likelihood, REML) (Thompson, 1962; Patterson y Thompson, 1971). Demostraciones teóricas (Gianola etal., 1989; 1m etal., 1989) y estudios de simulación (Rothschild et al., 1979; Van Tassell et al., 1995) sugieren que métodos máximo verosimiles tienen la habilidad de dar cuenta de algunas formas de selección lo que los hace particularmente adecuados en mejoramiento genético. A diferencia del método de Máxima Verosi- militud (Maximum Likelihood, ML), cuyas estimaciones se obtienen maximizando la función com- pleta de verosimilitud, los estimadores REML se obtienen maximizando la parte de la función de verosimilitud independiente de los efectos f~os. De esta forma, los estimadores REML, son los elementos del vector modal de la distribución posterior conjunta de los componentes de varianza (Gianola y Foulley, 1990). Sin embargo, de acuerdo con la teoría de la decisión, el estimador que minimiza el riesgo de la estimación, utilizando una función de pérdida cuadrática, es el promedio de la distribuición marginal posterior más que la moda y la moda de la distribución marginal de cada componente de varianza puede representar una mejor aproximación al promedio que la moda de la distribución conjunta (Gianola y Foulley, 1990; Harville, 1974; Wang et al., 1993). Por lo tanto, si es necesario hacer inferencia sobre un componente de varianza, se debe utilizar la distribución marginal de este componente, más que la distribución conjunta (Gianola y Foulley, 1990). Avances en Producción Animal NQ 24 (1-2): 3-19, 1999. Ir

Upload: hathuy

Post on 21-Sep-2018

238 views

Category:

Documents


0 download

TRANSCRIPT

~REVISIONES DE UTERATURA

(

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL

BAYESIAN METHODS IN ANIMAL GENETIC IMPROVEMENT

ALEJANDRO JARA Y NELSoN BARRÍA

Dpto. Fomento de la Producción AnimalFac. Cs. Vetoy Pecuarias

Universidad de Chile

Santa Rosa # 11.735, La GranjaFono: 6785572Fax: 5416840

e-mail: [email protected]

INTRODUCCIÓN'-

i

En la actualidad, la metodología BLUP (Best Linear Unbiased Predictor) es utilizada ampliamenteen la evaluación gen ética de reproductores debido a las propiedades deseables que esta presenta(Henderson, 1963; 1973, 1975, 1984, 1988; Fernando y Gianola, 1986, 1990; Giapola et al., 1986).

Henderson (1963,1973) desarrolló esta metodología que, a diferencia de los Indices de Selección(Best Linear Predictor, BLP), no requiere del conocimiento del primer momento de las distribucio-nes. El BLUP, se define como una función lineal de los datos que minimiza la varianza de los erroresde predicción dentro de los predictores insesgados (Henderson, 1963).

Bulmer (1980), Gianola y Goffinet (1982), y Fernando y Gianola (1984; 1986) han mostrado que,bajo normalidad multivariada, las soluciones BLUP son el promedio condicional del mérito dado ungrupo de contrastes linealmente independientes. Esta propiedad se cumple, cuando el segundomomento de la distribución conjunta de los datos y los valores parametrales es conocida. Sinembargo, el segundo momento raramente se conoce y debe ser estimado desde los datos. Si losestimadores de los parámetros de dispersión son utilizados en lugar de los valores verdaderos, lospredictores del mérito dejan de ser BLUP y las propiedades en cuanto al ordenamiento de lospredictores son desconocidas, resultando, además, en estimadores de tendencia genética y ambientalcon propiedades desconocidas en cuanto a su distribución. Por otra parte, el supuesto de normalidades claramente violado cuando los datos son en naturaleza categóricos, como por ejemplo, puntajesde facilidad de parto (Wang, 1998).

En mejoramiento animal, los parámetros de dispersión son frecuentemente estimados utilizandomáxima verosimilitud restringida (Restricted Maximum Likelihood, REML) (Thompson, 1962;Patterson yThompson, 1971). Demostraciones teóricas (Gianola etal., 1989; 1m etal., 1989) y estudiosde simulación (Rothschild et al., 1979; Van Tassell et al., 1995) sugieren que métodos máximoverosimiles tienen la habilidad de dar cuenta de algunas formas de selección lo que los haceparticularmente adecuados en mejoramiento genético. A diferencia del método de Máxima Verosi-militud (Maximum Likelihood, ML), cuyas estimaciones se obtienen maximizando la función com-pleta de verosimilitud, los estimadores REML se obtienen maximizando la parte de la función deverosimilitud independiente de los efectos f~os. De esta forma, los estimadores REML, son loselementos del vector modal de la distribución posterior conjunta de los componentes de varianza(Gianola y Foulley, 1990). Sin embargo, de acuerdo con la teoría de la decisión, el estimador queminimiza el riesgo de la estimación, utilizando una función de pérdida cuadrática, es el promedio dela distribuición marginal posterior más que la moda y la moda de la distribución marginal de cadacomponente de varianza puede representar una mejor aproximación al promedio que la moda de ladistribución conjunta (Gianola y Foulley, 1990; Harville, 1974; Wang et al., 1993). Por lo tanto, si esnecesario hacer inferencia sobre un componente de varianza, se debe utilizar la distribución marginalde este componente, más que la distribución conjunta (Gianola y Foulley, 1990).

Avances en Producción Animal NQ 24 (1-2): 3-19, 1999.

Ir

4 JARA YBARRÍA

JLos predictores del mérito genético se obtienen, primero, estimando los parámetros de dispersión

a través de REML y, posteriormente, estas estimaciones son utilizadas para obtener las solucionesBLUE (Best Linear Unbiased Estimator) y BLUP de los efectos f~os y aleatorios, respectivamente.Cuando no existe selección, esta estrategía puede converger en probabilidad a las soluciones BLUEy BLUP a medida que la información sobre los componentes de varianza en la muestra aumenta. Sinembargo, esta propiedad frecuentista, cuando existe selección es desconocida. Otra deficiencia deesta estrategia es que no se toman en cuenta los errores de estimación de los parámetros de dispersióncuando se predicen los valores aditivos (Wang et al., 1994).

Esto muestra que el desarrollo de los principios estadísticos utilizados en mejoramiento genéticoanimal se ha llevado a cabo en forma desordenada, debido a que ninguno de los métodos deestimación de componentes de varianza y parámetros genéticos existentes fueron creados conside-rando el uso posterior de las estimaciones (Gianola y Fernando, 1986). Gianola y Foulley (1986) yGianola y Fernando (1986) y Gianola et al. (1986) introducen la utilización de los métodos bayesianosen mejoramiento genético animal, los que surgen como una alternativa para dar solución en formasistemática y clara a problemas actualmente mal resueltos por la escuela frecuentista.

La Escuela de Inferencia Bayesiana

La escuela bayesiana fue fundada por Laplace a través de trabajos publicados entre 1774 y 1812, Ydurante el siglo XIX ocupó un papel preponderante en la inferencia científica (Stigler, 1986). Lostrabajos sobre verosimilitud de Fisher en los años 20' y los de la escuela frecuentista entre los años 30'y 40' hicieron casi desaparecer a esta escuela de inferencia, hasta los años 50' donde comenzó unrenacer (Blasco, 1998. Comunicación personal).

~

Inferencia Bayesiana

Kendall y Buckland (1971) defiene a la inferencia bayesiana, como una forma de inferencia que trataa los parámetros desconocidos como variables aleatorias que poseen una distribución a priori la cualrefleja el estado acumulativo del conocimiento. La inferencia se realiza a partir de registros, asignan-do modelos probabilísticos para cantidades observables y para cantidades sobre las que queremosaprender (Gelman et al., 1996).

La forma esencial de trabajar de esta escuela consiste en describir, dados los datos, toda laincertidumbre que puede existir en torno a un parámetro, utilizando como medida de incertidumbrela probabilidad de que el parámetro tome determinados valores.

Teorema de Bayes

Si se considera un vector de parámetros desconocidos, 9, de registros, y, y su función de densidadconjunta f(9, y).

f(9,y) = f(yI9) f(9) [1]

y

f(9, y) = f(9 Iy) f(y) [2]

donde f(9) Yf(y) son la funciones de densidad marginales de 9 y y, respectivamente. Desde [1] y [2],

f(9 Iy) = f(y I 9) f(9)/f(y)

~

Una forma equivalente a esta expresión, la cual omite el factor f(y) debido a que no depende de 0por lo que puede ser considerado una constante, es la función de densidad posterior no normalizada:

f(9 Iy) = f(y I9) f(9)

Esta última ecuación, resume la forma en la cual la escuela Bayesiana realiza la inferencia, donde, ladistribución a priori de 9, f(9), refleja el estado de incertidumbre sobre los posibles valores de 9 previa

~

I

I MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 5

realización de los datos, f(y 19) es la función de verosimiltud la cual representa la contribución de lasobservaciones al conocimiento de 9, y f(9 1y) es la función de densidad posterior la cual resume elestado de incertidumbre de 9 dado el conocimiento previo y los datos (Gelman et al., 1996).

Estimación Bayesiana Puntual

Diferentes estimadores puntuales pueden ser utilizados para resumir la distribución posterior. Estosson derivados utilizando la teoría de la decisión (Hoeschele, 1997). Un estimador bayesiano es aquelque minimiza la pérdida posterior esperada

1\

f1\

E[L(9,9)]= L(9, 9) f (9 Iy)d991y

1\

donde, L(9,9) es la función de pérdida. Tres funciones de pérdida y los correspondientes estimadoresbayesianos son,

..1\. Pérdida Cuadrática: (9-9)2 : Media Posterior

{

1\O siI9-91<E ..Todo o Nada (O/1) 1\ : Moda Postenor1 siI9-91>E

donde E,es una constante arbitraria pequeña.

1\. Pérdida Absoluta 19-91: Mediana Posterior

El cálculo de la moda posterior sólo requiere de optimización, mientras que la obtención de la mediaposterior requiere de integración, la cual no era factible de obtener en problemas multidimensiona-les antes del uso de los algoritmos de Markov Monte CarIo (Gelman et aL, 1996; Hoeschele, 1997;Wang,1998).

La media posterior es

E(9) =j 9f(9 Iy) d9,

mientras que la moda posterior satisface

arg9 sup [f(9 Iy)] =arg9 sup [f(y 19)f(9)]

Existen varios puntos importantes sobre la moda posterior (Hoeschele, 1997). Si 9 es partido endos vectores,9l y 92, siendo el vector de interes 91, se puede obtener una estimación puntual de91 a través del componente del vector modal de la distribución posterior conjunta,

18

arg sup[f(9¡,92 1y)] = arg sup[f(9l 1e2, 1}t)]91 9192 91 91

donde, e2 es el elemento del vector modal conjunto de 9, o a través de la moda posterior de ladistribución marginal de 91,

fa" arg sup[f(9l 1y)] = arg sup[jf(9l 192,1y) d 92] =arg sup[jf(9l 192,1y)f(92 Iy) d 92]91 91 91 91 91 91

6 JARA YBARRÍAI!,i)

Comparada con el elemento del vector modal conjunto, la moda marginal considera el grado deincertidumbre asociado con los parámetros del vector 92 (Hoeschele, 1997).

Si se asume que la distribución a priori, f(9), es plana, es decir asumiendo ignorancia total sobredesconocidos previa realización de los datos,

f(9) = constante,

maximizando con respecto de f(9 Iy) es equivalente a maximizar f(y I 9). En este caso, el estimadormodal bayesiano es igual al estimador de maxima verosimilitud, lo cual muestra de forma introduc-toria la relación existente entre la estimación de componentes de varianza bayesiana y los métodosmáximo verosímiles.

Además de estimadores puntuales, la inferencia bayesiana provee de información adicional,incluyendo regiones de la función de densidad posterior (Higest Posterior Density Regions, HPDR),varianzas posteriores y correlaciones entre parámetros, y la distribución marginal completa delparámetro de interés. Esta última, es normalmente asintótica, la cual depende de la cantidad deinformación existente en la muestra sobre el parámetro. Debido a esto, es discutible qué estimaciónpuntual se debe ofrecer. En situaciones extremas, la función de densidad posterior puede serbimodal, determinando que la media, fuese mucho menos probable que los valores de la modasde la distribución. En estos casos, una estimación puntual no describe bien la incertidumbre entorno de un parámetro (Gelman et al., 1996).

Diferencias con otras escuelas de inferencia científica

La presente revisión se centrará en las diferencias que presenta la Escuela Bayesiana con la EscuelaFrecuentista, excluyéndose comparaciones con la Escuela Fudicial de Fisher o Estructural de Fraser(Kotz y]ohnson, 1984; Stuart y Ord, 1981) las cuales no han tenido incidencia en los métodosutilizados en mejoramiento genético animal.

La Escuela Frecuentista asume que los parámetros desconocidos son un cantidad f~a y la inferenciase basa en observar cómo se distribuirían estimaciones hipotéticas del parámetro si la experiencia serepitiera un número infinito de veces, mientras que la Escuela Bayesiana trata a los parámetrosdesconocidos como variables aleatorias, poseedoras de una distribución aleatoria de probabilidades(Gelman et aL, 1996).

En la Escuela Bayesiana, al no existir repeticiones hipotéticas del experimento, no existe elconcepto de sesgo. Tampoco existe distinción entre efectos f~os o aleatorios debido a que a todos losparámetros desconocidos se les asigna una distribución aleatoria a priori (Gelman et al., 1996).

Las varianzas posteriores de los parámetros de interés se obtienen directamente desde las distribu-ciones marginales, mientras que las derivadas desde la matriz de información de Fisher, en losmétodos máximo verosímiles, suponen normalidad asintótica, supuesto cuestionable en muestras depequeño a moderado tamaño (Hoeschele, 1997; Sorensen, 1996).

La Escuela Bayesiana utiliza una función de densidad para describir la incertidumbre en torno deun parámetro, mientras que la escuela frecuentista entrega una estimación puntual, la cual, comodiscutimos anteriormente, no necesariamente describe bien el grado de incertidumbre en torno deun parámetro (Gelman et al., 1996).

Inferencia Bayesiana en Mejoramiento Genético

En el mejoramiento gen ético animal, la Escuela Bayesiana fue introducida por el profesor DanielGianola, primero en trabajos sobre caracteres umbrales en colaboración conJ.L. Foulley (Gianola,1982; Gianola y Foulley, 1982; Gianola y Foulley, 1983) y, posteriormente, en artículos en los que sedesarrollan aplicaciones a todos los campos de la mejora genética animal (Gianola y Fernando, 1986;Wang, 1998).

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 7

~Modelo y Supuestos

Supondremos un vector de los observaciones, y, de orden n x l el cual se explica por el siguientemodelo lineal:

y=Xb+Za+e=WJ3+e

donde, b y a son vectores de parámetros desconocidos de dimensión p x l y q xl, respectivamente,X y Z son matrices de incidencia, y e es el vector de efectos residual es.

En cuanto al mérito genético, las derivaciones que serán presentadas en la presente revisión, sebasaran en un modelo aditivo infinitesimal, el cual asume un número infinito de loci cada uno conun efecto pequeño, lo cual satisface el supuesto de normalidad en cuanto a la distribución de losvalores aditivos (Bulmer, 1980).

a ~ MVN (O,Acr2a)

fea I cr2a) oc (cr2a)q/2 exp [-a'Ala /2 cr2a]

..Predicción del Mérito Genético asumiendo "efectos Íyos" y varianzas conocidas

El objetivo, es predecir a desde y, asumiendo que b, cr2ay cr2eson conocidos.

fea I cr2e,cr2a,b, y)

Entonces, de acuerdo con la teoría bayesiana, la función de densidad posterior, generada a partir dela función de verosimilitud y la función de densidad a priori, es

fea I cr2e,cr2a,b, y) oc f(y I cr2e,b, a) fea I cr2a)

Interpretación Bayesiana de los Índices de Selección

Los primeros en establecer la relación entre los Índices de Selección y la estimación bayesiana fueronRonningen en 1971 (Citado por Gianola y Fernando, 1986, y Gianola et aL 1986) y Demptle en 1977(citado por Demptle, 1991). Sin embargo, Demptle (1991) muestra que las derivaciones presentadaspor el propio Robertson (1955) son en naturaleza bayesianas considerando las dos fuentes inde-pendientes de información.

Si se asume que la distribución condicional de los datos, y, tiene distribución multivariada normal,

Y lb, a, R~ MVN (WP, R)

f(y I cr2e,b, a) oc (cr2e)-n/2 exp [-(y- WP)'Rl(y- WP)/2]

Entonces,

fea I cr2e,cr2a,b, y) oc (cr2e)-n/2exp [-e y- WP)'Rl( y- WP)/2] x (cr2a)-q/2exp [-a'A-la /2 cr2a]ID

De esta forma, el promedio condicional, a, es

a = E(a cr2e,cr2a,b, y) = (Z'RIZ + G-l)-1Z'Rl (y - Xb)

Como muestra Henderson (1963), (Z'RIZ + G-l)-l Z'Rl puede ser escrito como C'V-l, entonces,

a = C'V-l(y - Xb)

las que corresponden a las conocidas soluciones del Índice de Selección.!Ir

8 JARA YBARRÍA

Como discuten Gianola et al. (1986), los Índices de Selección dependen del conocimientoexacto del primer y segundo momento, lo cual es irreal desde un punto de vista práctico. Unaposible solución es la utilizaci,ón de estimaciones de estos parámetros como valores verdaderos,sin embargo, la teoría de los Indices de Selección no indica cómo dar cuenta de los errores deestimación al emplear esta estrategia.

Predicción del Mérito Genético asumiendo varianzas conocidas

Bajo esta situación, estamos interesados en predecir a desde y, asumiendo que (J2ay (J2eson conocidos.La distribución condicional de interés dado B' = (b' a'), es

f(a, b I (J2e, (J2a, y) = f(13 I (J2e, (J2a, y)

cuya función de densidad posterior conjunta,

f(a, b I (J2e,(J2a,y) ex:f(y I(J2e,b, a) f(l3)

De esta forma, la inferencia sobre a se basa en la distribución marginal, la cual se obtiene integrandola distribución posterior conjunta respecto de b,

f(a I y) ex:Jf(a, b I (J2e, (J2e, (J2a, y) db

Interpretación Bayesiana del BLUP

Los primeros en establecer la relación entre el BLUP y la estimación bayesiana fueron Ronningen en1971 (Citado por Gianola y Fernando, 1986, y Gianola et al. 1986)-)ú)empfle en 1977 (citado porDempf1e,1991).

Si se asume, temporalmente, que los "efectos f~os" presentan distribución normal e independientede los valores aditivos, la densidad a priori de los parámetros de posición tendrá esperanza y varianzaiguales a

E(¡3') = E(b' a') = [mb' O] = m

y

Var(¡3') = V = Var(b' a') = [~~ ]La densidad posterior puede escribirse como,

f(a, b I (J2e, (J2a,y) ex:f(y I (J2e,b, a) f(b) f(a I (J2a)

f(13 I (J2e, (J2a,y) ex:cte. exp {-[ (y - WI3)' Rl (y - WI3) + (13- m)' VI (13- m)] / 2 }

Bajo normalidad, la moda de la distribución posterior conjunta es igual al promedio y a la mediana,por lo cual derivando f(13I(J2e, (J2a,y) respecto de 13 e igualando a cero se obtiene, el promedio, moday mediana de esta distribución,

11

[W'W + Vol] 13 =W'y + Vlm

[

X'R-lX + 8-1 X'R-lZ

][

b

]=

[X'R-l y+ S-l mb

]Z'R-lX Z'R-lZ + G-l a Z'R-ly

Si se asume que el vector de "efectos f~os" presenta una distribución a priori no informativa o plana,es decir que estos efectos pueden varian en el intervalo] - 00, + 00[, siendo cada punto dentro del

!Ij

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 9

rintervalo igualmente probable, S tiende a infinito y Soltiende a cero, lo que conduce a las conocidasecuaciones de los modelos mixtos de Henderson (Dempfle, 1991).

[

X'R-I X X'R-IZ

] [

b

]

-

[

X'R-I Y

]Z' R:-IX Z'R-IZ + G-l a - Z'R-Iy

De esta forma, los estimadores BLUE y predictores BLUP, representan, bajo el supuesto de normali-dad, al promedio condicional de la distribución posterior conjunta de los parámetros de posicióndado los parámetros de dispersión y los datos.

Como discuten Gianola etaL (1986), la metodología BLUP dependen del conocimiento exacto delsegundo momento, lo cual es irreal desde un punto de vista práctico. Nuevamente, una posiblesolución es la utilización de estimaciones de estos parámetros como valores verdaderos, sin embargo,la teoría BLUP no indica como dar cuenta de los errores de estimación al emplear esta estrategia.

t Predicción del Mérito Genético asumiendo "efectos fijos" y varianzas desconocidas

Estamos interesados en predecir a desde y, asumiendo que b, (j2a y (j2e son desconocidos. Ladistribución condicional de interés es, por lo tanto,

f(a, b, (j2e, (j2a I y) Def (13) f( (j2e) f( (j2a) f(y I b, a , (j2e, (j2a)

De esta forma, la distribución marginal de cada parámetro de interés, como por ejemplo los valoresaditivos, se obtiene integrando la distribución posterior conjunta con respecto de los parámetrosdesconocidos restantes.

Para los parámetros de posición,

f(a Iy) Defff f (a, b, (j2e, (j2a I y) dbdcr2edcr2a

f(b Iy) De ffff (a, b (j2e, (j2a I y) thtdcr2edcr2a

Para los parámetros de dispersión

f( (j2e I y) De fff f (a, b, (j2e, (j2a I y) db da dcr2a

f( (j2a I Y De fff f (a, b, (j2e, (j2a I y) db tht dcr2e

Debido a las dificultades numéricas que surgen en el análisis marginal de los Rarámetros desconoci-dos al requerir de la utlización de integrales multidimensionales, se utilizaron aproximaciones quepermitian un tratamiento analítico de la distribución resultante. Gianola yFernando (1986), Gianolaet aL (1994), discuten varias de estas aproximaciones utilizando la moda de las diferentes distribucio-nes posteriores, sin embargo, las condiciones requeridas al utilizar este estimador puntual frecuente-mente no se cumplen en datos de pequeño a moderado tamaño (Wang et al., 1993).

La aparación metodologías de integración numérica como los métodos de Markov Monte Carlohan permitido la solución a este tipo de problemas sin recurrir a aproximaciones analíticas lo que hapermitido la utilización de estos métodos (Wang, 1998).

10 JARA YBARRÍA

Interpretación Bayesiana de Métodos Máximo Yerosímiles...

El primero en establecer la relación entre métodos máximo verosímiles y estimación Bayesiana fueHarville (1974). El mostró que, ML es equivalente a maximizar la distribución posterior conjunta delos efectos f~os y los componentes de varianza, utilizando distribuciones a priori planas e inde-pendientes para estos parámetros, mientras que REML es equivalente a maximizar la densidad de ladistribución posterior conjunta de los componentes de varianza.

f«}"2e,(}"2aI y) = ff f (a, b, (}"2e,(}"2aI y) dadh

donde,

f( a, b, (}"2e, (}"2a I y) ex; f (b) f(a I (}"2a) f( (}"2e) f( (}"2a) f(y I b, a, (}"2e, (}"2a)

Si se asume que f(b), f( (}"2e)y f( (}"2a)ex;constante,

f(a, b, (}"2e, (}"2aI y) ex;f(a I (}"2a) f(y I b, a, (}"2e, (}"2a)

Integrando respecto del vector a,..

f(b, (}"2e (}"2a Iy) = f f (a I (}"2a)f (y I b, a, (}"2e,(}"2a)da

En el contexto de un modelo Gausiano la marginalización con respecto a los valores aditivos, a, essimple de obtener (Sorensen, 1996):

ff(a I (}"2a)f(y I b, a, (}"2e,(}"2a)da = f(y I b, (}"2e,(}"2a)

De tal forma que,

f(b, (}"2e, (}"2a I y) ex; f(y I b, (}"2e, (}"2a)

Bajo el supuesto de normalidad

y I b, (}"2e,(}"2a~ MVN (Xb, Y)

donde Y = ZA'Z' (}"2a+ R.

Integrando respecto de b para obtener la distribución posterior conjunta de los componentes devarianza

f( (}"2e,(}"2aI y) = f f(b, (}"2e, (}"2a I y) dh

f( (}"2e, (}"2a I y) ex; f(y I b, (}"2e, (}"2a)

d

=f(21t)--% I Y I~ exp[-(y-Xb)'Y-I(y-Xb)

]2 db

Si definimos a bO= (X'VIX)-I X'y-Iy, y adicionamos Xbo en la función exponencial

(y -Xb) VI (y -Xb ) = (y-Xb + XbO - XbO) , VI (y - Xb + XbO - XbO)

= (y - X bO)' y-I (y - X bO)+ (b - bO)X' y-IX (b - bO).

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 11

fiSubstituyendo ésta en la la distribución posterior conjunta de los componentes de varianza toma laforma,

f(cr2e,cr2aIy) oc (21t)-YIVI -i exp [ -(y-XbO)'~-I(y-XbO)]

f[--(b-bO)'X'V-IX(b-bO)

]exp 2 db

La integral en la ecuación anterior es igual a

(21t)~IX'V-IX I-i

por lo cual,

f(cr2e, cr2aI y) oc (21t)-i<n-p) IV l-i exp[ -(y-Xb o)'rl (y-XbO) ]

Esta expresión es idéntica a la función de verosimilitud restringida (Thompson, 1962; Patterson yThompson, 1971). De esta forma, los estimadores REML de cr2ey cr2acorresponden al elemento delvector modal de la distribución conjunta de los componentes de varianza, asumiendo una distribu-ción a priori independiente y no informativa para b, cr2ey cr2a.

Note que la densidad marginal posterior,

f( cr2aI y) = fJ f(b, cr2e' cr2aIy) db rkJ2e

puede presentar un máximo que no necesariamente coincide con el elemento del vector modal dela distribución posterior conjunta de los componentes de varianza, situación que se vuelve cada vezmás crítica a medida que aumenta el número de efectos aleatorios en el modelo. Por esto, una mejoraproximación al promedio de f(cr2aIy) puede ser la moda de esta distribución marginal. Este tipo deestimador fue propuesto por Gianolay"Foulley (1990) al que denominaron como VEIL (VarianceEstimation from Integrate Likelihoods). La razón para proponer a la moda de la distribuciónmarginal, aparte de argumentos en torno a la función de pérdidas, fue de tipo práctico debido a quela obtención de la moda requiere sólo de la maximización de la función, mientras que el promediou otro estimador puntual, requiere de integración de la función la cual, debido a la multidimensio-nalidad de la operación, no era factible hasta el desarrollo de las técnicas de Markov Monte CarIo.

Métodos de Markov Monte CarIo

Las cadenas de Markov Monte Carlo (MCMC) son una familia de métodos iterativos basados ensimulación probabilística, que producen una cadena de Markov de la distribución de interés comosu única distribución estacionaria (Sorensen el al., 1994; Sorensen, 1996). Los algoritmos basados enMCMC permiten obtener muestras, posiblemente correlacionadas, de la distribución de interés(función de varosimilitud o densidad posterior) conocida solo proporcionalmente, las que se utilizanpara hacer inferencia sobre el parámetro desconocido (Wang, 1998). En contraste a algoritmos comoel EM (Expected Maximum, Máximo Esperado), los cuales producen el máximo y la curvatura en elmáximo, los métodos MCMC producen la distribución posterior completa o verosimilitud normali-zada (Sorensen el al., 1994). Una clase de algoritmos MCMC es el algoritmo de Metropolis-Hastings(MH), dentro del cual el Gibbs sampler es un caso especial.

12 JARA YBARRÍA

El algoritmo de Metropolis-Hastings.;=

Este método se remonta al menos a 1953. Fue desarrollado por Metropolis et al., quienes lo aplicarona problemas en fisica. Este trabajo fue generalizado posteriormente por Hastings (1970).

Este algoritmo consiste de dos fases, generación y selección. MH genera muestras desde ladistribución de interés, las cuales son aceptadas o rechazadas a través de un mecanismo aleatorio(Chib y Greenberg, 1995; Gelman et al., 1996; Wang, 1998).

Si f(O) es la distribución de interés, on es el valor de Oen la iteración n, On+les el valor en la siguienteiteración, y 0* es un valor posible de O,denominamos a q(on, 0*) como la función de probabilidadde transición tal que q (on, 0*) = Pr [generar 0* Ion]. Después de obtener una muestra 0* desde q (on,0*), se calcula la razón, r,

¡

.

[

f(o*)q(on 0*)

]r=r(On,O*)= mm f(an)q(O<o*),1, sif(on)q(on,O*»O1, si f(on)q(on,O*):s;O

Entonces se establecen las siguientes ingualdades eon+l = 0* con probabilidad r.

On+l = on con probabilidad 1 - r.

En resumen, un ciclo del algoritmo MH consiste de los siguientes pasos:

1. Se obtiene una muestra de 0* desde q (on, 0*)2. Calcular la razón r3. Se obtiene una muestra, u, desde una distribución Uniforme (O, 1)4. Si r :2:u, On+l= 0*; Si r < u, on+l= en

Un ciclo de MH consiste de los pasos 1 - 4 Yproduce una muestra de e. Se debe notar que en el paso2, f(e) necesita ser especificada sólo como una constante multiplicativa lo que representa un granventaja del algoritmo, debido a que las constantes se cancelan en el cálculo de la razón (Gelman etal., 1996; Wang, 1998).

El Gibbs Sampler

Geman y Geman (1984) implementan una variante al algoritmo MH, conocida con el nombre deGibbs sampler, para el estudio de modelos de procesamiento de imágenes. Gelfan y Smith (1990)estudian las propiedades del Gibbs sampler e introduce estos métodos en estadística. Posteriromente,Gelfan et al. (1990), describen diversas aplicaciones de este método, incluyendo la estimación decomponentes de varianza en modelos aleatorios de una vía.

El Gibbs sampler permite obtener muestras desde un grupo de funciones de densidad condicio-nales, f(Oi 9-i), donde Oi es un elemento (o un subvector) de O, tal que O' = (Oi' O'-i). Comomencionamos anteriormente, el Gibbs sampler es un caso especial de MH con f(Oi9-i)como densidadde manejo. La razón r bajo ese grupo de densidades de manejo es siempre 1, es decir, no existeeliminación de muestras.

Si X, Y YZ son variables aleatorias cuya densidad conjunta es f(x, y, z), la cual es determinadaúnicamente por las densidades condicionales f(x Iy, z), f(y Ix, z) Yf(z Ix, y). El Gibbs sampler generarealizaciones desde f(x, y, z) a través de repetidos muestreos desde las distribuciones condicionales(Casella y George, 1992). Un ciclo del algoritmo consiste de los siguientes pasos:

o

1. Genera Xi+ldesde f(x IYi,Zi)2. Genera Yi+ldesde f(y I Xi+l,Zi)3. Genera zi+l desde f(z I Xi+l,Yi+l)

-

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 13

,...II

El Gibbs Sampling en Mejoramiento Genético

En mejoramiento genético, los primeros en aplicar el Gibbs sampler fueron Guo y Thompson (1991,1992, citados por Sorensen et al., 1994b). Ellos lo utilizan en conjunto con el algoritmo EM (ExpectedMaximum, Máximo Esperado) para obtener estimaciones de máxima verosimilitud de varianzas enmodelos lineales, y en análisis combinados de segregación y ligamiento.

Posteriormente, Wang et al. (1993, 1994a), utilizan el Gibbs sampler en estudios sobre inferenciabayesiana en modelos lineales mixtos univariados. Sorensen et al. (1994a) lo implementan en unmétodo para realizar inferencia bayesiana sobre respuesta a la selección, lo cual fue aplicado porWang et al. (1994b) en el análisis de un experimento de selección para tamaño de camada en cerdos.Jensen et al. (1994), utilizan el Gibbs sampler en un estudio sobre componentes de (co )varianza enmodelos con efectos maternos. Varona et al. (1994, citado por Wang, 1998) y Van Tassell y Van Velck(1995; 1996) implementan el algoritmo para modelos lineales mixtos multivariados. Jamrozik ySchaeffer (1997) lo implementan en modelos con regresiones aleatorias.

Sorensen et al. (1995), muestran como éste puede ser usado en modelos univariados paracaracterísticas umbrales, yJensen (1994) y Wang et al. (1997), lo utilizan para analizar característicascontinuas en conjunto con características binarias.

Janss et al. (1995) lo han implementado para análisis de segregación. Thaller y Hoeschele (1996a, 1996b),lo han utilizado para análisis de ligamiento. Korsgaard (1996) lo utiliza en modelos de sobrevivencia.

e

Implementación del Gibbs sampler a Modelos Lineales Mixtos Univariados

Wang et al. (1993) implementan el Gibbs sampling para modelos lineales mixtos univariados. Ellosutilizan registros simulados para construir las densidades marginales de componentes de varianza,relaciones entre ellas y correlaciones intraclase. Esta primera implementación fue en forma matricial,lo cual dificultaba la aplicación del método a datos utilizados normalmente en mejoramientogenético debido a que era necesario invertir matrices de gran tamaño en cada muestreo. Posteriore-mente, Wang et al. (1994) implementan el método en forma de escalar, eliminando el problema deinversión matricial, y lo aplican registros de tamaño de camada en cerdos.

Distribuciones a priori

Una parte integral de los análisis bayesianos es la asignación de distribuciones a priori a todos losparámetros desconocidos en el modelo. Usualmente se asigna una distribución a priori plana onormal con varianza infinita al vector de "efectos fijos", b, la cual representa falta de conocimientoprevio sobre este vector:

f(b) <X constante

Para los valores aditivos, se asume distribución normal e independiente de los "efectos fijos",

a -MVN (O,Acr2a)

La forma más general para la utilización de distribuciones a priori para los componentes de varianza,corresponde a la distribución Gamma Invertida, IG(ex, y), sobre el intervalo [0,00]. La distribuciónde chi cuadrado invertida, X-2, es un caso especial de IG, con ex= 0,5v y Y= 0,5. Para las varianzas delos efectos aleatorios en el modelo, valores aditivos y efectos residuales, se asumirá una distribuciónde chi cuadrado invertida independiente. De esta forma,~

f( cr2eI ve, S2e) <X(cr2efV%-¡exp( -i veS2e/cr2a)y

f( cr2eI ve, S2e) <X(cr2afV%-¡exp( -i VaS2a/a2a)

donde, Vey Vason los parámetros de forma, y S2ey S2a son los respectivos parámetros de escala...

14 JARA YBARRÍA

Función de densidad posterior conjunta~

I

Como muestran, por ejemplo, Gianola et aL (1990) y Wang et aL (1994), la distribución posteriorconjunta presenta una forma normal-gama:

fea, b, a2e, a2a Iy) oc f (b) fea I a2a) f(a2e) f(a2a) f(y I b, a, a2e, a2a)

La cual puede ser escrita como,

f(b, a, a2e, a2a I y) oc (a2e) {n~VellJexp[

(Y-Xb-Za)'(Y-Xb-Za)+veS~

]2a2e

(a2a)t~vallJexp[

- a'A-la+vaS2a

]2a2a t

Note que la distribución posterior conjunta en un modelo que asume distribuciones a priori planaspara los componentes de varianza se puede obtener remplazando V¡= -2 YS2¡= O, en la ecuaciónanterior.

Densidades posteriores condicionales (Gibbs sampler)

Las distribuciones condicionales de todos los parámetros desconocidos son necesarias para imple-mentar el Gibbs sampler. Las densidades condicionales de cada parámetros pueden ser obtenidasdesde la distribución posterior conjunta tratando todos los otros parámetros como conocidos (Wanget aL, 1994).

Como muestran Wang etaL (1994), las distribuciones condicionales de los parámetros de posición,en forma escalar, son

b¡ I b_i,a, a2e, a2a, y -N(Íj¡, C¡ a2e) [3]

para los "efectos f~os", y

u¡ I b, a-i,a2e, a2a, y -N(~¡, C¡a2e) [4]

para los efectos aleatorios. Donde, C¡ es el i-ésimo elemento de la inversa de la matriz de coeficientesy, Íj¡y ~¡,son las soluciones para los efectos "f~os" y aleatorios, respectivamente. .

Para la varianza aditiva,

f(a2alb,a,a2e,Y) oc (a2a)-(q~VallJexp[

- a'Ala+vaS2a

]2a2a

~2 I b ~2 - - S2 X-2Va' a, v e' Y Vu a Va

~

I

. I

la cual es proprocional a una distribución de chi-cuadrado invertida, con q + Vagrados de libertad yparámetro de escala a'A-la + VaS2a.De esta manera,

[5]

donde, Va= q+va' y S2a= a'A-l a + VaS2a."

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 15

fDe la misma forma, la varianza de los efectos residuales será,

f(cr2e I b, a, cr2a,y) oc (cr2e)in ~ve11)exp[- (y-Xb-Za)'(y-Xb-Za) + VeS2e

]2cr2a

la cual es proprocional a una distribución de chi-cuadrado invertida, con n + Vegrados de libertad yparámetro de escala (y -Xb -Za)' (y -Xb - Za) + VeS2e. De esta manera,

cr2eIb, a, cr2a,y - Ve S2e X-2Ve [6]

donde, Ve= n + Ve,y S2e = (y -Xb - Za) , (y -Xb - Za) + VeS2e.

La implementación del Gibbs sampler consiste en repetir sucesivamente [3], [4], [5] Y [6].La implementación del Gibbs sampler en la presente revisión ha sido considerada sólo para

modelos que consideran componentes de varianza independientes y modelos univariados. En el casode matrices de (co)varianzas la distribución a priori comúnmente empleada es la inversa de Wishart(IW), la que es una distribución a priori conjugativa p~ra matrices de covarianzas de variables condistribución normal multivariada (Gelman et al., 1996). Esta ha sido utilizada en modelos con efectosmaternos porJensen et aL (1994), por Varona etal. (1994, citado por Wang, 1998) yVan Tassell yVanVelck (1995; 1996) para modelos lineales mixtos multivariados y por Jamrozik y Schaeffer (1997) amodelos con regresiones aleatorias.

Convergencia

Los métodos de Markov Monte CarIo son una herramienta poderosa para la realización de análisisbayesianos. La inferencia se debe realizar a partir de la distribución correcta, la cual se presenta sóloen el límite, es decir, después de un número infinito de muestreos, siendo su principal debilidad ladificultad para determinar la convergencia a la distribución estacionaria (Sorensen et al., 1994).

Condiciones para alcanzar convergencia

Existen dos condiciones necesarias para asegurar convergencia (Hoeschele, 1997):. Irreductibilidad de la cadena:Desde cualquier punto de partida la cadena puede alcanzar cualquiergrupo no vacío con probabilidad positiva en un número finito de muestreos.

. Aperiodicidad de la cadena: Significa que la cadena no oscile entre diferentes grupos de estados enun movimiento regular y periódico.

Métodos para el Diagnóstico de Convergencia

Cowles y CarIin (1996) realizaron una revisión comparativa de las distintas técnicas disponiblespara diagnosticar convergencia, concluyendo que ninguna de ellas es exacta en su diagnóstico,por lo cual deben utilizarse con precaución.

En términos prácticos, el primer problema de convergencia surge debido a que el muestreousualmente comienza fuera de la distribución posterior conjunta, de tal forma que es necesario unnúmero de muestreos necesarios para obtener muestras independientes de los valores iniciales ycorrespondientes a la distribución posterior conjunta. Este período es denominado como "burn-in"(Wang, 1998). Raftery y Lewis (1992) proponen un método basado en la estimación de cuantilesposteriores para la determinación del largo del período "burn-in" ydel espaciamiento necesario entremuestreos, "thinning", para obtener muestras no correlacionadas. Otro método consiste en lautilización de varias cadenas con diferentes valores iniciales a partir de las cuales se realiza un análisisde varianza con el objeto de probar la existencia o no de diferencias entre cadenas Uanss, 1998.Comunicación personal).

.

16 JARA YBARRÍA

Estimación de Densidad e Inferencia Bayesiana utilizando Métodos de Markov Monte Carl01'-

Suponga que Xi (i=l, 2, , m) es una realización del Gibbs sampler de la variable x. Las m muestrasdependientes pueden ser utilizadas para calcular formas de la distribución posterior F(x) utilizandointegración de Monte Carlo.Como muestra Geyer (1992), una integral

u =Jg(x)dF(x)

puede ser aproximada por,ID

Ú =~L g(Xi)i=l

donde g(x) puede ser cualquier forma de F(x), tal como su promedio o varianza. A medida que IDtiende a infinito, ú converge casi con seguridad a u (Geyer, 1992).

De acuerdo con Gelfand y Smith (1990), otra forma de cálcular formas de F(x) es primeroestimando la densidad f(x) y obteniendo los parámetros desde las densidades estimadas utilizandoprocedimientos numéricos unidimensionales. Si Yi(i= 1, 2, , m) son muestras de otro componente,dentro de los parámetros desconocidos del modelo, un estimador de f(x) se puede obtener a travésdel promedio de las m densidades condicionales f(x I Yi):

o

ID

1t(x) = mI. f(x IYi)

i=\

Este estimador no utiliza las muestras de la variable x, sin embargo, utiliza muestras de la variable y através de la función de densidad condicional f(x Iy) (Wang et al., 1993). Este procedimiento, aunquedesarrollado primariamente para muestras idénticas e independientemente distribuidas (iid), puedeser utilizado par~muestras dependientes como muestran Liu et al. (1991) y Diebolt y Robert {1993,citados por Wang et al., 1993).

Otro procedimiento utilizado para la estimación de densidades, tal como f(x), es la utilización deestimadores Kernel (Silverman, 1986). Este tipo de estimador utiliza solamente muestras de lavariable de interés. Un estimador Kernel se define como (Silverman, 1986):

ID

t(z) =~hL K[(z- x¡)/h]i=\

donde t(z), es la densidad estimada en el punto z, h es una constante f~a la cual determina la alturade la curva estimada y K(.) es una función Kernel. Si se elige a una densidad normal como funciónKernel, esta útlima ecuación toma la forma (Silverman, 1986):

m

[ )

21 1 1 z-x.

t(x) = mhL ~n exp[2 T ]1=\

.

Yu (1991), muestra que a pesar de que los estimadores Kernel fueron desarrollados para muestras iid,pueden ser utilizados para muestras correlacionadas.

En la estimación de componentes de (co)varianza en modelos multivariados, la distribucióncondicional de todos los parámetros no puede ser escrita en forma exacta por lo cual es necesariorecurrir a otros procedimientos. Por ejemplo, la distribución marginal de elementos individuales de

.ti¡

-

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL 17

..una distribución de Vishart invertida no puede ser escrita en forma exacta cuando existe más de uncomponente de varianza por lo cual los métodos paramétricos anteriormente descritos no puedenser utilizados (Van Tassell y Van Vleck, 1995). Una alternativa simple es generar histogramasutilizando las muestras generadas del parámetro de interés. Otro método no paramétrico mássofisticados que la generación de histogramas para la estimación de densidades corresponde al de losalgoritmo s ASH (Average Shifted Histogram) (Scott, 1992). Este método utiliza algoritmos flexiblesde ponderación para promediar la altura de las celdas vecinas en el histograma con el objeto dederterminar la altura de la densidad estimada (Van Tassell y Van Vleck, 1995).

Por otra parte, la estimación de densidades de funciones de los parémetros de interés se realizaaplicando la teoría de las transformaciones de las variables aleatorias a las densidades estimadas. Wang etal. (1993; 1994a) dan ejemplos para la estimación de densidades de relaciones entre varianzas ycorrelaciones intraclase.

A Prioris Impropias y Distribuciones Posteriores

~

Las distribuciones posteriores correspondientes a los modelos lineales mixtos no son usualmentedisponibles en forma exacta, aun cuando a prioris conjugadas son utilizadas. Los hiperparámetros enestos modelos, tanto por conveniencia como debido a la falta de información a priori, son frecuen-temente modelados con a prioris impropias (Hobert y Cassella, 1996)

Desarfortunadamente, la misma intratabilidad matemática que hace requerible de la utilizacióntécnicas de muestreo como el Gibbs sampler, hace dificil la demostración de las propiedades de ladistribución posterior (Hobert y Cassella, 1996).

Distribuciones posteriores impropias pueden resultar al utilizar a prioris impropias o desdeestructuras deficientes de datos. En modelos Gausianos Lineales, Hobert y Cassella (1996) muestranque cualquier distribución a priori con la forma f(cr2¡)= (cr2¡)-(ai+l)con a¡ < O lleva a distribucionesposteriores propias, por lo cual la distribución a priori 1/cr2i, frecuentemente utilizada para loscomponentes de varianza, siempre lleva a posteriores impropias.

Otra distribución a priori impropia para los componentes de varianza son las distribuciones planaso normales con varianza infinita. Este tipo de distribuciones a priori puede causar posterioresimpropias dependiendo de la estructura de los datos (Hobert y Cassella, 1996).

Sahu y Gelfand (1994, citados por Wang, 1998) muestran que el Gibbs sampler puede o noconverger a la distribución estacionaria cuando las soluciones a las ecuaciones de los modelosmixtos no son únicas. Debido a las dificultades en el monitoreo de la cadena, se recomiendareparametrizar el modelo de tal forma que la matriz de incidencia para los "efectos fijos" sea derango completo (Wang, 1998).

18 JARA YBARRÍA

REFERENCIAS

BULMER,M.G. 1980. The mathematical theory ofquantitative genetics. Clarendon Press, Oxford.

CASELLA,G and EJ. GEORGE.1992. Explaining theGibbs sampler. The American Statistician 46:167.

CHIB, S. and E. GREENBERG.1995. Understanding theMetropolis-Hastings algorithm. The American Sta-tistician 49:327.

DEMPFLE,L. 1991. Estimation of breeding values. In:W.G. Hill and T.F.C. Mackay (Ed.). Evolution andanimal breeding. A review on molecular andquantitative approaches in honour of Alan Ro-bertson. pp. 181-188. CAB. International, Wa-llingford, UK.

FERNANDO,RL. and D. GIANOLA.1984. Optimal pro-pierties of the conditional mean as a selectioncriterion.j Anim. Sci. 59 (Suppl.): 177.

FERNANDO,RL. and D. GIANOLA.1986. Optimal pro-pierties of the conditional mean as a selectioncriterion. Theor. Appl. Genet. 78: 822.

FERNANDO,RL. and D. GIANOLA.1990. Statistical infe-

rences in populations undergoing selection ornon-random mating. In: D. Gianola and K. Ham-mond (Ed.) Advances in statistical methods forgenetic improvement of livestock. pp. 437-453.Springer-Verlag, New York.

GELFAN,A.E. and A.F.M SMITH.1990. Sampling-basedapproaches to calculating marginal densities. jAmer. Statist. Assoc. 85: 398.

GELFAN,A.E., S.E. HILLS,A. Racine-Poon and A.F.M.

Smith. 1990. Illustration of bayesian inference innormal data models using Gibbs sampling. jAmer. Statist. Assoc. 85: 972.

GELMAN,A., J,B. CARLIN,H.S. STERNand D.B. RUBIN.1996. Bayesian data analysis. Chapman & Hall,New York.

GEMAN,S. and D. GEMAN.1984. Stochastic relaxation,Gibbs distribution and the bayesian restoration ofimages. IEEE Transactions on Pattern Analysis andMachine Intelligence 6: 721.

GEYER,CJ. 1992. Practical markov.chain monte carlo.Stat. Sci. 7: 467.

GIANOLA,D. 1982. Theory and analysis of thresholdcharacters.j Anim. Sci. 54: 1079.

GIANOLA,D. andJ,L. FOULLEY.1982. Non-linearpredic-tion of latent genetic liability with binary expres-sion: An empirical Bayes approach. Proc. 2nd.World Congr. Genet. Appl. Livest. Prod. 7: 293.

GIANOLA,D. and B. GOFFINET.1982. Sire evaluation

with best linear unbiased predictors. Biometrics 38:1085.

GIANOLA,D. andJ,L. FOULLEY.1983. Sire evaluation forordered categorical data with a threshold model.Genet. Sel. Evol. 15: 201

GIANOLA,D. and RL. FERNANDO.1986. Bayesian met-hods in animal breeding theory. j Anim. Sci. 63:217.

GIANOLA,D., J,L. FouLLEyand RL. FERNANDO.1986.Prediction of breeding values when variances are

not know. Proc. 3rd. World Congr. Genet. Appl. Li-vest. Prod. 12: 356.

GIANOLA,D., RL. FERNANDO,S. 1M and J,L. FOULLEY.1989. Likelihood estimation of quantitative gene-tic parameters when selection occurs: models andproblems. Genome 31: 768.

GIANOLA,D. andJ,L. FOULLEY.1990. Variance estima-tion from integrate likelihoods. Genet. Sel. Evol. 22:403.

HARVILLE,DA. 1974. Bayesian inference for variancecomponents using only error contrasto Biometrika61: 383.

HASTINGS,W.K. 1970. Monte carlo sampling methodsusing Markov chains and their applications. Bio-metrika 57: 97.

HENDERSON,C.R 1963. Selection index and expectedgenetic advance. NAS-NRC. 982.

HENDERSON,C.R 1973. Sire evaluation and genetictrends. In: Proceedings of the animal breedingand genetics symposium in honor ofDr.J,L. Lush.ASAS and ADSA, Champaign, III. pp. 10-41.

HENDERSON,C.R 1975. Best linear unbiased estima-

tion and prediction under a selection model. Bio-metrics 31: 423.

HENDERSON,C.R 1984. Applications oflinear modelsin animal breeding. University of Guelph,Guelph, Canada.

HENDERSON,C.R 1988. Theoretical basis and compu-tational methods for a number of different animal

models. In: G.H. Schmidt (Ed.) Proceedings ofthe animal model workshop. pp. 1-16. ADSA,Champaign, IL.

HOBERT,J,P. and G. CASSELLA.1996. The effect ofimproper priors on gibbs sampling in hierachicallinear models.J, Am. Stat. Assoc. 91: 1461.

HOESCHELE,I. 1997. STAT 5554 Variance compo-nents. Class notes, Virginia Polytechnic 1nstitute,Blacksburg.

1M, S., R.L. FERNANDOand D. GIANOLA.1989. Likeli-

hood inferences in animal breeding under selec-tion: a missing data theory view point. Genet. Sel.Evol. 21: 399.

jAMROSIK,J, and L.R SCHAEFFER.1997. Estimates ofgenetic parameters for a test day model with ran-dom regressions for yield traits of first lactationHolsteins. J, Dairy Sci. 80: 762.

jENsEN,J, 1994. Bayesian analysis of bivariate mixedmodels with one continous and one binary traitusing the gibbs sampler. Proc. 5th. World Congr.Genet. Appl. Livest. Prod. 18: 333.

jENSEN,J" C.S. WANG, D. SORENSENand D. GIANOLA.1994. Bayesian inference on variance and cova-riance components for traits influenced by mater-nal and direct genetic effects, using the gibbssampler. Acta Agric. Scand. 44: 193

LIU,J, W. WONGand A. KONG.1991. Correlation struc-ture and convergence rate of the gibbs sampler.

lI

MÉTODOS BAYESIANOS EN MEJORAMIENTO GENÉTICO ANIMAL

Technical report 304. Dept. of Statistics, Univer-sity of Chicago.

METROPOLlS,N., A.W. ROSENBLUTH,M.N. ROSENBLUTH,A.H. TELLERand E. TELLER.1953. Equation of statecalculations by fast computing machines. Joumal01 Chemical Physic 21: 1087.

PATTERSON,H.D. and R. THOMPSON.1971. Recovery ofin ter-block information when block sizes are une-

qual. Biometrika 58: 545.RAFrERY,A.E. and S.M. LEWIS.1992. How many itera-

tions in the gibbs sampler? In: Bernardo, ].M.,].0. Berger, A.P. Dawid and A.F.M. Smith (ed).Bayesian statistics, Vol. 4. p. 763. Oxford Univer-sity Press, Oxford, U.K.

ROBERTSON,A. 1955. Prediction equations in quantita-tive genetics. Biometrics 11: 95.

ROTHSCHILD,M.F., C.R. HENDERSONand R.L. QUAAS.1979. Effects of selection on variances and cova-

riances of simulated first and second lactations.]Dairy Sci. 62: 996.

SCOTT,D.W. 1992. Multivariate density estimation:Theory, practice, and visualisation. ]ohn Wiley &Sons, New York.

SILVERMAN,B.W. 1986. Density estimation for statisticsnad data analysis. Chapman and Hall, Londonand New York.

SORENSEN,D.A. 1996. Gibbs sampling in quantitativegenetics. National Institute af Animal Science.Internal re port. No. 82. Tjele, Denmark.

SORENSEN,D.A., C.S. WANG,]. ]ENSENand D. GIANOLA.1994a. Bayesian analysis of genetic change due toselection using Gibbs sampling. Genet. Se!. Evol.26: 333.

SORENSEN,DA., S. ANDERSEN,].]ENSEN,C.S. WANGandD. GIANOLA.1994b. Inference about genetic para-meters using the gibbs sampler. Proc. 5th. WorldCongr. Genet. Appl. Livest. Prod. 18: 321.

SORENSEN,D.A., S. ANDERSEN,D. GIANOLAand 1. KORS-GAARD.1995. Bayesian inference in threshold mo-deIs using gibbs sampling. Genet. Set. Evol. 27: 229.

STIGLER,S.M. 1986. The history of statistics. The me-surement of uncertainty before 1900. HarvardUniversity Press.

THALLER,G. and 1. HOESCHELE.1996a. A monte carlomethod for bayesian analysis of linkage between

.

.

la

19

single markers and quantitative trait loci: 1. Met-hodology. Theor. Appl. Genet. 93: 1161.

THALLER,G. and 1. HOESCHELE.1996b. A monte carlo

method for bayesian analysis of linkage betweensingle markers and quantitative trait loci: n. Asimulation study. Theor. Appl. Genet. 93: 1167.

THOMPSON,W.A. 1962. The problem of negative esti-mates of variance components. Ann. Math. Stat.26: 721.

VAN TASSELL,C.P. and L.D. VANVLECK. 1995. A manual

fo use of MTGSAM. A set of program to applygibbs sampling to animal models for variancecomponent estimation. (Draft). U.S. Departmentof Agriculture, Agriculture Research Service.

VANTASSELL,C.P., G. CASSELLAand E. POLLAK.1995.Effects of selection on estimates of variance com-

ponents using gibbs sampling and restricted ma-ximum likelihood.] Dairy Sci. 78: 678.

VANTASSELL,C.P. and L.D. VANVLECK.1996. Multiple-traits gibbs for animal models: flexible programsfor bayesian and likelihood-based (co )variancecomponent inference.] Anim. Sci. 74:2586.

WANG,C.S. 1998. Implementation issues in bayesiananalysis in animal breeding. Proc. 6th. World Congr.Genet. Appl. Livest. Prod. 25: 481.

WANG,C.S.,]J. RUTLEDGEand D. GIANOLA.1993. Mar-ginal inferences about variance components in amixed linear model using Gibbs sampling. Genet.Sel. Evol. 25: 41.

WANG,C.S.,]J. RUTLEDGEand D. GIANOLA.1994a. Baye-sian analysis of mixed linear models via Gibbssampling with an application to litter size in Ibe-rian pigs. Genet. Sel. Evol. 26: 91.

WANG,C.S., D. GIANOLA,D. SORENSEN,].]ENSEN,A. CHRIS-TENSENand]J. RUTLEDGE.1994b. Response to selec-tion for litter size in Danish Landrace pigs: aBayesian analysis. Theor. App!. Genet. 88: 220.

WANG,C.S., R.L. QUAASand EJ. POLLAK.1997. Baye-sian analysis of calving ease scores and birthweights. Genet. Se!. Evol. 29: 117.

Yv,B. 1991. Density estimation in the L~ norm fordependent data with applications to the gibbssampler. Technical report 882, Dept. of statistics,University ofWisconsin.