doc bayesiana hipotesis

32
UNIVERSIDAD NACIONAL DE INGENIERIA FIECS EPIES 2010 II Quispe Ortiz Luisa E. 20074529J Jiménez Palomino Grace 20071356G La inferencia estadística, es una de las más usadas herramientas, y como parte de esta se estudiara el contraste de hipótesis. En el trabajo, se presenta la prueba respectiva desde la perspectiva bayesiana. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA

Upload: luisa-quispe-ortiz

Post on 04-Jul-2015

366 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Doc Bayesiana Hipotesis

U N I V E R S I D A D N A C I O N A L D E

I N G E N I E R I A

F I E C S

E P I E S

2 0 1 0 I I

Quispe Ortiz Luisa E. 20074529J

Jiménez Palomino Grace 20071356G

La inferencia estadística, es una de las más usadas herramientas,

y como parte de esta se estudiara el contraste de hipótesis. En

el trabajo, se presenta la prueba respectiva desde la perspectiva

bayesiana.

PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA

Page 2: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

2 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Page 3: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

3 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

INTRODUCCION

En el presente trabajo, presentaremos la definición, metodología y desarrollo del

contraste de hipótesis para una media desde un enfoque bayesiano. Previamente, a modo

de comparación, presentaremos en la primera sección un breve resumen del contraste de

hipótesis desde un enfoque frecuentista. Además, se hará una explicación del uso de la

función de pérdida (consideraremos en el presente documento, para efectos prácticos, las

funciones de pérdida cuadrática y de pérdida absoluta).

Luego, en la segunda sección se explicará el desarrollo de una prueba de hipótesis

bayesiana general, tratando en este punto la definición de los ratios de probabilidades a

priori y a posteriori, el factor de Bayes y cómo proceder ante una prueba unilateral y

bilateral.

En la tercera sección, presentaremos la prueba de hipótesis bayesiana para una

media en el caso binomial considerando un contraste de tipo unilateral y bilateral. Luego,

en la cuarta sección, se detallará la prueba de hipótesis bayesiana para una media, esta

vez en el caso normal. En este caso, debemos considerar si la varianza es conocida o no.

De manera similar, en esta sección separaremos los casos de contrastes unilateral y

bilateral.

En la quinta sección, a modo de comparación, se presentarán las similitudes y

diferencias del contraste de pruebas de hipótesis desde los enfoques mencionados líneas

arriba: enfoque bayesiano y frecuentista. En la sexta sección, se detallarán las

conclusiones a las cuales hemos llegado, luego de una extensiva revisión de bibliografías

del presente tema.

Para finalizar, en la sétima y última sección enumeraremos cada uno de los libros y

sus respectivos autores que hemos considerado los más pertinentes y coherentes para la

exposición del presente tema.

Page 4: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

4 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

INDICE

1. DEFINICIONES PREVIAS ........................................................................................................................ 6

1.1. ESTADÍSTICA PARAMÉTRICA FRECUENTISTA ................................................................................................ 6

1.1.1. Teorema: Test Optimo ............................................................................................................. 7

1.1.2. Lema de Neyman- Pearson ...................................................................................................... 8

1.2. FUNCIÓN DE PERDIDA ........................................................................................................................... 10

1.2.1. Función de perdida Cuadrática ( o error cuadrático) ............................................................ 10

1.2.2. Función de pérdida absoluta ................................................................................................. 10

2. PRUEBA DE HIPOTESIS BAYESIANA GENERAL .................................................................................... 12

2.1. HIPÓTESIS GENERAL ............................................................................................................................. 12

2.1.1. Definición Ratio de probabilidades a priori y posteriori ..................................................... 12

2.1.2. Factor de Bayes ...................................................................................................................... 13

2.2. REGLA PRACTICA PARA PRUEBA DE UNA COLA .......................................................................................... 14

2.3. ¿QUÉ HACER CUANDO SE TIENE PRUEBAS DE DOS COLAS? ........................................................................... 15

2.4. HIPÓTESIS ALTERNATIVAS CONJUNTAS O SIMULTANEAS .............................................................................. 17

3. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA: CASO BINOMIAL ........................................... 19

3.1. PRUEBA DE HIPÓTESIS DE UNA COLA ....................................................................................................... 19

3.2. PRUEBA DE HIPÓTESIS DE DOS COLAS ...................................................................................................... 20

4. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA : CASO NORMAL ............................................ 20

4.1. NORMAL CON VARIANZA CONOCIDA ....................................................................................................... 20

4.1.1. Prueba de Hipótesis Bayesiana Bilateral para la media ................................................... 20

4.1.2. Prueba de Hipótesis de una cola o unilateral ....................................................................... 21

4.2. NORMAL CON VARIANZA DESCONOCIDA ............................................................................................. 27

4.2.1. Regla ...................................................................................................................................... 28

5. SIMILITUDES Y DIFERENCIAS .............................................................................................................. 30

5.1. SIMILITUDES ....................................................................................................................................... 30

5.2. DIFERENCIAS ....................................................................................................................................... 30

6. CONCLUSIONES ................................................................................................................................. 31

7. BIBLIOGRAFIA .................................................................................................................................... 32

Page 5: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

5 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PARTE I:

DEFINICIONES PREVIAS

Page 6: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

6 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PRUEBA DE HIPOTESIS BAYESIANA PARA LA MEDIA

1. DEFINICIONES PREVIAS

1.1. Estadística paramétrica frecuentista

Sabemos que la estadística bayesiana, trabaja considerando una información previa ,

contrastada con la estadística clásica o frecuentista donde las decisiones se toman

considerando meramente la información muestral tomada.

Así pues, consideramos necesario recordar un poco de la inferencia estadística clásica,

específicamente de la prueba de hipótesis clásica, con el fin de poder realizar

comparaciones posteriormente, así como de usar algo de la teoría frecuentista en el

desarrollo explicativo a darse en el contraste de hipótesis bayesiano.

Sabemos que la prueba de hipótesis clásica viene del trabajo pionero de Neyman y

Pearson hacia el año 1928.

Supongamos que queremos decidir que hipótesis aceptar, entonces tomaremos una

muestra aleatoria de tamaño n , tal que son tomados de una población

cuyo parámetro desconocido es .

En el caso que consideramos, el espacio parametral ( se divide en dos , según las

hipótesis a contrastar. Asi, considerando las siguientes hipótesis y sus respectivos espacios

relacionados, se tendría matemáticamente:

El problema radica en determinar en qué región se halla , considerando las regiones

y disjuntas.

Definimos además, el poder de prueba como como la probabilidad de rechazar la

hipótesis nula siendo esta falsa. Sea aparte, C la región critica, es decir la región donde se

rechaza la hipótesis nula. Esto es:

Y veremos que el nivel de significancia de la prueba a realizar esta dado por la expresión

matemática:

Page 7: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

7 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Donde se nota claramente que con el objeto de minimizar el nivel de significancia se

utiliza por practicidad la igualdad.

Si denotamos al test por el operador, , pueden cometerse dos clases de errores: el error

tipo I conocido por el operador , asi como el error tipo II identificado con .

El error tipo I, se comete cuando se rechaza la hipótesis nula, a pesar de que esta es

cierta. Similarmente el error tipo II se comete cuando se acepta la hipótesis nula, dado que

esta es falsa. Esto implica a su vez una relación con el poder de prueba, es decir:

.

Definidos estos conceptos pasaremos a la teoría en si misma de la estadística clásica.

Como vemos, es ideal minimizar los dos tipos de errores simultáneamente, pero en la

práctica esto es muy difícil de realizar. Se ve, entonces, como alternativa minimizar

combinaciones lineales de y .

1.1.1. Teorema: Test Optimo

Sea una muestra aleatoria de , con las hipótesis ya

planteadas. Sea también la prueba de contra , tal que es aceptada si

, y rechazada si es menor a 1 (En caso de igualdad no se puede tomar

decisión). Donde . Luego, cualquier otro test cumplirá:

Donde y son las probabilidades de cometer error tipo I y tipo II en la

prueba , respectivamente, para cualquier valor de .

Prueba

Como se dijo anteriormente, sea C la región de rechazo o critica, de cualquier test

arbitrario , y .

Page 8: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

8 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Minimizar la combinación lineal planteada, equivale a que se escojan puntos tal que

. Esto quiere decir que la minimización de la combinación lineal, se

lograra si la región critica C, tiene solo puntos que cumplan la ya mencionada

relación.

El ratio

, es llamado ratio de verosimilitud, y será usado para ver el rechazo o no de las

hipótesis planteadas, específicamente de la nula. Como se nota, es usual que el nivel de

significancia sea el que más se minimiza, por ello es que se usa este valor en los contrastes,

pero se busca minimizar también el error II, esto se plasma en el lema siguiente.

1.1.2. Lema de Neyman- Pearson

Sea una muestra aleatoria de , con las hipótesis ya

planteadas. Sea también la prueba de contra , tal que es no rechazada

si

, y rechazada si es menor a 1 (En caso de igualdad no se puede tomar

decisión). Donde , luego cualquier otro test tal que

También, , la primera desigualdad

implica la segunda.

Prueba

Siguiendo la definición del Test optimo,

Si , entonces necesariamente se cumplirá que .

Similarmente en la otra afirmación.

Vemos que se toma en consideración solo el no rechazo o rechazo de la hipótesis nula.

Asimismo, se nota que la maximización del poder de prueba implica la minimización del

error II, por lo que se prueba mediante el lema, que un test dado un nivel de significancia

basado en el ratio de verosimilitud , tiene un buen poder de prueba.

EJEMPLO DE APLICACIÓN

En la distribución con varianza conocida, considere la hipótesis

contra la hipótesis con , aplicando el enfoque frecuentista

SOLUCION

Planteando el ratio de verosimilitudes:

Page 9: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

9 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Sabemos que el test Optimo conjuntamente con el lema, no rechazan la hipótesis nula si el

ratio es mayor a un valor determinado k. Vemos:

Considerando la restricción dada inicialmente, así, uno espera no rechazar la hipótesis nula

para valores pequeños de la media muestral. Ahora determinemos el valor de la constante

.

Este test, prueba la regla practica ya conocida por nosotros en el caso de prueba de

hipótesis, pues dice que sin importar el valor que tome , se rechazara la hipótesis nula si

su media es menor al valor a hallado.

Hay que tener en cuenta, sin embargo, que este test ha sido realizado con dos pruebas de

hipótesis no complementarias, por lo que si bien la regla general frecuentista conocida es

similar a la hallada, no implica necesariamente lo mismo (ver la hipótesis alterna). Así que

será importante también hallar el valor de potencia de prueba, con el fin de ver relación

con el segundo valor contrastado.

Este procedimiento, no se realizara, pues no es del tema en sí.

Page 10: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

10 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

1.2. Función de perdida

Un tema ya anteriormente explicado, y necesario para la explicación de la prueba de

hipótesis bayesiana consiste en la definición y uso de estimadores puntuales bayesianos,

principalmente dentro de ellos a la función de perdida.

Así, vemos que la función de perdida se usa para calcular la calidad de los estimadores a

encontrarse mediante el enfoque bayesiano , donde el “parámetro” a estimar es ,

y el estimador es . El “mejor” estimador , es escojido tal que se minimiza el

esperado de la función de pérdida , respecto a la distribución a posteriori

,

Se encuentran principalmente dos funciones de perdida:

1.2.1. Función de perdida Cuadrática ( o error cuadrático)

Es de la forma , en el caso:

Derivando respecto a , e igualando a 0. Se tendrá que la función de pérdida

cuadrática será minima cuando se use como estimador a la media a posteriori.

1.2.2. Función de pérdida absoluta

Similar al anterior, es de la forma , en el caso:

Acá se nota que, el estimador que minimiza la función de pérdida absoluta es la

mediana.

Se notan que dependiendo de la función de perdida escogida, se tendrá una estimación del

parámetro en estudio.

Page 11: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

11 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PARTE II:

PRUEBA DE HIPOTESIS

GENERAL

Page 12: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

12 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

2. PRUEBA DE HIPOTESIS BAYESIANA GENERAL

Si bien las reglas prácticas en la prueba de hipótesis son directas y fáciles de aprender, el

proceso para realizar tales reglas es algo analítico.

De hecho, es preciso mencionar que se deben considerar las pruebas dados dos casos, uno

que contrasta regiones en si misma (pruebas de una cola) y otra que contrasta valores

puntuales (pruebas de igualdad a cierto valor). Esta teoría se dará en las subsiguientes

secciones.

Asimismo, estaremos considerando solo pares de hipótesis, contrarias es decir que si la nula

tiene un subconjunto definido de posibles valores del “parámetro” , la hipótesis alternante

tendrá a otro subconjunto de valores , que son complemento de los de la nula.

Se puede dar el caso , empero , de que la hipótesis alternante sea un conjunto variado de

valores no necesariamente complementarios de la hipótesis nula. Este tema se verá más

adelante.

2.1. Hipótesis general

Nuevamente consideremos una muestra aleatoria de tamaño n, , de una

pobalcion con función de densidad y las hipótesis a contrastar:

Usando el Teorema de Bayes, podremos obtener las probabilidades a posteriori de cada

hipótesis. Así queda:

Considerando a la a priori como y .

2.1.1. Definición Ratio de probabilidades a priori y posteriori

Ratio de

odds a

posteriori

Ratio de

odds a

priori

Factor de

Bayes

Page 13: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

13 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

El ratio de probabilidades a priori, es el ratio odds a priori; similarmente con las

probabilidades a posteriori.

Dando algunas pautas, en caso la distribución a posteriori no esté disponible, se

podría realizar, la marginal de la a priori saliendo la marginal de x:

…… (1)

2.1.2. Factor de Bayes

Siguiendo con la teoría, , podemos mencionar la introducción del concepto de Factor

de Bayes, introducido por Jeffreys hacia el año de 1961 aproximadamente.

Aquí se ve cierta similitud entre el ratio odds a posteriori y el ratio de verosimilitud

ya mencionado en la teoría clásica. Gracias a este factor, es que la influencia de la

muestra es tomada en consideración, y elimina parcialmente la influencia de la

distribución a priori escogida ( no la elimina por completo).

Además de ello , es objetiva. Así, en el caso que el factor de Bayes coincida con el

ratio de verosimilitudes del enfoque frecuentista, entonces la distribución a priori no

influye en el mismo.

Si aun no se ha calculado la distribución a posteriori, debemos realizar lo siguiente,

para el cálculo del factor de Bayes.

Por lo que el factor de Bayes resultaría:

Page 14: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

14 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Este factor hallado es el más método con mas dominio es la prueba de hipótesis

bayesiana. La manera en que se escribió, es una de las muchas que pueden darse,

teniendo la esencia a pesar de ello. Así pues, el Factor de Bayes, reúne información a

priori y posteriori en un ratio que da evidencia a favor ( a aquel que se halla en el

numerador) de una especificación de modelo contra otra.

Como se nota, los factores de Bayes, permiten una comparación múltiple, en caso

sea necesario (este tema será tocado más adelante), permitiendo comparaciones de

múltiples hipótesis.

Un claro detalle, resultado de la similitud entre el Factor de Bayes y el ratio de

verosimilitud, si hacemos el cálculo del Factor de Bayes mediante un ratio de odds a

posteriori entre odds a priori, veremos que si se toma a las a priori iguales ( cada una

0.5), el resultado será un ratio de verosimilitud.

En función al factor de Bayes, podemos ver algunas reglas de cuan fuerte es la

evidencia que se tiene acerca dl no rechazo de la hipótesis nula (como numerador)

la hipótesis nula es respaldada

existe minima evidencia contrala hopotesis nula

existe evidencia substancial contra el Ho.

Existe fuerte evidencia contra Ho.

existe evidencia decisiva contra la hipótesis nula

2.2. Regla practica para prueba de una cola

El procedimiento ya mostrado se llamado Criterio de Jeffrey. Como se nota, dice

básicamente que si el ratio de odds a posteriori es mayor a 1 , aceptamos la hipótesis

nula.

Esta regla practica, se aplicara cuando ya se tenga la distribución a posteriori, caso

contrario se debería realizar el cálculo de cada uno de los radios, con las maneras

reducidas ya indicadas.

Page 15: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

15 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PASO 1: Considerar a como variable aleatoria con distribución a priori .

PASO 2: Mediante el teorema de Bayes, hallar la distribución a posteriori

PASO 3 : Hallar las probabilidades a posteriori, mediante el cálculo del ratio odds

respectivo.

PASO 4: Rechazar la hipótesis nula si el ratio odds a posteriori es menor a 1 . De lo

contrario no rechazar.

2.3. ¿Qué hacer cuando se tiene pruebas de dos colas?

Como ya se menciono, la regla practica, se da solo para prueba de una cola, en caso se

tenga prueba de dos colas, es preferible realizar un intervalo de confianza bayesiano y ver

si el valor , se halla dentro del mismo. Si esto ocurre, concluiremos que con (1-α)100%

de credibilidad que es un posible valor. Caso contrario la credibilidad no es cierta

ni efectiva.

Este procedimiento se realiza, porque si uno evalúa las integrales para calcular las

probabilidades, notara que el valor de la integral a priori en un punto específico es cero,

por lo que su probabilidad seria cero. Por ende, no sería comparable ningún ratio. Aquí es

donde surgen complicaciones, por ello es recomendable usar los intervalos de

credibilidad.

Page 16: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

16 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Sin embargo, se detallara un poco de la teoría matemática usada para probar que el uso

de intervalos de credibilidad es apropiado para contrastes d hipótesis de dos colas.

Dado el problema de probabilidad 0, o imposible, se deberá asignar cierto valor a priori

a la probabilidad de , y el resto , con la densidad . La idea

consiste en tomar la densidad, como un punto “de masa” , es decir como un punto de

acumulación en , en la probabilidad a priori.

Si la prueba de hipótesis simple, se aproxima a una prueba de hipótesis asignada a un

intervalo tendremos:

Las notaciones a usar son las mismas, y seguiremos considerando una a priori continua.

La complicación radica ahora en que la a priori denotada por , es de la forma:

De este modo, vemos que esta a priori, tiene parte tanto discreta como continua, siendo

entonces, la a priori a usar , estaría dado por la marginal dado x, descrita en la ecuación

1 de la pagina nueve, teniendo en cuenta , sin embargo, que en el este caso tendrá dos

partes, una continua y otra discreta.

Entonces , la a posteriori, seria:

Donde el factor de Bayes, estaría dado por :

De aquí que la probabilidad a posteriori estaría resumida en ;

Page 17: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

17 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Como vemos, el criterio principal, radica en la construcción de un intervalo de

credibilidad, por ende la regla práctica mencionada en el principio tiene validez, y será la

usada.

2.4. Hipótesis alternativas conjuntas o simultaneas

Para realizar esta prueba , será necesario utilizar distribuciones multivalentes , este tópico

se puede encontrar en el libro Bayesian Evaluation of Informative Hypothesis, de autor

Herbert Hoijtink, de editorial Springer.

Mencionaremos que se evalúa cada hipótesis alterna, con la nula, mediante una

distribución t – multivariada, de donde se podrá obtener el factor de Bayes, para luego ya

seguir las reglas ya mencionadas. Todo esto, considerando una a priori informativa.

Page 18: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

18 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PARTE III:

PRUEBA DE HIPOTESIS

PARA UNA MEDIA:

CASOS ESPECIALES

Page 19: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

19 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

3. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA: CASO BINOMIAL

Sabemos que la distribución binomial a las que nos referimos, se refiere a la distribución

“muestral” que tiene cada uno de los valores muestrales .

Cada una de las siguientes explicaciones, serán dependiendo la distribución a priori a

considera que será beta, gamma o uniforme.

Consideremos una población , donde es la proporción de éxito de cierta característica en

estudio. Es decir, de una muestra de tamaño , se encontraran exitos, con probabilidad ,

donde su distribución a seguir es de una binomial con parámetros , esta dada por:

En la estadística bayesiana, el valor de éxito , será consdierado una variable aleatoria cn

distribución a priori, es decir variable , con una dsitribucion a priori será posible

usar el teorema de bayes, y por ende de calcular una prueba de hipótesis para el valor de .

Usando una a priori Uniforme

En caso no se tenga alguna idea siquiera de que distribución y/o valor puede tomar el ,

lo idela es usar una distribución uniforme como a priori, pues asi todos los valores

tendrían en mismo valor

Donde la a posteriori seria claramente:

Usando una a priori Beta

Suponiendo en este caso una a priori beta, se tendrá:

Y su a posteriori será también una distribución .

Consideraremos ahora dos casos

3.1. Prueba de Hipótesis de una cola

Desearemos probar las hipótesis :

Page 20: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

20 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Con un nivel de significancia , será necesario saber su distribución a posteriori, y según

ello , calcularemos siguiendo los pasos ya establecidos en la sección anterior.

Así,

Rechazaríamos la hipótesis nula, nuevamente basándonos en el ratio de odds a

posteriori.

3.2. Prueba de Hipótesis de dos colas

Una alternativa clara para el contrastar hipótesis de dos colas, es la construcción del

intervalo de credibilidad y ver si el valor con el que se contrasta la hipótesis se halla

dentro del intervalo , en cuyo caso se aceptaría que es posible que el parámetro real ,

tome el valor contrastado . Caso contrario se rechaza.

4. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA : CASO NORMAL

4.1. Normal con varianza conocida

La distribución a posteriori resume todo nuestro conocimiento acerca del

parámetro, después de ver los datos. A veces queremos responder a una pregunta

específica acerca del parámetro. Por ejemplo, teniendo en cuenta los datos, ¿podemos

concluir que el parámetro es mayor que ?

El valor normalmente proviene de la experiencia previa. Si

el parámetro sigue siendo igual a ese valor, entonces la experiencia no ha demostrado

nada nuevo que requiera una explicación. Perderíamos nuestra credibilidad científica si

andaríamos inventando explicaciones para los efectos que pueden no existir.

4.1.1. Prueba de Hipótesis Bayesiana Bilateral para la media

Si desea probar la hipótesis bilateral

de una manera bayesiana, y tenemos una distribución a priori continua, no

podemos calcular la probabilidad a posteriori de la hipótesis nula como lo hicimos

para la hipótesis unilateral. Como tenemos una a priori continua, tendremos una a

posteriori continua. Sabemos que la probabilidad de cualquier valor específico de

una variable aleatoria continua siempre es igual a 0. La probabilidad a posteriori

Page 21: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

21 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

de la hipótesis nula será igual a cero. Esto significa que no podremos

probar esta hipótesis nula mediante el cálculo de la probabilidad a posteriori de la

hipótesis nula y compararlo con .

En su lugar, calculamos un (1 - a) x 100% intervalo creíble para p utilizando nuestra

distribución a posteriori. Si po se encuentra dentro del intervalo de credibilidad,

llegamos a la conclusión de que aún tiene credibilidad como un posible valor.

En ese caso no vamos a rechazar la hipótesis nula, por lo que consideramos que es

creíble que no hay ningún efecto. (Sin embargo, nos damos cuenta de que tiene

cero probabilidad de ser del todo cierto si nos fijamos en suficientes lugares

decimales). No hay necesidad de buscar una explicación de un efecto no existe.

4.1.2. Prueba de Hipótesis de una cola o unilateral

La manera de estas pruebas son:

Este es un ejemplo de una prueba de hipótesis unilateral. Nosotros decidimos a un

nivel de significación que queramos utilizar. Este es la probabilidad por debajo del

cual vamos a rechazar la hipótesis nula.

Nos ceñiremos a seguir el procedimiento ya descrito en los pasos anteriores, donde

veremos que la estadística a tomar en cuenta será una normal.

Por lo general, es pequeño, por ejemplo 0.10,0.05,0.01,0.005, 0 0.001. Probar una

hipótesis unilateral en la estadística Bayesiana se realiza mediante el cálculo de la

probabilidad a posteriori de la hipótesis nula:

Cuando la distribución a posteriori es normal , esto

puede ser fácilmente encontrado en las tablas de la distribución normal estándar.

Donde z es una variable aleatoria normal estándar. Si la probabilidad es menor que

nuestro establecido, rechazamos la hipótesis nula y concluimos que .

Sólo entonces podemos buscar una explicación de por qué es ahora más grande

que .

Page 22: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

22 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Para los cálculos aquí,, con la a priori ya mencionada, presentaremos la

distribución a posteriori y sus respectivos parámetros, puesto que el cálculo ya ha

sido realizado en sesiones de clase anteriores.

EJEMPLO

Un estudiante que toma una prueba estandarizada es clasificado como

superdotado si él o ella obtiene por lo menos 100 puntos sobre un puntaje

máximo de 150. De lo contrario el estudiante no es clasificado como superdotado.

Supongamos la distribución a priori de las puntuaciones de los estudiantes es una

normal con media 100 y una desviación estándar de 15. Se cree que los resultados

pueden variar cada vez que el estudiante tome la prueba y los resultados pueden

ser modelados como una distribución normal con media y varianza 100.

Supongamos que el estudiante toma la prueba yobtiene 115 puntos. Probar la

hipótesis de qe el estudiante puede ser clasificado como un estudiante

superdotado.

Solución:

El problema de prueba de hipótesis puede ser enunciado como

En relación con el ejemplo 11.2.8, sabemos que la distribución a posteriori es una

normal con media110.4 y varianza 69.2. Debidoa que la a priori es una ,

tenemos

Y

.

Podemos calcular

xb

n

ba

n

b

baNx

N

Nx

2

2

02

2

0

2

0

22

2

2

00

2

/1

/

/1

/1

11

),(|

),(

),(|

Page 23: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

23 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Y

Por lo tanto, , y rechazamos .

Contrastes

Consideramos las hipótesis vs donde y

Teóricamente es fácil distinguir entre las dos hipótesis; dados los datos, sólo se

deben usar las probabilidades a posteriori. Dada una función de pérdida, se elige

aceptar o rechazar .

EJEMPLO:

Supongamos que . Queremos hacer el contraste: frente

. Si usamos una distribución inicial no informativa para ,

,

Tenemos

. Entonces,

donde es la función de distribución normal.

Page 24: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

24 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

4.1.2.1. La paradoja de Lindley/Jeffreys

Consideramos el contraste frente la alternativa . En

situaciones así, los resultados bayesianos pueden ser muy diferentes de los resultados

clásicos.

Ejemplo . Hacemos el contraste frente . Se definen las probabilidades a priori

y se supone que . Suponiendo que se observa la media de una muestra de tamaño n, se quiere calcular las probabilidades a posteriori. En primer lugar

para una constante . También

Page 25: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

25 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Donde K es la misma constante. Entonces, se tiene

Recordando que , se tiene

Entonces

Page 26: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

26 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Consideramos el caso . Sabemos que si hubiéramos hecho

un contraste clásico con un nivel de significación de 95%, el resultado habría sido

significativo, y habríamos rechazado la hipótesis .

Pero

.

Una muestra que nos lleva a rechazar con un contraste clásico nos

proporciona una probabilidad a posteriori de que se acerca a 1 cuando el

tamaño de la muestra es grande.

Esta paradoja se llama la paradoja de Lindley y Jefefreys.

EJEMPLO:

Un estadístico compra 10 bolas usadas que han sido recuperadas del agua. Las

deja caer a una altura de un metro y mide la altura en centímetros en las de

regresan al primer rebote. Los valores son :

79.9 80 78.9 75.6 80.5 82.5 80.1 81.6 76.7 78.5

Asuma que y es la altura, y es normal

Si la a priori es normal ) . ¿Podrá ser la altura menor a 80 m.?

SOLUCION:

Contrastaremos:

Se realizara :

La varianza a posteriori

y la desviación estándar a posteriori

es . La media a posteriori es dada por

80:

80:

1

0

H

H

Page 27: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

27 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

La distribución a posteriori es normal(79,4124,0.631119^2)

Probando la hipótesis ya planteada:

Como el ratio es menor que uno , rechazamos la hipótesis nula . Concluiríamos con

una probabilidad de 0.05, que existe suficiente evidencia estadística para afirma que la

media poblacional ( altura de rebote de las pelotas) es menor a 80.

4.2. Normal con varianza desconocida

Supongamos que los datos consisten de observaciones independientes e idénticamente

distribuidas

Ahora asumamos la misma situación pero con una varianza observacional desconocida

y tomemos . Una a priori para , es razonable tomar la misma a priori marginal

para también debe ser especificada. Como las hipótesis no involucran , es razonable

tomar la misma a priori marginal para bajo ambas hipótesis. Adoptamos una a priori

conjugada bajo las hipótesis dadas

Donde todas las funciones de densidad son conocidas. Sustituyendo esas expresiones

tenemos

Donde ahora

Page 28: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

28 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

Esto es interesante para estudiar el comportamiento del factor de Bayes en situaciones

extremas tales como cuando tenemos una a priori no informativa. Tomamos y

asumimos como antes que , tenemos

donde

y

El Factor de Bayes es una función simétrica de los valores muestrales a través del

estadístico t. Varía desde el más alto valor de apoyo a cuando a un

mínimo valor cuando , como se esperaba.

En el caso general , las hipótesis pueden ser incorporadas en la distribución a priori

y el problema de probar las hipótesis puede pensarse como una comparación de

posibles distribuciones de .

4.2.1. Regla

Vemos, que lo que cambia aquí, es el cálculo del factor de Bayes, por lo que el

procedimiento a seguir, sea la prueba de una cola o unilateral el ya mencionado.

Tenemos que tener en cuenta que se esta considerando una a priori única para el

caso presentado, y ella es la normal.

No podemos dejar de mencionar, por ende, que el cálculo y la dificultad radica

justamente según la distribución a tomar, y mas aun si se consideraran dos hipótesis

a priori distintas. Este cálculo, se podrá obtener de la bibliografía, el libro cuyo autor

es Gosh.

Page 29: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

29 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

PARTE IV:

SIMILITUDES,

DIFERENCIAS,

CONCLUSIONES Y

BIBLIOGRAFIA

Page 30: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

30 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

5. SIMILITUDES Y DIFERENCIAS

5.1. Similitudes

Las estimaciones de máxima verosimilitud mediante el enfoque frecuentista, son

equivalentes cuando se cuenta con a prioris categóricas.

En el límite asintótico, los datos abrumaran la elección del a priori , así que al

tener conjunto de datos infinitos, el hallar una a priori seria irrelevante, y tanto

enfoques bayesianos como frecuentistas convergerían.

La prueba de hipótesis frecuentista de una cola, resulta similar a lo que el

enfoque bayesiano obtendría mediante un intervalo de credibilidad.

5.2. Diferencias

Se nota una clara diferencia en la prueba de dos colas, pues los métodos

bayesianos son , muy pobres aunque si calculables.

En la prueba de hipótesis frecuentista, el espacio parametral , solo es divisible en

dos , es decir cada una de las hipótesis tomadas es con dos valores . En cambio,

en la prueba bayesiana, si bien la hipótesis nula es simple, la hipótesis alterna

puede contener mas de una aseveración, es decir más de un valor.

Otra diferencia encontrada entre ambos enfoques, es el uso de la función de

perdida, la cual debe ser nuevamente minimizada para evitar perder información

del “parámetro” en estudio. A falta de función de perdida, las probabilidades de

cometer error tipo I y II son de poco interés.

De igual manera, en la estadística bayesiana, no se busca tanto el control de los

errores. Así en la prueba frecuentista, el error uno es delimitado a un valor alfa, y

el error tipo II se controla mediante el tamaño de muestra (todo mediante el uso

del Lema de Neyman Pearson) . En la bayesiana veremos que es más directo ,

pues se comparan simplemente las probabilidades a posteriori, mediante una

metodología ya explicada.

Page 31: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

31 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

6. CONCLUSIONES

Existen muchas diferencias entre el enfoque frecuentista y el enfoque

bayesiano, a pesar de ello, existen casos (los de la distribución normal) donde

los resultados hallados son muy similares a los de la frecuentista.

La estadística bayesiana, se basa en el factor de Bayes como principal

herramienta para probar si se rechaza o no la hipótesis nula.

La prueba estadística bayesiana de dos colas, es un poco complicada de

realizar, por lo que se recurrirá a la teoría de intervalos de credibilidad como

principal herramienta.

Para la construcción y verificación de las pruebas de hipótesis de una cola,

existen reglas prácticas, que facilitan el cálculo, teniendo en cuenta siempre a

prioris no impropias.

Page 32: Doc Bayesiana Hipotesis

PR

UE

BA

DE

HI

PO

TE

IS

IS

B

AY

ES

IA

NA

PA

RA

LA

ME

DI

A

32 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS

7. BIBLIOGRAFIA

Introduction to Bayesian Statistics - Koch (2007)

Introduction to Bayesian Statistics- William M. Bolstad

An Introduction to Bayesian Analysis- Ghosh, Springer 2006

Mathematical Statistics with Application - Kandethody M.Ramachandran