pruebas de ajuste de bondad

114

Upload: raulttant

Post on 16-Jan-2016

47 views

Category:

Documents


0 download

DESCRIPTION

métodos estadísticos de ajuste de bondad

TRANSCRIPT

Page 1: Pruebas de ajuste de Bondad

Junio del 2012

Page 2: Pruebas de ajuste de Bondad
Page 3: Pruebas de ajuste de Bondad

iii

Contenido

Introducción........................................................................................................................................... 1

CAPÍTULO 1

CONCEPTOS BÁSICOS Y PROPIEDADES DE LOS ESTIMADORES PUNTUALES 5

1.1 ESTIMADORES.............................................................................................................. 6

1.1.1 Espacio paramétrico .................................................................................................... 6

1.1.2 Estimador puntual........................................................................................................ 7

1.2 PROPIEDADES................................................................................................................ 8

1.2.1 Estadísticas suficientes ................................................................................................ 9

1.2.2 Estimadores insesgados con menor varianza............................................................. 15

1.3 MÉTODOS PARA OBTENER EL MEJOR ESTIMADOR ...................................... 16

1.3.1 Estimadores y familias de densidades completas ...................................................... 19

1.3.2 Familias de densidades de clase exponencial ............................................................ 23

1.3.3 Estimadores insesgados de varianza uniformemente mínima, Lehman-Sheffé......... 24

1.3.4 Estimadores de menor varianza, cota inferior de Cramer-Rao.................................. 25

1.4 ERROR CUADRADO MEDIO..................................................................................... 29

1.5 MÉTODO DE MÁXIMA VEROSIMILITUD............................................................. 31

CAPÍTULO 2

DISTANCIAS Y PRUEBAS DE BONDAD DE AJUSTE..................................................... 34

2.1 EL PROBLEMA DE LA MEDICIÓN DE DISTANCIAS.......................................... 35

2.2 TIPOS DE DISTANCIAS Y SUS MÉTRICAS............................................................ 36

2.3 PRUEBAS DE BONDAD DE AJUSTE ........................................................................ 41

Page 4: Pruebas de ajuste de Bondad

iv

CAPÍTULO 3

ALGUNAS PRUEBAS DE BONDAD DE AJUSTE.............................................................. 54

3.1 PRUEBA JI-CUADRADA ............................................................................................. 55

3.2 PRUEBA DE KOLMOGÓROV-SMIRNOV DE BONDAD DE AJUSTE ............... 64

3.2.1 Propiedades de la prueba de Kolmogórov-Smirnov.................................................. 65

3.3 PRUEBA DE NORMALIDAD DE SHAPIRO-WILK................................................ 69

3.3.1 Propiedades de w....................................................................................................... 70

3.4 LA PRUEBA DE NORMALIDAD DE D’AGOSTINO .............................................. 72

3.5 LA PRUEBA DE NORMALIDAD DE LILLIEFORS................................................ 74

3.6 LA PRUEBA DE NORMALIDAD DE FILLIBEN..................................................... 74

CAPÍTULO 4

PRUEBAS BOOTSTRAP......................................................................................................... 75

4.1 PRUEBAS BOOTSTRAP. ............................................................................................. 75

4.1.1 Tamaño de la prueba.................................................................................................. 76

4.2 EJEMPLO DE LA TÉCNICA BOOTSTRAP PARA UNA FUNCIÓN LOG-GAMMAGENERALIZADA.......................................................................................................... 77

4.2.1 Propiedades asintóticas de los estimadores ............................................................... 79

4.2.2 Procedimiento de la prueba en R............................................................................... 83

CONCLUSIONES .................................................................................................................... 95

BIBLIOGRAFÍA ...................................................................................................................... 96

ANEXO 1 ................................................................................................................................. 98

ANEXO 2 ................................................................................................................................. 103

Page 5: Pruebas de ajuste de Bondad

v

Índice de Tablas

Tabla 2.1 Datos del ejemplo 2.2 para probar normalidad……………….…………….…….45

Tabla 2.2 Clases de frecuencia para los datos del ejemplo 2.2………...……………….…….45

Tabla 2.3 Datos del ejemplo 2.3 para probar normalidad.……...……….…………….…….49

Tabla 2.4 Clases de frecuencia para los datos del ejemplo 2.3………………………….…….49

Tabla 2.5 Valores criticos para la prueba de normalidad……………….….…………….….52

Tabla 3.1 Datos de la muestra para probar normalidad del ejemplo 3.1……………………..58

Tabla 3.2 Clases de frecuencia para los datos de la muestra del ejemplo 3.1…………...…….59

Tabla 3.3 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.1…59

Tabla 3.4 Datos de la muestra para probar exponencialidad del ejemplo………………………60

Tabla 3.5 Clases de frecuencia para los datos de la muestra del ejemplo 3.2…………….…..…61

Tabla 3.6 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.2…62

Tabla 3.7 Datos para probar si tienen distribución geométrica del ejemplo 3.3.……………..62

Tabla 3.8 Clases de frecuencia para los datos de la muestra del ejemplo 3.3………………..…63

Tabla 3.9 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.3…63

Tabla 3.10 Datos de la muestra para probar si tienen distribución normal del ejemplo 3.4...…66

Tabla 3.11 Frecuencias teoricas y muestrales del ejemplo 3.3………….……………………66

Tabla 3.12 Datos para probar si tienen distribución uniforme del ejemplo 3.5.………………67

Tabla 3.13 Frecuencias teoricas y muestrales del ejemplo 3.5………….……………………67

Page 6: Pruebas de ajuste de Bondad

vi

Tabla 3.14 Frecuencias teoricas y muestrales del ejemplo 3.6………….……………………68

Tabla 4.1 Valores del estimador con tamaño de muestra 10,000………….…………………80

Tabla 4.2 Valores del ECM para k̂ ……………………………………………………………..…80

Tabla 4.3 Valores de la varianza y ECM para k̂ ………….……………..…………………81

Tabla 4.4 Valores de proporcionalidad entre ECM, n y el valor del parámetro k ………...…82

Tabla 4.5 Tamaños de prueba para k usando el EMV ………………..…..…………………85

Tabla 4.6 Potencias para la distribución alternativa normal con 0 y 2.0 …..….…88

Tabla 4.7 Potencias para la distribución alternativa t-Student con 5 .…………….……89

Tabla 4.8 Potencias para la distribución alternativa Logística con 0 y 2 .…..….…89

Tabla 4.9 Potencias para la distribución alternativa Laplace con 0 y 2 ……………89

Tabla 4.10 Potencias para la distribución alternativa Beta con 4 y 10 ………...…89

Tabla 4.11 Potencias para la distribución alternativa Cauchy con 0 y 2 …..…..…90

Tabla 4.12 Potencias para la distribución alternativa Gumbel con 0 y 2 .…………90

Tabla 4.13 Potencias para la distribución alternativa Gamma con 4 y 5 .…….....90

Tabla 4.14 Potencias para la distribución alternativa Ji-cuadrada con 20 .……………90

Tabla 4.15 Potencias para la distribución alternativa Weibull con 2 y 2 .…..…...90

Tabla 4.16 Potencias para la distribución alternativa F con 41 y 82 .…….……….91

Tabla 4.17 Potencias para la distribución alternativa Fréchet con 0 , 2 y 5 …91

Tabla 4.18 Potencias para la distribución alternativa Pareto con 4 y 20 …………91

Tabla 4.19 Potencias para la distribución alternativa Exponencial con 1.0 ………….…91

Page 7: Pruebas de ajuste de Bondad

vii

Índice de figuras

Figura 2.1 Histograma de la tabla de frecuencias del ejercicio 1……………….………….46

Figura 2.2 Gráfica Q-Q de los datos muestrales del ejercicio 1……………….………..….48

Figura 2.3 (i), (ii), (ii) Graficas para mostrar CA y CU……………………….……….48

Figura 2.4 Histograma de la tabla de frecuencias del ejercicio 2……………….………….49

Figura 2.5 Grafica Q-Q de los datos muestrales del ejerciocio 2……………….………….51

Figura 3.1 Zona de rechazo y punto crítico de la prueba ji-cuadrada..…………..……….57

Figura 3.2 Histograma de la tabla de frecuencias del ejercicio 3.1…………….………….59

Figura 3.3 Histograma de la tabla de frecuencias del ejercicio 3.2…………….………….61

Figura 3.4 Histograma de la tabla de frecuencias del ejercicio 3.3…………….………….63

Figura 3.5 Distribución teórica y empírica para la prueba de Kolmogórov-Smirnov………65

Figura 4.1 Valores del ECM para k̂ en los 5 valores de k̂ = 0.1, 0.5, 1, 5, 10…..………….82

Page 8: Pruebas de ajuste de Bondad

viii

RESUMENEn el presente trabajo se proporciona un estudio sobre las pruebas de bondad de ajustecon un enfoque métrico, es decir, un criterio para decidir sobre qué prueba es mejorestará basado en la distancia.

El desarrollo del trabajo inicia con un estudio de los estimadores puntuales,revisando las propiedades que éstos deben cumplir para que sean buenos estimadores,presentando algunos métodos existentes como el de momentos y máxima verosimilitudpara obtener buen estimador.

Después de obtener buenos estimadores el estudio continua con las distancias máscomunes y las fórmulas que se utilizan para calcularlas. Además se mencionan lasdistancias que se utilizan para el ajuste de distribuciones. Luego se comienza con elanálisis de las pruebas de bondad de ajuste, y se habla del método cuantil-cuantil.También se estudian las pruebas más importantes, mostrando varios ejemplos para quesu comprensión sea mejor.

Al final se analiza un estudio más resiente sobre las pruebas de bondad de ajusteen donde la estadística de prueba no es posible obtenerla en forma cerrada, además deque la estadística de prueba depende fuertemente de la estimación de uno o variosparámetros, para solucionar este problema se presenta una metodología que muestracómo utilizar el método Bootstrap para llevar a efecto esto tipo de pruebas de bondadde ajuste.

Page 9: Pruebas de ajuste de Bondad

ix

SUMMARYIn the present work a study is provided on the test of goodness of fit with a metricapproach, that is to say, a criterion to decide about what test is better will be based onthe distance.

The development of the work initiates with a study of the precise estimators,reviewing the properties that these must fulfill so that they are good estimators,presenting some existing methods like the moments and maximum likelihood to obtaingood estimator.

After obtaining good estimators the continuous study with the most commondistances and the formulas that are used to calculate them. In addition the distances arementioned that are used for the fit of distributions. Soon it is begun with the analysis ofthe tests of goodness of fit, and it is spoken of the cuantil-cuantil method. Also the mostimportant tests, showing several examples so that study their understanding is better.

In the end a study is analyzed more suffers on the tests of adjustment kindnesswhere the test statistic is not possible to obtain it in closed form, apart from which the teststatistic depends strongly on the one estimation or several parameters, to solve thisproblem appears a methodology that shows how to use the Bootstrap method to take toeffect this type of tests of goodness of fit.

Page 10: Pruebas de ajuste de Bondad

x

Agradecimientos

A la Universidad Autónoma Chapingo por su apoyo en la realización de mi formaciónacadémica.

Al Dr. Eduardo Gutiérrez González por sus consejos, apoyo y tiempo dedicado en laelaboración de esta tesis.

Al Comité Revisor integrado por:

M.C. Margarito Soriano Montero

Dr. Fernando Garrido Puga

M.C. Alejandro Corona Ambriz

Dr. Carlos Cíntora González

Por su el tiempo que dedicaron a la revisión de este trabajo.

A mis padres y hermanos por su apoyo incondicional.

A mis amigos Laura, Sol y Berna, que me ayudaron todo este tiempo

Page 11: Pruebas de ajuste de Bondad

xi

DedicatoriaA mis Padres:

Lina y Anse

A mis hermanos:

Mague, Chuy, Dani y Hugo.

A mis sobrinos:

Dayis, Karime y Alex.

A mis mejores amigos:

Adal, Beres Berna, Claudia, Creta, Eddi, Erasmo, Fabián, Fran, Inés, Jaime, Jimena,Laura, Marco, Margarita, Mónica y Sol.

Page 12: Pruebas de ajuste de Bondad

1

Introducción

Hoy en día la estadística inferencial ha tomado mucha importancia en las diferentes áreas de la ciencia, ya que el ser humano está interesado en conocer algún aspecto importante de un grupo grande de individuos u objetos, llamado población. La

estadística inferencial, es la parte de la Estadística que trabaja con subconjuntos de la

población, conocidos como muestras, a partir de las cuales se pretende inferir aspectos relevantes de toda la población.

Sobre una población existe especial interés en conocer su comportamiento aleatorio, mismo que generalmente se obtiene con base en una muestra. Existen varias técnicas para conocer la distribución de una muestra, una de estas técnicas es la prueba

de bondad de ajuste. La mayoría de estas pruebas se basa en la convergencia de la

función de distribución empírica de la muestra a la función de distribución subyacente a la muestra. Dicha convergencia está garantizada en condiciones muy generales por el Teorema de Glivenko-Cantelli.

La primera prueba de bondad de ajuste fue propuesta por Karl Pearson aproximadamente en el año 1900, después surgieron muchas otras como la prueba K de Kolmogórov en 1933 que F. Smirnov extendiera en el año 1939 llamándola prueba de Kolmogórov-Smirnov, la prueba Shapiro-Wilk propuesta por S. S. Shapiro y M. B. Wilk en 1964.

Fuera de las pruebas anteriores se tiene un sinfín de pruebas de bondad de ajuste, sobre todo en las últimas décadas se ha incrementado considerablemente esta cantidad, debido al uso de las computadoras personales y el método de simulación Bootstrap. Además de la creciente necesidad de los investigadores de estudiar los fenómenos aleatorios considerándolos tal y como suceden. Es decir, evitando los supuestos que anteriormente se hacían al estudiar un fenómeno y considerarlo generalmente con distribución normal.

Ahora con diferentes métodos para estimar parámetros, como el estimador de

máxima verosimilitud (EMV), y realizar simulaciones sin muchos problemas con el uso del paquete R, las pruebas de bondad de ajuste se amplían a modelos más complejos como las mezclas y el análisis de supervivencia.

Page 13: Pruebas de ajuste de Bondad

2

Este trabajo está conformado por 4 capítulos.

En el capítulo uno se habla de los conceptos básicos y propiedades de los estimadores puntuales, la definición de parámetro, espacio paramétrico, estimador y estimador puntual. Además de las propiedades que éstos deben cumplir para que sean buenos estimadores. Por último, se revisan los métodos más utilizados para obtener estimadores, como son máxima verosimilitud y el método de momentos.

El capítulo dos trata sobre las distancias y su métrica, iniciando con el estudio de las pruebas de bondad de ajuste.

En el capítulo tres se presentan algunas de las pruebas de bondad de ajuste más utilizadas en las aplicaciones, como son: la prueba ji-cuadrada, la prueba de Kolmogórov-

Smirnov, la prueba de normalidad de Shapiro-Wilk, entre otras.

Por último en el capítulo cuatro se tratan las pruebas de bondad de ajuste por el método Bootstrap y como ejemplo se presenta una prueba de bondad de ajuste bootstrap para el modelo log-Gamma generalizado.

Page 14: Pruebas de ajuste de Bondad

3

Planteamiento

Actualmente en los procesos de producción, en las demandas de inventarios, estudios biológicos, medicina, etcétera surgen con frecuencia comportamientos aleatorios, de tal forma que es de vital importancia conocer cómo determinar estadísticamente el comportamiento de la población. El hombre se ha dado a la tarea de desarrollar métodos para conocer el comportamiento de la población de interés como son las pruebas de bondad de ajuste.

En el siglo XIX se desarrollaron las pruebas de bondad de ajuste más importantes, las cuales se siguen utilizando hasta el momento. También han surgido otras, en la actualidad se pueden realizar pruebas de bondad de ajuste por el método Bootstrap.

Para saber que tanto ajusta un modelo a un conjunto de datos, se requiere medir la distancia que hay entre el modelo conocido y el que queremos ajustar, la estadística de prueba nos dice que tan cerca esta una de la otra. En otras palabras la estadística de prueba es una función de distancia para calcular la distancia entre los modelo.

En este trabajo se estudian las pruebas de bondad de ajuste más utilizadas y las funciones de distancia como su estadística de prueba, presentando también las bases teóricas para la mejor comprensión de este trabajo, como son los estimadores puntuales, sus propiedades y algunos métodos para obtener a los mejores estimadores.

Además de lo anterior en el trabajo se analiza el método bootstrap utilizado en pruebas de bondad de ajuste. Este método ha tomado mucha importancia dentro de la estadística ya que tiene diferentes usos, como ejemplo, el de realizar contrastes de hipótesis. Además de que como es un método basado en la extracción de muestras grandes o pequeñas resulta ser muy versátil en sus aplicaciones.

Page 15: Pruebas de ajuste de Bondad

4

Objetivos

En este trabajo se tienen como metas la realización de los siguientes puntos:

Mostrar las principales técnicas y elementos básicos para la utilización de las pruebas de bondad de ajuste.

Establecer las bases teóricas elementales para poder afrontar problemas de pruebas de bondad de ajuste, por medio de su métrica.

Mostrar algunas pruebas de bondad de ajuste.

Proporcionar ejemplos prácticos de la utilización de las pruebas de bondad de ajuste. Dejando más clara la importancia de dichas herramientas en la vida cotidiana para que las personas las implementen en el campo en el que laboran.

Mostrar la técnica bootstrap para hacer pruebas de bondad de ajuste

Mostrar la aplicación de la técnica bootstrap.

Page 16: Pruebas de ajuste de Bondad

5

Capítulo 1

CONCEPTOS BÁSICOS Y PROPIEDADES SOBRE LOS

ESTIMADORES PUNTUALES

INTRODUCCIÓN

Para el análisis de las pruebas de bondad de ajuste es fundamental hacer un estudio previo acerca de los estimadores puntuales, ya que éstos son la base teórica de la inferencia estadística, y desde luego de las pruebas de bondad de ajuste.

El presente capítulo inicia con el estudio de los conceptos básicos para entender claramente lo que es un estimador. Se hablará de la definición de parámetro, espacio paramétrico, estimador y estimador puntual.

Page 17: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

6

Definidos los estimadores, se hablará de las propiedades que éstos deben cumplir para que sean buenos estimadores, tales como el insesgamiento, provenga de una estadística suficiente y tenga la menor varianza posible.

Por último, se revisarán los métodos más utilizados para obtener estimadores, como son máxima verosimilitud y el método de momentos.

1.1 ESTIMADORES

Los números que sintetizan los aspectos más relevantes de la distribución de una población reciben el nombre de parámetros y cuando son obtenidos de una muestra, se les llama estadísticos. Estos nos ayudan a conocer aspectos de interés acerca de la población cuando no es posible estudiarla toda. Por ejemplo para conocer la vida útil promedio de un celular de cierta marca, lo más preciso seria observar a todos los celulares de esta marca y medir el tiempo de vida de cada uno, para luego calcular la media, pero esto no es razonable. Así que se procede a estudiar una muestra pequeña y se calcula la vida promedio mediante un estimador.

Definición 1.1 Estadística

Sea nXXX ,,, 21 una muestra aleatoria se llama estadística a cualquier función de

la muestra aleatoria, por ejemplo,

n

i

iXn

X1

1, mediana,

n

i

in XXn

S1

22 )(1

,

n

i

in XXn

S1

221 )(

1

1, etc.

Se pueden obtener diferentes estimadores para un parámetro a través de diversos métodos, pero se debe tener cuidado de elegir el mejor, para esto debe cumplir algunas propiedades que revisaremos en la siguiente sección.

1.1.1 Espacio paramétrico

El espacio paramétrico, denotado por , es el conjunto de valores posibles de un parámetro. Debe tenerse una muestra aleatoria de la población y conocer su distribución, para determinar este conjunto cuando se desconoce el parámetro. Por ejemplo, si se tiene una muestra aleatoria y las variables tienen función de densidad

normal con parámetros y 2

2

2

2

)(

2

2

1),;(

x

exf , con R y 0 , el espacio paramétrico es RR .

Page 18: Pruebas de ajuste de Bondad

Capítulo 1

7

1.1.2 Estimador puntual

Sea una población descrita por la función de densidad );( xf , y supóngase que se desea

obtener un estimador de , para comenzar la búsqueda del estimador se inicia revisando las relaciones que tiene el parámetro y los valores que se conocieron en la estadística descriptiva, como son los valores centrales (la media, moda, mediana, percentiles), valores de desviación (varianza, rangos, desviación estándar), estadísticas de orden, coeficiente de variación, momentos, etc.

Definición 1.2 Estimador puntual

Sea una población con parámetro , nXXX ,,, 21 una muestra aleatoria de la

población y ),,(ˆ1 nXXU la estadística correspondiente de . En la parte de

estimación a ̂ se le llama estimador de , mientras que al valor ̂ de ̂ , obtenido de una realización de la muestra aleatoria, se llama estimador puntual de .

NOTA

De la definición anterior se puede concluir que si es el parámetro con espacio paramétrico , cualquier estimador puntual de debe estar contenido en . Es decir, si ),,( 1 nXXU es el estimador del parámetro, su distribución tendrá como dominio a .

Ejemplo 1.1

Sea una población con función de densidad normal con parámetros y 2

2

2

2

)(

2

2

1),;(

x

exf , con R y ),0( .

Por otro lado, sea 1221 ,,, XXX una muestra aleatoria para estimar los

parámetros y 2 . De la cual se elige una realización dada por: 228, 233, 221, 223, 222,

238, 239, 235, 227, 224, 241 y 230. Utilice los valores de la realización para estimar los

parámetros y 2 .

Solución

Se sabe de la distribución normal que los parámetros )(XE y )( 21

2 nSE de donde

)(XE se estima con X y 2 con 21nS , de esta manera se tiene que

Page 19: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

8

356.49)0833.230()112(

0833.23012

2

1

22

12

1

i

i

i

i

x

x

Con base en la realización se tiene un estimador puntual para y otro para 2 .

Recuerde que el espacio paramétrico para la normal es R y ),0( y con R̂ y

),0(ˆ .

1.2 PROPIEDADES

Los estimadores preferidos deben cumplir ciertas propiedades, por el momento se puede restringir a:

Estimadores cuyos valores siempre pertenecen al espacio paramétrico.

Otra propiedad deseable del estimador ),,(ˆ1 nXXU , se refiere cuando el

valor esperado de la distribución del estimador ̂ sea igual al parámetro .

Definición 1.3 Estimadores sesgados e insesgados

Un estimador ),,(ˆ1 nXXU de una función )(g del parámetro , se llama

estimador insesgado de )(g si )()ˆ( gE , en caso contrario ( )()ˆ( gE ) se

llama estimador sesgado de )(g .

Definición 1.4 Sesgo

Sea T un estimador del parámetro , se llama sesgo a la función S que

representa la diferencia entre el valor esperado de un estimador y el parámetro

)()( gTES .

NOTA

No todos los parámetros tienen un estimador insesgado. Si un parámetro tiene dos estimadores insesgados, entonces tiene una infinidad de estimadores insesgados.

Page 20: Pruebas de ajuste de Bondad

Capítulo 1

9

PROPOSICIÓN

Sean 1T y 2T dos estimadores insesgados de , entonces 21 )1( TT es otro

estimador insesgado de , para cualquier R .

Demostración

Se calcula el valor esperado de la estadística 21 )1( TT

)1()1()1( 2121 TETETTE ,

lo cual implica que 21 )1( TT es un estimador insesgado de .

1.2.1 Estadísticas suficientes

Hasta el momento se ha hablado de una propiedad muy importante que debe cumplir un buen estimador. Pero aparte de ser insesgado, un buen estimador debe contener toda la información muestral, para asegurar esto se debe utilizar una estadística suficiente.

Si se tiene una muestra aleatoria nXX ,,1 con función de densidad conjunta

n

i

in xfxxf1

1 );();,,( ,

la estadística que se busca, debe basarse en:

a) la forma de la densidad f,

b) el espacio paramétrico y

c) las observaciones de la muestra.

A la estadística que cumple estas características se le llama estadística suficiente.

A continuación se dará una definición formal de Estadística suficiente, para el caso unidimensional.

Definición 1.5 Estadística suficiente para el caso unidimensional

Sea ),,( 1 nXXuT una estadística para , se llamará estadística suficiente para

, si la función de densidad condicionada de la muestra )|,,( 1 txxf n no depende

de .

Cabe mencionar que existen otras definiciones, pero todas ellas son equivalentes.

Page 21: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

10

Ejemplo 1.2

Sea nXXX ,...,, 21 una muestra aleatoria de densidades Bernoulli con parámetro p.

Pruebe que el estadístico

n

iiXT

1

es suficiente para .

Solución

Se ha mencionado que la estadística

n

iiXT

1

tiene una distribución binomial con

parámetros n y p. Considerando la definición de densidad condicionada, y que la densidad conjunta de una muestra aleatoria es igual al producto de las densidades, se tendrá:

n

t

tntn

t

tnt

tntn

t

xtxtxnx

tntn

t

xtxtn

i

xx

n

i

iT

n

i

iX

n

i

in

n

n

C

ppC

pp

ppC

pppp

ppC

pppp

tf

xtfxf

tf

xtxxf

tf

txxftxxf

n

ii

n

ii

n

i

i

n

i

i

n

ii

n

ii

ii

1

)1(

)1(

)1(

)1()1(

)1(

)1()1(

)(

)(

)(

,,,

)(

),,,()|,,(

1

1

1

1

1

1

1

1

1

1

1

1

11

11

1

1

1

1

1

1

1

1

11

1

1

Luego, de la definición de estadística suficiente y el hecho que la densidad

condicionada no depende del parámetro, resulta que

n

i

iXT1

es una estadística

suficiente para .

La comprobación de que una estadística dada es suficiente para un parámetro , a partir de su definición puede resultar un poco compleja. A continuación se verá un Teorema y su corolario que muestran cómo obtener estadísticas suficientes para el parámetro , de una forma sencilla.

Page 22: Pruebas de ajuste de Bondad

Capítulo 1

11

TEOREMA 1.1 Criterio de factorización (Neyman-Fisher)

Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf , con

R y sea ),,( 1 nXXUT una función de observaciones, entonces T es

una estadística suficiente para basada en la muestra aleatoria si y sólo si la

densidad conjunta

),,();,,();,,( 111 nnTn xxHxxUfxxf

donde ),,( 1 nxxH es una función que no depende de .

Para la aplicación del teorema a las estadísticas suficientes, en general se prefiere hacer uso del corolario siguiente.

COROLARIO del teorema de factorización (Neyman-Fisher)

Bajo las condiciones del Teorema anterior, T es una estadística suficiente para , si y

sólo si existen dos funciones

RR

RR

n:

:

2

1

tales que ),,();,,();,,( 12111 nnn xxxxUxxf , en donde ),,( 12 nxx no

depende de .

En forma práctica, para encontrar la estadística suficiente en funciones de densidad truncadas utilizando el corolario anterior es recomendable emplear la función indicadora.

Definición 1.6 Función indicadora

Se llama función indicadora a la función definida en todos los reales, tal que

ba

babaI

,0

,1),( o

valorotroen ,0

,1)(),(

bxaxI ba .

Antes de iniciar la búsqueda de estadísticas suficientes se puede notar que:

),,,min(,),( 21

1

n

n

i

i xxxaIxaI

o ),,,min()( 21),(

1

),( na

n

i

ia xxxIxI

.

bxxxIbxI n

n

i

i ),,,,max(),( 21

1

o ),,,max()( 21),(

1

),( nb

n

i

ib xxxIxI

.

Page 23: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

12

Ejemplo 1.3

Sea nXXX ,...,, 21 una muestra aleatoria de exponenciales con parámetro . Encuentre

una estadística suficiente para .

Solución

Se usará el corolario anterior, para esto se escribe la densidad conjunta.

),(

1

;

1

1

1

12

1

1 ),0(

),0(

);();,(

n

i

n

i

i

i

xx

n

i

i

x

xn

i

n

i

x

n

i

in

xIe

xIe

xfxxf

En donde,

n

i

ixn

i ex 1;1

y

n

i

in xIxx1

12 ),0(),( . Luego, por el corolario del

Teorema de factorización de Neyman-Fisher una estadística suficiente de es

n

i

iX1

.

PROPIEDAD DE INVARIANZA

Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf , con

R y sea ),,( 1 nXXUT una estadística suficiente para basada en la

muestra aleatoria y sea )(g una función invertible de T, entonces

a) )(Tg es una estadística suficiente para .

b) T es una estadística suficiente para )(g .

Demostración

La comprobación se obtiene directamente del criterio de factorización de Neyman- Fisher.

),,(;),,(

),,(;),,(

),,();,,();,,(

11

*

11

1

111

nnT

nnT

nnTn

xxHxxUgf

xxHxxUggf

xxHxxUfxxf

Así, una estadística suficiente para está dada por )(Tg .

Similarmente,

Page 24: Pruebas de ajuste de Bondad

Capítulo 1

13

),,()();,,(

),,()();,,(

),,();,,();,,(

11

**

1

1

1

111

nnT

nnT

nnTn

xxHgxxUf

xxHggxxUf

xxHxxUfxxf

Luego, una estadística suficiente para )(g está dada por T .

La propiedad de invarianza de la estadística suficiente T es muy útil en situaciones en las que se dificulta encontrar la distribución de T , sin embargo se facilita determinar la distribución de )(Tg . Un caso particular de esta propiedad, sería la función nxxg )( ,

ya que es invertible, con ella se obtiene el promedio. Luego, en el ejemplo de la exponencial una estadística suficiente de también es X .

Ejemplo 1.4

Sea nXX ,...,1 una muestra aleatoria de densidades ),(2; )(2 xIexf x con R finito. Encuentre una estadística suficiente para .

Solución

Se usará el corolario del Teorema de factorización de Neyman-Fisher, para esto se escribe la densidad conjunta.

)),,min(,(2

),(2

),(2),();,,(

1

22

1

22

1

)(2

1

1

1

1

n

nx

n

n

i

i

nx

n

n

i

i

xn

i

in

xxIee

xIee

xIexfxxf

n

i

i

n

i

i

i

En donde,

)),,min(,(),,,min( 12

11 nn

n xxIexx y

n

i

ixn

n exx 1

2

12 2),,( .

Por el corolario del Teorema de factorización de Neyman-Fisher una estadística suficiente de es ),,min( 1 nXXT .

Después de haber estudiado las estadísticas suficientes en una dimensión, se ha visto que éstas concentran toda la información que tiene la muestra con respecto del parámetro. Por consiguiente, un primer paso para encontrar un buen estimador insesgado, consiste en buscarlo como una función de la estadística suficiente.

Ejemplo 1.5

El lado de un cuadrado está medido con errores de medición aleatorios, cuya distribución

es normal con media cero y varianza conocida 2 . Supóngase que se tiene una muestra aleatoria de tamaño n , determine un estimador insesgado para el área del cuadrado.

Page 25: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

14

Solución

Sean nXX ,,1 la muestra aleatoria con ii eX donde ),0(~ 2Nei entonces

),(~ 2NX i con ni ,,1 .

Se desea encontrar un estimador insesgado para 2A entonces 2iX podría ser

un estimador para A con la desventaja de que este estimador no contiene toda la

información de la muestra, por lo tanto se usará

n

i

iXn

T1

21, para determinar el

estimador insesgado.

Calculando la esperanza de T , se tiene:

2222

1

2

1

2 )(111

)(

nn

XEn

Xn

ETEn

i

i

n

i

i .

Por lo tanto, el estimador insesgado para 2A está dado por 2

1

21

n

i

iXn

.

Ejemplo 1.6

El radio de un círculo está medido con errores de medición aleatorios, cuya distribución es normal con media cero y varianza conocida 2 . Supóngase que se tiene una muestra aleatoria de n medidas determine un estimador insesgado para el área del círculo.

Solución

Sean nXX ,,1 la muestra aleatoria de n medidas con ii eX donde ),0(~ 2Nei

entonces ),(~ 2NX i con ni ,,1 .

Se desea encontrar un estimador insesgado para 2A entonces se usa

n

i

iXn

T1

21 para determinar el estimador insesgado.

Calculando la esperanza de T , se tiene:

2222

1

2

1

2 )(111

)(

nn

XEn

Xn

ETEn

i

i

n

i

i .

Así que,

2

1

21

n

i

iXn

es un estimador insesgado para 2A .

.

Page 26: Pruebas de ajuste de Bondad

Capítulo 1

15

1.2.2 Estimadores insesgados con menor varianza

En las secciones anteriores, se revisaron dos propiedades deseables de un buen estimador, insesgamiento y suficiencia, pero no se ha hablado de la medida de variabilidad de un estimador. Es decir, en caso de tener diferentes estimadores insesgados para un mismo parámetro, además de pedir que provengan de estadísticas suficientes, se desea que la varianza del estimador sea más pequeña, para tener de esta manera un mejor estimador. Es decir, para tener un buen estimador se pedirá que sea una estadística suficiente, insesgado y tenga menor varianza.

Definición 1.7 Estimador insesgado más eficiente relativo

Dado un parámetro y un conjunto de estimadores insesgados de él,

m ˆ,,ˆ,ˆ21 , se llama estimador más eficiente relativo de con respecto del

conjunto de estimadores insesgados, al estimador cuya varianza sea menor.

Ejemplo 1.7

Sea 521 ,,, XXX una muestra aleatoria con parámetro , y XT 1 y

3

543212

XXXXXT

dos estimadores insesgados de . Compruebe cuál de ellos

es más eficiente relativo.

Solución

Para verificar que estimador insesgado es más eficiente relativo de 1T y 2T , se calculan

sus varianzas. Para el estadístico 1T , nXV 2)( , luego .5

1)()( 2

1 XVTV

Para el estadístico 2T :

.9

5)(

9

1

)()()1()()()(9

1

3

1

3)(

222222

542

321

543212

543212

XVXVXVXVXV

XXXXXVXXXXX

VTV

De los cálculos anteriores, resulta que el estadístico 1T es más eficiente que 2T , puesto

que

)(9

5

5)( 2

22

1 TVTV

.

Page 27: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

16

Como se pudo apreciar en el ejemplo el concepto de estimador más eficiente relativo sólo se refirió a un conjunto de estimadores insesgados, pero de hecho el concepto de estimador más eficiente es mucho más amplio, ya que se refiere al estimador más eficiente de todos los estimadores insesgados y no de un sólo conjunto de estimadores. Para llegar a obtener el estimador insesgado más eficiente se tiene una tarea mucho más complicada que la llevada a cabo para un sólo conjunto de estimadores insesgados. Por tal razón se verán algunos resultados que ayuden a obtener estimadores insesgados que tengan una varianza más pequeña.

Definición 1.8 Estimador insesgado de varianza uniformemente mínima

Sea nXX ,,1 una muestra aleatoria de densidades );( xf y *T un estimador insesgado de )(g , se llama estimador insesgado de varianza uniformemente mínima

o mejor estimador insesgado de )(g o estimador insesgado más eficiente de )(g , si

para cualquier otro estimador insesgado T de )(g , se cumple 22* TT

para todo

valor de .

1.3 MÉTODOS PARA OBTENER EL MEJOR ESTIMADOR

En general el problema de encontrar al mejor estimador insesgado no es un trabajo sencillo, pero se tienen diferentes resultados que pueden ayudar a encontrarlo. Véase uno de tales resultados.

TEOREMA 1.2 Rao-Blackwell

Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf ,

R y ),,( 1 nXXuZ una estadística suficiente de o de alguna

función )(g y ),,( 1 nXXvT un estimador insesgado para )(g , y

finalmente sea la variable aleatoria )(| ZhZTEU , entonces

a) U es una estadística y depende de la estadística suficiente Z.

b) U es un estimador insesgado para )(g , tal que )()( 22 TU para toda

.

NOTAS

Del Teorema se desprende una forma de obtener mejores estimadores insesgados, la cual consiste en poner una función )(| ZhZTEU , luego el estimador insesgado encontrado, U, aparece como una función de la estadística suficiente Z, por lo tanto, al querer mejorar U por medio de otro estimador insesgado se tendría

Page 28: Pruebas de ajuste de Bondad

Capítulo 1

17

que tomar la condicional )(|1 ZUZUEU , pero ésta no mejora, porque ya es una función de la estadística suficiente. De esta forma se ha encontrado un estimador insesgado de varianza uniformemente mínima para )(g . Obsérvese que para la aplicación del Teorema se usa la propiedad

)()|)(( ZhZZhE .

Ejemplo 1.8

Con ayuda del Teorema de Rao Blackwell encuentre un estimador insesgado de varianza uniformemente mínima para el parámetro donde nXXX ,...,, 21 una muestra

aleatoria de densidades uniformes entre ,0 .

Solución

Primero se encuentra una estadística suficiente para . Utilizando el corolario del Teorema de factorización de Neyman-Fisher, se tiene que;

),(

1

),(

11

1 1

1

121

),0(),(max1

),(),0(1

),(),0(1

);();,,(

nn xx

n

i

i

y

in

n

i

i

n

i

in

i

n

i

n

i

iin

xIxI

xIxI

xIxIxfxxf

obteniendo la estadística de orden nY como una estadística suficiente de .

Segundo se calcula la función de densidad de nY

)()(1

),0(1

),0(

1

1 yIyn

yIy

nyFynfyf n

n

n

nXXYn

.

Tercero, se prueba si el estimador insesgado de es una función de nY , para esto

se calcula el valor esperado de nY .

110

1

1

0

n

n

n

yn

dyyn

ydyyyfYE

n

n

n

nYn n

Por lo tanto, nYn

nT

1 es un estimador insesgado de y además es función de

la estadística suficiente, luego

Page 29: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

18

nn Yn

nYTEU

1|

,

por el Teorema de Rao-Blackwell U es el estimador insesgado de varianza uniformemente mínima, ya que está en función de la estadística suficiente.

Ejemplo 1.9

Sea nXX ,...,1 una muestra aleatoria con distribución 1,N , encuentre un estimador

insesgado de varianza uniformemente mínima para 2 .

Solución

Para una variable aleatoria de densidad 1,N , un estimador insesgado para 2 está

dado por 12 XT . En este caso el estimador insesgado para 2 está dado por

11

1

2

n

i

iXn

T

ya que contiene toda la información de la muestra y además

calculando su valor esperado se tiene que

222

1

2

1

2

1

2

1

2

1

2

)1()1(1

)1(1

)1(1

)1(11

11

XEXnEn

XEn

XEn

XEn

nXEn

Xn

E

n

i

n

i

i

n

i

i

n

i

i

n

i

i

Luego, 11

1

2

n

i

iXn

T es el estimador insesgado de 2 función de la estadística

suficiente

n

i

iXT1

2 . Así, por el Teorema de Rao-Blackwell, resulta que

11

|1

2

1

2

n

i

i

n

i

i Xn

XTEU es el estimador insesgado de varianza uniformemente

mínima.

Ejemplo 1.10

Sea nXX ,...,1 una muestra aleatoria de densidades exponenciales con parámetro 0 ,

encuentre un estimador insesgado de varianza uniformemente mínima para

a) . b) 1 .

Page 30: Pruebas de ajuste de Bondad

Capítulo 1

19

Solución

a) Primero se encuentra una estadística suficiente de , esto es

n

i

i

x

n

n

i

i

xn

i

in xIexIexfxxf

n

iii

1

1

1

1

1

1 ),0(1

),0(1

),();,,( 1

.

En donde,

n

iix

n

n

i

i ex 1

1

1

1

1,

y

n

i

in xIxx1

12 ),0(),,( .

Por lo tanto una estadística suficiente de es

n

i

iXT1

.

Segundo se prueba si

n

i

iXT1

es un estimador insesgado de . Para esto se

calcula su valor esperado

nXEXEn

i

n

i

i

n

i

i 111

)()( .

Por lo tanto, el estimador insesgado de está dado por:

n

i

iXn

X1

1. Luego,

XXXEUn

i

i

1

| , es el estimador insesgado de varianza uniformemente mínima.

b) un estimador insesgado de

1está dado por

X

1, ya que 1)1( XE , y además

XX

XEU

n

i

i

1|

1

1

.

Por lo tanto X

1 es el estimador insesgado de varianza uniformemente mínima.

1.3.1 Estimadores y familias de densidades completas

Ahora se verán estimadores y familias de densidades que cumplen ciertas características, que las hacen ser muy especiales en el estudio de los estimadores insesgados de menor varianza, ya que darán respuesta al caso cuando el estimador insesgado es único.

Page 31: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

20

Definición 1.9 Familias de densidades completas

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y

),,( 1 nXXuT una estadística de o de alguna función )(g . La familia de densidades de T se llama completa si y sólo si

0)( TZE para toda , entonces 10)( TZP para toda .

En donde ),,()( 1 nXXvTZ es una estadística. La estadística T se llama

completa si y sólo si su familia de densidades es completa.

Para verificar si una familia de densidades es completa, se tiene que recurrir a utilizar algunos conceptos y resultados del Cálculo, como son:

1. Cálculo de integrales de funciones pares e impares.

2. Teorema fundamental del cálculo.

3. Transformada de Laplace, y algunos otros. La comprobación de que una familia de densidades sea o no completa en general

resulta complicado de aplicar. A continuación se dará sin demostración una lista de familias completas.

Las siguientes familias de densidades son completas

1. xIxn

xfn

n

,01

)1(;

con 0n . Cuando 0n es la uniforme.

2. La familia de Bernoullis.

3. La familia de binomiales.

4. La familia de gammas ),( n con 1n . Cuando 1n es la exponencial.

5. La familia ),( 20N con varianza conocida.

La completitud es una propiedad de las familias, pero ¿Cuándo una familia es completa?

Supóngase que 1k (dimensión de ) y que R ),( ba , en donde a y b son

conocidos pero no necesariamente finitos.

Definición 1.10

La familia f es completa si cada vez que se tiene una función continua )(xu (que

no depende de ), tal que:

0)( XuE , ),( ba entonces sucede que 0)( Xu .

Page 32: Pruebas de ajuste de Bondad

Capítulo 1

21

NOTA

Por 0)( Xu se entiende que 0)( Xu para toda x que pertenezca a la unión de todos los soportes de la familia.

Ejemplo 1.11

Considere la familia de densidades

...,0

0,,2

1

);(

mod

xxxf

¿La familia será completa?

Solución

La familia no es completa, porque si XXu )( se tendrá

02

1);()()(

xdxdxxxfXEXuE

Luego, 0)( XuE , pero 0)( xu , no se deduce que 0)( xu . Por lo tanto, la familia

anterior no es completa.

NOTA

La propiedad de completitud dependerá de la función de densidad.

Ejemplo 1.12

Considere la familia de densidades

...,0

0,1

);(

mod

xxf

¿La familia será completa?

Solución

Supóngase que 0)( XuE para todo 0 , es decir, 0)(1

)(

0

dxxuXuE , pero por

condiciones )(xu es continua en ),0( , por consiguiente se puede aplicar el teorema

fundamental del cálculo, y derivar 0)(

0

dxxu , es decir

Page 33: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

22

)()()0(

00

udxxud

d

d

d

0

Por lo tanto, 00)( u , faltar notar que la unión de los soportes de la

familia es ),0(),0(0

. Con lo cual se concluye que 0

),0(0)(

xxu .

NOTA

En muchas ocasiones lo anterior se escribe en términos de las probabilidades como: 1)0)(( XuP . Es decir, la probabilidad de que la función 0)( xu para cualquier

valor es igual a 1. El problema de completitud está ligado a los estimadores eficientes.

Ejemplo 1.13

Sea 0:),0( ¿familia de densidades será completa?

Solución

Como

dxxfxuXuE );()()( , en particular se considera que xxu )( y véase

02

1);()()( 22

dxxeXEdxxfxuXuE x

pero 0)( xxu .

Como X es normal con media 0 y varianza , entonces 0,0 XE

pero 0)( xu se tiene que esta familia no es completa.

NOTA

Recordar que se tenía a conocido y se quiere obtener el parámetro , tal que );( xf es la función de densidad de probabilidad y que la distribución que se quiere no se conoce, pero se sabe que está en la familia :);(xfF . Por lo tanto, se quiere conocer para saber cuál es la distribución de nXX ,,1 una muestra aleatoria.

Ejemplo 1.14 (una clase exponencial)

Sea ),(:);( baxfF tal que 0)(,0)(;)()();( xrexrxf x . Compruebe

que F es completa.

Solución

En efecto, sea )(xu una función continua tal que ),(0)( baXuE . Se probará

que en estas condiciones 0)( xu

Page 34: Pruebas de ajuste de Bondad

Capítulo 1

23

dxexrxudxexrxuXuE xx )()()()()()()(0

pero 0)( , por lo tanto 0)()(

dxexrxu x .

Utilizando la transformada de Laplace se tiene 0)()()()()(

dxexrxuT xxrxu

entonces

0)()(0)()()( xrxuT xrxu , como xxuxr 0)(0)( tal que 0)( xr .

Luego, se concluye que la clase exponencial es completa.

1.3.2 Familias de densidades de clase exponencial

Una familia de densidades que tiene muchas aplicaciones en la estadística es la siguiente:

sinvertible funciones ,y ,0)(,0)(con ,)()(exp)()();(y |);( twcxhxtwcxhxfxf F

A esta familia se le llama familia exponencial o clase exponencial

TEOREMA 1.3

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , que pertenece a una

familia exponencial, entonces la estadística

n

i

iXtT1

)()(X es completa.

Con este resultado general para la clase exponencial, un método posible de probar la completitud de una familia de densidades, consistiría en probar si pertenece a una familia exponencial. Cabe aclarar que en caso de que la familia de densidades no pertenezca a la clase exponencial, esto no quiere decir que no sea completa.

Ejemplo 1.15

Probar que )()1(2

);( 1,0,1

1xIxf

x

x

no pertenece a una familia exponencial.

Solución

Haciendo la descomposición de la función de densidad para llevarla a la forma de la clase exponencial se tiene

Page 35: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

24

1ln

1,0

1,0

1

1,0,1

1

)1)((2

1

)1)(()1(2

1)()1(

2);(

xx

xx

x

x

x

exI

xIxIxf

De la expresión anterior x no es invertible por lo tanto la familia de densidades

);( xf no pertenece a la clase exponencial.

1.3.3 Estimadores insesgados de varianza uniformemente mínima, Lehman-

Scheffé

Con base en las familias completas y el siguiente resultado, se puede conocer cuando un estimador insesgado es único, por consiguiente será un estimador insesgado de varianza uniformemente mínima.

TEOREMA 1.4 Lehman-Scheffé

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R . Si

),,( 1 nXXuZ es una estadística suficiente completa para )(g y existe un

estimador insesgado )(ZuU , para )(g , entonces U es único, luego U es un

estimador insesgado de varianza uniformemente mínima para )(g .

Ejemplo 1.16

Sea nXX ,...,1 una muestra aleatoria de densidades gamma ),4( con 0 .

Encuentre un estimador insesgado más eficiente para .

Solución

Primero se encuentra una estadística suficiente de , para ello se utiliza la función de

densidad conjunta

n

i

x

n

in

i

x

i

n

i

in

n

iii

ex

exxfxxf1

1

4

3

1

3

41

11

1

)4()4(

1),();,,(

En donde,

n

iix

n

n

ii ex 1

1

41

1

1,

y

n

i

in

xxx

1

3

12)4(

),,( .

Page 36: Pruebas de ajuste de Bondad

Capítulo 1

25

Por lo tanto, una estadística suficiente de es

n

i

iXT1

.

Segundo se busca un estimador insesgado a partir de

n

i

iXT1

para lo cual se

obtiene su valor esperado

nXEXEn

i

n

i

i

n

i

i 44)()(111

.

Por lo tanto, el estimador insesgado de está dado por:

n

i

iXn

X14

1

4

1.

Luego, por el teorema de Rao-Blackwell resulta que XXXEUn

i

i4

1|

4

1

1

, es el

estimador insesgado de varianza uniformemente mínima. Además la familia de densidades gammas es completa, luego por el Teorema de Lehman-Sheffé es único, por tanto es el más eficiente.

1.3.4 Estimadores de menor varianza, cota inferior de Cramer-Rao

En los Teoremas de Rao-Blackwell y Lehman-Sheffé se estudiaron los estimadores

insesgados más eficientes, por medio de los cálculos de los estimadores insesgados de

varianza uniformemente mínima y los estimadores insesgados únicos, respectivamente. Ahora se verá un Teorema con el que se obtiene una cota para la varianza de los estimadores que no necesariamente deben ser insesgados, además no se pedirá la completitud de las familias de densidades.

Para esto se denota por LIC-R el límite inferior de Cramér-Rao y se define en forma general para una función del parámetro , )(g , por

2

2

);(ln

)()(

XfnE

ggLIC-R .

En donde, se denota por

2

);(ln)(

XfEI ,

Page 37: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

26

a la llamada información de Fisher, así el límite inferior de Cramér-Rao para la función del parámetro , )(g , se puede escribir como

)(

)()(

2

nI

ggLIC-R

.

Resulta que si T es un estimador insesgado de , entonces RLICT )(2 . Es

decir, el LIC-R es el de menor varianza, para cualquier estimador insesgado. También el LIC-R se usa para estimar )(g cambiando por )(g .

TEOREMA 1.5 Cota inferior de Cramér-Rao

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y );(log xf

diferenciable para toda x y y además )(0 I para toda R entonces

1. )()( TVargLIC-R , en donde T es un estimador insesgado de )(g .

2. )()()( TVarSgLIC-R , en donde T es un estimador sesgado de )(g , con

sesgo )(S .

A las desigualdades 1 y 2 del Teorema anterior se les llama desigualdades de Cramér-

Rao.

NOTAS

1. El Teorema sobre la cota inferior de Cramer-Rao, no es aplicable a funciones de densidad en donde el soporte de la variable contiene al parámetro en sus límites, porque tendrá que ser representada por la función indicadora y ésta no es diferenciable.

2. Del Teorema de la cota inferior de Cramér-Rao, para el caso en que T sea un estimador insesgado de )(g y satisface la igualdad

)()( TVargLIC-R , entonces automáticamente se cumple que T es el

estimador insesgado más eficiente para )(g .

Así, para encontrar un estimador eficiente de un parámetro, por otro método diferente al anterior (basado en los Teoremas de Rao-Blackwell y Lehman-Scheffé), que no requiere conocer si una familia de densidades es o no completa, se muestra a continuación.

Sea nXXX ,,, 21 una muestra aleatoria de densidades );( xf , para encontrar un

estimador insesgado más eficiente de )(g , se siguen los siguientes pasos:

Se calcula la información de Fisher para .

Page 38: Pruebas de ajuste de Bondad

Capítulo 1

27

Se calcula la cota inferior de Cramér-Rao de )(g .

Se busca un estimador insesgado de )(g , sea este T, si cumple la igualdad

)()( TVargLIC-R , entonces T es el estimador insesgado más eficiente de )(g .

Ejemplo 1.17

Sea nXX ,,1 una muestra aleatoria de distribuciones Poisson, con parámetro . Con

ayuda del Teorema de la cota inferior de Cramér-Rao, encuentre el estimador insesgado de más eficiente.

Solución

Primeramente, se calcula la información de Fisher

1111

)!ln()ln(!

ln);(ln)(

2

2

2

2

222

XEX

E

XXEX

eEXfEI

X

Segundo se calcula el LIC-R( ):

nn

LIC-R

1

12

.

En tercer lugar se busca un estimador insesgado de cuya varianza sea n

. Se

propone XT . Para esto primero se verifica que sea insesgado, )()( XETE .

Luego, se calcula su varianza, )(-)(1

)()(

RLICn

XVn

XVTV . Así, el

estimador eficiente para es XT .

En muchas ocasiones la información de Fisher se puede calcular con el resultado del Teorema siguiente.

TEOREMA 1.6

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y

);(log xf dos veces diferenciable para toda x y entonces

);(log)(

2

2

xfEI .

Page 39: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

28

Ejemplo 1.18

Calcule la información de Fisher de la distribución de Poisson del ejemplo 1.17.

Solución

1

11

)!ln()ln(!

ln);(ln)(

22

2

2

2

2

2

2

XE

XE

XXEX

eEXfEI

X

El mejor estimador insesgado que se obtiene con la cota inferior de Cramer-Rao, también se puede calcular por medio del siguiente Corolario del Teorema de Cramer-Rao.

COROLARIO

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y

satisface las condiciones del Teorema de Cramer-Rao. Además );( xXf es la

función de densidad conjunta de la muestra aleatoria. Luego, si ),,( 1 nXXTT

es un estimador insesgado de )(g , entonces ),,( 1 nXXTT se obtiene de la

cota inferior de Cramer-Rao si y solo si

);(log)()()(

xx XfgTh

,

para alguna función )(h .

Ejemplo 1.19

Sea nXX ,...,1 una muestra aleatoria de densidades normales con media 0 y desviación

estándar . Encuentra LIC-R para )ln( .

Solución

El LIC-R para 1)()( gg en este caso es

2

2

);(ln

)1(

XfnE

, para esto se

calcula la información de Fisher dada por

Page 40: Pruebas de ajuste de Bondad

Capítulo 1

29

2

2

2

)ln(

2

2

2

)ln(

)2ln(2

1ln

2(

)ln(

2

1ln))ln(;(ln))(ln(

2

2

XE

eEXfEI

X

Para continuar el cálculo de ))(ln(I se hace la siguiente transformación

)ln(2)ln(2 2 ee , entonces:

22

8

241)(2)(

1

211

1

1)2ln(2

1ln

2(

)ln())(ln(

4

444

4

2224

4

2224)ln(4

222

4)ln(

2

2

2

)ln(

2

)ln(2

2

)ln(

2

)ln(2

2

)ln(

XEXE

XXEXEX

E

e

XE

e

XEI

Por lo tanto, n

RLIC2

1))(ln( .

1.4 ERROR CUADRADO MEDIO

En las secciones anteriores se estuvieron revisando los estimadores y sus propiedades para encontrar mejores estimadores. Se puede resumir que es recomendable que un estimador sea:

Insesgado del parámetro. Estadística suficiente del parámetro. De varianza mínima con respecto de los demás estimadores insesgados del

parámetro.

Así, para obtener el mejor estimador insesgado, se vio que aparte de pedir que se trate de una estadística suficiente, se requiere que sea de varianza uniformemente mínima, para lo cual se utilizan los Teoremas de Rao-Blackwell y Lehman-Scheffé.

Cuando se trata de estimadores sesgados se usa otra medida que represente la variabilidad con la que sea factible comparar diferentes tipos de estimadores para poder tomar la decisión de cuál de ellos es mejor.

Page 41: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

30

Definición 1.11 Error cuadrado medio

Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y ),,( 1 nXXuT un estimador de )(g , se llama error cuadrado medio de )(g con

respecto de )(XuT a

)()(2

TecmgTE .

Obsérvese que el error cuadrado medio se parece al valor esperado del cuadrado del sesgo )()( gTE , pero en lugar del valor esperado del estimador se tiene a

)(gT .

PROPOSICIÓN

Sea nXX ,,1 una muestra aleatoria de una población con parámetro , R

y sea ),,( 1 nXXUT un estimador de )(g , entonces

)()()( 2 TSTVTecm .

En donde, )(TV y )(TS son la varianza y el sesgo de T con parámetro ,

respectivamente.

Demostración

Por definición:

)()(

)(0)(

)()()()()()(2)(

)()()()()()(

)()(

2

2

22

22

2

TSTV

TSTV

gTEgTETETETETE

gTETETEgTETETE

gTETecm

con lo que se concluye la demostración.

De la proposición se tiene que si T es un estimador insesgado de )(g , entonces

)()( TVecmT y por tal razón en el caso de estimadores insesgados se buscaba a los

que tuviesen la menor varianza.

Ampliando, la búsqueda anterior de los estimadores, sesgados o insesgados, con menor variabilidad se tendrá que remitir al estudio del error cuadrado medio. Es decir, si se tiene el parámetro y los estimadores, sesgados o insesgados, ,, 21 TT de )(g el mejor de ellos será el que tenga el menor error cuadrado medio.

Page 42: Pruebas de ajuste de Bondad

Capítulo 1

31

Así, de forma similar al estimador insesgado de varianza uniformemente mínima, se puede hablar del estimador con error cuadrado medio uniformemente mínimo. Es decir, se desea encontrar al estimador *T de )(g , tal que

),()( * TecmTecm y todo estimador T de )(g .

Para el caso de estimadores insesgados se han revisado algunos resultados que ayudan a encontrar a dicho estimador, *T , pero el problema general resulta difícil y en la mayoría de las veces no existe. Por tal razón, con frecuencia se limita a encontrar el estimador, **T , que tiene el menor error cuadrado medio de los máximos de los errores cuadrados medios y a este estimador **T se le suele llamar el estimador mini-max.

Ejemplo 1.20

Sea X una variable aleatoria, 1,N . Considere el estimador 2X para 2 y calcule su error cuadrado medio.

Solución

El )()()( 2222 XSXVXecm , pero el sesgo está dado por 1)()()( 222 XVXEXS

, de donde 22 1)( XE .

Ahora para encontrar la )( 2XV , sea ZX entonces Z se distribuye 1,0N y 2Z se distribuye 2

1 , por lo tanto

2

4242

22432

222432234

222432234

22422

42

2163

)0(21)0(4)1(6)0(43

)(2)()(4)(6)(4)(

2464

)()()()(

ZEZEZEZEZEZE

ZZEZZZZE

ZEZEZVXV

entonces 2222 43)1()42()( Xecm .

1.5 MÉTODO DE MÁXIMA VEROSIMILITUD

A continuación revisaremos el método de máxima verosimilitud para determinar otro tipo de estimadores. El método de máxima verosimilitud considera un problema de estimación muy simple, se basa en la función de densidad conjunta de n variables

Page 43: Pruebas de ajuste de Bondad

Conceptos básicos y propiedades sobre los estimadores puntuales

32

aleatorias nXX ,,1 , dependientes de los parámetros m ,,1 , sobre los cuales

maximizamos la función de densidad conjunta para el caso de una realización nxx ,,1 .

Definición 1.12 Función de verosimilitud

La función de verosimilitud de n variables aleatorias nXX ,,1 está definida

como la densidad conjunta de las n variables, es decir, );( θxf , la cual es

considerada como una función de m ,,1 . En particular, si nXX ,,1 es una

muestra aleatoria de densidades );( θxf , entonces la función de verosimilitud es

n

i

mixff1

1 ),,;();( θx .

NOTA

La función de verosimilitud es una función de m ,,1 y se suele utilizar la

notación );(),,;,,( 11 θxfxxL nm

Sea el espacio de parámetros, entonces se tiene que el problema de los estimadores de máxima verosimilitud consiste en determinar el valor de

θ),,( 1 m , el cual se denotará por θ̂ , y será tal que maximiza la función de

verosimilitud ),,;( 1 nxxL θ . El valor de θ̂ , que maximiza la función de verosimilitud en

general es una función de nxx ,,1 , es decir, ),,(ˆ1 nxxg θ .

Cuando esto sucede la variable aleatoria ),,(ˆ1 nXXg Θ se llama El estimador

de máxima verosimilitud del parámetro θ .

Definición 1.13 Estimador de máxima verosimilitud

Sea ),,;()( 1 nxxLL θθ la función de verosimilitud de las n variables aleatorias

nXX ,,1 . Si θ̂ (donde ),,(ˆ1 nxxg θ

es una función de las observaciones

nxx ,,1 ) es el valor de

θ con el que se maximiza )(θL , entonces la variable

aleatoria ),,(ˆ1 nXXg Θ es el estimador de máxima verosimilitud de θ . Mientras

que ),,(ˆ1 nxxg θ es el valor del estimador de máxima verosimilitud de θ para

la realización nxx ,,1 .

Como se puede apreciar el método de máxima verosimilitud es simple en su esencia, pero obviamente tiene todas las dificultades de la localización de máximos en una función, en donde se aplican las diferentes técnicas del cálculo como son: máximos y

mínimos relativos, máximos y mínimos absolutos y extremos de funciones monótonas, así como métodos numéricos.

Page 44: Pruebas de ajuste de Bondad

Capítulo 1

33

Propiedades de los Estimadores de Máxima Verosimilitud

Siempre son funciones de la estadística suficiente minimal. Son los MAN.

Son consistentes en ECM (Error Cuadrado Medio). Son invariantes.

Page 45: Pruebas de ajuste de Bondad

34

Capítulo 2

DISTANCIAS Y PRUEBAS DE BONDAD DE AJUSTE

En el presente capítulo se hablará de las distancias, así como también se mencionarán algunas de las funciones que existen para calcularla. Este capítulo es muy importante ya que el estadístico de prueba para realizar una prueba de bondad de ajuste sobre los datos muestrales proporcionados es precisamente una función de distancia, por ejemplo la prueba ji-cuadrada, lo que hace es medir la distancia entre la función de densidad de la variable empírica y la teórica. Así que es necesario dar una pequeña introducción de las funciones de distancia para poder entender la relación que tienen con las pruebas de bondad de ajuste.

Page 46: Pruebas de ajuste de Bondad

Capítulo 2

35

2.1 EL PROBLEMA DE LA MEDICIÓN DE DISTANCIAS

Para la humanidad es muy importante conocer ciertas distancias porque esto indica una medida que separa la localización entre dos objetos. En estadística las funciones de distancia tienen una gran importancia cuando se trata de estimar algún parámetro. A continuación se definirán aspectos importantes de las funciones de distancia y en la siguiente sección se mencionarán algunas funciones de distancia.

Es conocido que una función de distancia está definida bajo un espacio métrico, es decir, una estructura matemática que permite la definición formal de la convergencia y continuidad, donde una distancia entre puntos está bien definida.

Definición 1.1 Espacio métrico

Se le llama espacio métrico a un conjunto M de puntos asociado con una función d , donde d es un función de distancia.

La distancia expresa la proximidad o lejanía entre dos objetos o el intervalo de tiempo que transcurre entre dos sucesos. Existen muchas funciones para calcularla, pero todas ellas deben cumplir con ciertas propiedades.

Definición 1.2 Función distancia

Sea d una función de la forma :d (donde es el conjunto de los números reales) para todo zyx ,, en M, de tal forma que satisface las siguientes

condiciones:

1.- 0, yxd

2.- 0, xxd (reflexividad)

3.- Si 0, yxd , entonces yx (identidad de los indiscernibles)

4.- xydyxd ,, (simétrica)

5.- zydyxdzxd ,,, (desigualdad del triangulo)

Entonces a d se le llama función de distancia.

Page 47: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

36

2.2 TIPOS DE DISTANCIAS Y SUS MÉTRICAS

Existen infinidad de fórmulas para calcular distancias, así que en esta sección hablaremos sólo de algunas, por ejemplo de las más comunes tenemos la distancia Euclidiana.

Distancia Euclidiana

La distancia Euclidiana es la función de distancia más común, es la distancia ordinaria

entre dos puntos en n . Se calcula con la siguiente fórmula.

qxqxqx T

j

jjE qxd2

, .

La distancia euclidiana da el mismo peso a todas las direcciones del espacio que representa y se podría representar como un círculo entorno a un punto.

Uno de los problemas de la distancia euclidiana es que no tiene en cuenta si las variables están correlacionadas entre sí. De ahí se han derivado otras fórmulas donde incluyen una matriz de pesos M, tales como;

Euclidiana Pesada Diagonalmente

Esta distancia es una generalización de la anterior, pero agrega pesos a cada componente de los vectores. Se calcula por medio de

qxETT

j

jjjm dqxmd ,,2

qxΜΜqxqx .

donde jm es el factor de escala o peso en la dimensión j y Μ es una matriz diagonal

con jjj mΜ .

Euclidiana completa o Mahalanobis.

Es una medida de distancia que fue introducida por Mahalanobis en 1936, la utilidad de esta distancia radica en que es una forma de determinar la similitud entre dos variables aleatorias multidimensionales. Se diferencia de la distancia Euclidiana en que tiene en cuenta la correlación entre las variables aleatorias

qxΣqxqxΣ 1,T

d .

Donde Σ es la matriz de varianzas y covarianzas.

Page 48: Pruebas de ajuste de Bondad

Capítulo 2

37

Para entender mejor esta distancia, se muestra el ejemplo siguiente.

Ejemplo 2.1

Un pescador quiere medir la similitud entre dos salmones, por ejemplo porque quiere clasificarlos en dos tipos para su venta y poder así vender los grandes más caros. Para

cada salmón mide su anchura y su longitud. Con estos datos construye un vector qx,

donde nxxx ,,, 21 x y nyyy ,,, 21 q .

La longitud de los salmones pescados es una variable aleatoria que toma valores entre 50 y 100 cm, mientras que su anchura está entre 10 y 20 cm. Si el pescador usase la distancia euclídea

qxqxqx T

j

jjE qxd2

,

al ser las diferencias de anchura menos cuantiosas que las de longitud, les estará dando menos importancia. Por esta razón, el pescador decide incorporar la estadística de los datos a la medida de distancia, ponderando según su varianza: las variables con menos varianza tendrán más importancia que las de mayor varianza. De esta forma pretende igualar la importancia de la anchura y la longitud en el resultado final. La expresión quedaría

qxqxqxΣ 1, SdT

Donde S es una matriz diagonal cuyos elementos en la diagonal iiis .

Pero la expresión anterior tiene un problema, y es que la longitud y anchura de los salmones no son independientes; es decir, la anchura depende en cierta forma de la longitud, pues es más probable que un salmón largo sea también más ancho. Para incorporar la dependencia entre las dos variables el pescador puede sustituir la matriz

diagonal S por la matriz de covarianza

Que es la distancia de Mahalanobis.

qxΣqxqxΣ 1,T

d

Page 49: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

38

Distancia de Minkowski.

Una distancia que se define dentro de la geometría de los números para los espacios pL

en donde 0p , lleva el nombre del matemático Ruso Herman Minkowski

(nacionalizado alemán) dada por

p

j

p

jjp qxd

/1

,

qx

Distancia Kolmogórov-Smirnov (K-S)

Una distancia que se define para mostrar la cercanía entre dos distribuciones teórica y empírica, lleva el nombre de los matemáticos Rusos Andrei Kolmogórov y Smirnov, ésta se define de la siguiente forma

|)()(|sup 0 xFxFD nx

n

.

En donde, )(xFn y )(0 xF son las distribuciones empírica y teórica de la variable aleatoria

X , respectivamente.

Anderson-Darling (A-D)

Esta es una variante de la distancia K-S, en el que se asigna a las discrepancias entre la distribución empírica y la teórica un peso o ponderación diferente. La prueba A-D es considerada más potente que la prueba de K-S para detectar discrepancias en las “colas” de las distribuciones.

El estadístico 2

nAD se define con la siguiente expresión,

dxxfxxFxFnAD nn

2

0

2 )()(

Donde la función de pesos es,

xFxF

x00 1

1

.

Distancia ji-cuadrada

Una distancia entre frecuencias teóricas y muestrales lleva el nombre de Ji-cuadrada

Page 50: Pruebas de ajuste de Bondad

Capítulo 2

39

k

i i

iic

np

npn

1

22 )(

Donde,

in es el número de datos en la clase i .

n es el tamaño de la muestra.

ip es la probabilidad de que la variable aleatoria X (poblacional) tome valores en

el intervalo i .

Distancia Levy (Yakowitz, 1969)

Esta es una distancia en el espacio de funciones de distribución acumulada de variables aleatorias unidimensional. Este es un caso especial de la distancia Lévy–Prokhorov.

Sean 1,0:, GF dos funciones de distribución acumulada. La Distancia

Lèvy entre estas dos se define como

xFxGxFGFL 0inf, para toda x

Distancia Cramér-Von Mises (Macdonald, 1971)

Esta distancia además de ser útil en el ajuste de distribuciones también se utiliza como parte de otros algoritmos, tales como la estimación de mínima distancia. Se define como

xdFxFxFw n

*2*2

Para el uso en pruebas de bondad de ajuste *F es la distribución teórica y nF es

la distribución empírica. Para la estimación de mínima distancia las dos distribuciones son empíricas, esta generalización es debida a Theodore Wilbur Anderson.

Distancia Hellinger (Woodward, Whitney, Eslinger, 1995)

La distancia de Hellinger se define en términos de “La Integral de Hellinger”, que fue introducida por Ernst Hellinger. Si P y Q denotan dos medidas de probabilidad, absolutamente continuas con respecto a una tercera medida . La distancia Hellinger se define de la siguiente forma

Page 51: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

40

d

d

dQ

d

dPQPH

2

2

2

1,

donde ddP y ddQ son las derivadas Radon–Nikodym de P y Q, respectivamente.

Esta definición no depende de , así que la distancia de Hellinger entre P y Q no cambia si se sustituye por otra medida de probabilidad con respecto a la cual P y Q son absolutamente continuos. Para la compacticidad, la fórmula antedicha se escribe a menudo como

22

2

1, dQdPQPH

Divergencia de Kullback-Leibler (1951)

Existen otras formas de medir la similitud entre dos funciones de distribución, que se conoce de forma más apropiada como “divergencia” en lugar de distancia, debido a que no cumple la propiedad de simetría. Un ejemplo de este tipo se refiere a la divergencia de Kullback-Leibler la cual está íntimamente relacionada con el método de ajuste de distribuciones por máxima verosimilitud.

Si se tienen n observaciones nxx ,,1 independientes de una variable aleatoria

con función de densidad desconocida f y se tratan de ajustar dentro de una familia de

funciones de densidad f , de acuerdo con la teoría de máxima verosimilitud se busca el

parámetro que minimiza la función

i

ixfL )(log

que puede aproximarse (cuando n es grande) por

dxxfxf )(log)(

Restando dicha expresión del término constante

dxxfxf )(log)(

Se obtiene

Page 52: Pruebas de ajuste de Bondad

Capítulo 2

41

dxxf

xfxfdxxfxfdxxfxf

)(

)(log)()(log)()(log)(

que es la divergencia de Kullback-Leibler entre f y la distribución verdadera

determinada por f . Es decir, maximizar la función de verosimilitud es (aproximadamente) equivalente a encontrar el parámetro que minimiza la divergencia de Kullback-Leibler entre la distribución real y la familia de distribuciones parametrizadas por dicho parámetro.

2.3 PRUEBAS DE BONDAD DE AJUSTE

Hasta el momento se ha hablado de varios conceptos importantes en el estudio de la estadística, como los estimadores y algunos métodos para encontrar el mejor estimador. Ahora se hablará sobre las pruebas de bondad de ajuste, indicando algunas de las pruebas principales y la distancia que tienen.

Dada nXXX ,,, 21 una muestra aleatoria con distribución F , un problema

básico en estadística consiste en encontrar un modelo que proporcione información de la procedencia de los datos. Por ejemplo, supóngase que es de interés conocer hasta qué

punto es razonable suponer que los datos provienen de una cierta distribución 0F . Las

pruebas estadísticas destinadas a la resolución de este tipo de problemas son llamadas Pruebas de Bondad de Ajuste.

Definición 1.3 Prueba de bondad de ajuste

Una prueba de bondad de ajuste es un procedimiento estadístico para probar la hipótesis de que una función de distribución particular ajusta un conjunto de datos observados sin especificar una prueba de hipótesis alternativa.

Sea nXXX ,,, 21 una muestra aleatoria de una función de densidad )(xFX .

Cuando se enfrenta el problema de construir una prueba de bondad de ajuste para la hipótesis nula

)()(: 00 xFxFH X ,

Page 53: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

42

donde )(0 xF denota una familia de distribuciones, no se cuenta con un criterio general

para construirla. Sin embargo, al revisar la literatura se observa que muchas pruebas se han obtenido con base en alguno de los siguientes criterios.

Pruebas basadas en la función de distribución empírica

Estas pruebas están basadas en una comparación de la función de distribución empírica (f. d. e.) con la f. d. teórica. La estadística de prueba es de la forma:

)(),(011 xFxFdT n ,

donde )(),(01 xFxFd n es una función de distancia y ,xFn denota la f. d. e. la cual se

define como

n

xsxxF i

n

de#)( ,

donde las ix ’s son una realización de la muestra aleatoria.

Un ejemplo se refiere a la estadística de Kolmogórov

|)()(|sup 0 xFxFD nx

n

.

Otro la estadística de Andrson-Darling

dxxfxxFxFnAD nn

2

0

2 )()(

.

Las cuales fueron mencionadas en la sección 2.2.

La prueba de Kolmogórov-Smirnov es una de las pruebas no paramétricas más importantes, por tales razones se estudiarán detalladamente en el siguiente capítulo.

La distribución de alguna estadística de este tipo no depende de la distribución de )(0 xF .

Pruebas basadas en la función característica empírica

Sea )(0 x la función característica (f. c.) de )(0 xF y sea )(xn la f. c. empírica definida

como

Page 54: Pruebas de ajuste de Bondad

Capítulo 2

43

n

i

in tiitxn

x1

.,1},exp{1

)(

La estadística de este tipo de pruebas es de la forma

))(),((22 xxdT nn .

donde ))(),((2 xxd n es una función de distancia, tal que 0))(),((2 xxd n si y sólo si

)()( xx n .

Pruebas basadas en momentos

Otro criterio para construir pruebas de bondad de ajuste consiste en comparar algunos momentos poblacionales con los momentos muéstrales correspondientes. El k-ésimo momento central de )(0 xF , k>0, se define como

)()( 0 xdFx k

k

donde

)(0 xxdF y el k-ésimo momento central y una estadística está dada por

n

i

kik xx

nm

1

_

)(1

,

donde

n

i ixn

x1

1.

Ejemplo la estadística

22

4

m

mbi

A pesar de que los k-ésimos momentos de dos distribuciones distintas pueden ser iguales para algunos valores de k, existen muchas pruebas basadas en este criterio.

Pruebas de correlación y regresión

Sea )(0 xF una f. d. que depende únicamente de parámetros de localidad y escala,

02 y . Sea ),,,( )()2()1(0 nXXX el vector de estadísticas de orden

correspondientes a la m. a. nXXX ,,, 21 . Sea ),,,( )()2()1(0 nZZZ una m.a.

Page 55: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

44

ordenada de la f.d. )(0 xF con parámetros 00 2 y y sean

),,,( 21 nmmm m y ijvV el vector de medias y la matriz de covarianzas de 0Z ,

respectivamente. Entonces,

niZX i

d

i ,,1,)()(

Una prueba de correlación compara dos estimadores de 2 .

Un ejemplo de este tipo es la prueba de Shapiro y Wilk (1965) para probar normalidad univariada cuya estadística de prueba es

n

i

i

n

i

ii

xx

xa

W

1

2_

1

)(

)(

.

Para ciertas constantes .,,, 21 naaa

Una prueba de regresión consiste en medir la linealidad entre 0X y m.

Pruebas basadas en caracterizaciones

Se dice que una propiedad caracteriza la distribución 0F cuando dicha propiedad se

cumple si y solo si 0F es verdadera.

Se dice que una prueba se basa en una caracterización de 0F cuando se prueba

que se cumple la propiedad característica en lugar de probar directamente que se cumple 0F .

Técnica gráfica Q-Q, para una prueba de ajuste de distribuciones

Estas gráficas son de mucha utilidad para conocer la distribución de una población, la prueba gráfica del ajuste de curvas se puede hacer de la siguiente forma.

1. En caso de tener una gran cantidad de datos, primeramente descomponemos en clases de frecuencia y posteriormente trazamos un histograma de las clases, con el objetivo de identificar una posible distribución de los datos según las distribuciones teóricas vistas en probabilidad.

Page 56: Pruebas de ajuste de Bondad

Capítulo 2

45

2. Se ordenan los datos nxxx ,,, 21 en forma no decreciente, denotemos por

nyyy 21 al iy cuantil ni de la muestra, cuya fracción corresponde a la

probabilidad estimada para la variable X que representa a los datos y cuya distribución desconocemos.

NOTA

En la práctica se acostumbra tomar las fracciones ni )5.0( para definir los cuantiles muestrales (de esta forma se asegura que no se obtendrá 0 o 1 sólo una aproximación).

3. Calculamos los cuantiles teóricos (según la distribución que se cree que provienen los datos), y que denotaremos por nqqq ,,, 21 , correspondientes a los cuantiles

muestrales nyyy ,,, 21 . Es decir, nqqq 21 y son tales que

n

iqP i

5.0 , para ni ,,2,1 .

4. Trazamos la gráfica entre los cuantiles teóricos ( nqqq ,,, 21 ) y muestrales

( nyyy ,,, 21 ), falta concluir si la distribución propuesta para X , con la que se

calcularon los cuantiles teóricos, es válida. La conclusión se basa en la gráfica cuantil (teórico eje de las abscisas) contra cuantil (muestral eje de las ordenadas), si la gráfica se asemeja a una línea recta, entonces se dice que los datos si provienen de la distribución teórica propuesta.

Ejemplo 2.2

Con los siguientes datos y la técnica gráfica Q-Q determine su distribución.

10,66 10,21 0,57 18,21 9,11 18,98 29,41 11,61 95,83 4,19 54,26 14,66

7,52 27,19 2,57 4,09 7,44 27,52 4,06 17,11 81,07 12,59 0,81 7,11

50,38 9,23 1,47 8,93 3,65 21,48 3,14 4,88 91,64 1,92 31,02 10,00

0,37 26,83 15,29 16,06 63,83 35,99 108,13 10,74 3,17 9,71 21,96 12,57

25,89 22,57 0,26 33,87 8,29 8,92 39,73 3,34 46,17 5,59 20,16 4,07

48,73 12,79 11,55 12,12 18,62 5,32 17,01 82,00 22,85 21,36 12,17 18,00

54,80 1,15 14,70 8,74 16,28 3,92 2,13 0,91 9,03 18,56 37,51 0,77

29,63 70,36 23,51 14,56 30,27 3,31 48,45 11,17 26,04 1,82 7,19 1,48

3,25 9,20 0,12 27,55 12,44 6,77 0,41 8,77 32,24 12,51 50,69 8,56

28,22 26,98 34,87 67,96 7,98 12,51 2,93 2,90 37,32 39,33 1,89 57,94

Tabla 2.1 Datos del ejemplo 2.2 para probar normalidad.

Page 57: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

46

1. Distribuimos los 120 datos en 10 clases de frecuencia y trazamos un histograma

resultando

Intervalo i in n

nf i

i m

ix

[0.12, 10.921) 53 0,442 5,52

[10.921, 21.722) 27 0,225 16,32

[21.722, 32.523) 17 0,142 27,12

[32.523, 43.324) 7 0,058 37,92

[43.324, 54.125) 5 0,042 48,72

[54.125, 64.926) 4 0,033 59,53

[64.926, 75.727 2 0,017 70,33

[75.727, 86.528) 2 0,017 81,13

[86.528, 97,329) 2 0,017 91,93

[97.329, 108.13) 1 0,008 102,73

Tabla 2.2 Clases de frecuencia para los datos del ejemplo 2.2

Fig. 2.1. Histograma de la tabla de frecuencias del ejercicio 1

Basandonos en el histograma y la marca por clase se puede pensar que los datos provienen de una distribución Gamma con 1 y 21 fx .

2. Ordenamos los datos en forma no decreciente nyyy 21 .

0,12 0,26 0,37 0,41 0,57 0,77 0,81 0,91 1,15 1,47 1,48 1,82

1,89 1,92 2,13 2,57 2,9 2,93 3,14 3,17 3,25 3,31 3,34 3,65

3,92 4,06 4,07 4,09 4,19 4,88 5,32 5,59 6,77 7,11 7,19 7,44

Page 58: Pruebas de ajuste de Bondad

Capítulo 2

47

7,52 7,98 8,29 8,56 8,74 8,77 8,92 8,93 9,03 9,11 9,2 9,23

9,71 10 10,21 10,66 10,74 11,17 11,55 11,61 12,12 12,17 12,44 12,51

12,51 12,57 12,59 12,79 14,56 14,66 14,7 15,29 16,06 16,28 17,01 17,11

18 18,21 18,56 18,62 18,98 20,16 21,36 21,48 21,96 22,57 22,85 23,51

25,89 26,04 26,83 26,98 27,19 27,52 27,55 28,22 29,41 29,63 30,27 31,02

32,24 33,87 34,87 35,99 37,32 37,51 39,33 39,73 46,17 48,45 48,73 50,38

50,69 54,26 54,8 57,94 63,83 67,96 70,36 81,07 82 91,64 95,83 108,13

y calculamos las fracciones ni 5.0 para sus correspondientes cuantiles teóricos

-0,452 -0,416 -0,388 -0,378 -0,337 -0,286 -0,276 -0,250 -0,189 -0,107 -0,1046 -0,0179

0,000 0,008 0,061 0,173 0,258 0,265 0,319 0,327 0,347 0,362 0,3699 0,44898

0,518 0,554 0,556 0,561 0,587 0,763 0,875 0,944 1,245 1,332 1,35204 1,41582

1,436 1,554 1,633 1,702 1,747 1,755 1,793 1,796 1,821 1,842 1,8648 1,87245

1,995 2,069 2,122 2,237 2,258 2,367 2,464 2,480 2,610 2,622 2,69133 2,70918

2,709 2,724 2,730 2,781 3,232 3,258 3,268 3,418 3,615 3,671 3,85714 3,88265

4,110 4,163 4,253 4,268 4,360 4,661 4,967 4,997 5,120 5,276 5,34694 5,51531

6,122 6,161 6,362 6,401 6,454 6,538 6,546 6,717 7,020 7,077 7,2398 7,43112

7,742 8,158 8,413 8,699 9,038 9,087 9,551 9,653 11,296 11,878 11,949 12,3699

12,449 13,360 13,497 14,298 15,801 16,855 17,467 20,199 20,436 22,895 23,9643 27,102

3. Calculamos los cuantiles teóricos nqqq ,,, 21 correspondientes a las fracciones

anteriores, suponiendo una distribución Gamma con 1 y 21 fx . Es decir

n

idxqF

iqx

i

5.0

21

1

0

21

.

Luego

n

iqi

05.01 .

Por lo tanto los cuantiles teóricos son

0,000 0,001 0,442 0,622 0,803 0,985 1,169 1,355 1,543 1,732 1,92291 2,11557

0,005 0,006 2,704 2,904 3,106 3,310 3,516 3,724 3,934 4,146 4,36043 4,57692

0,011 0,011 5,240 5,466 5,694 5,925 6,158 6,394 6,633 6,874 7,11848 7,36554

0,017 0,018 8,125 8,384 8,646 8,912 9,181 9,454 9,731 10,011 10,2943 10,582

0,025 0,025 11,469 11,774 12,083 12,396 12,714 13,037 13,365 13,699 14,0375 14,3818

0,033 0,034 15,450 15,818 16,193 16,575 16,964 17,360 17,764 18,176 18,5959 19,0245

Page 59: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

48

0,044 0,045 20,365 20,832 21,309 21,798 22,298 22,810 23,335 23,874 24,4262 24,9938

0,058 0,059 26,795 27,431 28,088 28,765 29,465 30,189 30,939 31,717 32,5251 33,3652

0,078 0,080 36,108 37,108 38,159 39,264 40,431 41,667 42,980 44,380 45,8808 47,497

0,112 0,116 53,260 55,596 58,224 61,229 64,738 68,952 74,229 81,295 92,0226 115,093

4. Finalmente se construye la gráfica Q-Q, con las parejas de cuantiles ii yq , ,

ni ,,2,1 .

Fig. 2.2. Gráfica Q-Q de los datos muestrales del ejercicio 1

Como se puede apreciar la gráfica se asemeja a una linea recta, asi que se concluye que los datos provienen de la distribucion propuesta; )21,1( .

La mayoría de los métodos estadísticos clásicos están diseñados para datos que tienen un comportamiento normal. Por tal razón, se tiene una gran cantidad de pruebas de bondad de ajuste para verificar si los datos muestrales cumplen la normalidad. En el caso de la distribución normal se tiene un mayor conocimiento del resultado posible.

La técnica Q-Q para normalidad consiste en los 4 pasos mencionados, pero según el resultado de la gráfica cuantil contra cuantil del paso 4, se pueden hacer conclusiones más completas. Por ejemplo, en el paso 4 puede resultar alguno de los siguientes casos.

Page 60: Pruebas de ajuste de Bondad

Capítulo 2

49

Fig. 2.3. En (i) se muestra una distribución normal de los datos, entonces 01 CA y 01 CU .

(ii) indica que los datos tienen colas más pesadas que la normal, 01 CA y 01 CU .

(iii) indica que los datos tienen colas más ligeras que la normal, 01 CA y 01 CU .

(iv) indica que los datos tiene una distribución no simétrica, 01 CA .

Donde 1CA y 1CU son el coeficiente de asimetría y la curtosis respectivamente.

Ejemplo 2.3

Con los siguientes datos y la técnica gráfica Q-Q determine si existe o no evidencias de normalidad en su distribución.

10.10 4.60 3.23 8.75 10.33 5.75 7.38 2.65 7.08 9.14 3.84 6.98

6.55 8.43 -0.71 4.81 2.11 6.52 9.81 9.85 12.12 4.50 5.31 13.15

6.29 9.03 7.83 5.94 11.11 9.02 5.56 6.00 6.04 4.95 7.93 13.32

12.63 7.15 8.41 11.77 3.32 11.78 11.28 10.48 8.93 8.19 10.84 10.18

10.42 14.62 8.53 11.14 6.27 11.94 8.81 5.93 5.19 12.39 13.43 10.04

Tabla 2.3 Datos del ejemplo 2.3 para probar normalidad.

1. Distribuimos lo 60 datos en 6 clases e frecuencia resultando

Intervalo i in n

nf i

i m

ix

[-0.71, 1.845) 1 0,017 0.5675

[1.845, 4.400) 5 0,083 3.1225

[4.400, 6.955) 16 0,267 5.6775

[6.955, 9.510) 16 0,267 8.2325

[9.510, 12.060) 15 0,250 10.7875

[12.060, 14.620) 7 0,117 13.3425

Tabla 2.4 Clases de frecuencia para los datos del ejemplo 2.3

i ii iii iv

Page 61: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

50

Fig. 2.4. Histograma de la tabla de frecuencias del ejercicio 2

De las frecuencias con sus marcas de clase y el histograma correspondiente podemos apreciar que si existe cierto comportamiento normal, con media y desviación estándar que se aproximan a las muestrales 8.15 y 3.19, respectivamente.

2. Ordenamos los datos en forma no decreciente nyyy 21 .

-0.71 2.11 2.65 3.23 3.32 3.84 4.5 4.6 4.81 4.95 5.19 5.31

5.56 5.75 5.93 5.94 6.00 6.04 6.27 6.29 6.52 6.55 6.98 7.08

7.15 7.38 7.83 7.93 8.19 8.41 8.43 8.53 8.75 8.81 8.93 9.02

9.03 9.14 9.81 9.85 10.04 10.1 10.18 10.33 10.42 10.48 10.84 11.11

11.14 11.28 11.77 11.78 11.94 12.12 12.39 12.63 13.15 13.32 13.43 14.62

Calculamos las fracciones ni 5.0 para sus correspondientes cuantiles teóricos

0.008 0.025 0.042 0.058 0.075 0.092 0.108 0.125 0.142 0.158 0.175 0.192

0.208 0.225 0.242 0.258 0.275 0.292 0.308 0.325 0.342 0.358 0.375 0.392

0.408 0.425 0.442 0.458 0.475 0.492 0.508 0.525 0.542 0.558 0.575 0.592

0.608 0.625 0.642 0.658 0.675 0.692 0.708 0.725 0.742 0.758 0.775 0.792

0.808 0.825 0.842 0.858 0.875 0.892 0.908 0.925 0.942 0.958 0.975 0.992

Page 62: Pruebas de ajuste de Bondad

Capítulo 2

51

3. Calculamos los cuantiles teóricos nqqq ,,, 21 correspondientes a las fracciones

anteriores, suponiendo una distribución normal con media 15.8 y 19.3 .

Es decir,

n

idweqF

iq w

i

5.0

219.3

1)(

2

2

)19.3(2

)15.8(

.

Estandarizando tendríamos

n

iqdzeqF i

q

z

i

i

5.0

19.3

15.8

2

1)(

19.3

15.8

2

2

,

al despejar a iq

n

iqi

5.019.315.8 1 .

Así, resulta que los cuantiles teóricos iq serían:

0.513 1.898 2.625 3.145 3.556 3.904 4.210 4.482 4.727 4.957 5.167 5.368

5.560 5.742 5.914 6.083 6.242 6.399 6.552 6.702 6.848 6.992 7.132 7.273

7.410 7.547 7.681 7.815 7.949 8.083 8.217 8.351 8.485 8.619 8.753 8.890

9.027 9.168 9.308 9.452 9.598 9.748 9.901 10.058 10.217 10.386 10.558 10.740

10.932 11.133 11.343 11.573 11.819 12.090 12.396 12.744 13.155 13.675 14.402 15.787

4. Finalmente se construye la gráfica Q-Q, con las parejas de cuantiles ii yq , ,

ni ,,2,1 .

Page 63: Pruebas de ajuste de Bondad

Distancias y pruebas de Bondad de ajuste

52

Fig. 2.5. Grafica Q-Q de los datos muestrales del ejerciocio 2

Como se puede observar la grafica Q-Q, se asemeja a una recta, por lo tanto da evidencia de normalidad.

Podemos calcular su coeficiente de asimetría y la curtosis, obteniendo,

248.01 CA y 244.01 CU . Lo que corrobora aún más el resultado, porque ambos

son próximos a cero y negativos esto indica que existe un sesgo pequeño a la izquierda y que su distribución es un poco más aplanada o con colas ligeramente más pesadas que la normal

Técnica analítica Q-Q, para una prueba de normalidad

La prueba de normalidad para datos es muy importante debido a que muchos fenómenos se comportan de forma normal o aproximadamente normal. Por tal razón, veremos otra técnica para probar normalidad de los datos que también se basa en los cuantiles, pero que no recurre a las gráficas y se le da el nombre de técnica analítica Q-Q.

La técnica consiste en lo siguiente, se calculan los cuantiles muestrales,

nyyy 21 , y sus correspondientes cuantiles teóricos, nqqq 21 , tal y como

se hizo en la subsección anterior. Posteriormente, con dichos cuantiles se calcula su coeficiente de correlación, con la fórmula:

Page 64: Pruebas de ajuste de Bondad

Capítulo 2

53

n

i

i

n

i

i

n

i

ii

Q

qqyy

qqyy

r

1

2

1

2

1 .

Luego, el valor obtenido se compara con los valores de la siguiente tabla, llamados valores críticos para la prueba de normalidad con base en el coeficiente de correlación de los cuantiles de la gráfica Q-Q.

Tamaño de la

muestra

Nivel de significación de la prueba

0.01 0.05 0.10

10 0.880 0.918 0.935

15 0.911 0.938 0.951

20 0.929 0.950 0.960

25 0.941 0.958 0.966

30 0.949 0.964 0.971

35 0.955 0.968 0.974

40 0.960 0.972 0.977

50 0.966 0.976 0.981

60 0.971 0.980 0.984

75 0.976 0.984 0.987

100 0.981 0.986 0.989

150 0.987 0.991 0.992

200 0.990 0.993 0.994

Tabla 2.5 Valores críticos para la prueba de normalidad

Finalmente, la conclusión se lleva a cabo con base en la siguiente regla:

Los datos muestrales nxxx ,,, 21 dan evidencia de normalidad, por el método analítico

Q-Q, al nivel de significancia de la prueba elegida (0.01, 0.05 o 0.10), si *rrQ ,

en donde *r es el valor de la tabla 8, para el tamaño de la muestra y nivel de significancia de la prueba. En caso contrario, se dice que los datos no dan evidencias para considerar que provienen de una distribución normal.

Page 65: Pruebas de ajuste de Bondad

54

Capítulo 3

ALGUNAS PRUEBAS DE BONDAD DE AJUSTE

INTRODUCCIÓN

En éste capítulo se presenta de manera más formal que en el capítulo previo a las pruebas más comunes para determinar si un conjunto de observaciones dado proviene o no de una distribución conocida, a éstas se les conoce como pruebas de bondad de ajuste.

Entre las pruebas que serán revisadas están la prueba ji-cuadrada, la prueba de Kolmogórov-Smirnov que es caracterizada por ser es una prueba de bondad de ajuste del tipo no paramétrico, ésta se interesa en el grado de acuerdo entre la distribución de un conjunto de valores de la muestra y alguna distribución teórica especifica. Otra prueba muy utilizada es la de normalidad de Shapiro-Wilk. También se hablará sobre la prueba de normalidad D’Agostino, prueba de normalidad de Lilliefors y la prueba de normalidad de Filliben.

Page 66: Pruebas de ajuste de Bondad

Capítulo 3

55

3.1 PRUEBA JI-CUADRADA

Sea nXXX ,,, 21 una muestra aleatoria de tamaño n , de alguna función de densidad;

la prueba ji-cuadrada (paramétrica) para el contraste de hipótesis

:0H la distribución es );( xf

:1H la distribución no es );( xf

Se basa en la comparación de las frecuencias observadas por clase, contra las frecuencias esperadas o teóricas, suponiendo que 0H es cierta, es decir, que la

distribución poblacional es );( xf .

Para esta prueba es necesario agrupar o distribuir las observaciones de la muestra en intervalos de clase, preferentemente del mismo tamaño,

El estadístico de prueba está definido por:

k

i i

iic

np

npn

1

22 )(

.

En donde

in es el número de datos en la clase i .

n es tamaño de la muestra.

ip es la probabilidad de que la variable aleatoria X (poblacional) tome valores en

el intervalo i .

En ocasiones se simboliza

esperada frecuencia

observada frecuencia

ii

ii

Fenp

Fon

Para ver qué distribución sigue el estadístico 2

c se considera la siguiente situación:

Suponga que las observaciones de la muestra pueden clasificarse en dos intervalos o categorías 1Y y 2Y . Sea 1Y el número de observaciones que caen en la categoría uno y

sea 1p su respectiva probabilidad.

Si el tamaño de muestra es lo suficientemente grande, 1Y (sigue una distribución binomial) puede aproximarse por una distribución normal con valor esperado 1np y varianza )1( 11 pnp . Por lo tanto, la variable Z definida a continuación sigue una

distribución normal estándar, y 2Z una distribución ji cuadrada con un grado de libertad.

Page 67: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

56

)1,0(~)1( 11

11 Npnp

npYZ

y

21

11

211

2

11

112 ~)1()1(

pnp

npY

pnp

npYZ

.

Si se define 2Y como 12 YnY y 12 1 pp se tiene que 2Z se puede representar

de la siguiente manera

21

2

222

1

211

22

222

2

22

222 ~)1()1(

np

npY

np

npY

pnp

npY

pnp

npYZ

(Ver anexo 2).

Ahora supóngase que las observaciones pueden clasificarse no en dos sino en k clasificaciones mutuamente excluyentes, y sean iY y ip el número de variables que caen en la categoría i y la probabilidad respectiva. La distribución conjunta de kYYY ,,, 21

tiene una distribución multinomial con parámetros npppn ,,,, 21 ; donde

1211 kk pppp . Se puede demostrar que la variable aleatoria 2Z , definida a continuación, sigue una distribución ji-cuadrada con 1mk grados de libertad.

2

1

1

22

2

2

22

1

2

112 ~

mk

k

i i

ii

k

kk

np

npY

np

npY

np

npY

np

npYZ

Comparando la expresión anterior con el estadístico 2

c definido previamente, se observa que este estadístico sigue también la distribución ji-cuadrada con 1mk grados de libertad, siendo k el número de clases en la tabla de distribución de frecuencias y m el número de parámetros estimados para definir completamente la función );( xf .

Regla de decisión:

Rechazar :0H la distribución es );( xf , al nivel de significancia , si

),1(22 mktc .

NOTA

Se debe cuidar que la frecuencia en cada una de las clases construidas en la tabla de frecuencias sean mayores o iguales a 5, en caso contrario se agrupan las clases contiguas, para que su frecuencia sea mayor o igual a 5.

La ventaja de esta prueba es que se aplica tanto para variables aleatorias continuas como discretas

Page 68: Pruebas de ajuste de Bondad

Capítulo 3

57

Fig. 3.1. Zona de rechazo y punto crítico de la prueba ji-cuadrada

Algunas consideraciones que hay que tener en cuenta con respecto a la aplicación de esta prueba son las siguientes:

a) El número de intervalos de clase debe ser por lo menos cinco. Para facilidad de los cálculos y la identificación de la posible distribución se recomienda que 20k .

b) El número esperado de observaciones en cada intervalo debe ser mayor o igual a cinco, en caso contrario, deberían agruparse varios intervalos para lograr esto.

c) Al realizar los cálculos para ip hay que tener en cuenta los intervalos extremos como casos especiales, a saber:

Calculo de 1p

Aunque el primer intervalo incluye aquellos valores observados que están entre 0X y 1X , sólo corresponde a los resultados de una muestra. El hecho de que no se hayan observado en la muestra valores 0X no implica que en la población de donde se toma la muestra no se puedan presentar valores 0X . Por lo tanto, el cálculo de 1p corresponde a la probabilidad de que la variable aleatoria sea menor o igual que 1X , y

no únicamente entre 0X y 1X . Es decir

)()()()( 1111

1

xFdxxfxXPxXPp

x

para el caso continuo.

)()()()( 1111

1

xFdxxfxXPxXPpx

para el caso discreto.

Calculo de np

De manera similar, el último intervalo corresponde no sólo a los valores que están entre

1kX y kX , sino que comprende también los valores de la población que sean mayores

Punto crítico

Zona de rechazo

Page 69: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

58

que kX , así éstos no se hayan presentado en la muestra. Por lo tanto, kp se calcula

como

)(1)(1)()( 11

1

1

k

x

x

kk xFdxxfdxxfxXPpk

k

para el caso continuo.

)(1)(1)()( 11

1

1

k

x

x

kk xFdxxfdxxfxXPpk

k

para el caso discreto.

Ejemplo 3.1

Probar si los siguientes datos siguen una distribución normal e indique sus parámetros, con un nivel de significancia del 5%.

88.5 87.7 83.4 91.1 86.7 87.5

91 94.2 87.8 89.9 88.3 87.6

94.2 92.7 93.2 91 90.3 93.4

88.6 90.9 89 96.1 93.3 91.8

89.8 89.6 87.4 88.9 91.2 89.3

92.6 89.9 90.6 91.1 90.4 89.3

92.2 92.2 91.2 91 92.2 90

88.6 100.3 95.6 93.3 94.7 91.5

86.7 88.2 90.8 88.3 98.8 84.3

90.1 89.2 88.3 85.3 87.9 88.5

90.4 90.1 93 88.7 89.9 92.3

92.7 91.8 91.6 90.4 91.1 94.4

90.3 91.6 90.5 93.7 92.7 89.7

Tabla 3.1 Datos de la muestra para probar normalidad del ejemplo 3.1.

Fuente: Datos de octanaje de varias mezclas de gasolina fueron tomados de un artículo en Technometrics (vol. 19, p. 425), revista dedicada a las aplicaciones estadísticas en ciencias físicas e ingeniería.

Solución

Calculando la media y desviación estándar, se tiene que 82.2ˆ;67.90ˆ .

El número de intervalos de clase es 983.878 nk .

La amplitud del intervalo está dada por:

87778.19

4.833.100minmax

k

XXX .

Las hipótesis formuladas son:

:0H la distribución es 2,)( Nxf

Page 70: Pruebas de ajuste de Bondad

Capítulo 3

59

Tabla 3.2 Clases de frecuencia para los datos de la muestra del ejemplo 3.1.

Figura 3.2. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.1.

En la tabla 3.2 se puede observar que algunas clases son menores a 5, por lo tanto se procede a juntarlas, quedando de las 9 clases, sólo 6, que se muestran en la tabla 3.3. Por otro lado, de la figura 3.2 se puede suponer que los datos tienen una distribución

normal con 67.90ˆ x y 9524.7ˆ 21

2 ns .

Luego,

:0H la distribución es 9524.7,67.90,);( 2 NNxf

En la tabla 3.3 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.

Clase

i

Intervalos para

calcular ip in ip inp 2)( ii npn i

ii

np

npn 2)(

1 16.87,( 5 0.1063 8.294 10.851 1.3083

2 (87.16,89.03] 17 0.1745 13.611 11.488 0.8441

3 (89.03, 90.91] 21 0.2532 19.753 1.556 0.0788

4 (90.91, 92.79] 21 0.2397 18.698 5.299 0.2834

5 (92.79, 94.67] 9 0.1480 11.545 6.475 0.5609

6 ),67.94( 5 0.0782 6.100 1.210 0.1983

Suma= 1 Suma= 3.27374064

Tabla 3.3. Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.1.

0

5

10

15

20

25

1 2 3 4 5 6 7 8 9

Clases Frecuencia

83.4 85.28 1

85.28 87.16 4

87.16 89.03 17

89.03 90.91 21

90.91 92.79 21

92.79 94.67 9

94.67 96.54 3

96.54 98.42 0

98.42 100.3 2

Page 71: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

60

El valor crítico con un nivel de significancia del 5% y 3 grados de libertad es de

8147.72

3, , mientras que el valor calculado es 2737.32 c . Se concluye que no hay

evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos se considera normal al 5% de significancia.

Ejemplo 3.2

Se tiene un registro de 216 tiempos entre arribos

31.933 0.9142 27.091 39.281 11.101 91.785 14.162 13.039 10.144

0.3186 0.4052 33.162 0.7962 0.4778 49.481 152.004 0.1735 21.878

0.2348 18.896 31.902 19.685 0.5281 46.458 18.998 46.516 0.1636

57.121 35.129 76.548 49.391 25.997 0.4404 28.290 44.030 0.8712

29.397 0.2703 0.4082 35.320 0.6529 0.7684 12.494 28.566 0.3726

63.768 11.121 0.4341 0.7187 19.107 51.640 16.052 0.7313 13.185

20.582 0.9842 33.089 14.928 23.992 16.215 18.091 33.751 21.955

113.710 24.456 17.738 30.997 11.489 33.592 16.194 33.981 0.0970

24.698 63.627 0.9812 24.668 43.419 18.849 0.0011 50.624 23.348

17.021 0.4020 17.935 0.9104 0.6406 18.252 26.237 0.8437 155.092

0.8592 10.659 0.7223 0.6239 54.144 10.110 10.128 109.106 0.2196

0.1189 21.342 24.349 21.701 0.6652 0.7266 0.5550 0.1591 0.5087

0.5822 26.087 57.818 24.864 17.495 0.8407 0.9036 15.221 0.2055

0.8273 18.993 126.327 0.7407 217.329 25.855 0.3953 31.247 0.2754

0.1582 11.361 0.8085 0.2136 13.256 0.6398 15.186 19.061 19.262

37.217 0.5528 60.427 21.682 24.996 35.699 61.171 0.6276 22.079

31.454 100.600 16.509 35.661 29.409 0.8942 24.918 0.0821 10.167

29.468 0.9608 24.018 13.764 49.092 48.111 11.412 17.820 0.6547

17.322 19.183 18.730 14.078 0.4248 0.8235 0.5157 0.9726 13.358

0.9965 25.227 14.850 15.430 107146 0.6154 18.379 0.6012 23.768

18.164 24.739 63.317 31.607 120.092 89.375 21.157 0.7986 0.6039

0.6377 0.1263 0.5425 13.429 0.6981 0.4402 20.588 44.003 0.1992

37.545 0.8246 0.1868 26.892 0.7079 12.457 10.063 43.017 42.455

14.366 0.0439 29.099 0.2979 17.472 19.802 13.339 0.4536 0.8065

Tabla 3.4 Datos de la muestra para probar exponencialidad del ejemplo 3.2.

Page 72: Pruebas de ajuste de Bondad

Capítulo 3

61

Pruebe si los datos provienen de una distribución exponencial, con un nivel de significancia del 5% e indique su parámetro.

Solución

Calculando la media se tiene que 39.2ˆ y por tanto 418.01 .

El número de intervalos de clase es 1469.14216 nk .

La amplitud del intervalo está dada por: 55.114

0011.073.21minmax

k

XXX .

Las hipótesis formuladas son:

:0H la distribución es 1exp)( xf

:1H la distribución es 1exp)( xf

En este caso el número de intervalos es reducido a 8 debido a que la frecuencia en cada una de las clases construidas es menor a 5.

clases Frecuencia

0.001 0.720 52

0.720 1.438 48

1.438 2.157 36

2.157 2.875 26

2.875 3.594 19

3.594 5.031 14

5.031 7.904 11

7.904 11.497 10

Tabla 3.5 Clases de frecuencia para los datos de la muestra del ejemplo 3.2.

Figura 3.3. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.2.

En la tabla 3.6 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.

Page 73: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

62

Clase

i

Intervalos para

calcular ip in ip inp 2)( ii npn i

ii

np

npn 2)(

1 72.0,( 52 0.259 55.94 15.56 0.28

2 (0.72, 1.43] 48 0.195 41.04 48.44 1.18

3 (1.43, 2.15] 36 0.142 30.67 28.39 0.93

4 (2.15, 2.87] 26 0.105 22.68 11.02 0.49

5 (2.87, 3.59] 19 0.078 16.85 4.63 0.27

6 (3.59, 5.03] 14 0.100 21.60 57.76 2.67

7 (5.03, 7.90] 11 0.085 18.36 54.17 2.95

8 ),90.7( 10 0.036 7.78 4.95 0.64

Suma= 1 Suma= 9.41

Tabla 3.6. Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.2.

El valor crítico con un nivel de significancia del 5% y 6 grados de libertad es de

59.122

6, , mientras que el valor calculado es 41.92 c . Se concluye que no hay

evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos es exponencial con 418.01 .

Ejemplo 3.3

Se tienen 176 registros de las cantidades de demanda de un producto

1 4 4 1 0 3 2 1 3 0 1 1 1 1 0 3 0 1 0 0 1 2

2 0 1 1 4 0 1 0 0 0 0 7 4 5 0 1 0 1 1 8 3 0

1 3 12 1 0 1 1 0 0 0 3 3 0 0 4 0 0 2 2 0 0 0

0 1 2 3 1 5 0 0 2 8 0 2 3 3 2 1 0 0 4 3 1 2

2 1 1 0 8 1 0 5 0 0 0 0 2 0 6 1 2 8 6 0 0 0

0 1 1 2 0 0 1 0 4 3 0 0 2 4 2 3 0 1 1 1 1 2

2 0 2 4 5 0 1 2 2 0 0 2 1 1 2 0 5 10 3 1 2 4

2 1 2 0 1 4 10 0 4 4 5 4 9 1 10 0 6 1 2 9 5 0

Tabla 3.7 Datos de la muestra para probar si tienen distribución geométrica del ejemplo 3.3.

Pruebe si los datos provienen de una distribución geométrica, con un nivel de significancia del 5% e indique su parámetro.

Solución

Calculando la media se tiene que 96.1ˆ y por tanto 5.0ˆ1ˆ p

Se han construido 8 intervalos.

Page 74: Pruebas de ajuste de Bondad

Capítulo 3

63

Como la distribución, en este caso se han elegido:

}9{},8,7,6{},5{},4{},3{},2{},1{},0{ 87654321 IIIIIIII

Las hipótesis formuladas son:

:0H la distribución es )()( pgeoxf

:1H la distribución es )()( pgeoxf

Intervalo Frecuencia

}0{ 58

}1{ 42

}2{ 27

}3{ 14

}4{ 14

}5{ 7

}8,7,6{ 8

}9{ 6

Tabla 3.8 Clases de frecuencia para los datos de la muestra del ejemplo 3.3.

Figura 3.4. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.3.

En la tabla 3.9 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.

Clase

i

Intervalos para

calcular ip in ip inp 2)( ii npn i

ii

np

npn 2)(

1 }0{ 58 0.35 60.90 8.39 0.14

2 }1{ 42 0.23 39.81 4.79 0.12

3 }2{ 27 0.15 26.05 0.91 0.03

4 }3{ 14 0.10 17.04 9.22 0.54

5 }4{ 14 0.06 11.14 8.18 0.73

6 }5{ 7 0.04 7.29 0.08 0.01

7 }8,7,6{ 8 0.06 9.93 3.71 0.37

8 }9{ 6 0.02 3.13 8.22 2.62

Suma= 1 Suma= 4.58

Tabla 3.9 Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.3.

Page 75: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

64

El valor crítico con un nivel de significancia del 5% y 6 grados de libertad es de

59.122

6, , mientras que el valor calculado es 58.42 c . Se concluye que no hay

evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos es geométrica con 50.0p

3.2 PRUEBA DE KOLMOGÓROV-SMIRNOV DE BONDAD DE AJUSTE

La prueba de Kolmogórov-Smirnov es otra prueba de bondad de ajuste pero del tipo no paramétrico, es decir en la prueba no se estiman inicialmente los parámetros como en la prueba anterior.

En la prueba de Kolmogórov-Smirnov es de interés conocer el grado de relación entre la distribución de un conjunto de valores de la muestra (puntajes observados) y alguna distribución teórica específica. Esta prueba determina si razonablemente puede pensarse que los puntajes en la muestra provengan de una población que tenga esa distribución teórica.

Brevemente, la prueba lleva consigo la especificación de la distribución de frecuencia acumulativa que ocurriría bajo la distribución teórica y su comparación con la distribución de frecuencia observada acumulada. La distribución teórica representa lo esperado conforme a 0H . Se determina el punto en el que estas dos distribuciones, la

teórica y la observada, muestran la mayor divergencia. La referencia a la distribución muestral indica si hay probabilidad de divergencia tan grande con base en el azar. Esto es, la distribución muestral indica que una divergencia de la magnitud observada probablemente ocurriría si las observaciones fueran realmente una muestra aleatoria de la distribución teórica.

Para aplicar la prueba de Kolmogórov -Smirnov, se hace uso de la siguiente metodología:

Paso 1. Ordenar los datos en forma no-decreciente y obtener sus frecuencias observadas (en caso de repetirse un dato se pone en esta frecuencia).

Paso 2. Calcular las frecuencias acumuladas relativas para cada dato observado, iFRO .

Paso 3. Calcular las frecuencias acumuladas relativas esperadas para cada dato, según sea la distribución propuesta en la hipótesis nula, los parámetros de la distribución se calculan de la muestra, iFRE .

Paso 4. Se calculan los valores absolutos de la diferencia entre las frecuencias acumuladas observada y teórica, || ii FREFRO .

Paso 5. Evaluar el estadístico de prueba ||max iii

cal FREFROD .

Al igual que en la prueba ji-cuadrada las hipótesis a contrastar son

Page 76: Pruebas de ajuste de Bondad

Capítulo 3

65

:0H la distribución es );( xf

:1H la distribución no es );( xf

La distribución de calD es conocida y depende del número de observaciones n.

Regla de decisión

Se acepta la hipótesis nula de que no existe diferencia significativa entre las distribuciones teóricas y empíricas si el valor de )(xDcal es menor o igual que el

valor crítico ),( xDcal (ver tabla adjunta para valores críticos).

Gráficamente quedaría explicado de la siguiente manera

Figura 3.5 Distribución teórica y empírica para la prueba de Kolmogórov-Smirnov.

3.2.1 Propiedades de la prueba de Kolmogórov-Smirnov

a) Esta prueba se puede realizar para valores agrupados en intervalos de clase y también para valores sin agrupar.

b) La prueba de Kolmogórov-Smirnov puede aplicarse para tamaños de muestra pequeños, lo que no sucede con la ji-cuadrada.

c) La prueba de Kolmogórov-Smirnov es más poderosa que la Ji-cuadrada, es decir, cuando se rechaza la hipótesis nula, se tiene una mayor confiabilidad en dicho resultado.

d) La prueba de Kolmogórov-Smirnov debe usarse cuando la variable de análisis es continua. Sin embargo, si la prueba se usa cuando la distribución de la población no es continua, el error que ocurre en la probabilidad resultante está en la dirección segura. Es decir, cuando se rechaza la hipótesis nula, se tiene verdadera confianza en la decisión.

Ejemplo 3.4

Realizar la prueba de bondad de ajuste de Kolmogórov-Smirnov, con un nivel de confianza del 1%, para probar normalidad en los siguientes datos:

n1

n1

n2

1

Distribución

observada

1

Distribución

teórica

Page 77: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

66

59.01 60.01 60.51 61.46 62.46 63.19 63.69 65.41 65.77 66.54

66.86 67.27 67.9 68.06 68.31 68.54 68.99 69.26 69.63 69.9

Tabla 3.10 Datos de la muestra para probar si tienen distribución normal del ejemplo 3.4.

Solución

Los datos no serán agrupados, por tanto su frecuencia será 1.

n Datos frecuencia

Frecuencia

relativa

acumulada

observada

Frecuencia

esperada

Valor absoluto

de diferencia

1 59.01 1 0.05 0.02819 0.02181

2 60.01 1 0.10 0.05259 0.04741

3 60.51 1 0.15 0.06993 0.08007

4 61.46 1 0.20 0.11452 0.08548

5 62.46 1 0.25 0.18010 0.06990

6 63.19 1 0.30 0.24045 0.05955

7 63.69 1 0.35 0.28743 0.06257

8 65.41 1 0.40 0.47378 0.07378

9 65.77 1 0.45 0.51510 0.06510

10 66.54 1 0.50 0.60238 0.10238

11 66.86 1 0.55 0.63744 0.08744

12 67.27 1 0.60 0.68070 0.08070

13 67.9 1 0.65 0.74248 0.09248

14 68.06 1 0.70 0.75712 0.05712

15 68.31 1 0.75 0.77906 0.02906

16 68.54 1 0.80 0.79821 0.00179

17 68.99 1 0.85 0.83267 0.01733

18 69.26 1 0.90 0.85141 0.04859

19 69.63 1 0.95 0.87473 0.07527

20 69.9 1 1.00 0.89004 0.10996

Media 656.385

D= 0.10996

Varianza 120.675.292

Tabla 3.11 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.4.

En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 356.0tD . Por lo

tanto, región de no rechazo: 356.0,0 y región de rechazo ),356.0(

Así que, no existe evidencia para rechazar que los datos sí provienen de una distribución normal con media 65.64 y varianza 12.07

Page 78: Pruebas de ajuste de Bondad

Capítulo 3

67

Ejemplo 3.5

Se desea corroborar con la prueba de Kolmogórov-Smirnov si la generación de números aleatorios en el programa estadístico R, tiene una distribución uniforme sobre en intervalo [0,1], con un nivel de confianza del 1%.

0.01380712 0.01930208 0.02416705 0.03334250 0.04345559 0.05879803 0.06442955

0.07765923 0.08600934 0.10822774 0.10959265 0.10983339 0.15240478 0.16979416

0.17317292 0.19802962 0.20449405 0.20750527 0.20974691 0.21435878 0.22751982

0.23170290 0.23479128 0.24315668 0.24834214 0.25188956 0.25350340 0.28079697

0.28891199 0.29327375 0.29350371 0.29629280 0.31222037 0.31687409 0.32209677

0.34138817 0.35045805 0.35479223 0.36493820 0.36744197 0.37056231 0.38840453

0.40550314 0.43035167 0.43340646 0.45559472 0.46117537 0.47075696 0.47581660

0.48017378 0.48374712 0.49453759 0.50673384 0.51121106 0.52362452 0.52519641

0.53656851 0.54372672 0.54927056 0.55120616 0.55547863 0.57449230 0.57614826

0.57917861 0.58981639 0.59471369 0.62810857 0.64963608 0.65142342 0.66204871

0.68566790 0.69773444 0.70016491 0.70315699 0.73646659 0.74148888 0.74606807

0.74702262 0.76108793 0.77312248 0.78544249 0.79937620 0.80856901 0.83212724

0.83954884 0.84760715 0.86192507 0.86496178 0.88581105 0.89467445 0.89676235

0.90706542 0.91006137 0.91934849 0.92015583 0.92849640 0.93128253 0.94217073

0.94875365 0.99949998

Tabla 3.12 Datos de la muestra para probar si tienen distribución uniforme del ejemplo 3.5.

Solución

De la tabla los datos se agrupan en 10 clases quedando de la siguiente forma:

clase Datos frecuencia Frecuencia relativa acumulada

observada

Frecuencia

esperada

Valor absoluto

de diferencia

1 [0.0,0.1) 9 0.09 0.1 0.01

2 [0.1,0.2) 7 0.16 0.2 0.04

3 [0.2,0.3) 16 0.32 0.3 0.02

4 [0.3,0.4) 10 0.42 0.4 0.02

5 [0.4,0.5) 10 0.52 0.5 0.02

6 [0.5,0.6) 14 0.66 0.6 0.06

7 [0.6,0.7) 6 0.72 0.7 0.02

8 [0.7,0.8) 10 0.82 0.8 0.02

9 [0.8,0.9) 9 0.91 0.9 0.01

10 [0.9,1.0] 9 1 1 0

D= 0.06

Tabla 3.13 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.5.

Page 79: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

68

En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 163.0tD . Por lo

tanto,

Región de no rechazo: 163.0,0 y región de rechazo ),163.0( .

Se concluye que no existe evidencia para rechazar que los datos sí provienen de una distribución uniforme (0,1) con un nivel de confianza del 5%.

Ejemplo 3.6

En un periodo de 30 días se registraron 6 días sin accidentes, 2 con un accidente, 1 con dos accidentes, 9 con tres accidentes, 7 con cuatro accidentes, 4 con cinco accidentes y 1 con ocho accidentes.

Realizar la prueba de bondad de ajuste de Kolmogórov-Smirnov, con un nivel de confianza del 1%, para probar si el número de accidentes sigue una distribución Poisson y determine su parámetro.

Solución

Calculando la media se tiene que

8781544739211206

Por lo tanto, 9.23087ˆ

Las hipótesis formuladas son:

:0H la distribución es )()( poisxf

:1H la distribución es )()( poisxf

n Datos frecuencia Frecuencia relativa

acumulada observada

Frecuencia

esperada

Valor absoluto

de diferencia

1 0 6 0.200 0.055 0.145

2 1 2 0.267 0.215 0.052

3 2 1 0.300 0.446 0.146

4 3 9 0.600 0.670 0.070

5 4 7 0.833 0.832 0.002

6 5 4 0.967 0.926 0.041

7 8 1 1.000 0.997 0.003

D= 0.146

Tabla 3.14 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.6.

En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 29.0tD . Luego,

Page 80: Pruebas de ajuste de Bondad

Capítulo 3

69

Región de no rechazo: 29.0,0 y región de rechazo ),29.0(

Por lo tanto, no existe evidencia para rechazar que los datos sí provienen de una distribución Poisson(2.9) con un nivel de confianza del 1%.

3.3 PRUEBA DE NORMALIDAD DE SHAPIRO-WILK

Sea nxxx ,,, 21 una realización de nXXX ,,, 21 y se desea probar la hipótesis de que

los datos provienen de una distribución normal. Es decir, probar las hipótesis

~:0 XH Normal

~:1 XH Normal

Para probar normalidad se tienen varias decenas de pruebas, una de ellas es muy propicia cuando el tamaño de la muestra es pequeño, 50n , corresponde a los autores Samuel S. Shapiro y Martin B. Wilk y fue publicada en 1965, actualmente se le conoce como prueba de Shapiro-Wilk.

La prueba de Shapiro-Wilk consiste en calcular la estadística de prueba W suponiendo que la muestra aleatoria proveniente de una distribución normal. La estadística W está dada por:

2

1

2

1

)()1(1

1

2

2

1

)(

)1()(

n

k

i

iinin

n

i

i

n

i

ii

cSn

xxa

xx

xa

W .

Donde

Las )(ix son los valores de la i-ésima estadística de orden, ia es el i-ésimo elemento

del vector

2111

1

21)(

),,,(mVVm

Vm

naaaa .

Con ),,,( 21 nmmm m y las nmmm ,,, 21 son los valores esperados de las

estadísticas de orden de las variables aleatorias independientes e idénticamente distribuidas tomadas de una distribución normal estándar de tamaño n , y V es la matriz de varianzas y covarianzas de esas estadísticas de orden y 2nk .

Para calcular a, es necesario conocer m y V . Sin embargo, ya que V sólo se conoce para tamaños de muestra 20n , Royston (1995) desarrolló un algoritmo para calcular una aproximación de a para muestras de tamaño 50003 n .

Page 81: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

70

Regla de decisión:

Rechazar ~:0 XH Normal, al nivel de significancia , si: ntc WW ,,

Donde ntW ,, es un valor de la tabla de Shapiro-Wilk correspondiente a un

tamaño muestral n y a un nivel de significación .

Rechazar ~:0 XH Normal, al nivel de significancia , si: cW es pequeño.

3.3.1 Propiedades de W

a) W tiene una distribución la cual sólo depende del tamaño de muestra n, para muestras de una distribución normal.

b) W es estadísticamente independiente de 2S y de x , para muestras de una distribución normal.

c) El mínimo valor de W es )1(2

1 nna

d) El máximo valor de W es 1.

Para calcular el valor de W dado una muestra aleatoria completa de tamaño n,

nxxx ,,, 21 se procede de la siguiente manera:

Paso 1. Ordenar las observaciones obtenidas en a muestra aleatoria de manera creciente nyyy 21 .

Paso 2. Calcular

n

i

i

n

i

i xxyyS1

2

1

22 )()(

Paso 3.

a) Si n es par, kn 2 , calcular

k

i

iinin yyab1

11 )( .

Donde los valores de 1ina están dados en la tabla del anexo.

b) Si n es impar, 12 kn y el cálculo es similar que en el paso 3 a), donde 01 ka cuando 12 kn . Entonces se encuentra que

)()( 221 kkknn yyayyab

Donde el valor de 1ky , la media muestral, no entra para el cálculo de b.

Paso 4. Se calcula 22 SbW

Paso 5. 1, 2, 5, 10, 50, 90, 95, 98 y 99% puntos de la distribución de W, son dados en la tabla del anexo. Valores más pequeños de W son insignificantes, es decir, no indican normalidad.

Page 82: Pruebas de ajuste de Bondad

Capítulo 3

71

Ejemplo 3.7

Se contrastará la normalidad de los siguientes datos muéstrales ( 10n )

0.93, 1.20, 1.10, 1.26, 1.38, 1.24, 1.32, 1.14, 1.24, 1.18

Solución

Paso 1. Se ordenan las observaciones

0.93 1.1 1.14 1.18 1.2 1.24 1.24 1.26 1.32 1.38

Paso 2. Calcular 14.0)(1

22

n

i

i yyS

Paso 3. Como n es par, entonces

5

1

1111 )(i

iii yyab ; de la tabla del anexo se tiene que

0399.0

1224.0

2141.0

3291.0

5739.0

6

7

8

9

10

a

a

a

a

a

Así, 36.0)(5

1

1111

i

iii yyab

Paso 4. Por lo tanto 94.014.013.022 SbW

La región crítica es 10,,tW , así para diferentes valores de alfa se tiene:

781.0

842.0

869.0

10,01.0,

10,05.0,

10,10.0,

t

t

t

W

W

W

En todos los casos no se rechaza la hipótesis nula, es decir, los datos muestrales siguen una distribución normal.

Ejemplo 3.8

Pruebe la normalidad de la siguiente muestra de pesos en libras de 11 hombres 148, 154, 158, 160, 161, 162, 166, 170, 182, 195, 236

Solución

Paso 2. Dado que los datos ya se tienen ordenados, se procede a calcular

6226)(1

22

n

i

i yyS .

Paso 3. Como n es impar, entonces )()( 221 kkknn yyayyab ; de la tabla del

anexo se tiene que

Page 83: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

72

0695.0

1429.0

2260.0

3315.0

5601.0

7

8

9

10

11

a

a

a

a

a

Así, 08.70)()( 57711111 yyayyab .

Paso 4. Por lo tanto 79.0622631.491122 SbW .

La región crítica es 11,,tW , así para diferentes valores de alfa se tiene:

792.0

850.0

876.0

11,01.0,

11,05.0,

11,10.0,

t

t

t

W

W

W

En todos los casos no se rechaza la hipótesis nula, es decir, los datos muestrales siguen una distribución normal.

3.4 LA PRUEBA DE NORMALIDAD DE D’AGOSTINO

Este estadístico compara un estimador lineal de la desviación estándar en el caso de una distribución normal, con la desviación muestral.

Para la muestra aleatoria simple nXXX ,,, 21 y la prueba cuya hipótesis nula

es H0: “la muestra tiene distribución normal” y cuya hipótesis alternativa es la complementaria, el estadístico de D’Agostino es:

n

i n

i

sn

Xn

i

D1

2

2

1

Donde:

n

i

in XXn

s1

22 1

*iX : son los datos ordenados de la muestra

El valor esperado de este estadístico es aproximadamente 2

1 . Para tamaños

muestrales pequeños se dispone de una tabla de simulación que da un criterio de decisión. Para muestras de tamaño grande, la variable

Page 84: Pruebas de ajuste de Bondad

Capítulo 3

73

2

1

24

227312

2

1

D

nZ

se puede aproximar por una variable normal estándar.

Ejemplo 3.9

Pruebe normalidad en los siguientes datos

8.27, 3.34, 10.50, 11.15, 5.41, 14.76, 14.76, 9.85, 11.31, 10.70, 9.25, 12.90

Solución

Se procede a calcular el estadístico de prueba

n

i n

i

sn

Xn

i

D1

2

*

2

1

10.1833333X y 3.24168252ns

i iX *

iX

2

1ni *

2

1iX

ni

1 8.27 3.34 -5.5 -18.37

2 3.34 5.41 -4.5 -24.345

3 10.5 8.27 -3.5 -28.945

4 11.15 9.25 -2.5 -23.125

5 5.41 9.85 -1.5 -14.775

6 14.76 10.5 -0.5 -5.25

7 14.76 10.7 0.5 5.35

8 9.85 11.15 1.5 16.725

9 11.31 11.31 2.5 28.275

10 10.7 12.9 3.5 45.15

11 9.25 14.76 4.5 66.42

12 12.9 14.76 5.5 81.18

suma= 128.29

Así, 24.3*2^12

29.128D =0.2748

Page 85: Pruebas de ajuste de Bondad

Algunas pruebas de Bondad de ajuste

74

El I.C. para D es (0.2653, 0.2841), podemos concluir que el p-valor es mayor a 0.2. Por lo que se dice que no existe suficiente evidencia para rechaza H0, por tanto se concluye que los datos se distribuyen normal.

NOTA

El estadístico de prueba es muy sensible a los redondeos, por lo que es conveniente no perder cifras significativas en los cálculos

3.5 LA PRUEBA DE NORMALIDAD DE LILLIEFORS

Esta prueba de normalidad utiliza el estadístico de Kolmogórov-Smirnov, en el caso en que la media y la desviación de la distribución (desconocidos) se estiman utilizando toda la muestra. Es decir que el estadístico es

n

nnRx

s

XxxFKSL sup

donde es la función de distribución normal estándar, si determinamos la región crítica

usando la tabla de Kolmogórov-Smirnov, el resultado es una prueba muy conservadora. Lilliefors ha tabulado por el método de Montecarlo los percentiles de este estadístico.

3.6 LA PRUEBA DE NORMALIDAD DE FILLIBEN

Esta prueba se basa en la comparación entre la muestra ordenada nXXX ,,, 21 y el

vector nYYY ,,, 21 , donde

1

1

n

iYi con la función de distribución normal

estándar. Para cada i , la componente i-ésima del vector es una aproximación del valor esperado del i-ésimo estadístico de orden de una normal estándar (considere la transformación canónica que lleva normales en uniformes y su inversa).

El estadístico de Filliben es el coeficiente de correlación lineal entre X e Y , o sea

n

i nn

ii

Yss

YXXRF

1

*

donde 22

YYYs in

Page 86: Pruebas de ajuste de Bondad

Capítulo 3

75

La tabla de Filliben (1975) resume el estudio por simulación del comportamiento de este estadístico bajo la hipótesis de normalidad. La hipótesis de normalidad se rechaza para valores pequeños de RF.

Page 87: Pruebas de ajuste de Bondad

76

Capítulo 4

PRUEBAS BOOTSTRAP

INTRODUCCIÓN

El método Bootstrap es de gran ayuda en la estadística se puede usar para aproximar el sesgo o la varianza de un estadístico, así como para construir intervalos de confianza, probar contrastes de hipótesis sobre parámetros de interés, etc.

En este capítulo hablaremos del método bootstrap para realizar una prueba de bondad de ajuste cuando la estadística de prueba no es posible determinarla en forma cerrada. El método en general se basa en la extracción de m muestras tomadas de una muestra que puede ser proporcionada por las observaciones de la investigación que se esté realizando o en el caso de trabajos de simulación ésta se genera de forma aleatoria. En general, y debido al gran volumen de cálculos el método se lleva a cabo bajo una programación de sus pasos a seguir, en este trabajo fue utilizado el proyecto R.

Page 88: Pruebas de ajuste de Bondad

Capítulo 4

77

4.1 PRUEBAS BOOTSTRAP

Sea nXXX ,,, 21 una muestra aleatoria con función de densidad )(xf , dada una

realización nxxx ,,, 21 se desea probar el contraste de hipótesis

θ

θ

FxfH

FxfH

)(:

)(:

1

0

Es decir, si las observaciones provienen de la familia de densidades θF con parámetros

θ desconocidos. En general se puede establecer la siguiente metodología bootstrap para llevar a cabo la prueba anterior de bondad de ajuste.

Sean nxxx ,,, 21 observaciones provenientes de una distribución )(D , la prueba

de bootstrap con base en un estimador de se realiza siguiendo los siguientes pasos.

1. Con las observaciones dadas nxxx ,,, 21 se calcula un valor para el estimador

denotado por 0

~ .

2. Con las observaciones se calcula la estadística de prueba 0q .

3. A partir de 0

~ iniciar un ciclo bootstrap.

a) Generar una muestra bootstrap de tamaño n de )~

( jD .

b) Con la muestra bootstrap del inciso (3a) calcular una estimación para el

parámetro de estudio 1

~ .

c) Con 1

~ del inciso (3b) se calcula la estadística de prueba

1~q .

4. El ciclo bootstrap del inciso (3) se repite m veces para calcular mqqq ~,,~,~21 en

donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.

5. Con el ciclo terminado mqqq ~,,~,~21 son ordenados en forma no decreciente,

denotándolos con iq̂ . Entonces, mqqq ˆˆˆ21 y obtener el cuantil , sea este

q̂ .

6. Regla de decisión. Comparar 0q con el cuantil del inciso (5).

a) Si qq ˆ0 , se rechaza 0H al nivel de significancia.

b) Si qq ˆ0 , no se rechaza 0H al nivel de significancia.

4.1.1 Tamaño de la prueba

Antes de iniciar con la prueba se debe determinar si ésta tiene un tamaño adecuado.

Page 89: Pruebas de ajuste de Bondad

Prueba propuesta

78

Como se sabe el tamaño de una prueba se relaciona con la probabilidad del error tipo I, luego se realiza la simulación para el tamaño de prueba considerando que los datos provienen de una variable aleatoria )(D , para un valor de dado.

Para determinar el tamaño de la prueba se programa una función en el proyecto R, que trabaja de la siguiente forma:

1. Se genera una muestra )(,,, 021 Dxxx n .

2. Con la muestra generada en el inciso anterior calcular un valor para el estimador

0

~ .

3. Con la muestra del inciso (1) y el valor del estimador del inciso (2) se calcula la estadística de prueba

0q̂ .

4. A partir de 0

~ iniciar un ciclo de bootstrap.

a) Generar una muestra de bootstrap de tamaño n de )~

( 0D .

b) Con la muestra bootstrap del inciso (4a) calcular una estimación para el

parámetro de estudio y denotarlo por 1

~ .

c) Con 1

~ del inciso anterior se calcula la estadística de prueba 1

~q .

5. El ciclo bootstrap del inciso (4) se repite m veces para calcular mqqq ~,,~,~21 , en

donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.

6. Con el ciclo terminado mqqq ~,,~,~21 son ordenados en forma no decreciente,

denotándolo con iq̂ . Entonces, mqqq ˆˆˆ21 y se obtienen los cuantiles

requeridos. 7. Comparar 0q con los cuantiles del inciso anterior.

a) Si, se asigna 1 en el cuantil correspondiente. b) Si, se asigna 0 en el cuantil correspondiente.

8. Repetir los incisos desde el 1 hasta el 7 m veces. Finalmente obtener los promedios por cuantil de estas repeticiones. Dichos promedios son los tamaños de prueba buscados.

4.2 EJEMPLO DE LA TÉCNICA BOOTSTRAP PARA UNA FUNCIÓN LOG-

GAMMA GENERALIZADA

La clase de distribuciones log-gamma generalizada con los tres parámetros: localización ( ), escala ( ) y forma ( k ) tiene la siguiente expresión.

Page 90: Pruebas de ajuste de Bondad

Capítulo 4

79

( )

( )

( ) ((

)√

(

) √ ⁄

)

Propiedades del modelo log-gamma generalizado

a. Cuando coincide con la distribución Gumbel.

b. Cuando converge a la distribución normal estándar.

( ) y ( ) dependen de .

Las variables aleatorias que se obtienen por medio de la transformación logaritmo de otra variable conocida, que es la representación estándar de esta última, de tal manera que la forma de la distribución no depende de ningún otro parámetro se les llama logarítmicos de localización y escala, en forma breve loc-escala. Es decir, son variables cuya distribución es invariante a desplazamientos y factores de escala.

Se puede observar que la distribución log-gamma generalizada bajo valores fijos del parámetro de forma es del tipo loc-escala.

En este capítulo se proporcionará una prueba de bondad de ajuste para una distribución log-gamma generalizada, con parámetros de localización ( ), escala ( ) y

forma ( k ) desconocidos. Es decir, dada la realización de una muestra aleatoria

nXXX ,,, 21 con función de densidad )(xf y el contraste de hipótesis

,,)(:

,,)(:

1

0

LGG

LGG

FxfH

FxfH

(4.1.1)

Establecer una prueba de bondad de ajuste con la que sea factible determinar si se trata de una distribución de la clase LGGF -densidades log-gamma generalizada con

parámetros de localidad, escala y forma desconocidos.

La mecánica de las pruebas de bondad de ajuste, en sus principios generales es conocida, las dificultades que se tienen en un caso particular son varias. Una de tales dificultades se refiere a los estimadores de los parámetros problema que como se sabe, cuando se trata de dos o más parámetros en general es bastante complicado. Para el caso de la distribución log-Gamma generalizada el problema parece simplificarse, porque se trata de una distribución que pertenece a la familia loc-escala, cuando se fija un valor para el parámetro de forma. Luego el problema de la prueba de hipótesis (4.1.1) puede plantearse como

,1,0)(:

,1,0)(:

1

0

LGG

LGG

FyfH

FyfH

(4.1.2)

Page 91: Pruebas de ajuste de Bondad

Prueba propuesta

80

Así, con base en la invarianza bajo la transformación de los parámetros de localización y escala, sería posible establecer algunas pruebas con el coeficiente de correlación muestral, cómo una estadística de prueba.

Para construir una prueba para (4.1.1), se observa que si 0H se cumple, entonces

la función de distribución de )(xf es tal que

k

xFxF ;,,; *

en donde ,1,0;* LGGFkyF . Entonces para una variable aleatoria X con densidad

)(xf se tiene que para kF ;1

* la función inversa de kyF ;*

en y

XkkXFFU ;,,;

1

*

*

Es decir *U es una función lineal de X .

Por otro lado, sea )(xFn la función de distribución empírica basada en una

muestra aleatoria nXXX ,,, 21 de )(xf . Es decir,

n

iin

xx

xxxn

i

xx

xF

,1

,5.0

,0

)( 1

1

donde nxx 1 son los valores ordenados de las ix ’s, entonces si k̂ es un estimador

de k se tiene que para una realización x de X , por (4.2.1)

xkxFFu n ˆ;:

1

*

(4.2.1)

Puesto que xFn es un estimador de kxF ,,; . Entonces bajo 0H , u es

aproximadamente una función lineal de x . De donde para probar (4.1.1), se propone como estadística de prueba al coeficiente de correlación muestral en (4.2.4)

n

i

i

n

i

i

n

i

ii

n

UUXX

UUXX

UXr

1

2

1

2

1,

(4.2.4)

Page 92: Pruebas de ajuste de Bondad

Capítulo 4

81

el cual se espera que tome valores cercanos a 1 bajo 0H .

Es decir, la prueba rechaza 0H si UXrn , toma valores alejados de 1, o sea, si

rUXrn , tal que la prueba es de tamaño 1,0 un valor conocido entonces se

rechaza 0H .

LEMA 4.1

Sea nWWW ,,, 21 una muestra aleatoria con parámetros de localidad y escala ;

y nVVV ,,, 21 otra muestra aleatoria con parámetros de localidad y escala ,

entonces el coeficiente de correlación muestral es invariante bajo localidad y escala.

Demostración

Sea el coeficiente de correlación muestral VWrn , , dado en (4.2.4) y calcule ** ,VWrn

en donde

WW * y

VV * , entonces

WWWWWW ii

i

**

similarmente

VVVV i

i

** .

Sustituyendo las igualdades anteriores en ** ,VWrn

VWr

VVWW

VVWW

VWr nn

i

in

i

i

n

i

ii

n ,,

1

2

1

2

1**

Similarmente se prueba que el coeficiente de asimetría muestral ̂ es invariante

bajo localidad y escala. Entonces el estimador de k , ̂ˆ 1 Gk , es invariante bajo

localidad. Por lo tanto, del Lema 4.1 la distribución de UXrn , , bajo 0H no depende

de los parámetros , para cada 0k ; sin embargo, dicha distribución va a depender

de k . Por lo tanto, se propone realizar una prueba de “bootstrap" paramétrica en k

basada en UXrn , .

4.2.1 Propiedades asintóticas de los estimadores

Antes de pasar al procedimiento de la prueba bootstrap, hablaremos de los estimadores. En el capítulo 1 se mencionaron las propiedades que debe cumplir un buen estimador, como son: el insesgamiento, la consistencia en probabilidad y en error cuadrado medio.

Page 93: Pruebas de ajuste de Bondad

Prueba propuesta

82

Esto se comprobará por simulación, y se realizará en etapas, la primera consistirá en una

comparación de la estimación de k con k̂ , posteriormente se compara el ECM con la varianza y se prueba si hay o no insesgamiento asintótico.

Comparación del estimador

En la siguiente tabla se muestran algunos valores de k y la estimación que realiza k̂ que es el estimador de máxima verosimilitud.

k k̂

k k̂

0.1 0.10132 0.1 0.10069

0.2 0.18257 0.2 0.20215

0.4 0.41180 0.4 0.39943

0.6 0.60048 0.6 0.59615

0.8 0.80394 0.8 0.79487

1 1.01399 1 0.99970

2 2.06890 2 2.01405

3 3.03609 3 3.00412

4 3.97202 4 4.02002

5 5.18357 5 5.01373

10 9.62879 10 10.04422

15 15.01258 15 14.86974

20 19.71464 20 19.78095

Tabla 4.1. Valores del estimador con tamaño de muestra 10,000 tabla izquierda (sin repeticiones) y en la tabla derecha se hacen 10 repeticiones.

En la tabla 4.1 se puede apreciar que la estimación de k̂ es buena.

Note que se tomó una sola muestra de tamaño 10,000 en la tabla izquierda y en la tabla derecha la muestra también fue de tamaño 10,000, pero con 10 repeticiones, lo que mejora la estimación anterior.

Comparación de los ECM

Para determinar el error cuadrado medio del estimador se utiliza un programa en el proyecto R. Para los cálculos se tomaron valores más representativos del comportamiento del parámetro k .

En la tabla 4.2 se puede apreciar el ECM de k̂ .

Page 94: Pruebas de ajuste de Bondad

Capítulo 4

83

k k̂

k k̂

0.1 0.000102 2 0.00195

0.2 0.000199 3 0.00295

0.3 0.000293 4 0.00406

0.4 0.000404 5 0.00496

0.5 0.000484 6 0.00583

0.6 0.000604 7 0.00701

0.7 0.000719 8 0.00786

0.8 0.000826 9 0.00871

0.9 0.000898 10 0.00958

1 0.001034 20 0.01981

Tabla 4.2. Valores del ECM para k̂ con un tamaño de muestra n = 10,000 y m = 5,000 repeticiones.

ECM y varianza de los estimadores

A continuación se analiza el ECM para k̂ y se comparan con su varianza, obteniendo los resultados de las tabla 4.3. En esta tabla se puede apreciar que la varianza coincide con ECM, luego k̂ será asintóticamente insesgado.

Para la ejecución se realizaron 5,000 repeticiones con tamaños de muestra que van de 1,000 a 15,000, variando de 1000 en 1000, para los valores de k dados arriba.

VALORES de k̂

0.1 0.5 1 5 10

n VAR ECM VAR ECM VAR ECM VAR ECM VAR ECM

1 0.00105 0.00106 0.00509 0.00512 0.01102 0.01110 0.05322 0.05374 0.10200 0.10270

2 0.00050 0.00051 0.00246 0.00246 0.00508 0.00510 0.02497 0.02510 0.05148 0.05166

3 0.00033 0.00033 0.00169 0.00169 0.00339 0.00340 0.01656 0.01657 0.03213 0.03224

4 0.00025 0.00025 0.00127 0.00127 0.00251 0.00252 0.01207 0.01209 0.02567 0.02575

5 0.00020 0.00020 0.00103 0.00103 0.00191 0.00192 0.00984 0.00984 0.01993 0.01995

6 0.00017 0.00017 0.00085 0.00085 0.00159 0.00159 0.00835 0.00838 0.01651 0.01652

7 0.00014 0.00014 0.00072 0.00072 0.00145 0.00146 0.00691 0.00692 0.01424 0.01425

8 0.00013 0.00013 0.00063 0.00063 0.00120 0.00121 0.00617 0.00617 0.01283 0.01285

9 0.00011 0.00011 0.00055 0.00055 0.00109 0.00109 0.00549 0.00548 0.01093 0.01093

10 0.00010 0.00010 0.00051 0.00051 0.00098 0.00098 0.00499 0.00499 0.01015 0.01015

11 0.00009 0.00009 0.00046 0.00046 0.00089 0.00089 0.00443 0.00443 0.00922 0.00922

12 0.00009 0.00009 0.00040 0.00040 0.00080 0.00080 0.00409 0.00409 0.00838 0.00839

13 0.00008 0.00008 0.00038 0.00038 0.00077 0.00077 0.00370 0.00370 0.00779 0.00779

14 0.00007 0.00007 0.00036 0.00036 0.00072 0.00072 0.00352 0.00352 0.00715 0.00715

15 0.00007 0.00007 0.00032 0.00032 0.00067 0.00067 0.00336 0.00336 0.00671 0.00670

Tabla 4.3. Valores de la varianza y ECM para k̂ con un tamaño de muestra n en miles; m= 5000

repeticiones; error máximo de 0.00001 (ver gráfica 4.2).

Page 95: Pruebas de ajuste de Bondad

Prueba propuesta

84

En la figura 4.1 se muestra el comportamientos asintótico del ECM para k̂ con los tamaños de muestra n = 1000, 2000, . . . ,15000. En esta figura, se puede notar cierta dependencia del ECM, no sólo con el tamaño de muestra, sino también con el valor del parámetro.

Figura 4.1. Valores del ECM para k̂ en los 5 valores de k̂ = 0.1, 0.5, 1, 5, 10, se tomaron con un

tamaño de muestra n dada en miles y m = 5; 000 repeticiones

Para comprobar lo anterior sobre la proporcionalidad se busca en cada tamaño de muestra el coeficiente de proporcionalidad entre el tamaño del ECM y n, k , encontrando los valores que se muestran en la tabla 4.4 y como se puede observar son muy similares. Es decir, se comprobó de esta forma que los ECM sí dependen en forma proporcional, tanto del tamaño de la muestra n como del parámetro k .

Estimador k̂

kn 0.1 0.5 1 5 10

1 10.6 10.2 11.1 10.7 10.3

2 10.1 9.8 10.2 10.0 10.3

3 10.0 10.2 10.2 9.9 9.7

4 10.0 10.1 10.1 9.7 10.3

5 10.2 10.3 9.6 9.8 10.0

6 10.0 10.2 9.5 10.1 9.9

7 9.7 10.1 10.2 9.7 10.0

8 10.1 10.2 9.6 9.9 10.3

9 10.1 9.9 9.8 9.9 9.8

10 9.7 10.2 9.8 10.0 10.2

11 10.0 10.2 9.8 9.7 10.1

12 10.2 9.7 9.6 9.8 10.1

13 10.1 9.8 9.9 9.6 10.1

14 9.9 10.0 10.0 9.9 10.0

15 9.9 9.7 10.1 10.1 10.1

Tabla 4.4. Valores de proporcionalidad entre ECM, tamaño de la muestra n en miles y el valor del

parámetro k .

Page 96: Pruebas de ajuste de Bondad

Capítulo 4

85

Después de calcular el promedio de estos valores se obtiene la proporción asintótica de decrecimiento del ECM para el estimador:

ECM)ˆ(k es proporcional a

n

k10

4.2.2 Procedimiento de la prueba en R

En el caso general cuando las variables ix ’s provienen de una distribución Log-Gamma

Generalizada que bajo un valor conocido del parámetro de forma pertenece a la familia de loc-escala, y el hecho de que el coeficiente de correlación muestral 4.2.4 también es invariante, conducen a simplificar el problema 4.1.1, proponiendo pruebas para el problema simplificado 4.1.2, basadas en el estimador del parámetro de forma k .

La prueba de bootstrap con base en el EMV, se realiza siguiendo los siguientes pasos.

1. Con las observaciones dadas nxxx ,,, 21 calcular un valor para el estimador

denotado por 0

~k , de k .

2. Con las observaciones se calcula su coeficiente de correlación muestral 0r .

3. A partir de 0

~k iniciar un ciclo bootstrap.

a) Generar una muestra bootstrap de tamaño n de )~

,1,0( 0kLGG .

b) Con la muestra bootstrap del inciso 3a calcular una estimación para el

parámetro de forma y considerar su valor absoluto, denotándola por1

~k .

c) Con 1

~k del inciso 3b se calcula el coeficiente de correlación muestral 1

~r .

4. El ciclo bootstrap del inciso 3 se repite m veces para calcular mrrr ~,,~,~21 en

donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.

5. Con el ciclo terminado mrrr ~,,~,~21 son ordenados en forma no decreciente,

denotándolos con ir̂ . Entonces, mrrr ˆˆˆ21 y se obtiene el cuantil , sea éste

r̂ .

6. Regla de decisión. Comparar 0r con el cuantil del inciso 5.

a) Si rr ˆ0 , se rechaza 0H al nivel de significancia.

b) Si rr ˆ0 , no se rechaza 0H al nivel de significancia.

Tamaño de la prueba

Como se sabe el tamaño de una prueba se relaciona con la probabilidad del error tipo I, luego se realiza la simulación para el tamaño de prueba considerando que los datos

Page 97: Pruebas de ajuste de Bondad

Prueba propuesta

86

provienen de una muestra de variables aleatorias ),1,0( kLGG , para un valor de k

dado.

Para determinar el tamaño de la prueba se programó una función en el proyecto R. Para los tamaños de prueba, se utilizaron m = 1000 y M = 500 repeticiones. Para la aproximación de los cuantiles se utilizó un error de 0.00001 con 1000 iteraciones y tamaños de muestra n = 30; 40; 50; 75; 100; 150; 200, finalmente se analizaron los valores de k = 0.1; 0.5; 1; 2; 5. Obteniendo los resultados de los cuadros siguientes.

Tamaños de prueba para k =0.1 y valores de

n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100

30 0.014 0.016 0.018 0.024 0.040 0.050 0.064 0.076 0.080 0.082 0.086 0.096

40 0.010 0.015 0.020 0.020 0.025 0.025 0.060 0.070 0.070 0.075 0.105 0.115

50 0.005 0.015 0.015 0.020 0.030 0.035 0.055 0.075 0.075 0.075 0.085 0.105

75 0.000 0.000 0.005 0.005 0.030 0.030 0.040 0.055 0.065 0.065 0.095 0.100

100 0.004 0.020 0.024 0.028 0.036 0.040 0.056 0.080 0.080 0.080 0.096 0.100

150 0.010 0.020 0.024 0.024 0.038 0.044 0.052 0.056 0.058 0.064 0.072 0.082

200 0.008 0.014 0.020 0.026 0.034 0.040 0.046 0.064 0.066 0.074 0.084 0.090

Tamaños de prueba para k =0.5 y valores de

n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100

30 0.008 0.022 0.030 0.042 0.050 0.058 0.066 0.072 0.074 0.082 0.098 0.102

40 0.000 0.013 0.013 0.016 0.025 0.038 0.054 0.063 0.073 0.079 0.082 0.098

50 0.010 0.023 0.027 0.030 0.033 0.043 0.057 0.070 0.073 0.077 0.087 0.100

75 0.008 0.008 0.016 0.016 0.040 0.048 0.060 0.068 0.072 0.072 0.080 0.092

100 0.007 0.010 0.013 0.020 0.027 0.033 0.057 0.070 0.070 0.070 0.087 0.090

150 0.006 0.008 0.016 0.028 0.038 0.042 0.054 0.068 0.074 0.074 0.084 0.098

200 0.008 0.012 0.016 0.020 0.034 0.042 0.060 0.064 0.070 0.076 0.082 0.094

Tamaños de prueba para k =1 y valores de

n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100

30 0.010 0.015 0.025 0.035 0.040 0.045 0.060 0.075 0.090 0.090 0.090 0.110

40 0.010 0.020 0.030 0.035 0.040 0.040 0.055 0.070 0.080 0.090 0.100 0.110

50 0.005 0.014 0.019 0.019 0.034 0.043 0.048 0.063 0.068 0.077 0.082 0.082

75 0.010 0.010 0.024 0.029 0.034 0.048 0.063 0.072 0.077 0.077 0.077 0.101

100 0.000 0.000 0.010 0.015 0.024 0.029 0.044 0.053 0.058 0.068 0.068 0.068

150 0.005 0.020 0.030 0.030 0.030 0.035 0.045 0.055 0.060 0.080 0.085 0.090

200 0.005 0.005 0.010 0.019 0.044 0.058 0.058 0.058 0.058 0.073 0.078 0.092

Tamaños de prueba para k =2 y valores de

Page 98: Pruebas de ajuste de Bondad

Capítulo 4

87

n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100

30 0.010 0.016 0.020 0.024 0.034 0.046 0.060 0.064 0.072 0.078 0.086 0.100

40 0.004 0.004 0.004 0.020 0.032 0.040 0.052 0.064 0.068 0.072 0.084 0.092

50 0.003 0.007 0.010 0.010 0.020 0.033 0.043 0.057 0.067 0.067 0.087 0.097

75 0.003 0.013 0.017 0.020 0.023 0.030 0.047 0.070 0.070 0.073 0.087 0.097

100 0.007 0.023 0.037 0.037 0.047 0.053 0.063 0.067 0.070 0.073 0.083 0.093

150 0.008 0.016 0.020 0.024 0.034 0.042 0.054 0.060 0.068 0.074 0.080 0.088

200 0.008 0.020 0.030 0.030 0.040 0.050 0.052 0.066 0.072 0.078 0.082 0.088

Tamaños de prueba para k =5 y valores de

n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100

30 0.010 0.026 0.026 0.036 0.050 0.052 0.068 0.076 0.082 0.084 0.092 0.102

40 0.010 0.013 0.013 0.023 0.033 0.037 0.040 0.053 0.053 0.073 0.087 0.097

50 0.010 0.013 0.013 0.017 0.023 0.037 0.040 0.040 0.047 0.053 0.057 0.063

75 0.007 0.013 0.020 0.023 0.040 0.047 0.053 0.063 0.070 0.073 0.077 0.090

100 0.007 0.020 0.030 0.030 0.040 0.047 0.057 0.067 0.073 0.080 0.090 0.100

150 0.006 0.018 0.020 0.020 0.022 0.030 0.036 0.048 0.054 0.058 0.060 0.066

200 0.006 0.014 0.022 0.026 0.038 0.040 0.046 0.052 0.056 0.074 0.084 0.092

Tabla 4.5: Tamaños de prueba para k = 0:1; 0:5; 1; 2; 5, usando el EMV y tamaño de muestra n = 30;

40,…, 200 realizando m = 1000 y M = 500 repeticiones con aproximaciones de los cuantiles en un error menor a 0.00001 con 1000 iteraciones.

Potencia de la prueba

Después de revisar el tamaño de la prueba, para la prueba bootstrap paramétrica obviamente el paso siguiente consiste en determinar la potencia de la prueba para el problema (4.1.2), determinar si los datos muestrales analizados pertenecen a la familia LGG . Por tratarse de una prueba bootstrap, se proporciona un programa en el proyecto R que calcule la potencia de la prueba, el cual trabaja de la siguiente forma:

1. Se genera una muestra nxxx ,,, 21 , en donde es la distribución

alternativa. 2. Con la muestra generada en 1 calcular una estimación para el parámetro de

forma y considerar su valor absoluto, denotándola por 0

~k .

3. Con la muestra generada en 1 y 0

~k

se calcula el coeficiente de correlación

muestral, 0r .

4. A partir de 0

~k iniciar un ciclo bootstrap.

d) Generar una muestra bootstrap de tamaño n de )~

,1,0( 0kLGG .

e) Con la muestra bootstrap del inciso 4a calcular una estimación para el

parámetro de forma y considerar su valor absoluto, denotándola por1

~k .

Page 99: Pruebas de ajuste de Bondad

Prueba propuesta

88

f) Con 1

~k del inciso 4b se calcula el coeficiente de correlación muestral

1~r .

5. El ciclo bootstrap del inciso 4 se repite m veces para calcular mrrr ~,,~,~21 en

donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.

6. Con el ciclo terminado mrrr ~,,~,~21 son ordenados en forma no decreciente,

denotándolos con ir̂ . Entonces, mrrr ˆˆˆ 21 y se obtienen los cuantiles

requeridos. En este caso se tomaran los cuantiles 0.01 , 0.025, 0.05, 0.075 y 0.10,

que se denotan en general icr̂ para ic = 0.01, 0.025,. . . , 0.10.

7. Comparar 0̂r con los cuantiles del inciso 6.

c) Si icrr ˆ

0̂ , se signa 1 en el cuantil correspondiente.

d) Si icrr ˆ

0̂ , se asigna un 0 en el cuantil correspondiente.

8. Repetir los incisos desde el 1 hasta el 7 M veces. Finalmente se obtienen los promedios por cuantil de estas repeticiones, dichos promedios son las potencias de las pruebas.

En general el problema de decidir qué distribuciones utilizar para calcular la potencia de la prueba, para el caso bootstrap paramétrico es sencillo, debido a la invarianza del coeficiente de asimetría con respecto a localidad y escala, y el hecho de que dos segmentos siempre son homotéticos, las densidades no necesariamente deben tener el mismo soporte, como era una primera idea al respecto.

Luego, las distribuciones que serán utilizadas en la potencia de la prueba bootstrap, se han clasificado en tres tipos: simétricas, sesgadas y las que pueden ser de alguno de los tipos anteriores, según se elijan sus parámetros. Se muestran sus funciones de densidad de cada una de ellas.

Distribuciones simétricas

1) Normal

2

2

2

2

1),;(

x

xf con Rx , y 0 .

2) T-student 2

1

2

1

2

2

1

);(

v

v

x

vv

v

vxf

con Rx , 0v .

3) Logística

21),;(

x

x

xf

con Rx , y 0 .

Page 100: Pruebas de ajuste de Bondad

Capítulo 4

89

4) Laplace

xxf

2

1),;( con Rx , y 0 .

5) Cauchy

2

1

1),;(

x

xf con Rx , y 0 .

6) t-no central

V

Uxf

),;( , )1,0(~ NU 2~ vV independientes con R y

0 .

Distribución que puede ser asimétrica o simétrica

7) Beta

11 1),;(

xxxf con 10 x , 0, .

Distribuciones asimétricas

8) Gumbel

xxxf exp

1),;( con Rx , y 0 .

9) Gamma

xxxf

1),;( con 0,, x .

10) ji-cuadrada

212

2 22

1);( x

vxxf

con 0, x .

11) Weibull

xx

xf

1

),;( con 0,, x .

12) F-snedecor

2

2

112

21

2

2

121

21

21

1

1

122

2),;(

xxxf con

0,, 21 x .

Page 101: Pruebas de ajuste de Bondad

Prueba propuesta

90

13) Fréchet

x

xxf

1exp

1),,;(

1 con Rx ,

0, .

14) Exponencial

xxf

1);( con 0, x .

15) Pareto 1

),;(

xxf con 0,, x .

16) Log-normal

2

2

2

log

2

1),;(

x

xxf con Rx ,0 y 0 .

17) Log-Logística

2log

log

1),;(

x

x

xxf

con Rx ,0 y 0 .

18) Log-Cauchy

2

log1

1),;(

x

x

xf con Rx ,0 y 0 .

19) Log t-student 2

1

2log

1

2

2

1

),;(

v

v

x

vv

x

v

vxf

con Rx ,0 y

0 .

20) Log-Laplace

x

xxf

log

2

1),;( con Rx ,0 y 0 .

Resultados de la potencia de la prueba

A continuación se presentan algunas tablas que muestran la potencia de la prueba para el estimador k̂ del parámetro de forma de la familia ),1,0( kLGG , con diferentes

valores de significancia (0.01, 0.025, 0.05, 0.075 y 0.10) y tamaños de muestra (30, 40, 50, 75, 100, 150 y 200), aplicados a cada una de las distribuciones mostradas arriba. Se hace una diferencia entre las distribuciones que tienen soporte en todo R y son simétricas con respecto a otras distribuciones que son simétricas.

Page 102: Pruebas de ajuste de Bondad

Capítulo 4

91

n 0.010 0.025 0.050 0.075 0.100

30 0.000 0.020 0.040 0.050 0.070

40 0.010 0.020 0.050 0.090 0.120

50 0.020 0.030 0.060 0.100 0.130

75 0.020 0.060 0.060 0.100 0.140

100 0.050 0.060 0.090 0.120 0.140

150 0.076 0.099 0.116 0.170 0.207

200 0.117 0.147 0.157 0.212 0.251 Tabla 4.6: Potencias para la distribución alternativa normal con 0 y 2.0 .

n 0.010 0.025 0.050 0.075 0.100

30 0.130 0.190 0.260 0.270 0.300

40 0.220 0.280 0.320 0.400 0.420

50 0.320 0.400 0.460 0.500 0.540

75 0.290 0.350 0.440 0.500 0.560

100 0.367 0.442 0.514 0.581 0.636

150 0.450 0.532 0.609 0.689 0.755

200 0.502 0.591 0.680 0.750 0.830 Tabla 4.7: Potencias para la distribución alternativa t-Student con 5 .

n 0.010 0.025 0.050 0.075 0.100

30 0.075 0.135 0.185 0.250 0.265

40 0.080 0.150 0.210 0.270 0.305

50 0.145 0.200 0.255 0.280 0.305

75 0.160 0.255 0.325 0.370 0.405

100 0.181 0.266 0.336 0.372 0.410

150 0.224 0.320 0.397 0.425 0.469

200 0.263 0.369 0.450 0.476 0.522 Tabla 4.8: Potencias para la distribución alternativa Logística con 0 y 2 .

n 0.010 0.025 0.050 0.075 0.100

30 0.260 0.350 0.400 0.410 0.470

40 0.340 0.450 0.490 0.560 0.590

50 0.390 0.460 0.520 0.580 0.610

75 0.510 0.560 0.670 0.760 0.800

100 0.532 0.584 0.688 0.793 0.822

150 0.578 0.622 0.738 0.856 0.883

200 0.622 0.657 0.784 0.915 0.939 Tabla 4.9: Potencias para la distribución alternativa Laplace con 0 y 2 .

Page 103: Pruebas de ajuste de Bondad

Prueba propuesta

92

n 0.010 0.025 0.050 0.075 0.100

30 0.040 0.120 0.170 0.200 0.250

40 0.120 0.250 0.290 0.320 0.380

50 0.130 0.210 0.350 0.450 0.510

75 0.270 0.400 0.510 0.540 0.640

100 0.283 0.420 0.542 0.601 0.697

150 0.326 0.472 0.605 0.667 0.771

200 0.365 0.520 0.663 0.728 0.840 Tabla 4.10: Potencias para la distribución alternativa Beta con 4 y 10 .

n 0.010 0.025 0.050 0.075 0.100

30 0.930 0.950 0.970 0.970 0.970

40 0.960 0.970 0.980 0.980 0.980

50 0.980 0.990 0.990 0.990 0.990

75 1.000 1.000 1.000 1.000 1.000 Tabla 4.11: Potencias para la distribución alternativa Cauchy con 0 y 2 .

n 0.010 0.025 0.050 0.075 0.100

30 0.340 0.390 0.460 0.530 0.580

40 0.460 0.600 0.640 0.680 0.720

50 0.610 0.690 0.740 0.790 0.800

75 0.790 0.870 0.890 0.920 0.950

100 0.842 0.937 0.953 0.978 0.994

150 0.928 1.000 1.000 1.000 1.000 Tabla 4.12: Potencias para la distribución alternativa Gumbel con 0 y 2 .

n 0.010 0.025 0.050 0.075 0.100

30 0.600 0.740 0.820 0.860 0.860

40 0.740 0.850 0.900 0.910 0.920

50 0.860 0.920 0.950 0.980 0.980

75 0.980 1.000 1.000 1.000 1.000

100 1.000 1.000 1.000 1.000 1.000

Tabla 4.13: Potencias para la distribución alternativa Gamma con 4 y 5 .

n 0.010 0.025 0.050 0.075 0.100

30 0.100 0.185 0.275 0.320 0.355

40 0.150 0.360 0.440 0.500 0.560

50 0.370 0.460 0.520 0.580 0.610

75 0.560 0.640 0.770 0.810 0.860

100 0.613 0.697 0.811 0.857 0.908

150 0.707 0.781 0.902 0.947 1.000

200 0.873 0.916 0.985 1.000 1.000 Tabla 4.14: Potencias para la distribución alternativa Ji-cuadrada con 20 .

Page 104: Pruebas de ajuste de Bondad

Capítulo 4

93

n 0.010 0.025 0.050 0.075 0.100

30 0.040 0.160 0.230 0.260 0.390

40 0.150 0.220 0.310 0.420 0.470

50 0.150 0.300 0.380 0.510 0.520

75 0.420 0.610 0.760 0.810 0.880

100 0.514 0.723 0.772 0.847 0.890

150 0.557 0.776 0.876 0.949 0.986

200 0.819 0.912 0.975 1.000 1.000 Tabla 4.15: Potencias para la distribución alternativa Weibull con 2 y 2 .

n 0.010 0.025 0.050 0.075 0.100

30 0.945 0.975 0.995 1.000 1.000

40 0.980 0.990 1.000 1.000 1.000

Tabla 4.16: Potencias para la distribución alternativa F con 41 y 82 .

n 0.010 0.025 0.050 0.075 0.100

30 0.960 0.960 0.960 0.960 0.960

40 0.995 0.995 0.995 0.995 0.995 Tabla 4.17: Potencias para la distribución alternativa Fréchet con 0 , 2 y 5 .

n 0.010 0.025 0.050 0.075 0.100

30 0.910 0.960 0.990 0.990 1.000

40 0.980 0.990 1.000 1.000 1.000

50 1.000 1.000 1.000 1.000 1.000 Tabla 4.18: Potencias para la distribución alternativa Pareto con 4 y 20 .

n 0.010 0.025 0.050 0.075 0.100

30 0.830 0.910 0.940 0.980 0.980

40 0.990 1.000 1.000 1.000 1.000 Tabla 4.19: Potencias para la distribución alternativa Exponencial con 1.0 .

Potencias para las distribuciones alternativas restantes:

Log-normal con 0 y 2 .

Log-logística con 0 y 2 .

Log-Cauchy con 0 y 2 .

Log t-student con 0 y 5 .

Page 105: Pruebas de ajuste de Bondad

Prueba propuesta

94

Log-Laplace con 0 y 2 .

Para tamaños de muestra 30 fue 1.

NOTA: De las tablas para la potencia de la prueba se puede establecer: 1) La prueba tiene una potencia elevada en caso de distribuciones sesgadas a la

derecha.

2) La prueba funciona mejor mientras más pesada es la cola

3) La prueba es un poco baja en el caso de distribuciones simétricas y tamaños de muestra pequeños

Page 106: Pruebas de ajuste de Bondad

95

Conclusiones El uso de las pruebas de bondad de ajuste cada vez resulta más sencillo si se conoce y entiende la metodología de estas pruebas. Además es importante conocer las bases estadísticas necesarias, como son los estimadores puntuales. Entendiendo claramente los conceptos de parámetros, estimadores, sus propiedades y las técnicas para obtener a los mejores estimadores se puede entender la aplicación de las pruebas de bondad de ajuste y hacer buen uso de estas pruebas tan importantes dentro de la estadística.

El principal problema de estas pruebas resulta ser la construcción de la estadística de prueba, la cual, como se ha mencionado en este trabajo, es una función de distancia, por ello resultó interesante el estudiar las distancias más importantes, además de las condiciones que deben cumplir para que sean llamadas funciones de distancia.

Actualmente la aparición de los programas computacionales y el uso de la técnica bootstrap es mayor y facilitan la construcción de nuevas metodologías para llevar a cabo pruebas de bondad de ajuste cuando la estadística de prueba no es posible obtenerla en forma cerrada.

Page 107: Pruebas de ajuste de Bondad

96

Bibliografía

[1] Andrews, D. W. (1997). A Conditional Kolmogorov Test. ECONOMETRICA,

1097.1128.

[2] Anscombe, F. J. (1963). Test of goodness of fit. Journal of the Royal Statistical

Society , 25 (1), 81.94.

[3] Borovkov, A. A. (1999). Mathematical Statistics. Taylor & Francis.

[4] Canavos George C. (1988). Probabilidad y Estadística, problemas y aplicaciones.

Mc Graw.Hill/Interamericana

[5] Casella George and Berger L. Roger. (2001). Statistical Inference, Duxbury Press; 2

edition, 688p. ISBN 978.0534.243.12.8

[6] Donald W., K. A. (1997). A Conditional Kolmogorov Test. Econometrica , 65 (5),

1097.1128.

[7] Geoffrey J. McLachlan, D. P. (1946). Finite Mixture Models. New York: Jhon

Wiley.

[8] Gmurman, V. E. (1974). Teoría de las probabilidades y estadística matemática,

Moscú, Mir.

[9] González, E. G. (2010). Pruebas de bondad de ajuste Bootstrap para la distribución

Log.Gamma Generalizada. Texcoco, edo de México: Tesis de postgrado

[10] Grupo de Investigación TeLoYDisRen. Inferencia Estadística (2ª Edición

Revisada).

[11] Kallenberg, O. (2002). Foundations of Modern Probability, 2nd ed. Spinger

Series in Statistics.

[12] Mood A. M., Graybill F. A. and Boes D. C. (1975). Introduction to the Theory of

Statistics. Ed. McGraw Hill, New York, USA

[13] Mukhopadhyay, N. (1972). Probability and Estatistical Inference. New York:

Marcel Dekker.

[14] Rodgers, J. L. (1999). The Bootstrap, the Jacknife, and the Randomization test: A

Sampling Taxonomy. Multivariate Behavioral Research, 441.456.

[15] Ross M. Sheldon. (2006). Introduction to Probability Models, Academic Press; 9

edition, 800 p. ISBN.13: 978.0125980623

[16] S. S. Shapiro y M. B. Wilk (1965). An Analysis of Variance Test for Normality.

Biometrika , 52 (3/4), 591.611.

Page 108: Pruebas de ajuste de Bondad

97

[17] S. S. Shapiro, M. B. Wilk (1965). An analysis of variance test for normlity.

Biometrika, 591.611

[18] Sibley, D. A. (1971). A metric for weak convergence of distribution functions.

Rocky Mountain.

[19] Spiegel, Murray. 1970. Estadística, McGraw.Hill, México

[20] Stigler, Stephen M. (1990). The History of Statistics: The Measurement of

Uncertainty before 1900

[21] Thode, H. C. (2002). Testing for normality. Marcel & Dekker.

[22] Zylberberg, Alejandro D. 2005. Probabilidad y Estadística . 1a ed. Editorial

Nueva Librería, 835 p. ISBN 987.1104.33.2

Page 109: Pruebas de ajuste de Bondad

98

Anexo 1

TABLA 1. VALORES DE LA DISTRIBUCIÓN JI.CUADRADA PARA ÁREAS DERECHAS.

2P

Grados de libertad

0.3 0.2 0.15 0.1 0.05 0.02 0.01 0.001

3 3.665 4.642 5.317 6.251 7.815 9.837 11.345 16.266

4 4.878 5.989 6.745 7.779 9.488 11.668 13.277 18.467

5 6.064 7.289 8.115 9.236 11.070 13.388 15.086 20.515

6 7.231 8.558 9.446 10.645 12.592 15.033 16.812 22.458

7 8.383 9.803 10.748 12.017 14.067 16.622 18.475 24.322

8 9.524 11.030 12.027 13.362 15.507 18.168 20.090 26.124

9 10.656 12.242 13.288 14.684 16.919 19.679 21.666 27.877

10 11.781 13.442 14.534 15.987 18.307 21.161 23.209 29.588

11 12.899 14.631 15.767 17.275 19.675 22.618 24.725 31.264

12 14.011 15.812 16.989 18.549 21.026 24.054 26.217 32.909

13 15.119 16.985 18.202 19.812 22.362 25.472 27.688 34.528

14 16.222 18.151 19.406 21.064 23.685 26.873 29.141 36.123

15 17.322 19.311 20.603 22.307 24.996 28.259 30.578 37.697

16 18.418 20.465 21.793 23.542 26.296 29.633 32.000 39.252

17 19.511 21.615 22.977 24.769 27.587 30.995 33.409 40.790

18 20.601 22.760 24.155 25.989 28.869 32.346 34.805 42.312

19 21.689 23.900 25.329 27.204 30.144 33.687 36.191 43.820

20 22.775 25.038 26.498 28.412 31.410 35.020 37.566 45.315

21 23.858 26.171 27.662 29.615 32.671 36.343 38.932 46.797

22 24.939 27.301 28.822 30.813 33.924 37.659 40.289 48.268

23 26.018 28.429 29.979 32.007 35.172 38.968 41.638 49.728

24 27.096 29.553 31.132 33.196 36.415 40.270 42.980 51.179

25 28.172 30.675 32.282 34.382 37.652 41.566 44.314 52.620

26 29.246 31.795 33.429 35.563 38.885 42.856 45.642 54.052

27 30.319 32.912 34.574 36.741 40.113 44.140 46.963 55.476

28 31.391 34.027 35.715 37.916 41.337 45.419 48.278 56.892

29 32.461 35.139 36.854 39.087 42.557 46.693 49.588 58.301

30 33.530 36.250 37.990 40.256 43.773 47.962 50.892 59.703

Nota: Para valores de n (grados de libertad) mayores que 30 puede obtenerse la probabilidad a

través de la transformación 12)(2 2 nn que es aproximadamente N(0,1) .

Page 110: Pruebas de ajuste de Bondad

99

TABLA 2. VALORES CRÌTICOS DE D PARA LA PRUEBA DE KOLMOGOROVSMIRNOV

DE UNA MUESTRA.

Tamaño de la muestra

(n)

Nivel de significancia

0.2 0.15 0.1 0.05 0.01

1 0.900 0.925 0.950 0.875 0.995

2 0.684 0.726 0.776 0.842 0.929

3 0.565 0.597 0.642 0.708 0.828

4 0.494 0.525 0.564 0.624 0.733

5 0.446 0.474 0.510 0.565 0.669

6 0.410 0.436 0.470 0.521 0.618

7 0.381 0.405 0.438 0.486 0.577

8 0.358 0.381 0.411 0.457 0.543

9 0.339 0.360 0.388 0.432 0.514

10 0.322 0.342 0.368 0.410 0.490

11 0.307 0.326 0.352 0.391 0.468

12 0.295 0.313 0.338 0.375 0.450

13 0.284 0.302 0.325 0.361 0.433

14 0.274 0.292 0.314 0.349 0.418

15 0.266 0.283 0.304 0.338 0.404

16 0.258 0.274 0.295 0.328 0.392

17 0.250 0.266 0.286 0.318 0.381

18 0.244 0.259 0.278 0.309 0.371

19 0.237 0.252 0.272 0.301 0.363

20 0.231 0.246 0.264 0.294 0.356

25 0.210 0.220 0.240 0.270 0.320

30 0.190 0.200 0.220 0.240 0.290

35 0.180 0.190 0.201 0.230 0.270

>35 n

07.1

n

14.1

n

22.1

n

36.1

n

63.1

Page 111: Pruebas de ajuste de Bondad

100

TABLA 2. COEFICIENTES 1ina PARA LA PRUEBA DE NORMALIDAD DE

SHAPIROWILK.

n i

2 3 4 5 6 7 8 9 10

1 0.7071 0.7071 0.6872 0.6646 0.6431 0.6233 0.6052 0.5888 0.5739

2 . 0.0000 0.1677 0.2413 0.2806 0.3031 0.3164 0.3244 0.3291

3 . . . 0.0000 0.0875 0.1401 0.1743 0.1976 0.2141

4 . . . . . 0.0000 0.0561 0.9470 0.1224

5 . . . . . . . 0.0000 0.0399

n i

11 12 13 14 15 16 17 18 19 20

1 0.5601 0.5475 0.5359 0.5251 0.5120 0.5056 0.4968 0.4886 0.4808 0.4734

2 0.3315 0.3325 0.3325 0.3318 0.3306 0.3290 0.3273 0.3253 0.3232 0.3211

3 0.2260 0.2347 0.2412 0.2460 0.2495 0.2521 0.2540 0.2553 0.2561 0.2565

4 0.1429 0.1586 0.1707 0.1802 0.1878 0.1939 0.1988 0.2027 0.2059 0.2085

5 0.0695 0.0922 0.1099 0.1240 0.1353 0.1447 0.1524 0.1587 0.1641 0.1686

6 0.0000 0.0303 0.0539 0.0727 0.0880 0.1005 0.1109 0.1197 0.1271 0.1334

7 . . 0.0000 0.0240 0.0433 0.0593 0.0725 0.0837 0.0932 0.1013

8 . . . . 0.0000 0.0196 0.0359 0.0496 0.0612 0.0711

9 . . . . . . 0.0000 0.0163 0.0303 0.0422

10 . . . . . . . . 0.0000 0.0140

n i

21 22 23 24 25 26 27 28 29 30

1 0.4643 0.4590 0.4542 0.4493 0.4450 0.4407 0.4366 0.4328 0.4291 0.4254

2 0.3185 0.3156 0.3126 0.3098 0.3069 0.3043 0.3018 0.2992 0.2968 0.2944

3 0.2578 0.2571 0.2563 0.2554 0.2543 0.2533 0.2522 0.2510 0.2499 0.2484

4 0.2119 0.2131 0.2139 0.2145 0.2148 0.2151 0.2152 0.2151 0.2150 0.2148

5 0.1736 0.1764 0.1787 0.1807 0.1822 0.1836 0.1848 0.1857 0.1864 0.1870

6 0.1399 0.1443 0.1480 0.1512 0.1539 0.1563 0.1584 0.1601 0.1616 0.1630

7 0.1092 0.1150 0.1201 0.1245 0.1283 0.1316 0.1346 0.1372 0.1395 0.1415

8 0.0804 0.0878 0.0941 0.0997 0.1046 0.1089 0.1128 0.1162 0.1192 0.1219

9 0.0530 0.0618 0.0696 0.0764 0.0823 0.0876 0.0923 0.0650 0.1002 0.1036

10 0.0263 0.0368 0.0459 0.0539 0.0610 0.0672 0.0728 0.0778 0.0822 0.0862

11 0.0000 0.0122 0.0228 0.0321 0.0403 0.0476 0.0540 0.0598 0.0650 0.0697

12 . . 0.0000 0.0107 0.0200 0.0284 0.0358 0.0424 0.0483 0.0537

13 . . . . 0.0000 0.0094 0.1780 0.0253 0.3200 0.0381

14 . . . . . . 0.0000 0.0084 0.0159 0.0227

15 . . . . . . . . 0.0000 0.0076

Page 112: Pruebas de ajuste de Bondad

101

n i

31 32 33 34 35 36 37 38 39 40

1 0.4220 0.4188 0.4156 0.4127 0.4096 0.4068 0.4040 0.4015 0.3989 0.3964

2 0.2921 0.2898 0.2876 0.2854 0.2831 0.2813 0.2794 0.2774 0.2455 0.2737

3 0.2475 0.2463 0.2451 0.2439 0.2427 0.2415 0.2403 0.2391 0.2380 0.2368

4 0.2145 0.2141 0.2137 0.2132 0.2127 0.2121 0.2116 0.2110 0.2101 0.2098

5 0.1874 0.1878 0.1880 0.1882 0.1883 0.1883 0.1883 0.1881 0.1880 0.1878

6 0.1641 0.1651 0.1660 0.1667 0.1673 0.1678 0.1683 0.1686 0.1689 0.1691

7 0.1433 0.1449 0.1463 0.1475 0.1487 0.1496 0.1505 0.1513 0.1520 0.1526

8 0.1243 0.1265 0.1284 0.1301 0.1317 0.1331 0.1344 0.1356 0.1366 0.1376

9 0.1066 0.1093 0.1118 0.1140 0.1160 0.1179 0.1196 0.1211 0.1225 0.1237

10 0.0899 0.0931 0.0961 0.0988 0.1013 0.1036 0.1056 0.1075 0.1092 0.1108

11 0.0739 0.0777 0.0812 0.0844 0.0873 0.0900 0.0924 0.0947 0.0967 0.0986

12 0.0585 0.0629 0.0669 0.0706 0.0739 0.0770 0.0798 0.0824 0.0848 0.0870

13 0.0435 0.0485 0.0530 0.0572 0.0610 0.0645 0.0677 0.0706 0.0733 0.0759

14 0.2890 0.0344 0.0395 0.0441 0.0484 0.0523 0.0559 0.0582 0.0622 0.0651

15 0.1440 0.0206 0.0262 0.0314 0.0361 0.0404 0.0444 0.0481 0.0515 0.0546

16 0.0000 0.0068 0.0131 0.0187 0.0239 0.0287 0.0331 0.0372 0.0409 0.0444

17 . . 0.0000 0.0062 0.0119 0.0172 0.0220 0.0264 0.0305 0.0343

18 . . . . 0.0000 0.0057 0.0110 0.0158 0.0203 0.0244

19 . . . . . . 0.0000 0.0053 0.0101 0.0146

20 . . . . . . . . 0.0000 0.0049

n i

41 42 43 44 45 46 47 48 49 50

1 0.3940 0.3917 0.3894 0.3872 0.3850 0.3830 0.3808 0.3789 0.3770 0.3751

2 0.2719 0.2701 0.2684 0.2667 0.2651 0.2635 0.2620 0.2604 0.2589 0.2574

3 0.2357 0.2345 0.2334 0.2323 0.2313 0.2302 0.2291 0.2281 0.2271 0.2260

4 0.2091 0.2085 0.2078 0.2072 0.2065 0.2058 0.2052 0.2045 0.2038 0.2032

5 0.1876 0.1874 0.1871 0.1868 0.1865 0.1862 0.1859 0.1855 0.1851 0.1847

6 0.1693 0.1694 0.1695 0.1695 0.1695 0.1695 0.1695 0.1693 0.1692 0.1691

7 0.1531 0.1535 0.1539 0.1542 0.1545 0.1548 0.1550 0.1551 0.1553 0.1554

8 0.1384 0.1392 0.1398 0.1405 0.1410 0.1415 0.1420 0.1423 0.1427 0.1430

9 0.1249 0.1259 0.1269 0.1278 0.1286 0.1293 0.1200 0.1306 0.1312 0.1317

10 0.1123 0.1136 0.1149 0.1160 0.1170 0.1180 0.1189 0.1197 0.1205 0.1212

11 0.1004 0.1020 0.1035 0.1049 0.1062 0.1073 0.1085 0.1095 0.1105 0.1113

12 0.0891 0.0909 0.0927 0.0943 0.0959 0.0972 0.0986 0.0998 0.1010 0.1020

13 0.0782 0.0804 0.0824 0.0842 0.0860 0.0876 0.0892 0.0906 0.0919 0.0932

14 0.0677 0.0701 0.0724 0.0745 0.0765 0.0783 0.0801 0.0817 0.0832 0.0846

Page 113: Pruebas de ajuste de Bondad

102

n i

41 42 43 44 45 46 47 48 49 50

15 0.0575 0.0602 0.0628 0.0651 0.0673 0.0694 0.0713 0.0731 0.0748 0.0764

16 0.0476 0.0506 0.0534 0.0560 0.0584 0.0607 0.0628 0.0648 0.0667 0.0685

17 0.0379 0.0411 0.0442 0.0471 0.0497 0.0522 0.0546 0.0568 0.0588 0.0608

18 0.0283 0.0318 0.0352 0.0383 0.0412 0.0439 0.0465 0.0489 0.0511 0.0532

19 0.0188 0.0227 0.0263 0.0296 0.0328 0.0357 0.0385 0.0411 0.0436 0.0459

20 0.0094 0.0136 0.0175 0.0211 0.0245 0.0277 0.0307 0.0335 0.0361 0.0386

21 0.0000 0.0045 0.0087 0.0126 0.0163 0.0197 0.0229 0.0259 0.0288 0.0314

22 . . 0.0000 0.0042 0.0081 0.0118 0.0153 0.0185 0.0215 0.0244

23 . . . . 0.0000 0.0039 0.0076 0.1110 0.0143 0.0174

24 . . . . . . 0.0000 0.0037 0.0071 0.0104

25 . . . . . . . . 0.0000 0.0035

Page 114: Pruebas de ajuste de Bondad

103

Anexo 2

Desarrollo de la igualdad:

2

1

2

2

22

1

2

11

22

2

22

2

22

222 ~)1()1(

np

npY

np

npY

pnp

npY

pnp

npYZ

2

22

11

1

2

2

2

22

1

2

2

2

22

1

21

2

2

22

12

2

22

22

2

22

2

22

222

11

1

1)1(

npy

npy

p

p

np

npy

p

p

np

npy

p

pp

np

npy

pnp

npy

pnp

npy

pnp

npYZ

Donde

2

22

11

npy

npyes igual a 1

2

1

1

2

11

2

2

22

2

22

2

1

2

11

2

2

22

2

2

22

2

22

2

1

2

11

2

2

22

2

22

2

11

1

2

2

2

22

~

11

np

npy

np

npy

npy

np

np

npy

np

npy

np

npy

npy

np

np

npy

np

npy

n

n

npy

npy

p

p

np

npy