teoria de elementos

5
Población: Conjunto de elementos de la más variada índole y funciones (tales como personas, animales u objetos). Muestra: subconjunto de elementos seleccionados de forma aleatoria de una población previamente definida. Diagramas de frecuencias (para frecuencias absolutas y relativas simples - histogramas con polígono de frecuencias) Gráficos Acumulativos de Frecuencias (para frecuencias absolutas y relativas acumuladas - histogramas con una poligonal (ojiva) que marca la acumulación a lo largo del intervalo) Gráfico de cuantía: muestra las probabilidades puntuales del valor de cada variable. Gráfico de función de distribución acumulada: grafico de escalones que muestra cuanto acumula cada valor de la variable. Varianza: La varianza de un conjunto N de observaciones x1, x2....., xn, representada por V (x) o por S^2, es la suma de los cuadrados de los N desvíos entre cada valor xi y la media aritmética de los mismos, dividida por (n-1). El valor numérico, describe el grado el grado de dispersión de la distribución con respecto a su media aritmética. Esperanza: (esperanza matemática, valor esperado, media poblacional) de una variable aleatoria X es el número E[x] que formaliza la idea de valor medio de un fenómeno aleatorio. Sucesos mutuamente excluyentes: Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento. Sucesos no excluyentes: Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea. Sucesos independientes:

Upload: elvirahancockmontana

Post on 16-Jan-2016

215 views

Category:

Documents


0 download

DESCRIPTION

teoria de elementos de estadistica

TRANSCRIPT

Page 1: Teoria de Elementos

Población: Conjunto de elementos de la más variada índole y funciones (tales como personas, animales u objetos).

Muestra: subconjunto de elementos seleccionados de forma aleatoria de una población previamente definida.

Diagramas de frecuencias (para frecuencias absolutas y relativas simples - histogramas con polígono de frecuencias)

Gráficos Acumulativos de Frecuencias (para frecuencias absolutas y relativas acumuladas - histogramas con una poligonal (ojiva) que marca la acumulación a lo largo del intervalo)

Gráfico de cuantía: muestra las probabilidades puntuales del valor de cada variable.

Gráfico de función de distribución acumulada: grafico de escalones que muestra cuanto acumula cada valor de la variable.

Varianza: La varianza de un conjunto N de observaciones x1, x2....., xn, representada por V (x) o por S^2, es la suma de los cuadrados de los N desvíos entre cada valor xi y la media aritmética de los mismos, dividida por (n-1). El valor numérico, describe el grado el grado de dispersión de la distribución con respecto a su media aritmética.

Esperanza: (esperanza matemática, valor esperado, media poblacional) de una variable aleatoria X es el número E[x] que formaliza la idea de valor medio de un fenómeno aleatorio.

Sucesos mutuamente excluyentes:

Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento.

Sucesos no excluyentes:

Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea.

Sucesos independientes:

Cuando la ocurrencia de uno de ellos no modifica la probabilidad de ocurrencia del otro, al considerarse por lo menos dos repeticiones sucesivas del experimento aleatorio.

Algunas propiedades de la distribución normal son:

Es simétrica respecto de su media, μ;

La moda y la mediana son ambas iguales a la media, μ;

Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.

Distribución de probabilidad en un entorno de la media:

Page 2: Teoria de Elementos

en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;

en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;

por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento deintervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.

Propiedades de D.Binomial:

a) El numero de repeticiones es prefijado.

b) se realizan n pruebas, en cada una de las cuales hay solo dos resultados posibles.

c) en cada prueba, los resultados E o F constituyen un conjunto de dos sucesos mutuamente excluyentes

d) La probabilidad elemental de un éxito es constante para todas las repeticiones o pruebas

e) cada prueba es independiente de las restantes, o sea que el resultado de una de ellas es estadísticamente independiente de los resultados de las restantes

Teorema central del límite:

Sea una población con función de probabilidad f (X; u,sigma2) de la cual se selecciona una muestra aleatoria de tamaño n. Entonces la distribución de la media de la muestra tiende a la distribución normal con media u y varianza sigmacuadrado/n cuando el tamaño de la muestra tiende a infinito (n>30)

Sensibilidad: P (+/E)= VP/(VP+FN) (La sensibilidad nos indica la capacidad de nuestro estimador para dar como casos positivos los casos realmente enfermos; proporción de enfermos correctamente identificados.)

Especificidad: P (-/¬E)= VN/(FP+VN) (La especificidad nos indica la capacidad de nuestro estimador para dar como casos negativos los casos realmente sanos; proporción de sanos correctamente identificados.)

VPP: P (E/+)= VP/(VP+FP) (probabilidad de tener la enfermedad si el resultado de la prueba diagnóstica es positivo.)

VPN: P (¬E/-)= VN/(VN+FN) (probabilidad de no tener la enfermedad si el resultado de la prueba diagnóstica es negativo.)

CFP: P (+/¬E)= FP/(FP+VN)

Page 3: Teoria de Elementos

CFN: P (-/E)= FN/(VP+FN)

(Además de los conceptos de sensibilidad, especificidad y valores predictivos, se suele hablar del concepto de razón de verosimilitudes, razón de probabilidad, o cociente de probabilidades. Estos miden cuánto más probable es un resultado concreto (positivo o negativo) según la presencia o ausencia de enfermedad. Estos test son clínicamente útiles y no dependen de la prevalencia de la enfermedad en la población a estudiar).

Page 4: Teoria de Elementos

Errores PdH:

El error que se comete cuando se rechaza una hipótesis nula que es verdadera, se llama error tipo I, simbolizado eI, y el error que se comete cuando se acepta una hipótesis falsa se llama error tipo II, simbolizado eII. La incertidumbre que acompaña a la dócima, es controlada mediante la asignación de una medida probabilística a la posible presencia de eI como de eII siendo estas probabilidades simbolizadas así:

P(eI)= α/// p(eII)= β

La P(eI) recibe el nombre de nivel de significación de la dócima, y es la probabilidad que corresponde a la región crítica, considerando que la Ho planteada es verdadera. Por su parte, Beta es la probabilidad que corresponde a la región de "aceptación" de Ho, cuando la hipótesis verdadera es Hi.

Wilcoxon:

La variable tiene distribución simétrica, es ordinal, el tamaño de la muestra es menor a 30 y las muestras son independientes

Métodos de obtención de estimadores puntuales:

Método de máxima verosimilitud: tiene la propiedad de maximizar la probabilidad de obtener la muestra aleatoria observada.

Método por momentos: los momentos son estadísticos de la misma muestra, por ejemplo: momento 1: media. Momento 2: desvío. Es un sistema de ecuaciones.

Método por mínimos cuadrados: Minimiza la diferencia cuadrada entre lo observado y lo esperado. Por ejemplo: (Ô-O)^2. A ésta diferencia se la conoce como error de estimación.

Propiedades de los estimadores:

a)Insesgamiento: diferencia entre estimador y parámetro.

b)Consistencia: aquel cuya probabilidad de que el parámetro difiera del estimador decrece hasta ser despreciable.

c)Suficiencia: cuando utiliza todos los datos aportados por la muestra

d)error cuadrático mínimo (o eficiencia).