ntc 2062-1

65
NORMA TÉCNICA NTC COLOMBIANA 2062-1 2008-05-28 ESTADÍSTICA. VOCABULARIO Y SÍMBOLOS. PARTE 1: TÉRMINOS ESTADÍSTICOS GENERALES Y TÉRMINOS UTILIZADOS EN EL CÁLCULO DE PROBABILIDADES E: STATISTICS. VOCABULARY AND SYMBOLS. PART 1: GENERAL STATISTIC TERMS AND TERMS USED IN PROBABILITY. CORRESPONDENCIA: esta norma es idéntica por traducción (IDT) de la ISO 3534-1:2006. DESCRIPTORES: estadística - vocabulario; estadística - terminología; estadística - probabilidad. I.C.S.: 03.120.30 Editada por el Instituto Colombiano de Normas Técnicas y Certificación (ICONTEC) Apartado 14237 Bogotá, D.C. - Tel. (571) 6078888 - Fax (571) 2221435 Prohibida su reproducción Segunda actualización Editada 2008-06-10

Upload: ricardomayorga1

Post on 09-Aug-2015

527 views

Category:

Documents


38 download

TRANSCRIPT

Page 1: NTC 2062-1

NORMA TÉCNICA NTC COLOMBIANA 2062-1

2008-05-28

ESTADÍSTICA. VOCABULARIO Y SÍMBOLOS. PARTE 1: TÉRMINOS ESTADÍSTICOS GENERALES Y TÉRMINOS UTILIZADOS EN EL CÁLCULO DE PROBABILIDADES E: STATISTICS. VOCABULARY AND SYMBOLS. PART 1:

GENERAL STATISTIC TERMS AND TERMS USED IN PROBABILITY.

CORRESPONDENCIA: esta norma es idéntica por traducción

(IDT) de la ISO 3534-1:2006. DESCRIPTORES: estadística - vocabulario; estadística -

terminología; estadística - probabilidad. I.C.S.: 03.120.30 Editada por el Instituto Colombiano de Normas Técnicas y Certificación (ICONTEC) Apartado 14237 Bogotá, D.C. - Tel. (571) 6078888 - Fax (571) 2221435

Prohibida su reproducción Segunda actualización Editada 2008-06-10

Page 2: NTC 2062-1

PRÓLOGO El Instituto Colombiano de Normas Técnicas y Certificación, ICONTEC, es el organismo nacional de normalización, según el Decreto 2269 de 1993. ICONTEC es una entidad de carácter privado, sin ánimo de lucro, cuya Misión es fundamental para brindar soporte y desarrollo al productor y protección al consumidor. Colabora con el sector gubernamental y apoya al sector privado del país, para lograr ventajas competitivas en los mercados interno y externo. La representación de todos los sectores involucrados en el proceso de Normalización Técnica está garantizada por los Comités Técnicos y el período de Consulta Pública, este último caracterizado por la participación del público en general. La NTC 2062-1 (Segunda actualización) fue ratificada por el Consejo Directivo de 2008-05-28. Esta norma está sujeta a ser actualizada permanentemente con el objeto de que responda en todo momento a las necesidades y exigencias actuales. A continuación se relacionan las empresas que colaboraron en el estudio de esta norma a través de su participación en el Comité Técnico 4 Aplicación de métodos estadísticos. CHALLENGER S.A. COMPAÑÍA COLOMBIANA DE CERÁMICAS S.A. -COLCERÁMICA- COMPAÑÍA NACIONAL DE CHOCOLATES S.A. GLOBAL PLASTIK S.A.

INDUSTRIA DE ALIMENTOS ZENÚ S.A. INDUSTRIAS HUMCAR LTDA. SIKA COLOMBIA S.A. UNIVERSIDAD PEDAGÓGICA NACIONAL

Además de las anteriores, en Consulta Pública el Proyecto se puso a consideración de las siguientes empresas: ACERÍAS DE CALDAS S.A. -ACASA- ACERÍAS PAZ DEL RÍO S.A. ALPINA PRODUCTOS ALIMENTICIOS S.A. ALMACENAMIENTO Y TRANSPORTE ESPECIALIZADO LTDA. -ALTE LTDA- ANHÍDRIDOS Y DERIVADOS DE COLOMBIA S.A. -ANDERCOL- ASEO TÉCNICO S.A. ASOCOLCAUCHOS ASOCRETO ATLANTIC MINERALS AND PRODUCTS CORPORATION ATOFINA COLOMBIA S.A. BAVARIA S.A. CABLES DE ENERGÍA Y DE TELECOMUNICACIONES S.A. -CENTELSA- CALZADO ATLAS S.A. CARBOQUÍMICA S.A.

CENTRO TECNOLÓGICO PARA LAS INDUSTRIAS DEL CALZADO, CUERO Y AFINES -CEINNOVA- CEMENTOS DEL VALLE S.A. CODENSA S.A. ESP COLOMBIANA DE AUTO PARTES S.A. COLOMBIANA DE EXTRUSIÓN S.A. -EXTRUCOL- COMPAÑÍA COLOMBIANA DE TABACO S.A. -COLTABACO- COMPAÑÍA DE GALLETAS NOEL S.A. COMPAÑÍA NACIONAL DE LEVADURAS -LEVAPÁN S.A.- CONCONCRETO S.A. CORPACERO- CORPORACIÓN DE ACERO COTECMAR - CORPORACIÓN DE CIENCIA Y TECNOLOGÍA PARA EL DESARROLLO DE LA INDUSTRIA NAVAL, MARÍTIMA Y FLUVIAL

Page 3: NTC 2062-1

CRISTALERÍA PELDAR S.A. CYGA DOCTOR CALDERÓN ASISTENCIA TÉCNICA AGRÍCOLA LTDA. EMPRESA COLOMBIANA DE PETRÓLEOS S.A.-ECOPETROL- ECSI S.A. EDITORIAL VOLUNTAD S.A. ELECTROMANUFACTURAS S.A. ELGMA SISTEMAS DE COLOMBIA LTDA- EMPRESA DE ACUEDUCTO Y ALCANTARILLADO DE BOGOTÁ ESP EMPRESAS PÚBLICAS DE MEDELLÍN S.A. ESP ENZIPAN DE COLOMBIA LTDA. ESCOBAR Y MARTÍNEZ S.A. ESCUELA COLOMBIANA DE INGENIERÍA ETERNA S.A. EXXON MÓBIL DE COLOMBIA S.A. FINCA S.A. FRIGORÍFICO GUADALUPE S.A. FRIGORÍFICO SUIZO S.A. FUNDACIÓN CENTRO DE CALIDAD Y METROLOGÍA GAS NATURAL S.A. ESP INALCEC - CORPORACIÓN INSTITUTO NACIONAL DE CONSULTORÍA EN CALIDAD INDEPENDIENTE – FERNANDO ÁNGEL INDEPENDIENTE – HERNÁN DARÍO ÁLZATE INDEPENDIENTE – JAIRO ÁNGEL INDEPENDIENTE – JULIO GARCÍA SAMPEDRO INDUSTRIA COLOMBIANA DE ELECTRÓNICOS Y ELECTRODOMÉSTICOS S.A. -INCELT S.A.- INDUSTRIA COLOMBIANA DE LLANTAS S.A. -ICOLLANTAS- INDUSTRIA FARMACÉUTICA SYNTOFARMA S.A. INDUSTRIAS ALIADAS S.A. INGENIERÍA DE DESARROLLO Y TECNOLOGÍA -IDT LTDA- INGENIO PICHICHÍ S.A. INSTITUTO COLOMBIANO AGROPECUARIO -ICA- INSTITUTO COLOMBIANO DE PRODUCTORES DE CEMENTO -ICPC- INSTITUTO NACIONAL DE SALUD -INS- INVESA S.A. IVONNE BERNIER LABORATORIO LTDA

LARKIN LTDA. LHAURAVET LTDA. MATRICES, TROQUELES Y MOLDES CÍA LTDA. MERCADEO DE ALIMENTOS DE COLOMBIA S.A. -MEALS S.A.- METALÚRGICA CONSTRUCEL COLOMBIA S.A. -METACOL- MINERALES INDUSTRIALES S.A. MOLINO EL LOBO LTDA MONÓMEROS COLOMBO VENEZOLANOS E.M.A. NUTRIANÁLISIS LTDA. PAPELERÍA MÓNACO LTDA. PARABOR COLOMBIA LTDA. PETROQUÍMICA COLOMBIANA S.A. POSTOBÓN S.A. PRODUCTORES DE ENVASES FARMACÉUTICOS S.A. -PROENFAR- PROFICOL S.A. QUIMIA LTDA. RAZA S.A. RENTASISTEMAS LTDA. RONELLY S.A. SCHNEIDER ELECTRIC DE COLOMBIA S.A. SENA CENTRO NACIONAL TEXTIL SENA CENTRO NACIONAL DE LA MADERA SENA REGIONAL BOGOTÁ SIEMENS S.A. SOCIEDAD DE ACUEDUCTO ALCANTARILLADO Y ASEO DE B/QUILLA E.S.P. - TRIPLE A SYNGENTA S.A. TECNOLOGÍA EMPRESARIAL DE ALIMENTOS S.A. THOMAS GREG & SONS DE COLOMBIA S.A. – IMPRESOR DE VALORES TRANSPORTES VIGÍA S.A. UNIVERSIDAD DE ANTIOQUIA UNIVERSIDAD DE BOYACÁ -UNIBOYACÁ- UNIVERSIDAD DEL VALLE UNIVERSIDAD JORGE TADEO LOZANO UNIVERSIDAD MANUELA BELTRÁN UNIVERSIDAD NACIONAL DE COLOMBIA SEDE-MEDELLIN UNIVERSIDAD NACIONAL DE COLOMBIA, BOGOTÁ - REVISTA COLOMBIANA DE ESTADÍSTICA

Page 4: NTC 2062-1

ICONTEC cuenta con un Centro de Información que pone a disposición de los interesados normas internacionales, regionales y nacionales y otros documentos relacionados.

DIRECCIÓN DE NORMALIZACIÓN

Page 5: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

CONTENIDO

Página

0. INTRODUCCIÓN ..........................................................................................................1 1. OBJETO .......................................................................................................................2 2. TÉRMINOS ESTADÍSTICOS GENERALES ................................................................2 3. TÉRMINOS USADOS EN PROBABILIDAD ..............................................................20 DOCUMENTO DE REFERENCIA..........................................................................................60 ANEXOS ANEXO A (Informativo) SÍMBOLOS.............................................................................................................................45 ANEXO B (Informativo) DIAGRAMA DE CONCEPTOS ESTADÍSTICOS...................................................................46 ANEXO C (Informativo) DIAGRAMA DE CONCEPTOS DE PROBABILIDAD............................................................52 ANEXO D (Informativo) METODOLOGÍA USADA EN EL DESARROLLO DEL VOCABULARIO .............................56 TABLAS Tabla 1. Resultados para el ejemplo 1..................................................................................9 Tabla 2. Ejemplo de distribución binomial.........................................................................26 Tabla 3. Ejemplo de distribución normal estandarizada...................................................26 Tabla 4. Ejemplo de distribución hipergeométrica............................................................37

Page 6: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

1 de 60

ESTADÍSTICA. VOCABULARIO Y SÍMBOLOS. PARTE 1: TÉRMINOS ESTADÍSTICOS GENERALES Y TÉRMINOS UTILIZADOS EN EL CÁLCULO DE PROBABILIDADES 0. INTRODUCCIÓN Las versiones vigentes de la NTC 2062-1 (ISO 3534-1) y de la NTC 2062-2 (ISO 3534-2) están propuestas para ser compatibles. Ellas comparten el objetivo común de restringir sus niveles matemáticos respectivos a los mínimos necesarios para alcanzar definiciones concisas, coherentes y correctas. La Parte 1 sobre los términos usados en probabilidad y estadística es fundamental, también por necesidad, que esté presentada en un nivel matemático un poco complejo. Reconociendo que los usuarios de la NTC 2062-2 (ISO 3534-2) o de otras normas de estadística aplicada pueden consultar ocasionalmente esta primera parte de la NTC 2062 (ISO 3534) para la definición de ciertos términos, algunos de éstos son descritos de una manera menos técnica en las notas y son ilustrados con ejemplos. Aunque estas descripciones informales no substituyen las definiciones formales, pueden suministrar una definición técnica de conceptos para un principiante, sirviendo a las necesidades de los múltiples usuarios de estas normas de terminología. Para hacer esta primera parte de la NTC 2062 (ISO 3534) más accesible al usuario aplicado, quien normalmente estaría involucrado con normas tales como la NTC 2062-2 (ISO 3534-2) o la serie NTC 3529 (ISO 5725), se ofrecen, por ejemplo, notas y ejemplos adicionales. Para el desarrollo y uso efectivo de normas de estadística es esencial una serie bien definida y razonablemente completa de términos de probabilidad y estadística. Las definiciones suministradas aquí deben ser suficientemente precisas y de complejidad matemática para que los desarrolladores de normas de estadística sean capaces de evitar ambigüedades. De hecho, se pueden encontrar en libros de texto de estadística y de probabilidad explicaciones más detalladas de conceptos, de sus contextos y de sus campos de aplicación. En un anexo informativo se suministran los diagramas de concepto para cada grupo de términos: 1) términos estadísticos generales (en el Anexo B), y 2) términos usados en probabilidad (en el Anexo C). Hay seis diagramas de concepto para términos estadísticos y cuatro diagramas de concepto para términos relacionados con probabilidad. Algunos términos aparecen en diagramas múltiples que suministran una relación entre una serie y otra de conceptos. El Anexo D suministra una introducción breve sobre los Diagramas de Concepto y su interpretación. Estos diagramas fueron herramientas en la construcción de esta revisión ya que ayudaron en el delineamiento de las interrelaciones de varios términos. Estos diagramas son también útiles en la traducción de la norma a otros idiomas.

Page 7: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2

Como comentario general con respecto a gran parte de la norma, a menos que se indique de otra manera, las definiciones relacionan el caso unidimensional (de una variable). Se admite esta disposición para eliminar la necesidad de mencionar repetitivamente el objeto unidimensional para la mayoría de las definiciones. 1. OBJETO Esta norma define términos estadísticos generales y términos usados en el cálculo de probabilidades, que se pueden usar para la redacción de otras normas. Además, define los símbolos para un número limitado de estos términos. Los términos están clasificados bajo los siguientes títulos: - Términos estadísticos generales (véase el numeral 2). - Términos usados en cálculo de probabilidades (véase el numeral 3). El Anexo A suministra una lista de símbolos y abreviaturas recomendados para uso con esta norma. Las entradas de esta primera parte de la NTC 2062 (ISO 3534) están organizadas en asociación con los diagramas de conceptos presentados en los Anexos B y C. 2. TÉRMINOS ESTADÍSTICOS GENERALES 2.1 Población (Population). Totalidad de los elementos bajo consideración. NOTA 1 Una población puede ser real y finita, real e infinita o completamente hipotética. Algunas veces el término "población finita", especialmente en muestreo de muestreo por encuestas. Igualmente, el término "población infinita" se usa en el contexto de muestreo continuo. En el numeral 2 la población se considerará en un contexto probabilístico como el espacio muestral (véase el numeral 3.1). NOTA 2 Una población hipotética permite imaginar la naturaleza de datos futuros con base en diferentes hipótesis. En consecuencia, las poblaciones hipotéticas son útiles en la etapa de diseño de las investigaciones estadísticas, particularmente para determinar tamaños de muestra apropiados. Una población hipotética puede tener un número finito o infinito. Es un concepto particularmente útil en estadística inferencial para ayudar a evaluar la solidez de la evidencia en una investigación estadística. NOTA 3 El contexto de una investigación puede determinar la naturaleza de la población. Por ejemplo, si se seleccionan tres poblaciones para un estudio demográfico o de salud, entonces la población consiste en los residentes de estos poblaciones en particular. Como alternativa, si las tres poblaciones fueron seleccionadas aleatoriamente de los poblaciones de una región específica, entonces la población estaría compuesta de todos los residentes de la región. 2.2 Unidad de muestreo (Sampling Unit). Una de las partes individuales en las que está dividida una población (véase el numeral 2.1). NOTA Dependiendo de las circunstancias, la parte de interés más pequeña puede ser un individuo, una familia, un distrito escolar, una unidad administrativa, etc. 2.3 Muestra (Sample). Subconjunto de una población (véase el numeral 2.1) compuesto de una o más unidades de muestreo (véase el numeral 2.2). NOTA 1 Las unidades de muestreo pueden ser elementos, valores numéricos o incluso entidades abstractas que dependen de la población de interés.

Page 8: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

3

NOTA 2 La definición de muestra de la NTC 2062-2 (ISO 3534-2) incluye un ejemplo de base de muestreo que es esencial al tomar una muestra aleatoria de una población finita. 2.4 Valor observado (Observed Value). Valor obtenido de una propiedad asociada con un elemento de una muestra (véase el numeral 2.3). NOTA 1 Los sinónimos comunes son "resultado" y "dato". NOTA 2 La definición no especifica el origen ni la forma en la que se ha obtenido este valor. El valor puede representar un resultado de una variable aleatoria (véase el numeral 2.10), pero no de manera exclusiva. Puede ser uno de varios de estos valores que serán sometidos posteriormente a análisis estadístico. Aunque las inferencias apropiadas requieren alguna sustentación estadística, no hay nada que impida elaborar resúmenes o descripciones gráficas de los valores observados. Sólo en el caso de aspectos concomitantes, tales como la determinación de la probabilidad de observar un conjunto específico de realizaciones, los mecanismos estadísticos llegan a ser tanto pertinentes como esenciales. La etapa preliminar de un análisis de valores observados se denomina comúnmente análisis de datos. 2.5 Estadística descriptiva (Descriptive Statistics). Descripción gráfica, numérica u otro análisis de síntesis de los valores observados (véase el numeral 2.4). EJEMPLO 1 Los resúmenes numéricos incluyen el promedio (véase el numeral 2.15), rango (véase el numeral 2.10), desviación estándar de la muestra (véase el numeral 2.17), entre otros. EJEMPLO 2 Los ejemplos de resúmenes gráficos incluyen gráficos de cajas, diagramas, gráficos Q-Q, diagramas de cuantila normal, diagramas de dispersión múltiple e histogramas. 2.6 Muestra aleatoria (Random Sample). Muestra (véase el numeral 2.3) que ha sido seleccionada usando un método de selección aleatoria. NOTA 1 Esta definición es menos limitante que la presentada en la NTC 2062-2 (ISO 3534-2) y prevé poblaciones infinitas. NOTA 2 Cuando la muestra de n unidades de muestreo se selecciona de un espacio muestral (véase el numeral 2.1) finito, cada uno de cuyas combinaciones posibles de n unidades de muestreo tendrá una probabilidad particular (véase el numeral 3.5) de ser tomada. Para los planes de muestreo por encuesta, la probabilidad particular para cada combinación posible se puede calcular por adelantado. NOTA 3 Para muestreo por encuesta de un espacio muestral finito, se puede seleccionar una muestra aleatoria mediante diferentes planes de muestreo tales como muestreo aleatorio estratificado, muestreo aleatorio sistemático, muestreo por etapas múltiples, muestreo con probabilidad de muestreo proporcional al tamaño de una variable auxiliar y muchas otras posibilidades. NOTA 4 La definición generalmente hace referencia a valores observados reales (véase el numeral 2.4). Estos valores observados se consideran como resultados de variables aleatorias (véase el numeral 2.10), en donde cada valor observado corresponde a una variable aleatoria. Cuando los estimadores (véase el numeral 2.12), las estadísticas de ensayo para pruebas estadísticas (véase el numeral 2.48) o intervalos de confianza (véase el numeral 2.28) se obtienen de una muestra aleatoria, la definición hace referencia a las variables aleatorias que surgen de entidades abstractas en la muestra, y no a los valores reales observados de estas variables aleatorias. NOTA 5 Las muestras aleatorias de poblaciones infinitas se generan con frecuencia mediante tomas repetidas del espacio muestral, lo que conduce a una muestra compuesta de variables aleatorias distribuidas en forma idéntica usando la interpretación de esta definición mencionada en la Nota 4. 2.7 Muestra aleatoria simple (Simple Random Sample). <Población finita> muestra aleatoria (véase el numeral 2.6), tal que cada subconjunto de un tamaño dado tiene la misma probabilidad de selección. NOTA Esta definición concuerda con la definición dada en la NTC 2062-2 (ISO 3534-2), aunque la redacción aquí es ligeramente diferente.

Page 9: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

4

2.8 Estadístico (Statistic). Función completamente especificada de variables aleatorias (véase el numeral 3.10). NOTA 1 Un estadístico es una función con variables aleatorias en una muestra aleatoria (véase el numeral 2.6), en el sentido indicado en la Nota 4 del numeral 2.6. NOTA 2 Con referencia a la Nota 1, si {X1, X2, ..., Xn} es una muestra aleatoria de una distribución normal (véase el numeral 3.50) con una media desconocida (véase el numeral 3.35) µ y la desviación estándar desconocida (véase el numeral 3.37) σ, entonces la expresión (X1 +, X2 + ... + Xn)/n es una función estadística, la media de la muestra (véase el numeral 2.15), mientras que [(X1 + X2, .+.., Xn)/n] - µ no es un estadístico, ya que involucra el valor desconocido del parámetro (véase el numeral 3.9) μ. NOTA 3 La definición dada aquí es técnica, corresponde al tratamiento encontrado en estadística matemática. En aplicaciones, la palabra estadística puede hacer referencia a la disciplina técnica que involucra las actividades de análisis descritas en las normas internacionales del comité ISO/TC 69. 2.9 Estadístico de orden (Order Statistic). Estadístico (véase el numeral 2.8) determinado por su jerarquización en un orden no decreciente de variables aleatorias (véase el numeral 3.10). EJEMPLO Sean los valores observados de una muestra 9, 13, 7, 6, 13, 7, 19, 6, 10 y 7. Los valores observados del estadístico de orden son 6, 6, 7, 7, 7, 9, 10, 13, 13, 19. Estos valores constituyen resultados de X(1) a X(10). NOTA 1 Sean los valores observados (véase el numeral 2.4) de una muestra aleatoria (véase el numeral 2.6) {X1, X2, ..., Xn}, clasificados en un orden no decreciente designado como x(1) ≤ ... ≤ x(k) ... ≤ x(n). Entonces (x(1)… , x(k), ... x(n) ) es el valor observado del estadístico de orden (X(1), ... X(k), ..., X(nk) ) y x(k) es el valor observado de la estadística de orden (X(1), ... , X(k), ..., X(n) y x(k) es el valor observado del estadístico de orden késimo. NOTA 2 En términos prácticos, el estadístico de orden para un conjunto de datos se obtiene ordenando los datos como se describe formalmente en la Nota 1. La forma ordenada del conjunto de datos permite obtener estadísticas resumidas útiles como se describe en las siguientes definiciones. NOTA 3 Los estadísticos de orden involucran valores de muestra identificados por su posición después de jerarquizar en orden no decreciente. Como en el ejemplo, es más fácil entender la clasificación de los valores de muestra (resultados de variables aleatorias) que la clasificación de las variables aleatorias no observadas. Sin embargo, es posible concebir variables aleatorias de una muestra aleatoria (véase el numeral 2.6), dispuestas en un orden no decreciente. Por ejemplo, el máximo de n variables aleatorias se puede estudiar antes de su valor resultante. NOTA 4 Un estadístico de orden individual es un estadístico que es una función completamente especificada de una variable aleatoria. Esta función es simplemente la función de identidad con la identificación de la posición o rango en el conjunto ordenado de variables aleatorias. NOTA 5 Los valores ligados presentan un problema potencial, especialmente para variables discretas aleatorias y para resultados que se expresan con una resolución baja. La palabra "no decreciente" se usa en vez de "ascendente" como un enfoque sutil del problema. Se debe enfatizar que los valores ligados se conservan y no se agrupan en un solo valor ligado. En el ejemplo anterior, los dos resultados de 6 y 6 son valores ligados. NOTA 6 El ordenamiento ocurre con referencia a la línea real y no a los valores absolutos de las variables aleatorias. NOTA 7 El conjunto completo de estadísticos de orden consta de una variable aleatoria dimensional n, en donde n es el número de observaciones en la muestra. NOTA 8 Los componentes del estadístico de orden también se designan como estadísticos de orden, pero con un calificativo que da el número de la secuencia de los valores ordenados de la muestra. NOTA 9 El tamaño mínimo de muestra, el máximo, y para los tamaños de muestra impares, la mediana de la muestra (véase el numeral 2.13), son casos especiales de estadísticos de orden. Por ejemplo, para un tamaño de muestra 11, X(1) es el mínimo, X(11) es el máximo y X(6) es la mediana de la muestra. 2.10 Rango de la muestra (Sample Range). El mayor estadístico de orden (véase el numeral 2.9) menos el estadístico de menor orden. EJEMPLO Retomando el ejemplo del numeral 2.9, el rango de la muestra observado es 19 - 6 = 13.

Page 10: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

5

NOTA En control estadístico de procesos, el rango de la muestra se usa con frecuencia para monitorear la dispersión durante el tiempo de un proceso, particularmente cuando los tamaños de muestra son relativamente pequeños. 2.11 Rango medio (Mid-Range). Promedio (véase el numeral 2.15) de los estadísticos de orden (véase el numeral 2.9) menor y mayor. EJEMPLO El rango medio observado para los valores del ejemplo en 2.9 es (6 + 19)/2 = 12,5. NOTA El rango medio brinda una evaluación rápida y simple de la mitad de un pequeño conjunto de datos.

2.12 Estimador (Estimator) ∧

θ . Estadístico (véase el numeral 2.8) usado en la estimación (véase el numeral 2.36) del parámetro θ. NOTA 1 Un estimador puede ser la media de la muestra (véase el numeral 2.15) prevista para estimar la media de la población (véase el numeral 3.35), que se puede denotar mediante µ. Para una distribución (véase el numeral 2.11) tal como la distribución normal (véase el numeral 2.50), el estimador "natural" de la media de la población µ es la media de la muestra. NOTA 2 Para estimar una propiedad de la población [por ejemplo, la moda (véase el numeral 2.27) para una distribución con una variable (véase el numeral 2.16)], un estimador apropiado puede estar en función del (los) estimador(es) del (los) parámetro(s) de una distribución o pueden ser una función compleja de una muestra aleatoria (véase el numeral 2.6). NOTA 3 El término "estimador" se usa aquí en un sentido amplio. Incluye el estimador puntual de un parámetro, al igual que el estimador por intervalos, utilizado eventualmente para predicción (algunas veces se denomina predictor). El estimador también puede incluir funciones tales como los estimadores tipo núcleo y otras funciones estadísticas con propósito especial. En las notas del numeral 2.36 se suministran comentarios adicionales. 2.13 Mediana de la muestra (Sample Median). Estadístico de orden [(n+1)/2]-ésimo (véase el numeral 2.9) si el tamaño de la muestra (véase la NTC 2062-2 (ISO 3534-2), numeral 2.2.26) n es impar; la suma del estadístico de orden (n/2)-ésimo y [(n/2) + 1]-ésimo dividido por 2, si el tamaño de la muestra n es par. EJEMPLO Continuando con el ejemplo del numeral 2.9, el valor de 8 es el resultado de la mediana de la muestra. En este caso (tamaño de muestra par de 10), los valores quinto y sexto fueron 7 y 9, cuyo promedio es igual a 8. En la práctica, esto se reportaría como "la mediana de la muestra es 8", aunque estrictamente hablando, la mediana de la muestra se define como una variable aleatoria. NOTA 1 Para una muestra aleatoria (véase el numeral 2.6) de tamaño de muestra n cuyas variables aleatorias (numeral 2.10) están dispuestas en orden no descendente desde 1 hasta n, la mediana de la muestra es la variable aleatoria (n+1)/2-ésima si el tamaño de la muestra es impar. Si el tamaño de la muestra n es par, entonces la mediana de la muestra es el promedio de las variables aleatorias (n/2)-ésima y (n+1)/2-ésima. NOTA 2 Conceptualmente, puede parecer imposible realizar un ordenamiento de variables aleatorias que no han sido observadas aún. No obstante, la estructura para comprender los estadísticos de orden se puede establecer de manera que al llevar a cabo la observación es posible realizar el análisis. En la práctica se obtienen los valores observados y mediante la clasificación de los valores se obtienen los resultados del estadístico de orden. Estos resultados se pueden interpretar entonces a partir de la estructura de los estadísticos de orden de una muestra aleatoria. NOTA 3 La mediana de la muestra suministra un estimador de la mitad de una distribución, con la mitad de la muestra a cada lado de ella. NOTA 4 En la práctica, la mediana de la muestra es útil para brindar un estimador que sea insensible a valores muy extremos en un conjunto de datos. Por ejemplo, los ingresos medianos y los precios medianos de las viviendas se reportan con frecuencia como valores resumidos. 2.14 Momento de la muestra de orden k (Sample Moment of Order k). E(Xk). Suma de la potencia késima de las variables aleatorias (véase el numeral 2.10) en una muestra aleatoria (véase el numeral 2.6) dividida por el número de observaciones en la muestra (véase el numeral 2.3).

Page 11: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

6

NOTA 1 Para una muestra aleatoria del tamaño de la muestra n, es decir, {X1, X2,... Xn}, el momento de la muestra de orden k, E(Xk) es

∑=

n

i

KiX

n 1

1

NOTA 2 Además, este concepto se puede describir como el momento de la muestra de orden k en relación con cero. NOTA 3 El momento de la muestra de orden 1 se verá en la definición siguiente como la media de la muestra (véase el numeral 2.15). NOTA 4 Aunque la definición se da para k arbitrario, los ejemplos usados comúnmente en la práctica involucran a k = 1 [media de la muestra (véase el numeral 2.15)], k= 2 [asociado con la varianza de la muestra] (véase el numeral 2.16) y la desviación estándar de la muestra (véase el numeral 2.17)], k= 3 (relacionado con el coeficiente de asimetría de la muestra (véase el numeral 2.20)] y k = 4 [relacionado con el coeficiente de curtosis de la muestra (véase el numeral 2.21)]. NOTA 5 La "E" en E (Xk) proviene del "valor esperado" o "expectativa" de la variable aleatoria X. 2.15 Media de la muestra, promedio, media aritmética (Sample Mean, Average, Arithmetic Mean). Suma de las variables aleatorias (véase el numeral 3.10) en una muestra aleatoria (véase el numeral 2.6), dividida por el número de términos de la suma. EJEMPLO Continuando con el ejemplo del numeral 2.9, el resultado de la media de la muestra es 9,7 ya que la suma de los valores observados es 97 y el tamaño de la muestra es 10. NOTA 1 Considerada como un estadístico, la media de la muestra es una función de las variables aleatorias de una muestra aleatoria en el sentido dado en la Nota 3 del numeral 2.8. Se debe diferenciar este estimador del valor numérico de la media de la muestra calculada de los valores observados (véase el numeral 2.4) en la muestra aleatoria. NOTA 2 La media de la muestra considerada como un estadístico se usa con frecuencia como un estimador de la media (véase el numeral 3.35) de la población. Un sinónimo común es media aritmética. NOTA 3 Para una muestra aleatoria de un tamaño de muestra n, es decir, {X1, X2,..., X n}, la media de la muestra es:

∑=

n

iKiX

nX

1

1

NOTA 4 La media de la muestra se puede reconocer como el momento de la muestra de orden 1. NOTA 5 Para un tamaño de muestra 2, la media de la muestra, la mediana de la muestra (véase el numeral 2.13) y el rango medio (véase el numeral 2.11) son los mismos. 2.16 Varianza de la muestra (Sample Variance), S2. Suma de las desviaciones al cuadrado de variables aleatorias (véase el numeral 3.10) en una muestra aleatoria (véase el numeral 2.6) respecto a su media de la muestra (véase el numeral 2.15), dividida por el número de términos en la suma, menos uno. EJEMPLO Continuando con el ejemplo numérico del numeral 2.9, la varianza de la muestra se puede calcular como 17,57. La suma de los cuadrados en relación con la media de la muestra observada es 158,10 y el tamaño de la muestra 10 menos 1 es 9, lo que da un denominador apropiado. NOTA 1 Considerada como un estadístico (véase el numeral 2.8), la varianza de la muestra S2 es una función de las variables aleatorias de una muestra aleatoria. Es necesario diferenciar este estimador (véase el numeral 2.12) del valor numérico de la varianza de la muestra calculada de los valores observados (véase el numeral 2.4) en la muestra aleatoria. El valor numérico se denomina varianza empírica de la muestra o varianza observada de la muestra y se designa usualmente por s2.

NOTA 2 Para una muestra aleatoria de tamaño de muestra, n, es decir, {X1, X2, ..., Xn,) con la media de la muestra −X , la

varianza de la muestra es:

Page 12: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

7

∑=

−−

−=

n

ii XX

nS

1

22 )(1

1

NOTA 3 La varianza de la muestra es una función estadística que es "casi" el promedio de los cuadrados de las desviaciones de las variables aleatorias (véase el numeral 3.10) respecto a su media de muestra (solo "casi", ya que n - 1 se usa en vez de n en el denominador). Al utilizar n - 1 se obtiene un estimador sin sesgo (véase el numeral 2.34) de la varianza de la población (véase el numeral 3.36). NOTA 4 La cantidad n - 1 se conoce como los grados de libertad (véase el numeral 3.54). NOTA 5 La varianza de la muestra se puede reconocer como el segundo momento de la muestra de las variables aleatorias normalizadas de la muestra (véase el numeral 2.19). 2.17 Desviación estándar de la muestra, S. (Sample Standard Deviation, S). Raíz cuadrada no negativa de la varianza de la muestra (véase el numeral 2.16). EJEMPLO Continuando con el ejemplo numérico del numeral 2.9, la desviación estándar de la muestra observada es 4,192, ya que la varianza de la muestra observada es 17,57. NOTA 1 En la práctica, la desviación estándar de la muestra se usa para estimar la desviación estándar (véase el numeral 3.37). De nuevo, es conveniente hacer énfasis en que S también es una variable aleatoria (véase el numeral 3.10) y no un resultado de una muestra aleatoria (véase el numeral 2.6). NOTA 2 La desviación estándar de la muestra es una medida de la dispersión de una distribución (véase el numeral 3.11). 2.18 Coeficiente de variación de la muestra (Sample Coefficient of Variation). Desviación estándar de la muestra (véase el numeral 2.17) dividida por la media de la muestra (véase el numeral 2.15). NOTA Al igual que con el coeficiente de variación (véase el numeral 3.38), la utilidad de esta función estadística está limitada a poblaciones que se valoran positivamente. El coeficiente de variación se reporta comúnmente como un porcentaje. 2.19 Variable aleatoria normalizada de la muestra (Standardized Sample Random Variable). Variable aleatoria (véase el numeral 3.10) menos su media de la muestra (véase el numeral 2.15), dividida por la desviación estándar de la muestra (véase el numeral 2.17). EJEMPLO Para el ejemplo del numeral 2.9, la media de la muestra observada es 9,7 y la desviación estándar de la muestra observada es 4,192. En consecuencia, las variables aleatorias normalizadas (a dos lugares decimales) son: -0,17; 0,79; -0,64; -0,88; 0,79; -0,64; 2,22; - 0,88; 0,07; - 0,62. NOTA 1 La variable aleatoria normalizada de la muestra se diferencia de su contraparte teórica la variable aleatoria normalizada (véase el numeral 3.33). La intención de la normalización es transformar variables aleatorias con el fin de obtener medias iguales a cero y desviaciones estándar unitarias, y facilitar la interpretación y la comparación. NOTA 2 Los valores observados normalizados tienen una media observada de cero y una desviación estándar observada de 1. 2.20 Coeficiente de asimetría de la muestra (Sample Coefficient of Skewness). Media aritmética de la tercera potencia de las variables aleatorias normalizadas de la muestra (véase el numeral 2.19) de una muestra aleatoria (véase el numeral 2.6). EJEMPLO Continuando con el ejemplo del numeral 2.9, el coeficiente de asimetría observado de la muestra se puede calcular como 0,971 88. Para un tamaño de muestra de 10 en este ejemplo, el coeficiente de asimetría de la muestra es considerablemente variable, de manera que se debe usar con precaución. Al usar la fórmula alternativa de la Nota 1, el valor calculado es 1,349 83.

Page 13: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

8

NOTA 1 La fórmula correspondiente a la definición es

3

1

1 ∑=

⎟⎟⎟

⎜⎜⎜

⎛−

n

i

i

SXX

n

Algunos paquetes estadísticos utilizan la siguiente fórmula para el coeficiente de asimetría de la muestra para corregir el sesgo (véase el numeral 2.33):

∑=

−−

n

iiZ

nnn

1

3

)2()1(

en donde

SXXi

Zi

−−

=

Para una muestra tamaño grande, la diferencia entre los dos estimados es insignificante. La relación del estimado sin sesgo al estimado con sesgo es 1,389 para n = 10, 1,031 para n = 100 y 1,003 para n = 1 000. NOTA 2 Asimetría designa la falta de simetría. Los valores de esta función estadística cercanos a cero sugieren que la distribución subyacente es aproximadamente simétrica, mientras que los valores diferentes de cero corresponderían a una distribución con valores extremos ocasionales a un lado del centro de la distribución. Los datos asimétricos también se reflejarían en valores de la media de la muestra (véase el numeral 2.15) y la mediana de la muestra (véase el numeral 2.13) que son distintos. Los datos con asimetría positiva (asimetría hacia la derecha) indican la presencia posible de algunos valores extremos altos. En forma similar, los datos con asimetría negativa (asimetría a la izquierda) indican la presencia posible de algunos valores extremos bajos. NOTA 3 El coeficiente de asimetría de la muestra se puede reconocer como el tercer momento de la muestra de las variables aleatorias normalizadas de la muestra (véase el numeral 2.19). 2.21 Coeficiente de curtosis de la muestra (Sample Coefficient of Kurtosis). La media aritmética de la cuarta potencia de las variables aleatorias normalizadas de la muestra (véase el numeral 2.19) de una muestra aleatoria (véase el numeral 2.6). EJEMPLO Continuando con el ejemplo del numeral 2.9, el coeficiente de curtosis observado de la muestra se puede calcular como 2,674 19. Para un tamaño de muestra de 10 en este ejemplo, el coeficiente de curtosis de la muestra es considerablemente variable, de manera que se debe usar con precaución. Los paquetes estadísticos usan diversos ajustes para calcular el coeficiente de curtosis de la muestra (véase la Nota 3 del numeral 3.40). Usando la fórmula alterna dada en la Nota 1, el valor calculado es 0,436 05. Los dos valores 2,674 19 y 0,436 05 no son comparables directamente. Para hacerlo, tome 2,674 19 - 3 (para relacionarlo con la curtosis de la distribución normal, que es 3) que es igual a -0,325 81 y ahora se puede comparar apropiadamente con 0,436 05. NOTA 1 La fórmula correspondiente a la definición es:

4

1

1 ∑=

⎟⎟⎟

⎜⎜⎜

⎛−

n

i

i

SXX

n

Algunos paquetes estadísticos usan la fórmula siguiente para el coeficiente de curtosis de la muestra para hacer la corrección de sesgo (véase el numeral 2.33) y para indicar la desviación de la curtosis en relación con la distribución normal (que es igual a 3):

Page 14: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

9

)3()2()1(3

)3()2()1()1( 2

1

4

−−−

−−−−

+ ∑=

nnn

Znnn

nnn

ii

en donde

SXX

Z ii

−−

=

El segundo término de la expresión es aproximadamente 3 para un n grande. Algunas veces la curtosis es reportada como un valor tal como se define en el numeral 3.40, menos 3, para hacer énfasis en las comparaciones con la distribución normal. Obviamente, el profesional necesita conocer estos ajustes, si los hay, en los cálculos de paquetes estadísticos. NOTA 2 La curtosis designa la mayor ponderación de las colas de una distribución (unimodal). Para la distribución normal (véase el numeral 3.50), el coeficiente de curtosis es aproximadamente 3, sujeto a la variabilidad de la muestra. En la práctica, la curtosis de la distribución normal brinda un valor de referencia. Las distribuciones (véase el numeral 3.11) con valores menores de 3 tienen colas con menor ponderación que la distribución normal; las distribuciones con valores mayores de 3 tienen ponderaciones mayores que la distribución normal. NOTA 3 Para los valores de curtosis observados mucho mayores de 3, existe la posibilidad de que la distribución subyacente tenga colas con ponderación mayor que la distribución normal. Otra posibilidad por investigar es la presencia de datos atípicos potenciales. NOTA 4 El coeficiente de curtosis de la muestra se puede reconocer como el cuarto momento de la muestra de las variables aleatorias centradas de la muestra reducida. 2.22 Covarianza de la muestra, SXY. (Sample Covariance, SXY.). Suma de los productos de las desviaciones de pares de variables aleatorias (véase el numeral 3.10) en una muestra aleatoria (véase el numeral 2.6) respecto a su media de la muestra (véase el numeral 2.15), dividida por el número de términos en la suma, menos uno. EJEMPLO 1 Sea la representación numérica siguiente utilizando 10 valores observados en tres tripletas de valores. Para este ejemplo considere solamente x y y.

Tabla 1. Resultados para el Ejemplo 1

i 1 2 3 4 5 6 7 8 9 10 x 38 41 24 60 41 51 58 50 65 33 y 73 74 43 107 65 73 99 72 100 48 z 34 31 40 28 35 28 32 27 27 31

La media de la muestra observada para X es 46,1 y para Y es 75,4. La covarianza de la muestra es igual a:

[(38 - 46,1) x (73 - 75,4) + (41 - 46,1) x (74 - 75,4) + ...+ (33 - 46,1) x (48 - 75,4)]/9 = 257,178 EJEMPLO 2 En la tabla del ejemplo anterior, considere solamente y y z. La media de la muestra observada para Z es 31,3. La covarianza de la muestra es igual a:

[(73 - 75,4) x (34 - 31,3) + (74 - 75,4) x (74 - 31,3) + (48 - 75,4) x (31-31,3)]/9 = 54,356 NOTA 1 Considerado como un estadístico (véase el numeral 2.8), la covarianza de la muestra es una función de pares de variables aleatorias [(X1, Y1), (X2, Y2), ..., (Xn, Yn)] de una muestra aleatoria de tamaño n en el sentido dado en la Nota 3 del numeral 2.6. Este estimador (2.12) necesita diferenciarse del valor numérico de la covarianza de la muestra calculada de los pares de valores observados de las unidades de muestra (véase el numeral 2.2) [(x1, y1), (x2 , y2), ... , (xn, yn)] en la muestra aleatoria. Este valor numérico se denomina covarianza de la muestra empírica o covarianza de la muestra observada.

Page 15: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

10

NOTA 2 La covarianza de la muestra SXY está dada como:

∑=

−−n

iii YYXX

n1

)()(1

NOTA 3 La utilización de n - 1 proporciona un estimador sin sesgo (véase el numeral 2.34) de la covarianza de la población (véase el numeral 3.43). NOTA 4 El ejemplo de la Tabla 1 consta de tres variables, en donde la definición hace referencia a un par de variables. En la práctica, es común encontrar situaciones con múltiples variables. 2.23 Coeficiente de correlación de la muestra rxy. (Sample Correlation Coefficient, rxy). Covarianza de la muestra (véase el numeral 2.22) dividida por el producto de las desviaciones estándar de la muestra (véase el numeral 2.17) correspondientes. EJEMPLO 1 Continuando con el Ejemplo 1 del numeral 2.22, la desviación estándar observada es 12,495 para X y 21,329 para Y. En consecuencia, el coeficiente de correlación de la muestra observada (para X y Y) está dado por:

257,118/(12,948 x 21,329) = 0,931 2 EJEMPLO 2 Continuando con el Ejemplo 2 del numeral 2.22, la desviación estándar observada es 21,329 para Y y 4,165 para Z. En consecuencia, el coeficiente de correlación de la muestra observada (para Y y Z) está dado por:

-54,356/(21,329 x 4,165) = -0,612 NOTA 1 En términos de notación, el coeficiente de correlación de la muestra se calcula como:

∑ ∑

= =

−−

=

−−

⎟⎟⎠

⎞⎜⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛−

⎟⎟⎠

⎞⎜⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛−

n

i

n

iii

n

iii

YYXX

YYXX

1 1

22

1

Esta expresión es equivalente a la relación de la covarianza de la muestra con la raíz cuadrada del producto de las desviaciones estándar. Algunas veces el símbolo rxy se usa para designar el coeficiente de correlación de la muestra. El coeficiente de correlación de la muestra observada se basa en los datos (x1, y1), (x2, y2), ..., (xn, yn). NOTA 2 El coeficiente de correlación de la muestra observada puede tomar valores dentro de [-1, 1], en donde los valores cercanos a 1 indican una correlación positiva fuerte y los valores cercanos a -1 indican una correlación negativa fuerte. Los valores cercanos a 1 ó -1 indican que los puntos están prácticamente alineados. 2.24 Error estándar, θσ ˆ (Standard Error, θσ ˆ ). Desviación estándar (véase el numeral 2.37) de un estimador, (véase el numeral 2.12). EJEMPLO Si la media de la muestra (véase el numeral 2.15) es el estimador de la media de la población (véase el numera 3.35) y la desviación estándar de una variable aleatoria simple (véase el numeral 3.10) es σ entonces el error estándar de la media de la muestra es n/σ , donde n es el número de observaciones en la muestra. Un estimador del

error estándar es nS / , donde S es la desviación estándar de la muestra (véase el numeral 2.17) NOTA 1 En la práctica, el error estándar proporciona un estimado natural de la desviación estándar de un estimador. NOTA 2 No hay un término complementario (apropiado) para "error no estándar". El error estándar se puede considerar como una abreviatura de la expresión "desviación estándar de un estimador" Comúnmente, en la práctica error estándar hace referencia implícitamente a la desviación estándar de la media de la muestra. La notación para el error estándar de la media de la muestra es

θ)

Page 16: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

11

2.25 Estimador por intervalos (Interval Estimator). Intervalo cuyos límites son una función estadística con límite superior (véase el numeral 2.8) y una función estadístico con límite inferior. NOTA 1 Uno de los puntos extremos puede ser +∞, -∞ ó un límite natural del valor de un parámetro. Por ejemplo, 0 es un límite inferior natural para un estimador por intervalos de la varianza de la población (véase el numeral 3.36). En estos casos, los intervalos se designan comúnmente como intervalos unilaterales. NOTA 2 Un estimador por intervalos se puede suministrar junto con una estimación (véase el numeral 2.36) de un parámetro (véase el numeral 3.9). Se supone que el estimador por intervalos contiene un parámetro en una proporción declarada de situaciones, bajo condiciones de muestreo repetido, o en algún otro sentido probabilístico. NOTA 3 Tres tipos comunes de estimadores por intervalos incluyen intervalos de confianza (véase el numeral 2.28) para parámetro(s), intervalos de predicción (véase el numeral 2.30) para observaciones futuras, e intervalos estadísticos de tolerancia (véase el numeral 2.26) para la proporción de una distribución (véase el numeral 3.11) contenida. 2.26 Intervalo de tolerancia estadística (Statistical Tolerance Interval). Intervalo determinado a partir de una muestra aleatoria (véase el numeral 2.6) de manera que puede existir un nivel determinado de confianza en que el intervalo cubre al menos una proporción especificada de la población sometida a muestreo (véase el numeral 2.1). NOTA La confianza en este contexto es la proporción a largo plazo de intervalos construidos de esta manera, que incluirán al menos la proporción especificada de la población sometida a muestreo. 2.27 Límite de tolerancia estadística (Statistical Tolerance Limit). Estadística (véase el numeral 2.8) que representa un punto final externo de un intervalo estadístico de tolerancia (véase el numeral 2.26). NOTA Los intervalos estadísticos de tolerancia pueden ser: - Unilaterales (con uno de sus límites fijos al límite natural de la variable aleatoria), en cuyo caso tienen un

límite estadístico de tolerancia superior e inferior, o - Bilaterales, en cuyo caso tienen ambos. Un límite natural de la variable aleatoria puede brindar un límite para un límite unilateral. 2.28 Intervalo de confianza (Confidence Interval). Estimador por intervalos (véase el numeral 2.25) (T0, T1) para el parámetro (véase el numeral 3.9) T0 y T1 con las funciones estadísticas (véase el numeral 2.8) T0 y T1 como límites de intervalos y para los cuales se estipula que:

[ ] αθ −≥<< 110 TTP NOTA 1 La confianza refleja la proporción de casos en donde el intervalo de confianza contendría el valor verdadero del parámetro en una serie grande larga de muestras aleatorias repetidas (véase el numeral 2.6) bajo condiciones idénticas. Un intervalo de confianza no refleja la probabilidad (véase el numeral 3.5) de que el intervalo observado contenga el valor real del parámetro (que lo contenga o no). NOTA 2 Este intervalo de confianza está asociado con la característica de desempeño correspondiente correspondiente 100 (1-α)%, en donde α es generalmente un número pequeño. La característica de desempeño, que se denomina coeficiente de confianza o nivel de confianza, es con frecuencia del 95 % ó 99 %. La desigualdad P [TO < θ < T1) ≥ 1 - α se aplica a cualquier valor de población específico pero desconocido de θ. 2.29 Intervalo de confianza unilateral (One-Sided Confidence Interval). Intervalo de confianza (véase el numeral 2.28) con uno de sus extremos en + ∞, -∞, o un límite fijado naturalmente.

Page 17: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

12

NOTA 1 La definición del numeral 2.28 se aplica a T0 fijado en -∞, ó T1 fijado en + ∞ Los intervalos de confianza unilaterales surgen en situaciones en las que el interés se enfoca estrictamente en una sola dirección. Por ejemplo, en una prueba de seguridad sobre volumen de audio en teléfonos celulares, un límite de confianza superior sería el interés que indica un límite superior para el volumen producido en condiciones de seguridad supuestas. Para los ensayos mecánicos estructurales, sería de interés un límite de confianza inferior sobre la fuerza a la cual el dispositivo falla. NOTA 2 Otro ejemplo de intervalos de confianza unilaterales se presenta en situaciones en las que un parámetro tiene un límite natural, como por ejemplo cero. Para una distribución de Poisson (véase el numeral 3.47) involucrada en el modelado de quejas de los clientes, cero es un límite inferior. Otro ejemplo: un intervalo de confianza para la fiabilidad de un componente electrónico puede ser (0, 98, 1) en donde 1 es el límite superior natural. 2.30 Intervalo de predicción (Prediction Interval). Rango de valores de una variable obtenidos de una muestra aleatoria (véase el numeral 2.6) de valores de una población continua, dentro del cual se puede asegurar con una confianza dada que fallará no menos de un número dado de valores en una muestra aleatoria ulterior posterior de la misma población (véase el numeral 2.1). NOTA Generalmente, el interés se enfoca en una sola observación ulterior que surge de la misma situación que las observaciones que son la base del intervalo de predicción. Otro contexto práctico es el análisis de regresión, en el cual un intervalo de predicción se construye para un espectro de valores independientes. 2.31 Estimado (Estimate). Valor observado (véase el numeral 2.4) de un estimador (véase el numeral 2.12). NOTA Un estimado hace referencia a un valor numérico obtenido a partir de valores observados. Con respecto a la estimación (véase el numera 2.36) de un parámetro (véase el numeral 3.9) a partir de una distribución de probabilidad (véase el numeral 3.11) supuesta, el estimador hace referencia a la función estadística (véase el numeral 2.8) destinado a estimar el parámetro, y el estimado hace referencia al resultado obtenido con los valores observados. Algunas veces al estimado se le coloca el adjetivo "puntual", para hacer énfasis en que se produce un solo valor, no un intervalo de valores. En forma similar, la expresión "por intervalos" se coloca antes de "estimado", cuando se realiza una estimación por intervalos. 2.32 Error de estimación (Error of Estimation). Estimado (véase el numeral 2.31) menos el parámetro (véase el numeral 3.9) o propiedad de la población que se prevé estimar. NOTA 1 La propiedad de la población puede ser una función del parámetro o parámetros u otra cantidad relacionada con la distribución de probabilidad (véase el numeral 3.11). NOTA 2 El error del estimador se puede deber al muestreo, a la incertidumbre de la medición, al redondeo o a otras fuentes. En efecto, el error del estimador representa para los usuarios el desempeño de base de interés. La determinación de las principales contribuciones al error del estimador es un elemento crítico en los esfuerzos de mejora de la calidad. 2.33 Sesgo (Bias). Valor esperado (véase el numeral 3.12) de un error de estimación (véase el numeral 2.32). NOTA 1 Esta definición es diferente de las que se encuentran en la NTC 2062-2 (en el numeral 3.3.2 de la norma ISO 3534-2) y en el VIM:1993 (veánse los numerales 5.25 y 5.28 del VIM). Sesgo se usa aquí en un sentido genérico, como se indica en la Nota 1 del numeral 2.34. NOTA 2 La existencia de sesgo puede conducir a consecuencias desafortunadas en la práctica. Por ejemplo, subestimar la resistencia de materiales debido al sesgo puede conducir a fallas inesperadas en un dispositivo. En muestreo por encuesta, el sesgo puede conducir a decisiones incorrectas a partir de un sondeo político. 2.34 Estimador sin sesgo (Unbiased Estimator). Estimador (véase el numeral 2.12) que tiene un sesgo (véase el numeral 2.33) igual a cero. EJEMPLO 1 Para una muestra aleatoria (véase el numeral 2.6) de n variables aleatorias independientes (véase el numeral 3.10), cada una con la misma distribución normal (véase el numeral 3.50) con media (véase el numeral 3.35) μ y desviación estándar (véase el numeral 3.37) σ, la media de la muestra X (véase el numeral 2.15) y la varianza de la

Page 18: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

13

muestra (véase el numeral 2.16) S2 son estimadores sin sesgo para la media μ y la varianza (véase el numeral 2.36) σ2, respectivamente. EJEMPLO 2 Como se mencionó en la Nota 1 del numeral 2.37, el estimador del máximo de verosimilitud (véase el numeral 2.35) de la varianza σ2 usa el denominador n en lugar de n - 1, y de esta manera es un estimador con sesgo. En la práctica, la desviación estándar de la muestra (véase el numeral 2.17) se usa considerablemente, pero es importante observar que la raíz cuadrada de la varianza de la muestra utilizando n -1 es un estimador con sesgo de la desviación estándar de la población (véase el numeral 3.37). EJEMPLO 3 Para una muestra aleatoria de n pares independientes de variables aleatorias, cada par con la misma distribución normal con dos variables (véase el numeral 3.65) con covarianza (véase el numeral 3.43) igual a ρσXY, la covarianza de la muestra (véase el numeral 2.22) es un estimador sin sesgo para la covarianza de la población. El estimador del máximo de verosimilitud usa n en lugar de n - 1 en el denominador, y de esta manera tiene sesgo. NOTA Los estimadores sin sesgo son útiles, ya que en promedio dan un valor correcto. Sin duda, los estimadores sin sesgo brindan un punto de partida útil en la búsqueda de estimadores "óptimos" de los parámetros de población. La definición dada aquí es de naturaleza estadística. En la práctica cotidiana, los usuarios intentan evitar la introducción de sesgo en un estudio asegurándose, por ejemplo, de que la muestra aleatoria sea representativa de la población de interés. 2.35 Estimador del máximo de verosimilitud (Maximum Likelihood Estimator). Estimador (véase el numeral 2.12) que asigna el valor del parámetro (véase el numeral 3.9), en donde la función de verosimilitud (véase el numeral 2.38) alcanza o se aproxima a su mayor valor. NOTA 1 La estimación del máximo de verosimilitud es un método bien establecido para obtener estimados de parámetros cuando se ha especificado una distribución (véase el numeral 3.11) [por ejemplo, normal (véase el numeral 3.50), gamma (véase el numeral 3.56), Weibull (véase el numeral 3.63), etc.] Estos estimadores tienen propiedades estadísticas útiles (por ejemplo, invariancia en transformación monótona) y en muchas situaciones proporcionan el método de selección. En casos en que el estimador del máximo de verosimilitud tiene sesgo, puede tener lugar una corrección simple del sesgo (véase el numeral 2.33). Como se mencionó en el ejemplo 2 del numeral 2.34, el estimador del máximo de verosimilitud para la varianza (véase el numeral 3.36) de la distribución normal tiene sesgo pero se puede corregir usando n - 1 en vez de n. El alcance del sesgo en estos casos se reduce cuando se incrementa el tamaño de la muestra. NOTA 2 La abreviatura EMV se usa comúnmente para estimador del máximo de verosimilitud y para estimación del máximo de verosimilitud, en donde el contexto indica la opción apropiada. 2.36 Estimación (Estimation). Procedimiento para obtener una representación estadística de una población (véase el numeral 2.1) a partir de una muestra aleatoria (véase el numeral 2.6) tomada de esta población. NOTA 1 En particular, el procedimiento involucrado al pasar de un estimador (véase el numeral 2.12) a un estimado específico constituye la estimación. NOTA 2 La estimación se entiende en un contexto bastante amplio para incluir estimación puntual, estimación por intervalos o estimación de las propiedades de las poblaciones. NOTA 3 Con frecuencia, una representación estadística hace referencia a la estimación de un parámetro (véase el numeral 3.9) o parámetros, o de una función de estos a partir de un modelo asumido. De manera más general, la representación de la población puede ser menos específica, tales como las funciones estadísticas relativas a los impactos de desastres naturales (víctimas, lesiones, pérdidas de propiedades y pérdidas en la agricultura, todas las que el responsable de las emergencias podría querer estimar). NOTA 4 La consideración de una función estadística descriptiva (véase el numeral 2.5) puede sugerir que un modelo supuesto brinda una representación inadecuada de los datos, como se indica por una medida del ajuste del modelo a los datos. En estos casos, se pueden considerar otros modelos y continuar el proceso de estimación.

Page 19: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

14

2.37 Estimación del máximo de verosimilitud (Maximum Likelihood Estimation). Estimación (véase el numeral 2.36) basada en el estimador del máximo de verosimilitud (véase el numeral 2.35). NOTA 1 Para la distribución normal (véase el numeral 3.50), la media de la muestra (véase el numeral 2.15) es el estimador del máximo de verosimilitud (véase el numeral 2.35) del parámetro (véase el numeral 3.9) µ, mientras que la varianza de la muestra (véase el numeral 2.16), usando el denominador n en vez de n - 1, proporciona el estimador del máximo de verosimilitud de σ2. El denominador n -1 se usa habitualmente, ya que este valor proporciona un estimador sin sesgo (véase el numeral 2.34). NOTA 2 La estimación del máximo de verosimilitud se usa algunas veces para describir la obtención de un estimador (véase el numeral 2.12) a partir de la función de verosimilitud. NOTA 3 Aunque en algunos casos el uso de la estimación del máximo de verosimilitud da lugar a una expresión analítica, existen otras situaciones en las que el estimador del máximo de verosimilitud requiere una solución iterativa a un conjunto de ecuaciones. NOTA 4 La abreviatura EMV se usa comúnmente para estimador del máximo de verosimilitud y para estimación del máximo de verosimilitud, dependiendo del contexto. 2.38 Función de verosimilitud (Likelihood Function). Función de densidad de probabilidad (véase el numeral 3.26) evaluada a los valores observados (véase el numeral 2.4) y considerada como una función de los parámetros (véase el numeral 3.9) de la familia de distribuciones (véase el numeral 3.8). EJEMPLO 1 Considere una situación en la cual se seleccionan aleatoriamente 10 elementos de una población muy grande (véase el numeral 2.1) y se encuentra que 3 elementos tienen una característica específica. De esta muestra, 0,3 (3 de 10) es un estimado (véase el numeral 2.31) intuitivo de la proporción de población que tiene la característica. Dentro de un modelo de distribución binomial (véase el numeral 3.46), la función de verosimilitud (función de masa de probabilidad como una función de p con n fijado en 10 y x en 3) logra su máximo en p = 0,3, que concuerda con la intuición. [Esto se puede verificar posteriormente graficando la función de masa de probabilidad de la distribución binomial (véase el numeral 3.46) 120 p3 (1 - p)7 con relación a p]. EJEMPLO 2 Para la distribución normal (véase el numeral 3.50) con una desviación estándar (véase el numeral 3.37) conocida, se puede demostrar en general que la función de verosimilitud alcanza su máximo cuando µ es igual a la media de la muestra. 2.39 Función de verosimilitud parcial (Profile Likelihood Function). Función de verosimilitud (véase el numeral 2.38) considerada con base en un solo parámetro (véase el numeral 3.9), con todos los demás parámetros fijados para maximizarla. 2.40 Hipótesis, H (Hypothesis, H). Declaración acerca de una población (véase el numeral 2.1). NOTA Comúnmente, la declaración acerca de la población concierne a uno o más parámetros (véase el numeral 3.9) en una familia de distribuciones (véase el numeral 3.8) o acerca de la familia de distribuciones. 2.41 Hipótesis nula, H0 (Null Hipótesis, H0). Hipótesis (véase el numeral 2.40) que se debe poner a prueba por medio de una prueba estadística (véase el numeral 2.48). EJEMPLO 1 En una muestra aleatoria (véase el numeral 2.6) de variables aleatorias independientes (véase el numeral 3.10) que tienen la misma distribución normal (véase el numeral 3.50), con una media desconocida (véase el numeral 3.35) y una desviación estándar desconocida (véase el numeral 3.37), una hipótesis nula para una media μ puede ser que la media es menor o igual a un valor dado µ0 y esto se escribe usualmente de la siguiente forma; H0:µ ≤ µ0. EJEMPLO 2 Una hipótesis nula puede ser que el modelo estadístico para una población (véase el numeral 2.1) es una distribución normal. Para este tipo de hipótesis nula no se especifican la media y la desviación estándar.

Page 20: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

15

EJEMPLO 3 Una hipótesis nula puede ser que el modelo estadístico para una población sea una distribución simétrica. Para este tipo de hipótesis nula no se especifica la forma de la distribución. NOTA 1 Explícitamente, la hipótesis nula puede consistir en un subconjunto de un conjunto de distribuciones de probabilidades posibles. NOTA 2 Esta definición no se debería considerar independientemente de la hipótesis alternativa (véase el numeral 2.42) y la prueba estadística (véase el numeral 2.48), ya que la aplicación apropiada de la puesta a prueba requiere todos estos componentes. NOTA 3 En la práctica jamás se demuestra una hipótesis nula, sino que la evaluación en una situación dada puede ser inadecuada para rechazar la hipótesis nula. La motivación original para poner a prueba la hipótesis probablemente ha sido que el resultado de la esperanza matemática de que el resultado favorezca una hipótesis alternativa específica para el problema en cuestión. NOTA 4 La decisión de no rechazar la hipótesis nula no es una prueba de su validez, sino puede ser más bien una indicación de que hay evidencia insuficiente para rechazarla. La hipótesis nula (o una cercana a ella) puede ser verdadera, o el tamaño de la muestra es insuficiente para detectar una diferencia con relación a ésta. NOTA 5 En algunas situaciones, el interés inicial está enfocado hacia la hipótesis nula, pero la posibilidad de una desviación puede ser de interés. La consideración apropiada del tamaño de la muestra y su capacidad para detectar una desviación o alternativa específica puede conducir a la construcción de un procedimiento de ensayo para evaluar apropiadamente la hipótesis nula. NOTA 6 La aceptación de la hipótesis alternativa, contrariamente a la decisión de no rechazar la hipótesis nula, es un resultado positivo en el sentido en que apoya la conjetura de interés. El rechazo de la hipótesis nula a favor de la alternativa es un resultado con menos ambigüedad que un resultado de "no se rechaza la hipótesis nula esta vez". NOTA 7 La hipótesis nula es la base para construir el estadístico de prueba (véase el numeral 2.52) correspondiente usada para evaluar la hipótesis nula. NOTA 8 La hipótesis nula se denota con frecuencia H0 (H con subíndice 0). NOTA 9 El subconjunto que identifica la hipótesis nula de ser posible debería seleccionarse de manera que la declaración sea incompatible con la conjetura por estudiar. Véase la Nota 2 del numeral 2.48 y el ejemplo del numeral 2.49. 2.42 Hipótesis alternativa, HA, H1 (Alternative Hypotesis, HA, H1). Declaración que selecciona un conjunto o subconjunto de todas las posibles distribuciones de probabilidad (véase el numeral 3.11) admisibles posibles que no pertenecen a la hipótesis nula (véase el numeral 2.41). EJEMPLO 1 La hipótesis alternativa a la hipótesis nula dada en el ejemplo 1 del numeral 2.41 es que la media (véase el numeral 3.35) es mayor que el valor especificado, que se expresa así: HA : µ > µ0. EJEMPLO 2 La hipótesis alternativa a la hipótesis nula presentada en el ejemplo 2 del numeral 2.41 es que el modelo estadístico de la población no es una distribución normal (véase el numeral 3.50). EJEMPLO 3 La hipótesis alternativa a la hipótesis nula dada en el Ejemplo 3 del numeral 2.41 es que el modelo estadístico de la población es una distribución asimétrica. Para esta hipótesis alternativa no se establece la forma específica de la asimetría. NOTA 1 La hipótesis alternativa es el complemento de la hipótesis nula. NOTA 2 La hipótesis alternativa también se puede designar como H1 o HA sin preferencia clara en tanto que el simbolismo sea paralelo a la notación de la hipótesis nula. NOTA 3 La hipótesis alternativa es una declaración que contradice la hipótesis nula. El estadístico de prueba (véase el numeral 2.52) correspondiente se usa para decidir entre las hipótesis cero y la alternativa. NOTA 4 La hipótesis alternativa no se debería considerar aislada de la hipótesis nula ni del estadístico de prueba (véase el numeral 2.48). NOTA 5 La aceptación de la hipótesis alternativa, contrariamente a la decisión de no rechazar la hipótesis nula, es un resultado positivo en el sentido en que apoya la conjetura de interés.

Page 21: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

16

2.43 Hipótesis simple (Simple Hypothesis). Hipótesis (véase el numeral 2.40) que especifica una sola distribución en una familia de distribuciones (véase el numeral 3.8). NOTA 1 Una hipótesis simple es una hipótesis nula (véase el numeral 2.41) o una hipótesis alternativa (véase el numeral 2.42) para la cual el conjunto seleccionado consta de una distribución de probabilidad simple (véase el numeral 3.11). NOTA 2 En una muestra aleatoria (véase el numeral 2.6) de variables aleatorias independientes (véase el numeral 3.10) con la misma distribución normal (véase el numeral 3.50) con una media desconocida (véase el numeral 3.35) y una desviación estándar conocida (véase el numeral 3.37) σ, una hipótesis simple para la media µ es que la media es igual a un valor dado µ'0 y esto se escribe usualmente de la siguiente forma: H0:µ = µ0. NOTA 3 Una hipótesis simple especifica completamente la distribución de probabilidad (véase el numeral 3.11). 2.44 Hipótesis compuesta (Composite Hypothesis). Hipótesis (véase el numeral 2.40) que especifica más de una distribución (véase el numeral 3.11) en una familia de distribuciones (véase el numeral 3.8). EJEMPLO 1 La hipótesis nula (véase el numeral 2.41) y las hipótesis alternativas (véase el numeral 2.42) dadas en los ejemplos de los numerales 2.41 y 2.42 son todos ejemplos de hipótesis compuestas. EJEMPLO 2 En el numeral 2.48, la hipótesis nula en el Caso 3 del Ejemplo 3 es una hipótesis simple. La hipótesis nula del Ejemplo 4 también es una hipótesis simple. Las otras hipótesis del numeral 2.48 son compuestas. NOTA Una hipótesis compuesta es una hipótesis nula o una hipótesis alternativa para la cual el subconjunto seleccionado consta de más de una distribución de probabilidad simple. 2.45 Nivel de significación, α (Significance Level, α). <ensayo estadístico>. Probabilidad máxima (véase el numeral 3.5) de rechazar la hipótesis nula (véase el numeral 2.41) cuando en realidad es verdadera. NOTA Si la hipótesis nula es una hipótesis simple (véase el numeral 2.43), entonces la probabilidad de rechazar la hipótesis nula si fuera verdadera, llega a ser un valor simple. 2.46 Error Tipo I (Type I Error). Rechazo de la hipótesis nula (véase el numeral 2.41) cuando en realidad es verdadera. NOTA 1 De hecho, un error Tipo I es una decisión incorrecta. En consecuencia, se desea mantener la menor probabilidad posible (véase el numeral 3.5) de tomar una decisión incorrecta. Para obtener una probabilidad cero de un error Tipo I, nunca se rechazaría la hipótesis nula. En otras palabras, independientemente de la evidencia, se toma la misma decisión. NOTA 2 En algunas situaciones (por ejemplo, en el ensayo del parámetro binomial p) es posible que no se pueda alcanzar un nivel de significación especificado tal como 0,05, debido a la discontinuidad de los resultados. 2.47 Error tipo II (Type II Error). Decisión de no rechazar la hipótesis nula (véase el numeral 2.41) cuando en realidad ésta no es verdadera. NOTA De hecho, el error Tipo II es una decisión incorrecta. En consecuencia, se desea mantener la menor probabilidad posible (véase el numeral 3.5) de tomar una decisión incorrecta. Los errores Tipo II ocurren comúnmente en situaciones en las que el tamaño de la muestra es insuficiente para revelar una desviación de la hipótesis nula. 2.48 Prueba estadística, prueba de significación (Statistical Test, Significance Test). Procedimiento para decidir si una hipótesis nula (véase el numeral 2.41) debe ser rechazada a favor de una hipótesis alternativa (véase el numeral 2.42). EJEMPLO 1 A manera de ejemplo, si una variable aleatoria continua (véase el numeral 3.29) real puede tomar valores entre -∞ y + ∞ y se sospecha que la distribución de probabilidad verdadera no es una distribución normal (véase el numeral 3.50), entonces se formularán las siguientes hipótesis:

Page 22: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

17

- El alcance de la situación son todas las distribuciones de probabilidad continuas (véase el numeral 3.23) que pueden tomar valores entre - ∞ y + ∞.

- La conjetura es que la distribución de probabilidad verdadera no es una distribución normal. - La hipótesis nula es que la distribución de probabilidad es una distribución normal. - La hipótesis alternativa es que la distribución de probabilidad no es una distribución normal. EJEMPLO 2 Si la variable aleatoria sigue una distribución normal con una desviación estándar conocida (véase el numeral 3.37) y se sospecha que su valor esperado µ se desvía de un valor dado µ0, entonces las hipótesis se formularán de acuerdo con el Caso 3 en el siguiente ejemplo. EJEMPLO 3 Este ejemplo considera tres posibilidades en el ensayo estadístico. Caso 1. Se supone que la media del proceso es mayor que la media objetivo de µ0. Esta conjetura conduce a las siguientes hipótesis. Hipótesis nula: H0 : µ ≤ µ0 Hipótesis alternativa: H1 : µ ≤ µ0 Caso 2. Se supone que la media del proceso es inferior a la media objetivo de µ0. Esta conjetura conduce a las siguientes hipótesis. Hipótesis nula: H0 : µ ≥ µ0 Hipótesis alternativa: H1 : µ ≥ µ0 Caso 3. Se supone que la media del proceso no es compatible con la media del proceso, pero no se especifica la dirección. Esta conjetura conduce a las siguientes hipótesis. Hipótesis nula: H0 : µ = µ0 Hipótesis alternativa: H1 : µ ≠ µ0 En todos los tres casos, la formulación de las hipótesis se basa en una conjetura concerniente a la hipótesis alternativa y a su desviación de su condición de referencia. EJEMPLO 4 Este ejemplo considera como su alcance todas las proporciones p1 y p2 entre cero y una proporción de defectuosos en los lotes 1 y 2. Se podría sospechar que los dos lotes son diferentes, y por tanto, suponer que las proporciones de defectos en los dos lotes son diferentes. Esta conjetura conduce a las siguientes hipótesis: Hipótesis nula: H0 : p1 = p2 Hipótesis alternativa: H1 : p1 ≠ p2 NOTA 1 Una prueba estadística es un procedimiento que es válido bajo condiciones especificadas, para decidir, por medio de observaciones de una muestra, si la distribución de probabilidad verdadera pertenece a la hipótesis nula o a la hipótesis alternativa. NOTA 2 Antes de llevar a cabo una prueba estadística, se determina primero el conjunto posible de distribuciones de probabilidad con base en la información disponible. Posteriormente se identifican las distribuciones de probabilidad que pueden ser verdaderas con base en la conjetura por estudiar, para elaborar la hipótesis alternativa. Finalmente, la hipótesis nula se formula como complemento a la hipótesis alternativa. En muchos casos, el conjunto posible de distribuciones de probabilidad, y en consecuencia también la hipótesis nula y la hipótesis alternativa se pueden determinar por referencia a conjuntos de valores de parámetros pertinentes. NOTA 3 Cuando la decisión se toma con base en observaciones de una muestra, existe el riesgo de cometer un error Tipo I (véase el numeral 2.46), rechazar la hipótesis nula cuando de hecho es correcta, o un error Tipo II (véase el numeral 2.47), decidir no rechazar la hipótesis nula a favor de la hipótesis alternativa, cuando esta última es verdadera. NOTA 4 El Caso 1 y 2 del Ejemplo 3 anterior son casos de pruebas unilaterales. El Caso 3 es un ejemplo de una prueba bilateral. En todos los tres casos, la selección entre unilateral contra bilateral se determina considerando la región del parámetro µ correspondiente a la hipótesis alternativa. Más generalmente, las ensayos unilaterales y bilaterales pueden ser controlados por la región para rechazo de la hipótesis nula, correspondiente a la función estadística de ensayo escogida. Es decir, la función estadística de ensayo tiene una región crítica asociada que favorece la hipótesis alternativa, pero es posible que no esté relacionada directamente con una simple descripción

Page 23: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

18

del espacio del parámetro, como en los Casos 1, 2 y 3. NOTA 5 Se debería prestar mucha atención a las suposiciones subyacentes, o la aplicación de las pruebas estadísticas no tendrá fundamento. Las pruebas estadísticas que conducen a inferencias estables incluso en el caso de posibles especificaciones defectuosas de las suposiciones subyacentes se denominan robustos. El ensayo t de una muestra para la media es un ejemplo de una prueba considerada muy robusta en condiciones no normales. El ensayo de Bartlett para homogeneidad de las varianzas es un ejemplo de un procedimiento no robusto que posiblemente conduce al rechazo excesivo de la igualdad de varianzas en casos de distribución para las cuales las varianzas fueron en realidad idénticas. 2.49 Valor p (p-value). Probabilidad (véase el numeral 3.5) de observar el valor del estadístico de prueba (véase el numeral 2.52) observado o cualquier otro valor desfavorable para la hipótesis nula (véase el numeral 2.41). EJEMPLO Considere el ejemplo numérico introducido originalmente en el numeral 2.9. Suponga, a manera de ilustración, que estos valores son observaciones de un proceso que se espera nominalmente que tenga una media de 12,5 y que con base en su experiencia previa el ingeniero asociado con el proceso considere que éste era constantemente más bajo que el valor nominal. Se realizó un estudio y se recolectó una muestra aleatoria de tamaño 10, con los resultados numéricos de del numeral 2.9. Las hipótesis apropiadas son: Hipótesis nula: H0 : µ ≥ 12,5 Hipótesis alternativa: H1 : µ < 12,5 La media de la muestra es 9,7, que parece concordar con la conjetura, pero, ¿está lo suficientemente alejada de 12,5 para apoyar la conjetura? Para este ejemplo, el estadístico de prueba (véase el numeral 2.52) es -1,976 4 con su correspondiente valor p de 0,040. Esto significa que hay menos de 4 oportunidades en cien de observar un valor de función estadística de -1,976 4 ó inferior, si de hecho la media del proceso verdadero es 12,5. Si el nivel de significación pre-especificada original hubiera sido 0,05, entonces habitualmente se rechazaría la hipótesis nula a favor de la hipótesis alternativa. Como alternativa, suponga que el problema fuera formulado en una forma un poco diferente. Imagine que el problema fuera que el proceso está alejado de la meta de 12,5 pero la dirección no se ha especificado. Esto conduce a las siguientes hipótesis: Hipótesis nula: H0 : µ = 12,5 Hipótesis alternativa: H1 : µ ≠ 12,5 Dados los mismos datos recolectados de una muestra aleatoria, la función estadística de ensayo es el mismo, -1,976 4. Para esta hipótesis alternativa, una pregunta importante es "¿cuál es la probabilidad de observar un valor así de extremo u otro más extremo?" En este caso hay dos regiones pertinentes: valores menores o iguales a -1,9764, o valores mayores o iguales a 1,9764. La probabilidad de que ocurra una función estadística de ensayo t en una de estas regiones es 0,080 (el doble del valor unilateral). Hay ocho oportunidades en 100 de observar un valor de una función estadística de ensayo así de extremo o todavía más. Así, la hipótesis nula no es rechazada al nivel de significación de 0,05. NOTA 1 Por ejemplo, si el valor p resulta ser 0,029, entonces hay menos de tres oportunidades en cien de que este valor extremo de la función estadística de ensayo, o uno más extremo, ocurra bajo la hipótesis nula. Con base en esta información es posible tener que rechazar la hipótesis nula, ya que este es un valor p bastante pequeño. Más formalmente, si el nivel de significación se hubiera establecido en 0,05, entonces definitivamente el valor p de 0,029, al ser inferior a 0,05 conduciría al rechazo de la hipótesis nula. NOTA 2 El valor p del término algunas veces se denomina probabilidad de significación, que no se debería confundir con el nivel de significación (véase el numeral 2.45) que es una constante especificada en una aplicación. 2.50 Potencia de una prueba (Power of a Test). Uno menos la probabilidad (véase el numeral 3.5) del error Tipo II (véase el numeral 2.47).

Page 24: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

19

NOTA 1 La eficiencia de una prueba para un valor especificado de un parámetro desconocido (véase el numeral 3.9) en una familia de distribuciones (véase el numeral 3.8) es igual a la probabilidad de rechazar la hipótesis nula (véase el numeral 2.41) para el valor del parámetro. NOTA 2 En la mayoría de casos de interés práctico, al incrementar el tamaño de la muestra se incrementará la eficiencia de la prueba. En otras palabras, la probabilidad de rechazar la hipótesis nula cuando la hipótesis alternativa (véase el numeral 2.42) es verdadera aumenta al incrementarse el tamaño de la muestra, reduciendo de esta manera la probabilidad de un error Tipo II. NOTA 3 En situaciones de ensayo es recomendable que cuando la muestra de ensayo es extremadamente grande, deberían detectarse incluso desviaciones pequeñas de la hipótesis nula, lo que conduce al rechazo de la hipótesis nula. En otras palabras, la eficiencia de la prueba se debería aproximar a 1 para cualquier alternativa a la hipótesis nula cuando el tamaño de la muestra llega a ser infinitamente grande. Estos ensayos se denominan consistentes. Al comparar dos pruebas con respecto a su eficiencia potencia, la prueba con la mayor eficiencia potencia se considera la más eficiente, siempre y cuando los niveles de significación sean idénticos, al igual que las hipótesis nulas y alternativas particulares. Hay descripciones matemáticas más formales de los términos "consistencia" y "eficiencia" que se encuentran fuera del alcance de esta norma. (Consulte las diferentes enciclopedias de estadística o libros de estadística matemática). 2.51 Curva de potencia (Power Curve). Conjunto de valores de la eficiencia de una prueba (véase el numeral 2.50) en función del parámetro de la población (véase el numeral 3.9) de una familia de distribuciones (véase el numeral 3.8). NOTA La función de eficiencia es igual a uno menos la curva característica de operación. 2.52 Estadístico de prueba, estadístico de contraste (Test Statistic). Estadístico (véase el numeral 2.8) usado conjuntamente con una prueba estadística (véase el numeral 2.48). NOTA La función estadística de ensayo se usa para evaluar si la distribución de probabilidad (véase el numeral 3.11) considerada es coherente con la hipótesis nula (véase el numeral 2.41) o la hipótesis alternativa (véase el numeral 2.42). 2.53 Función estadística descriptiva gráfica (Graphical Descriptive Statistics). Estadística descriptiva (véase el numeral 2.5) representada en forma gráfica. NOTA Generalmente, la intención de la función estadística descriptiva es reducir un gran número de valores a algunos valores fáciles de manejar, o presentar los valores de manera que se facilite su visualización. Los ejemplos de resúmenes gráficos incluyen gráficos de cajas, gráficos de probabilidad, gráficos Q-Q, diagramas de cuantila normal, gráficos de dispersión (nube de puntos), gráficos de dispersión múltiple (nube de puntos múltiple), e histogramas (véase el numeral 2.61). 2.54 Función estadística descriptiva numérica (Numerical Descriptive Statistics). Función Estadística descriptiva (véase el numeral 2.5) en forma numérica. NOTA La estadística descriptiva numérica incluye el promedio (véase el numeral 2.15), el rango de la muestra (véase el numeral 2.10), la desviación estándar de la muestra (véase el numeral 2.17), el rango intercuartila, etc. 2.55 Clases (Classes) NOTA Se supone que las clases son mutuamente exclusivas y exhaustivas. La línea real son todos los números reales entre -∞ y + ∞. 2.55.1 Clase (Class). <Característica cualitativa> Subconjunto de elementos de una muestra (véase el numeral 2.3). 2.55.2 Clase (Class). <Característica ordinal> Conjunto de una o más categorías adyacentes en una escala ordinal. 2.55.3 Clase (Class). <Característica cuantitativa> Intervalo de la línea real.

Page 25: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

20

2.56 Límites de clase (Class limits, Class boundaries). <Característica cuantitativa) Valores que definen los límites superior e inferior de una clase (véase el numeral 2.55). NOTA Esta definición hace referencia a los límites de clase asociados con las características cuantitativas. 2.57 Punto medio de la clase (Mid-Point of Class). <Característica cuantitativa> Promedio (véase el numeral 2.15) de los límites de la clase superior e inferior (véase el numeral 2.56). 2.58 Ancho de la clase (Class Width). <Característica cuantitativa> límite superior de una clase menos el límite inferior de una clase (véase el numeral 2.55). 2.59 Frecuencia (Frequency). Número de ocurrencias o valores observados (véase el numeral 2.4) en una clase especificada (véase el numeral 2.55). 2.60 Distribución de frecuencia (Frequency Distribution). Relación empírica entre clases (véase el numeral 2.55) y su número de ocurrencias o valores observados (véase el numeral 2.4). 2.61 Histograma (Histogram). Representación gráfica de una distribución de frecuencia (véase el numeral 2.60) compuesta por rectángulos contiguos, cada uno de ellos con un ancho de base igual al ancho de la clase (véase el numeral 2.58) y área proporcional a la frecuencia de la clase. NOTA Se debe prestar atención a situaciones en las que los datos se producen en clases que tienen anchos de clase desiguales. 2.62 Gráfico de barras. (Bar Chart). Representación gráfica de una distribución de frecuencia (véase el numeral 2.60) de una propiedad nominal, compuesta de un conjunto de rectángulos de ancho uniforme con altura proporcional a la frecuencia (véase el numeral 2.59). NOTA 1 Los rectángulos se describen algunas veces como imágenes tridimensionales con propósitos aparentemente estéticos, aunque esto no agrega información adicional y no es una presentación recomendada. En un gráfico de barras no es necesario que los rectángulos sean contiguos. NOTA 2 Los software disponibles no siempre siguen las definiciones establecidas aquí, debido a que la diferencia entre histogramas y gráficos de barras no es muy clara, ya que el software disponible no siempre sigue las definiciones establecidas aquí. 2.63 Frecuencia acumulativa (Cumulativa Frequency). Frecuencia (véase el numeral 2.59) para clases hasta un límite especificado, inclusive. NOTA Esta definición solamente es aplicable a valores especificados que corresponden a los límites de clase (véase el numeral 2.56). 2.64 Frecuencia Relativa (Relative Frequency). Frecuencia (véase el numeral 2.59) dividida por el número total de ocurrencias o valores observados (véase el numeral 2.4). 2.65 Frecuencia relativa acumulativa (Cumulative Relative Frequency). Frecuencia acumulativa (véase el numeral 2.63) dividida por el número total de ocurrencias o valores observados (véase el numeral 2.4). 3. TÉRMINOS USADOS EN PROBABILIDAD 3.1 Espacio muestral, Ω (Sample Space, Ω). Conjunto de todos los resultados posibles. EJEMPLO 1 Considere los tiempos de falla de las baterías compradas por un consumidor. Si la batería no tiene potencia al usarla la primera vez, su tiempo de falla es 0. Si la batería funciona durante un momento, tiene un tiempo

Page 26: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

21

de falla de algunas horas. Por tanto, el espacio muestral está compuesto de los resultados {la batería falla en el intento inicial} y {la batería falla después de x horas, en donde x es mayor que cero horas}. Este ejemplo se usará en todo el numeral. En particular, en el numeral 3.68 se presenta un explicación amplia de este ejemplo. EJEMPLO 2 Una caja contiene 10 resistencias etiquetadas 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. Si se hiciera un muestreo aleatorio de 2 resistencias de este conjunto de resistencias, sin reemplazarlas, el espacio muestral constaría de los siguientes resultados: (1,2), (1,3), (1,4), (1,5) (1,6), (1,7), (1,8), (1,9), (1,10), (2,3), (2,4), (2,5) (2,6), (2,7), (2,8), (2,9), (2,10), (3,4), (3,5) (3,6), (3,7), (3,8), (3,9), (3,10), (4,5) (4,6), (4,7), (4,8), (4,9), (4,10), (5,6), (5,7), (5,8), (5,9), (5,10), (6,7), (6,8), (6,9), (6,10), (7,8), (7,9), (7,10), (8,9), (8,10), (9,10). El evento (1,2) se considera idéntico a (2.1), de manera que el orden de muestreo de las resistencias no importa. Por el contrario, si el orden tiene significación, de manera que (1,2) se considera diferente de (2,1), entonces hay un total de 90 resultados en el espacio muestral. EJEMPLO 3 Si en el ejemplo anterior el muestreo se ha realizado con reemplazo, entonces sería necesario incluir los eventos adicionales (1,1), (2,2), (3,3), (4,4), (5,5), (6,6), (7,7), (8,8), (9,9) y (10,10). En el caso en que el orden no es de importancia, habría 55 resultados en el espacio muestral. En la situación en la que el orden es importante, habría 100 resultados en el espacio de la muestra. NOTA 1 Los resultados posibles pueden provenir de un experimento real o de uno completamente hipotético. Este conjunto puede ser, por ejemplo, una lista explícita, un conjunto contable, tal como los enteros positivos, {1, 2, 3,...}, o la línea real. NOTA 2 El espacio muestral es el primer componente de un espacio de probabilidad (véase el numeral 3.68). 3.2 Evento, A (Event, A). Subconjunto del espacio muestral (véase el numeral 3.1). EJEMPLO 1 Continuando con el ejemplo 1 del numeral 3.1, los siguientes son ejemplos de los eventos {0}, (0,2), {5, 7} [7, + ∞), correspondiente a una batería que falló inicialmente, una batería que trabaja al comienzo pero falla a las dos horas, una batería que falla exactamente a las 5,7 h, y una batería que no ha fallado a las 7 h. El {0} y el {5, 7} son cada uno conjuntos que contienen un solo valor; (0, 2) es un intervalo abierto de la línea real; [7, + ∞] es un intervalo infinito cerrado a la izquierda, de la línea real. EJEMPLO 2 Continuando con el ejemplo 2 de 3.1, el interés se limita a la selección sin reemplazo y sin registrar el orden de la selección. Un evento posible es A definido por {al menos una de las resistencias 1 ó 2 está incluida en la muestra}. Este evento contiene 17 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (1,8), (1,9), (1,10), (2,3), (2,4), (2,5), (2,6), (2,7), (2,8), (2,9) y (2,10). Otro evento posible B es {ninguna de las resistencias 8, 9 ó 10 está incluida en la muestra}. Este evento contiene los 21 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (2,3), (2,4) (2,5), (2,6), (2,7), (3,4), (3,5), (3,6), (3,7), (4,5), (4,6), (4,7), (5,6), (5,7), (6,7). EJEMPLO 3 Continuando con el ejemplo 2, la intersección de eventos A y B (es decir, que al menos una de las resistencias 1 y 2 esté incluida en la muestra, pero ninguna de las resistencias 8, 9 y 10) contiene los siguientes 11 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (2,3), (2,4), (2,5), (2,6), (2,7). Incidentalmente, el número de resultados en la unión de los eventos A, y B (es decir, que al menos una de las resistencias 1 y 2, ó ninguna de las resistencias 8, 9 y 10 esté incluida en la muestra) es 27, que también es igual a 17 + 21 - 11, a saber, el número de resultados en A más el número de resultados en B, menos el número de resultados en la intersección es igual al número de resultados en la unión de los eventos. NOTA Dado un evento y un resultado de un experimento, se dice que el evento ocurrió si el resultado pertenece al evento. Los eventos de interés práctico pertenecerán a la suma algebráica de eventos (véase el numeral 3.69), el segundo componente del espacio de probabilidad (véase el numeral 3.68). Los eventos ocurren naturalmente en contextos de juego (póquer, ruleta, etc.) en donde la determinación del número de resultados que pertenecen a un evento determina las probabilidades de pares. 3.3 Evento complementario, Ac (Complementary Event, Ac).

Espacio muestral (véase el numeral 3.1), exceptuando el evento dado (véase el numeral 3.2). EJEMPLO 1 Continuando con el ejemplo 1 del numeral 3.1 sobre la batería, el complemento del evento {0} es el evento (0, + ∞), que es equivalente al complemento del evento en el cual la batería no funcionó inicialmente, es el evento en que la batería funcionó inicialmente. En forma similar, el evento [0,3) corresponde a los casos en que la batería no estaba funcionando inicialmente o funcionó menos de tres horas. El complemento de este evento es [3, ∞), que corresponde al caso en que la batería funcionó durante 3 h y su tiempo de falla es mayor que este valor. EJEMPLO 2 Continuando con el ejemplo 2 del numeral 3.2, el número de resultados en B se puede encontrar fácilmente considerando el evento complemento a B = {la muestra contiene al menos una de las resistencias 8, 9 y 10}. Este evento contiene los 7 + 8 + 9 = 24 resultados (1,8), (2,8), (3.8), (4,8), (5,8), (6,8), (7,8), (1,9), (2,9), (3,9),

Page 27: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

22

(4,9), (5,9), (6,9), (7.9), (8,9), (1,10), (2,10), (3,10), (4,10), (5,10), (6,10), (7,10), (8,10), (9,10). Ya que todo el espacio muestral contiene 45 resultados en este caso, el evento B contiene 45 - 24 = 21 resultados [a saber: (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (2,3), (2,4), (2,5), (2,6), (2,7), (3,4), (3,5), (3,6), (3,7), (4,5),(4.6), (4,7), (5,6), (5,7), (6,7)]. NOTA 1 El evento complemento es el suplemento del evento en el espacio muestral. NOTA 2 El evento complementario también es un evento. NOTA 3 Para un evento A, el evento complementario a A se designa usualmente por el símbolo AC. NOTA 4 En muchas situaciones puede ser más fácil calcular la probabilidad del complemento de un evento que la probabilidad del evento. Por ejemplo, el evento definido por "al menos ocurre un defecto en una muestra de 10 elementos escogidos aleatoriamente de una población de 1 000 elementos, con un porcentaje supuesto de elementos defectuosos" tiene un número considerable de resultados por enumerar. El complemento de este evento (no se encuentra ningún defecto) es mucho más fácil de abordar. 3.4 Eventos independientes (Independent Events). Par de eventos (véase el numeral 3.2), tal que la probabilidad (véase el numeral 3.5) de la intersección de dos eventos es el producto de las probabilidades individuales. EJEMPLO 1 Considere una situación en la que se lanzan dos dados, uno de ellos rojo y el otro blanco, para diferenciar los 36 posibles resultados con probabilidad de 1/36 asignada a cada uno. D1 se define como el evento en donde la suma de los puntos en el dado rojo y en el blanco es i. W se define como el evento en que el dado blanco muestra un punto. Los eventos D7 y W son independientes, mientras que los eventos Di y W no son independientes para i = 2, 3, 4, 5 ó 6. Los eventos que no son independientes se denominan eventos dependientes. EJEMPLO 2 Los eventos independientes y dependientes surgen naturalmente en las aplicaciones. En casos en donde los eventos o circunstancias son dependientes, es bastante útil conocer el resultado de un evento relacionado. Por ejemplo, un individuo que debe ser sometido a una cirugía del corazón puede tener posibilidades de éxito muy diferentes, si el individuo tiene historia de fumador u otros factores de riesgo. Así, el tabaco y el riesgo de muerte por procedimientos invasivos pueden ser dependientes. En contraste, es probable que la muerte sea independiente del día de la semana en que la persona nació. En el contexto de confiabilidad, los componentes que tienen una causa de falla común no tienen tiempos de falla independientes. Las barras de combustible de un reactor tienen una probabilidad presumiblemente baja de que presenten grietas, pero si una barra de combustible se agrieta, la probabilidad de agrietamiento de la barra adyacente se puede incrementar sustancialmente. EJEMPLO 3 Continuando con el ejemplo 2 del numeral 3.2, suponga que el muestreo se ha llevado a cabo mediante muestreo aleatorio simple, de manera que todos los resultados tienen la misma probabilidad 1/45. Entonces P(A) = 17/45 = 0,377 8, P(B) = 25/45 = 0,4667 y P(A y B) = 11/45 = 0,244 4. Sin embargo, el producto P(A) x P(B) = (17(45) x (21/45) = 0,176 3 es diferente de 0,244 4, de manera que los eventos A y B no son independientes. NOTA Esta definición se aplica en el contexto de dos eventos, pero se puede ampliar. Para los eventos A y B la condición de independencia es P(A ∩ B) = P (A) P(B). Para que tres eventos, A, B y C, sean independientes, se requiere que:

)()()(

)()()(

)()()(

)()()()(

CPBPCBP

yCPAPCAP

BPAPBAP

CPBPAPCBAP

=∩=∩=∩

=∩∩

En general, para más de dos eventos, A1, A2, ... An son independientes si la probabilidad de la intersección de cualquier subconjunto dado de eventos es igual al producto de los eventos individuales. Esta condición se aplica a todos los subconjuntos. Es posible construir un ejemplo en el cual cada par de eventos sea independiente, pero los tres eventos no son independientes (es decir, independencia por pares, pero no completa). 3.5 Probabilidad de un evento A, P(A) (Probability of an Event A, P(A)). Número real en el intervalo cerrado [0,1] asignado a un evento (véase el numeral 3.2). EJEMPLO Continuando con el ejemplo 2 del numeral 3.1, la probabilidad para un evento se puede encontrar sumando las probabilidades de todos los resultados que componen el evento. Si todos los 45 resultados tienen la

Page 28: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

23

misma probabilidad, cada uno de ellos tendrá una probabilidad 1/45. La probabilidad de un evento se puede encontrar contando el número de resultados y dividiendo este número por 45. NOTA 1 La medida de la probabilidad (véase el numeral 3.70) suministra la atribución de números reales a cada evento de interés en el espacio muestral. Si consideramos un evento individual, la atribución dada por la medida de probabilidad da la probabilidad asociada con el evento. En otras palabras, la medida de la probabilidad da el conjunto completo de atribuciones para todos los eventos, mientras que la probabilidad representa una atribución específica para un evento individual. NOTA 2 Esta definición se refiere a la probabilidad como probabilidad de un evento específico. La probabilidad puede estar relacionada con una frecuencia relativa de ocurrencias a largo plazo, o con un grado de creencia en la ocurrencia probable de un evento. Habitualmente, la probabilidad de un evento A se designa por P(A). La notación ℘(A) usando la letra ℘ se usa en contextos en donde existe la necesidad de considerar explícitamente la formalidad de un espacio de probabilidad (véase el numeral 3.68). 3.6 Probabilidad condicional, P(A|B) (Conditional Probability, P(A|B)). Probabilidad de un evento (véase el numeral 3.5) de la intersección de A y B dividida por la probabilidad de B. EJEMPLO 1 Continuando con el ejemplo de la batería del numeral 3.1, considere el evento A (véase el numeral 3.2) definido como {la batería sobrevive al menos 3 h}, a saber [3, ∞). Sea el evento B definido como {la batería que funcionó inicialmente}, a saber (0, ∞). La probabilidad condicional de A dado B tiene en cuenta que uno tiene que ver con las baterías que funcionaron inicialmente. EJEMPLO 2 Continuando con el ejemplo 2 del numeral 3.1, si la selección es sin reemplazo, la probabilidad de seleccionar la resistencia 2 en la segunda extracción es igual a 0, dado que no fue seleccionada en la primer extracción. Si las probabilidades son iguales para todas las resistencias por seleccionar, la probabilidad de seleccionar la resistencia 2 en la segunda extracción es igual a 0,111 1, dado que no ha sido seleccionada en la primera extracción. EJEMPLO 3 Continuando con el ejemplo 2 del numeral 3.1, si la selección se hace con reemplazo, y las probabilidades son las mismas para todas las resistencias que van a ser seleccionadas dentro de cada extracción, entonces la probabilidad de seleccionar la resistencia 2 en la segunda extracción será de 0,1 si la resistencia 2 ha sido seleccionada o no en la primera extracción. Así, los resultados de la primera y segunda extracción son eventos independientes. NOTA 1 Se requiere que la probabilidad del evento B sea mayor de cero. NOTA 2 "A dado B" se puede formular en forma más completa como "el evento A dado que el evento B ha ocurrido". La barra vertical en el símbolo para probabilidad condicional se lee "dado". NOTA 3 Si la probabilidad condicional del evento A dado que el evento B ocurrió es igual a la probabilidad de que ocurra A, los eventos A y B son independientes. En otras palabras, el conocimiento de la ocurrencia de B no sugiere ajustes a la probabilidad de A. 3.7 Función de distribución de una variable aleatoria X, F(x). (Distribution Function of a Random Variable X, F(x)) Función de x dada la probabilidad (véase el numeral 3.5) del evento (véase el numeral 3.2) (-∞, x] NOTA 1 El intervalo (-∞, x] es el conjunto de todos los valores hasta x inclusive. NOTA 2 La función de distribución describe completamente la distribución de probabilidad (véase el numeral 3.11) de la variable aleatoria (véase el numeral 3.10). Las clasificaciones de las distribuciones, al igual que las clasificaciones de las variables aleatorias en clases discretas o continuas se basan en clasificaciones de las funciones de distribución. NOTA 3 Ya que las variables aleatorias toman valores que son números reales o k-uplas ordenadas de números reales, está implícito en la definición que x es también un número real o una k-upla ordenada de números reales. La función de distribución para una distribución con múltiples variables (véase el numeral 3.17) da la probabilidad de un evento (véase el numeral 3.5) de que cada una de las variables aleatorias de la distribución con múltiples variables sea menor o igual a un valor especificado. En términos de notación, una función de distribución con variables múltiples está dada por F(x1, x2, ..., xn) = P[X1 ≤ x1, X2 ≤x2, ..., Xn ≤ xn ]. Además, una función de distribución es no decreciente. En una posición con una sola variable, la función de distribución está dada por F(x) = P[X ≤ x], que da la probabilidad del evento de que la variable aleatoria X asuma un valor menor o igual a x.

Page 29: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

24

NOTA 4 Comúnmente las funciones de distribución se clasifican en funciones de distribución discreta (véase el numeral 3.22) y distribución continua (véase el numeral 3.23) pero existen otras posibilidades. Tomando nuevamente el ejemplo de la batería del numeral 3.1, una posible función de distribución es:

[ ]⎪⎪⎩

⎪⎪⎨

>−−+=<

=0)(exp19,01,0

01,0

00

)(xsix

xsi

xsi

xF

Sobre la base de esta especificación de la función de distribución, la vida de la batería es no negativa. Existe una probabilidad del 10 % de que la batería no funcione al primer intento. Si la batería funciona inicialmente, su vida tiene una distribución exponencial (véase el numeral 3.58) con una vida media de 1 h. NOTA 5 La abreviatura fda (función de distribución acumulativa) está dada para la función de distribución. 3.8 Familia de distribuciones (Family of Distributions). Conjunto de distribuciones de probabilidad (véase el numeral 3.11). NOTA 1 El conjunto de distribuciones de probabilidad con frecuencia está determinado por un parámetro (véase el numeral 3.9) de la probabilidad de distribución. NOTA 2 Con frecuencia la media (véase el numeral 3.35) y/o la varianza (véase el numeral 3.36) de la distribución de probabilidad se usan como el índice de la familia de distribuciones o como parte del índice en los casos en donde se necesitan más de dos parámetros para determinar la familia de distribuciones. En otras ocasiones, la media y la varianza no son necesariamente parámetros explícitos en la familia de distribuciones, sino más bien una función de los parámetros. 3.9 Parámetro (Parameter). Índice de una familia de distribuciones (véase el numeral 3.8). NOTA 1 El parámetro puede ser unidimensional o multidimensional. NOTA 2 Algunas veces los parámetros se designan como parámetros de posición, particularmente si el parámetro corresponde directamente a la media de la familia de distribuciones. Algunos parámetros se describen como parámetros de escala, particularmente si son exactos o proporcionales a la desviación estándar (véase el numeral 3.37) de la distribución. Los parámetros que no son de posición ni de escala se denominan generalmente parámetros de forma. 3.10 Variable aleatoria (Random Variable). Función definida en un espacio muestral (véase el numeral 3.1) en donde los valores de la función son k-uplas de números reales. EJEMPLO Continuando con el ejemplo de la batería introducido en el numeral 3.1, el espacio muestral está compuesto de eventos que se describen con palabras (la batería falla al intento inicial, la batería trabaja al comienzo, pero falla a las x horas). Estos eventos son difíciles de analizar matemáticamente, por tanto es natural asociar con cada evento el momento (dado como un número real) en el que la batería falla. Si la batería aleatoria toma el valor de 0, entonces se reconocería que este resultado corresponde a una falla inicial. Para un valor de la variable aleatoria mayor de 0 se entendería que la batería trabajó inicialmente y luego falló a su valor específico. La representación de la variable aleatoria permite responder preguntas tales como: " ¿Cuál es la probabilidad de que la batería exceda su vida garantizada, es decir, 6 h?" NOTA 1 Un ejemplo de k-upla ordenada es (x1, x2, ..., xk). En otras palabras, una k-upla ordenada es un vector en dimensiones k (ya sea un vector de fila o columna). NOTA 2 Como regla general, la variable aleatoria tiene una dimensión designada como k. Si k = 1, se dice que la variable aleatoria es unidimensional o con una sola variable. Para k > 1, se dice que la variable aleatoria es multidimensional. En la práctica, cuando la dimensión es un número dado, k, se dice que la variable aleatoria es k-dimensional.

Page 30: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

25

NOTA 3 Una variable aleatoria unidimensional es una función de valor real definida en el espacio muestral (véase el numeral 3.1) que es parte de un espacio de probabilidad (véase el numeral 3.68). NOTA 4 Una variable aleatoria con valores reales dados como pares ordenados, se dice que es bidimensional. La definición amplía el concepto de par ordenado a las k-uplas ordenadas. NOTA 5 El componente jésimo de una variable aleatoria dimensional con k dimensiones es la variable aleatoria correspondiente solamente al jésima componente de la k-upla. El componente jésima de una variable aleatoria con k dimensiones corresponde a un espacio de probabilidad en donde los eventos (véase el numeral 3.2) están determinados solamente en términos de los valores del componente considerado. 3.11 Distribución de probabilidad (Probability Distribution, Distribution). Medida de la probabilidad (véase el numeral 3.70) inducida por una variable aleatoria (véase el numeral 3.10). EJEMPLO Continuando con el ejemplo de la batería del numeral 3.1, la distribución de la vida de la batería describe completamente las probabilidades con las que ocurre el valor específico. No se conoce con certeza cuál será el momento de falla de una batería dada, y tampoco si funcionará al primer intento. La distribución de probabilidad describe completamente la naturaleza probabilística de un resultado incierto. En la Nota 4 del numeral 3.7 se incluyó una representación posible de la distribución de probabilidad, a saber, una función de distribución. NOTA 1 Existen numerosas representaciones matemáticas equivalentes de una distribución, que incluyen la función de distribución (véase el numeral 3.7), la función de densidad de probabilidad (véase el numeral 3.27), si existe, y la función característica. Con niveles variados de dificultad, estas representaciones permiten determinar la probabilidad con la cual una variable aleatoria toma valores en una región dada. NOTA 2 Ya que una variable aleatoria es una función de subconjuntos del espacio muestral al valor real, puede existir el caso, por ejemplo, donde la probabilidad de que una variable aleatoria tome un valor real es 1. Para el ejemplo de la batería, P[X ≥ 0] = 1. En muchas situaciones es mucho más fácil analizar directamente la variable aleatoria y una de sus representaciones, que interesarse en la medición de probabilidad subyacente. Sin embargo, al hacer la conversión de una representación a otra, la medida de la probabilidad asegura la coherencia. NOTA 3 Una variable aleatoria con un solo componente se denomina distribución de probabilidad unidimensional o con una sola variable. Si una variable aleatoria tiene dos componentes, se habla de una distribución de probabilidad bidimensional o con dos variables, y con más de dos componentes, la variable aleatoria tiene una distribución de probabilidad multidimensional o con múltiples variables. 3.12 Valor esperado (Expectation). Integral de una función de una variable aleatoria (véase el numeral 3.10) con respecto a una medida de probabilidad (véase el numeral 3.70) sobre el espacio muestral (véase el numeral 3.1). NOTA 1 El valor esperado de la función g de una variable aleatoria X se designa mediante E [g(X)] y se calcula como:

[ ] ∫∫Ω

==kR

xFxgPXgXgE )()()()( dd

en donde F(x) es la función de distribución correspondiente. NOTA 2 La "E" en E[g(X)] proviene del valor esperado o expectativa de la variable aleatoria X. E se puede considerar como un operador o función que representa una variable aleatoria con una línea real, de acuerdo con el cálculo anterior. NOTA 3 Se dan dos integrales para E[g(X)]. La primera concierne a la integración sobre el espacio muestral que es conceptualmente atractivo, pero no para uso práctico, por razones de dificultad al abordar estos eventos (por ejemplo, si se indican verbalmente). La segunda integral describe el cálculo sobre Rk, que es de mayor interés práctico. NOTA 4 En muchos casos de interés práctico la integral anterior se reduce a una forma reconocible de cálculo. Se presentan ejemplos en las notas del momento de orden r (véase el numeral 3.34) en donde g(x) = xr , la media (véase el numeral 3.35) en donde g(x) = x y la varianza (véase el numeral 3.36) en donde g(x) = [x - E (X)]2.

Page 31: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

26

NOTA 5 La definición no está limitada a integrales unidimensionales, como lo podrían sugerir los ejemplos y notas anteriores. Para situaciones dimensionales superiores, véase el numeral 3.43. NOTA 6 Para una variable aleatoria discreta (véase el numeral 3.28), la segunda integral de la nota 1 se reemplaza por el símbolo de sumatoria. En el numeral 3.35 se presentan ejemplos. 3.13 Cuantila-p, Fractila-p, Xp, xp.. Valor de x igual al menor de todos los x, de manera que la función de distribución (véase el numeral 3.7) F(x) es mayor o igual que p, para 0 < p < 1. EJEMPLO 1 Considere una distribución binomial (véase el numeral 3.46) con la función de masa de probabilidad dada en la Tabla 2. Este conjunto de valores corresponde a una distribución binomial con parámetros n = 6 y p = 0,3. Para este caso, algunas p-cuantilas seleccionadas son:

5

5

4

3

3

2

1

0

999,0

99,0

95,0

90,0

75,0

5,0

25,0

1,0

=

=

=

=

=

=

=

=

x

x

x

x

x

x

x

x

El carácter discreto de la distribución binomial conduce a valores integrales de las cuantilas-p.

Tabla 2. Ejemplo de distribución binomial

X P[X=x] P[X ≤ x] P[X > x] 0 0,117 649 0,117 649 0,882 351 1 0,302 526 0,420 175 0,579 825 2 0,324 135 0,744 310 0,255 690 3 0,185 220 0,929 530 0,070 470 4 0,059 535 0,989 065 0,010 935 5 0,010 206 0,999 271 0,000 729 6 0,000 729 1,000 000 0,000 000

EJEMPLO 2 Considere una distribución normal estandarizada (véase el numeral 3.51) con valores seleccionados, a partir de su función de distribución dada en la Tabla 3. Algunas cuantilas-p seleccionadas son:

Tabla 3. Ejemplo de distribución normal estandarizada

p x tal que P[X ≤ x]= p 0,1 -1,282

0,25 -0,674 0,5 0,000

0,75 0,674 0,841 344 75 1,000

0,9 1,282 0,95 1,645 0,975 1,960 0,99 2,356 0,995 2,576 0,999 3,090

Ya que la distribución de X es continua, el encabezado de la segunda columna también puede ser x, tal que P [X < x] = p.

Page 32: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

27

NOTA 1 Para las distribuciones continuas (véase el numeral 3.23), si p es 0,5, entonces la cuantila-0,5 corresponde a la mediana (véase el numeral 3.14). Para p igual a 0,25, la cuantila-0,25 se conoce como la cuartila inferior. Para distribuciones continuas, el 25 % de la distribución está por debajo de la cuantila 0,25, mientras que el 75 % está por encima de la cuantila 0,25. Para p igual a 0,75, la cuantila-0,75 se conoce como la cuartila superior. NOTA 2 En general, 100 p % de una distribución está por debajo la cuantila-p; 100(1-p) % de una distribución está por encima de la cuantila-p. Es difícil definir la mediana para las distribuciones discretas, ya que se puede argumentar que tiene múltiples valores que satisfacen la definición. NOTA 3 Si F es continua y estrictamente creciente, la p-cuantila es la solución a F(x) = p. En este caso, la palabra "infimum" en la definición puede ser reemplazada por "mínimo". NOTA 4 Si la función de distribución es constante e igual a p en un intervalo, entonces todos los valores en ese intervalo son cuantilas-p para F. NOTA 5 Las cuantilas-p se definen para las distribuciones con una variable (véase el numeral 3.16). 3.14 Mediana (Median). Cuantila-0,5 (véase el numeral 3.13). EJEMPLO Para el ejemplo de la batería de la Nota 4 en el numeral 3.7, la mediana es 0,587 8, que es la solución para x en 0,1 + 0,9 [1-exp(-x)] = 0,5 NOTA 1 La mediana es una de las cuantilas-p (véase el numeral 3.13) de aplicación más común en la práctica. La mediana de una distribución continua con una variable (véase el numeral 3.16) es tal, que la mitad de la población (véase el numeral 2.1) es mayor o igual a la mediana, y la mitad de la población es menor o igual a la mediana. NOTA 2 Las medianas se definen para distribuciones con una variable (véase el numeral 3.16). 3.15 Cuartila (Quartile). Cuantila-0,25 (véase el numeral 3.13) o cuantila-0,75. EJEMPLO Continuando con el ejemplo de la batería del numeral 3.14, se puede demostrar que la cuantila 0,25 es 0,182 3 y la cuantila 0,75 es 1,280 9. NOTA 1 La cuantila 0,25 también se conoce como la cuartila inferior mientras que la cuantila 0,75 también se conoce como la cuartila superior. NOTA 2 Las cuantilas se definen para distribuciones con una variable (véase el numeral 3.16). 3.16 Distribución de probabilidad con una variable (Univariate Probability Distribution, Univariate Distribution). Distribución de probabilidad (véase el numeral 3.11) de una sola variable aleatoria (véase el numeral 3.10). NOTA Las distribuciones de probabilidad con una variable son unidimensionales. Las distribuciones binomial (véase el numeral 3.46), Poisson (véase el numeral 3.47), normal (véase el numeral 3.50), gama (véase el numeral 3.56), t (véase el numeral 3.53), Weibull (véase el numeral 3.63) y beta (véase el numeral 3.59) son ejemplos de distribuciones de probabilidad con una variable. 3.17 Distribución de probabilidad multivariable, distribución multivariable (Multivariate Probability Distribution, Multivariate Distribution). Distribución de probabilidad (véase el numeral 3.11) de dos o más variables aleatorias (véase el numeral 3.10). NOTA 1 Para distribuciones de probabilidad con dos variables aleatorias exactamente, el calificativo "con múltiples variables" con frecuencia se reemplaza por el calificativo más restrictivo con dos variables. Como se mencionó en el prólogo, la distribución de probabilidad de una sola variable aleatoria se puede denominar explícitamente distribución unidimensional o distribución con una variable (véase el numeral 3.16). Ya que esta situación es la que predomina, es habitual suponer una situación con una variable, a menos que se indique algo diferente. NOTA 2 La distribución con múltiples variables algunas veces se denomina distribución conjunta.

Page 33: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

28

NOTA 3 La distribución multinomial (véase el numeral 3.45), la distribución normal con dos variables (véase el numeral 3.65) y la distribución normal multivariable (véase el numeral 3.64) son ejemplos de distribuciones de probabilidad multivariable (véase el numeral 3.64) de que trata la presente norma, NTC 2062-1 (ISO 3534-1). 3.18 Distribución de probabilidad marginal, distribución marginal (Marginal Probability Distribution, Marginal Distribution). Distribución de probabilidad (véase el numeral 3.11) de un subconjunto estricto y no vacío de componentes de una variable aleatoria (véase el numeral 3.10). EJEMPLO 1 Para una distribución con tres variables aleatorias X, Y y Z hay tres distribuciones marginales con dos variables aleatorias, a saber, para (X, Y), (X, Z) y (Y, Z) y tres distribuciones marginales con una sola variable aleatoria, a saber, para X, Y y Z. EJEMPLO 2 Para la distribución normal con dos variables (véase el numeral 3.65) de la pareja de variables (X, Y), la distribución de cada una de las variables X y Y consideradas separadamente son distribuciones marginales, y ambas son distribuciones normales (véase el numeral 3.50). EJEMPLO 3 Para la distribución multinomial (véase el numeral 3.45), la distribución de (X1, X2) es una distribución marginal si k > 3. Las distribuciones de X1, X2, ... Xk separadamente también son distribuciones marginales. Estas distribuciones marginales son cada una distribuciones binomiales (véase el numerales 3.46). NOTA 1 Para una distribución conjunta en dimensiones k, un ejemplo de una distribución marginal incluye la distribución de probabilidad de un subconjunto de k1 < k variables aleatorias. NOTA 2 Dada una distribución de probabilidad multivariable (véase el numeral 3.17) continuas (véase el numeral 3.23) representadas por su función de densidad de probabilidad (véase el numeral 3.26), la función de densidad de probabilidad de su distribución de probabilidad marginal se determina integrando la función de densidad de probabilidad sobre el dominio de las variables que no se consideran en la distribución marginal. NOTA 3 Dada una distribución de probabilidad con múltiples variables discretas (véase el numeral 3.22) representada por su función de masa de probabilidad (véase el numeral 3.24), la función de masa de probabilidad de su distribución de probabilidad marginal se determina sumando la función de masa de probabilidad sobre el dominio de las variables que no se consideran en la distribución marginal. 3.19 Distribución de probabilidad condicional, distribución condicional (Conditional Probability Distribution, Conditional Distribution). Distribución de probabilidad (véase el numeral 3.11) limitada a un subconjunto no vacío del espacio muestral (véase el numeral 3.1) y ajustada para tener una probabilidad total sobre el espacio muestral limitado. EJEMPLO 1 En el ejemplo de la batería del numeral 3.7, Nota 4, la distribución condicional de la vida de la batería, dada de que la batería funciona inicialmente, es exponencial (véase el numeral 3.58). EJEMPLO 2 Para la distribución normal con dos variables (véase el numeral 3.65), la distribución de probabilidad condicional de Y dado que X = x refleja el impacto sobre Y del conocimiento de X. EJEMPLO 3 Considere una variable aleatoria X que describe la distribución de los costos anuales asegurados por pérdidas en la Florida debido a eventos declarados causados por huracanes. Esta distribución tendría una probabilidad no cero de costos cero por pérdidas anuales debido a la posibilidad de que ningún huracán afecte a la Florida en un año dado. Puede tener interés la distribución condicional de los costos de pérdidas para estos años en los que un evento ocurre realmente. NOTA 1 Como ejemplo de una distribución con dos variables aleatorias X y Y, existen distribuciones condicionales para X y distribuciones condicionales para Y. Una distribución de X condicionada a través de Y = y se designa como "distribución condicional de X dada Y = Y", mientras que una distribución de Y condicionada por X = x se designa como "distribución condicional de Y dado X = x". NOTA 2 Las distribuciones de probabilidad marginal (véase el numeral 3.18) se pueden considerar como distribuciones no condicionales. NOTA 3 El Ejemplo 1 anterior ilustra la situación en que una distribución con una variable es ajustada por medio de condicionamiento para obtener otra distribución con una variable, que en este caso es una distribución diferente. En contraste, para la distribución exponencial, la distribución condicional de que una falla ocurrirá en la siguiente hora, dado que durante las 10 primeras horas no ha ocurrido ninguna falla, es exponencial con el mismo parámetro.

Page 34: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

29

NOTA 4 Algunas distribuciones condicionales pueden surgir para algunas distribuciones discretas en donde no es posible obtener resultados específicos. Por ejemplo, la distribución de Poisson puede servir como modelo para pacientes de cáncer en una población de pacientes infectados, sobre la base de que es estrictamente positiva (un paciente sin tumores por definición no está infectado). NOTA 5 Las distribuciones condicionales surgen en el contexto de limitar el espacio muestral a un subconjunto particular. Para (X, Y) que tienen una distribución normal con dos variables (véase el numeral 3.65), puede ser de interés considerar la distribución condicional de (X, Y), dado que el resultado debe ocurrir en el cuadrado de la unidad [0,1] x [0,1]. Otra posibilidad es la distribución condicional de (X, Y), dado que X2 + Y2 ≤ r. Este caso corresponde a una situación en la que, por ejemplo, una parte cumple una tolerancia y una podría estar interesada en otras propiedades, con base en la conformidad con esta tolerancia. 3.20 Curva de regresión (Regression Curve). Conjunto de valores esperados (véase el numeral 3.12) de la distribución de probabilidad condicional (véase el numeral 3.19) de una variable aleatoria (véase el numeral 3.10) Y dada una variable aleatoria X = x. NOTA Aquí, una curva de regresión se define en el contexto de (X, Y) que tiene una distribución con dos variables (véase la Nota 1 del numeral 3.17). En consecuencia, es un concepto diferente de los encontrados en el análisis de regresión en el cual Y está relacionado con un conjunto determinista de valores independientes. 3.21 Superficie de regresión (Regression Surface). Conjunto de valores esperados (véase el numeral 3.12) de la distribución de probabilidad condicional (véase el numeral 3.19) de una variable aleatoria Y (véase el numeral 3.10) dadas las variables aleatorias X1 = x1 y X2 = x2. NOTA Aquí, al igual que en el numeral 3.20, la superficie de regresión se define en el contexto de (Y, X1, X2) que tiene una distribución multivariable (véase el numeral 3.17). Al igual que con la curva de regresión, la superficie de regresión involucra un concepto diferente de los encontrados en el análisis de regresión y en la metodología de respuesta de la superficie. 3.22 Distribución de probabilidad discreta, distribución discreta (Discrete Probability Distribution, Discrete Distribution). Distribución de probabilidad (véase el numeral 3.11) para la cual el espacio muestral Ω (véase el numeral 3.1) es finito o contablemente infinito . EJEMPLO Los ejemplos de distribuciones discretas en este documento son multinomiales (véase el numeral 3.45), binomiales (véase el numeral 3.46), Poisson (véase el numeral 3.47), hipergeométricas (véase el numeral 3.48) y binomiales negativas (véase el numeral 3.49). NOTA 1 El término "discreto" implica que el mismo espacio muestral se puede dar en una lista finita o al inicio de una lista infinita en la cual la estructura es aparente, tal como un número de defectos igual a 0, 1, 2, ... Adicionalmente, la distribución binomial corresponde a un espacio muestral finito {0, 1, 2, ... n}, mientras que la distribución de Poisson corresponde a un espacio muestral infinito en forma contable {0, 1, 2, ...}. NOTA 2 Las situaciones con datos de atributos en el muestreo de aceptación involucran distribuciones discretas. NOTA 3 La función de distribución (véase el numeral 3.7) de una distribución discreta contiene valores discretos. 3.23 Distribución de probabilidad continua, distribución continua (Continuous Probability Distribution). Distribución de probabilidad (véase el numeral 3.11) para la cual la función de distribución (véase el numeral 3.7) evaluada en x se puede expresar como una integral de una función no negativa de - ∞ a x. EJEMPLO Las situaciones en las que ocurren distribuciones continuas son prácticamente cualquiera de las que involucran datos tipo variable encontrados en aplicaciones industriales. NOTA 1 Los ejemplos de las distribuciones continuas son normal (véase el numeral 3.50), normal estandarizada (véase el numeral 3.51), t (véase el numeral 3.53), F (véase el numeral 3.55), gama (véase el numeral 3.56), chi-cuadrado (véase el numeral 3.57), exponencial (3.58), beta (véase el numeral 3.59), uniforme (véase el numeral 3.60), valor extremo tipo I (véase el numeral 3.61), valor extremo tipo II (véase el numeral 3.62), valor extremo tipo III (véase el numeral 3.63), y logarítmica normal (véase el numeral 3.52).

Page 35: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

30

NOTA 2 La función no negativa a la que se hace referencia en la definición es la función de densidad de probabilidad (véase el numeral 3.26). Es demasiado restrictivo insistir en que la función de distribución sea diferenciable en todas partes. Sin embargo, para consideraciones prácticas muchas distribuciones continuas usadas comúnmente se benefician de la propiedad de que la derivada de la función de distribución proporciona la función de densidad de probabilidad correspondiente. NOTA 3 Las situaciones con datos tipo variable en las aplicaciones de muestreo de aceptación corresponden a distribuciones de probabilidad continuas. 3.24 Función de masa de probabilidad (Probability Mass Function) .<Distribución discreta> función que da la probabilidad (véase el numeral 3.5) de que una variable aleatoria (véase el numeral 3.10) sea igual a un valor dado. EJEMPLO 1 La función de masa de probabilidad que describe la variable aleatoria X igual al número de caras que resultan al lanzar tres monedas es:

8/1)3(

8/3)2(

8/3)1(

8/1)0(

========

XP

XP

XP

XP

EJEMPLO 2 Al definir las distribuciones discretas comunes (véase el numeral 3.22) encontradas en aplicaciones se dan diversas funciones de masa de probabilidad. Los ejemplos siguientes de distribuciones discretas con una variable incluyen la binomial (véase el numeral 3.4), Poisson (véase el numeral 3.47), hipergeométrica (véase el numeral 3.48) y binomial negativa (véase el numeral 3.49). Un ejemplo de una distribución discreta con múltiples variables es la multinomial (véase el numeral 3.45). NOTA 1 La función de masa de probabilidad se puede dar como P(X=x1) = pi, en donde X es la variable aleatoria, xi es un valor dado, y pi es la probabilidad correspondiente. NOTA 2 Una función de masa de probabilidad se introdujo en la cuantila-p del ejemplo 1 del numeral 3.13, usando distribución binomial (véase el numeral 3.46). 3.25 Modo de función de masa de probabilidad (Mode of Probability Mass Function). Valor(es) en donde una función de masa de probabilidad (véase el numeral 3.24) alcanza el máximo local. EJEMPLO La distribución binomial (véase el numeral 3.46) con n = 6 y p = 1/3 es unimodal, con un modo en 3. NOTA Una distribución discreta (véase el numeral 3.22) es unimodal si su función de masa de probabilidad tiene exactamente un modo, bimodal si su función de probabilidad tiene exactamente dos modos, y multimodal si su función de masa de probabilidad tiene más de dos modos. 3.26 Función de densidad de probabilidad, f(x) (Probability Density Function, f(x)). Función no negativa que cuando está integrada de -∞ a x da la función de distribución (véase el numeral 3.7) evaluada en x de una distribución continua (véase el numeral 3.23). EJEMPLO 1 Se dan diversas funciones de densidad de la probabilidad al definir las distribuciones de probabilidad comunes encontradas en la práctica. Los ejemplos siguientes incluyen las distribuciones normal (véase el numeral 3.50), normal estandarizada (véase el numeral 3.51), t (véase el numeral 3.53), F (véase el numeral 3.55), gamma (véase el numeral 3.56), chi- cuadrado (véase el numeral 3.57), exponencial (véase el numeral 3.58), beta (véase el numeral 3.59), uniforme (véase el numeral 3.60), normal multivariable (véase el numeral 3.64) y distribuciones normales con dos variables (véase el numeral 3.65). EJEMPLO 2 Para la función de distribución definida por F(x) = 3x2 - 2x3 en donde 0 ≤ x ≤ 1, la función de densidad de probabilidad correspondiente es f(x) = 6x (1 -x) en donde 0 ≤ x ≤ 1. EJEMPLO 3 Continuando con el ejemplo de la batería del numeral 3.1, no existe una función de densidad de probabilidad asociada con la función de distribución especificada, debido a la probabilidad positiva de obtener un resultado cero. Sin embargo, la distribución condicional dada de que la batería funciona inicialmente tiene f(x) = exp (-x) para x > 0 como su función de densidad de probabilidad, que corresponde a la distribución exponencial.

Page 36: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

31

NOTA 1 Si la función de distribución F es diferenciable en forma continua, entonces la función de densidad de probabilidad es:

xxFxf dd /)()( =

En los puntos x en donde existe la derivada. NOTA 2 Una representación gráfica de f(x) contra x sugiere descripciones tales como simétricas, con valor pico, con mayor ponderación en las colas, unimodal, bimodal, entre otros. Un gráfico de una f(x) ajustada sobre un histograma brinda una evaluación visual del acuerdo entre una distribución ajustada y los datos. NOTA 3 Una abreviatura común de la función de densidad de probabilidad es fdp. 3.27 Modo de función de densidad de probabilidad (Mode of Probability Density Function). Valor(es) en donde una función de densidad de probabilidad (véase el numeral 3.26) alcanza un máximo local. NOTA 1 Una distribución continua (véase el numeral numeral 3.23) es unimodal si su función de densidad de probabilidad tiene un modo exactamente, bimodal si su función de densidad de probabilidad tiene dos modos exactamente, y multimodal si su función de densidad de probabilidad tiene más de dos modos. NOTA 2 Una distribución en donde los modos constituyen un conjunto conexo se define igualmente como unimodal. 3.28 Variable aleatoria discreta (Discrete Random Variable). Variable aleatoria (véase el numeral 3.10) que tiene una distribución discreta (véase el numeral 3.22). NOTA Las variables aleatorias discretas consideradas en esta parte de la NTC 2062 (ISO 3534) incluyen las variables binomiales (véase el numerales 3.46), Poisson (véase el numeral 3.47), hipergeométricas (véase el numeral 3.48) y las aleatorias (véase el numeral 3.45). 3.29 Variable aleatoria continua (Continuous Random Variable). Variable aleatoria (véase el numeral 3.10) que tiene una distribución continua (véase el numeral 3.23) NOTA Las variables aleatorias continuas consideradas en esta parte 1 norma NTC 2062 (ISO 3534) incluyen las variables aleatorias normal (véase el numeral 3.50), normal estandarizada (véase el numeral 3.51), distribución t (véase el numeral 3.53), distribución F (véase el numeral 3.55), gama (véase el numeral 3.56, chi-cuadrado (véase el numeral 3.57), exponencial (véase el numeral 3.58), beta (véase el numeral 3.59), uniforme (véase el numeral 3.60), valor extremo Tipo I (véase el numeral 3.61), valor extremo Tipo II (véase el numeral 3.62), valor extremo Tipo III (véase el numeral 3.63), logarítmica normal (véase el numeral 3.52), normal multivariable (véase el numeral 3.64) y normal con dos variables (véase el numeral 3.65). 3.30 Distribución de probabilidad centrada (Centred Probability Distribution). Distribución de probabilidad (véase el numeral 3.11) de una variable aleatoria centrada (véase el numeral 3.31). 3.31 Variable aleatoria centrada (Centred Random Variable). Variable aleatoria (véase el numeral 3.10) en donde la media (véase el numeral 3.35) se ha restado. NOTA 1 Una variable aleatoria centrada tiene una media igual a cero. NOTA 2 Este término se aplica solamente a variables aleatorias con una media. Por ejemplo, no existe la media de la distribución t (véase el numeral 3.53) con un grado de libertad. NOTA 3 Si una variable aleatoria X tiene una media (véase el numeral 3.35) igual a µ, la variable aleatoria centrada correspondiente es X - µ, que tiene una media igual a cero. 3.32 Distribución de probabilidad normalizada (Standardized Probability Distribution). Distribución de probabilidad (véase el numeral 3.11) de una variable aleatoria normalizada (véase el numeral 3.33).

Page 37: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

32

3.33 Variable aleatoria normalizada (Standardized Random Variable). Variable aleatoria centrada (véase el numeral 3.31) cuya desviación estándar (véase el numeral 3.37) es igual a 1. NOTA 1 Una variable aleatoria (véase el numeral 3.10) se normaliza automáticamente si su media es cero y su desviación estándar es 1. La distribución uniforme (véase el numeral 3.60) en el intervalo (-30,5, 30,5) tiene cero como media y una desviación estándar igual a 1. La distribución normal estandarizada (véase el numeral 3.51) es, por supuesto, normalizada. NOTA 2 Si la distribución (véase el numeral 3.11) de la variable aleatoria X tiene una media (véase el numeral 3.35) µ y desviación estándar σ, entonces la variable aleatoria correspondiente es (X - µ) / σ. 3.34 Momento de orden r, momento r-ésimo (Moment of Order r, rth Moment). Valor esperado (véase el numeral 3.12) de la résima potencia de una variable aleatoria (véase el numeral 3.10). EJEMPLO Considere una variable aleatoria que tiene una función de densidad de probabilidad (véase el numeral 3.26) f(x) = exp(-x) para x > 0. Usando la integración por partes del cálculo elemental, se puede demostrar que E(X) = 1, E(X2) = 2, E(X3) = 6 y E(X4) = 24, ó en general, E(Xr) = r!. Este es un ejemplo de distribución exponencial (véase el numeral 3.58). NOTA 1 En el caso discreto con una variable, la fórmula apropiada es:

∑=

=n

ii

ri

r xpxXE1

)()(

Para un número finito de n resultados y

∑∞

=

=1

)()(i

iri

r xpxXE

para un número de resultados contablemente infinitos. En el caso de condiciones continuas con una variable, la fórmula apropiada es:

∫∞

∞−

= xxfxXE rr d)()(

NOTA 2 Si la variable aleatoria tiene una dimensión k, entonces se entiende que la potencia résima se aplica componente por componente. NOTA 3 Los momentos dados aquí utilizan una variable aleatoria X elevada a una potencia. Más generalmente, se pueden considerar momentos del orden r de X - µ, o (X - µ) /σ. 3.35 Medias (Means) 3.35.1 Media (Mean), µ, momento de orden r = 1, µ (Moment of Order r=1 µ) <Distribución continua> Momento de orden r, en donde r es igual a 1, calculado como la integral del producto de x y la función de densidad de probabilidad (véase el numeral 3.26), f(x), sobre la línea real. EJEMPLO 1 Considere una variable aleatoria continua (véase el numeral 3.29) X que tiene una función de densidad de probabilidad f(x) = 6x(1-x), en donde 0 ≤ x ≤ 1. La media de X es:

∫ =−1

0

2 5,0)1(6 xxx d

EJEMPLO 2 Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, la media es 0,9, ya que con una probabilidad de 0,1, la media de la parte discreta de la distribución es 0 y con probabilidad de 0,9 la media de la parte continua de la distribución es 1. Esta distribución es una mezcla de distribuciones continuas y discretas.

Page 38: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

33

NOTA 1 La media de una distribución continua (véase el numeral 3.23) se designa por E(x) y se calcula como:

∫∞

∞−

= xxxfXE d)()(

NOTA 2 La media no existe para todas las variables aleatorias (véase el numeral 3.10). Por ejemplo, si X se define por su función de densidad de probabilidad f(x) = [π(1 + x2)]-1, la integral correspondiente a E(X) es divergente. 3.35.2 Media, µ (Mean, µ). <Distribución discreta> Sumatoria del producto de xi y la función de masa de probabilidad (véase el numeral 3.24) p(xi). EJEMPLO 1 Considere una variable aleatoria discreta X (véase el numeral 3.28) que representa el número de caras resultantes cuando se lanzan 3 monedas. La función de masa de probabilidad es:

8/1)3(

8/3)2(

8/3)1(

8/1)0(

====

====

XP

XP

XP

XP

En consecuencia, la media de X es:

5,18/12)8/1(3)8/3(2)8/3(1)8/1(0 ==+++

EJEMPLO 2 Véase el ejemplo 2 del numeral 3.35.1. NOTA La media de una distribución discreta (véase el numeral 3.22) se designa por E(x) y se calcula como:

∑=

=N

iii xpxXE

1

)()(

Para un número finito de resultados, y

)()(1

ii

i xpxXE ∑∞

=

=

Para un número de resultados contablemente infinitos. 3.36 Varianza, V (Variance, V). Momento de orden r (véase el numeral 3.34) en donde r es igual a 2 en la distribución de probabilidad centrada (véase el numeral 3.30) de la variable aleatoria (véase el numeral 3.10). EJEMPLO 1 Para la variable aleatoria discreta (véase el numeral 3.28) en el ejemplo del numeral 3.24, la varianza es:

∑=

==−3

0

2 75,0)()5,1(i

ii xXPx

EJEMPLO 2 Para la variable aleatoria continua (véase el numeral 3.29) en el ejemplo 1 del numeral 3.26, la varianza es:

05,0)1(6)5,0(1

0

2 =−−∫ xxxxi d

EJEMPLO 3 Para el ejemplo de la batería del numeral 3.1, la varianza se puede determinar reconociendo que la varianza de X es E (X2) - [E(X)] 2. Del ejemplo 3 del numeral 3.35, E(X) = 0,9. Usando el mismo tipo de argumento de condicionamiento, se puede demostrar que E(X2) es 1,8. Así, la varianza de X es 1,8 - (0,9)2, que es igual a 0,99.

Page 39: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

34

NOTA La varianza se puede definir de manera equivalente como el valor esperado (véase el numeral 3.12) del cuadrado de la variable aleatoria menos su media (véase el numeral 3.35). La varianza de la variable aleatoria X se designa mediante V(X) = E{[X-E(X)]2}. 3.37 Desviación estándar, σ (Standard Desviation, σ). Raíz cuadrada positiva de la varianza (véase el numeral 3.36). EJEMPLO Para el ejemplo de la batería de los numerales 3.1 y 3.7 la desviación estándar es 0,995. 3.38 Coeficiente de variación, CV (Coefficient of Variation, CV). <Variable aleatoria positiva> desviación estándar (véase el numeral 3.37) dividida por la media (véase el numeral 3.35). EJEMPLO Para el ejemplo de la batería de los numerales 3.1 y 3.7, el coeficiente de variación es 0,99/0,995 que es igual a 0,994 97. NOTA 1 El coeficiente de variación se reporta comúnmente como un porcentaje. NOTA 2 Se prefiere el término coeficiente de variación al término usado anteriormente "desviación estándar relativa". 3.39 Coeficiente de asimetría, γ1 (Coefficient of Skewness, γ1),. Momento de orden 3 (véase el numeral 3.34) en la distribución de probabilidad normalizada (véase el numeral 3.32) de una variable aleatoria (véase el numeral 3.10). EJEMPLO Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, con una distribución combinada discreta-continua, y utilizando los resultados del ejemplo del numeral 3.34, se tiene:

6,21)24(9,0)0(1,0)(

4,5)6(9,0)0(1,0)(

8,1)2(9,0)0(1,0)(

9,0)1(9,0)0(1,0)(

4

3

22

=+=

=+=

=+=

=+=

XE

XE

XE

XE

Para calcular el coeficiente de asimetría, observe que E{[X-E(X)] 3} = E(X) 3- 3 E (X) E(X2) + 2 [E(X)]3 , y del numeral 3.37, la desviación estándar es 0,995. Entonces, el coeficiente de asimetría es [5,4 - 3(0,9)(1,8) + 2(0,9)3]/(0,995)3 ó 1,998. NOTA 1 Una definición equivalente se basa en el valor esperado (véase el numeral 3.12) de la tercera potencia de (X-µ)/σ, a saber, E[(X-µ)3 / σ3]. NOTA 2 El coeficiente de asimetría es una medida de la simetría de una distribución (véase el numeral 3.11) y algunas veces se designa como

1β . Para distribuciones simétricas, el coeficiente de asimetría es igual a 0 (siempre y cuando en la definición existan los momentos apropiados). Los ejemplos de distribuciones con asimetría igual a cero incluyen la distribución normal (véase el numeral 3.50), la distribución beta (véase el numeral 3.59) siempre y cuando α = β y la distribución t (véase el numeral 3.53), siempre que existan los momentos. 3.40 Coeficiente de curtosis, β2 (Coefficient of Curtosis, β2). Momento de orden 4 (véase el numeral 3.34) en la distribución de probabilidad normalizada (véase el numeral 3.32) de una variable aleatoria (véase el numeral 3.10). EJEMPLO Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, para calcular el coeficiente de curtosis, observe que:

[ ]{ } [ ] [ ] 422344 )(3)()(6)()(4)()( XEXEXEXEXEXEXEXE −+−=− El coeficiente de curtosis es entonces:

[ ] 442 )995,0(/)9,0(3)2()9,0(6)4,5)(9,0(46,21 −+−

Page 40: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

35

NOTA 1 Una definición equivalente se basa en el valor esperado (véase el numeral 3.12) de la cuarta potencia de (X - µ) /σ, a saber, E[(X - µ)4 / σ4]. NOTA 2 El coeficiente de curtosis es una medida de la mayor ponderación de las colas de una distribución (véase el numeral 3.11). Para la distribución uniforme (véase el numeral 3.60), el coeficiente de curtosis es 1,8; para la distribución normal (véase el numeral 3.50) el coeficiente de curtosis es 3; para la distribución exponencial (véase el numeral 3.58), el coeficiente de curtosis es 9. NOTA 3 Se debe tener precaución al considerar los valores de curtosis reportados, ya que algunos usuarios restan 3 (la curtosis de la distribución normal) del valor que se calcula de la definición. 3.41 Momento combinado de las órdenes r y s (Joint Moment of Orders r and s) Media (véase el numeral 3.35) del producto de la résima potencia de una variable aleatoria (véase el numeral 3.10) y la sésima potencia de otra variable aleatoria en su distribución de probabilidad (véase el numeral 3.11) combinada. 3.42 Momento central combinado de órdenes r y s (Joint Central Moment of Orders r and s) Media (véase el numeral 3.35) del producto de la résima potencia de una variable aleatoria centrada (véase el numeral 3.31) y la sésima potencia de otra variable aleatoria centrada en su distribución de probabilidad combinada (véase el numeral 3.11). 3.43 Covarianza, σXY (Covariance, σXY). Media (véase el numeral 3.35) del producto de dos variables aleatorias centradas (véase el numeral 3.31) en su distribución de probabilidad (véase el numeral 3.11) combinada. NOTA 1 La covarianza es el momento central combinado de las órdenes 1 y 1 (véase el numeral 3.42) para dos variables aleatorias. NOTA 2 En términos de notación, la covarianza es:

( )( )[ ]γμμ −− YXE X

en donde E(X) = µX y E(Y) = µ Y 3.44 Coeficiente de correlación (Correlation Coefficient). Media (véase el numeral 3.35) del producto de dos variables aleatorias normalizadas (véase el numeral 3.33) en su distribución de probabilidad (véase el numeral 3.11) combinada. NOTA El coeficiente de correlación algunas veces se denomina en forma más breve como correlación. Sin embargo, este uso coincide parcialmente con las interpretaciones de correlación como una asociación entre dos variables. 3.45 Distribución multinomial (Multinomial Distribution). Distribución discreta (véase el numeral 3.22) que tiene la función de masa de probabilidad (véase el numeral 3.24)

kxk

xx

k

kk

pppxxx

n

xXxXxXP

...!...!!

!

),...,(

2121

21

2211 ===

en donde x1, x2,...xk son enteros no negativos, de manera que: x1 + x2 + ...+ xk = n con parámetros pi > 0 para todos los i = 1,2..., k con p1 + p2 + ... + pk = 1 k n entero mayor o igual a 2.

Page 41: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

36

NOTA La distribución multinomial da la probabilidad del número de veces que ha ocurrido cada k resultados posibles en n pruebas independientes, en donde cada prueba tiene los mismos k eventos mutuamente exclusivos y las probabilidades de los eventos son las mismas para todas las pruebas. 3.46 Distribución binomial (Poisson Distribution) Distribución discreta (véase el numeral 3.22) que tiene la función de masa de probabilidad (véase el numeral 3.24)

xnx ppxnx

nxXp −−

−== )1(

)!(!!

)(

en donde x = 0, 1, 2, ..., n y con los parámetros determinados n = 1,2, ..., y 0 < p < 1. EJEMPLO La función de masa de probabilidad descrita en el ejemplo 1 del numeral 3.24 se puede considerar que corresponde a la distribución binomial con parámetros de índice n = 3 y p = 0,5. NOTA 1 La distribución binomial es un caso especial de la distribución multinomial (véase el numeral 3.45) con k = 2. NOTA 2 La distribución binomial da la probabilidad del número de veces que han ocurrido cada uno de los dos resultados posibles en n pruebas independientes, en donde cada prueba tiene los mismos dos eventos (véase el numeral 3.2) mutuamente exclusivos y las probabilidades (véase el numeral 3.5) de los eventos son las mismas para todas las pruebas. NOTA 3 La media (véase el numeral 3.35) de la distribución binomial es igual a np. La varianza (véase el numeral 3.36) de la distribución binomial es igual a np(1 - p). NOTA 4 La función de masa de probabilidad binomial se puede expresar igualmente utilizando el coeficiente binomial dado por:

( ))!(!

!xnx

nnx −

=

3.47 Distribución de Poisson (Poisson Distribution). Distribución discreta (véase el numeral 3.22) que tiene la función de masa de probabilidad (véase el numeral 3.24)

λλ -e!

)(x

xXPx

==

en donde x = 0, 1, 2, ... y con el parámetro λ > 0. NOTA 1 El límite de la distribución binomial (véase el numeral 3.46) cuando n se aproxima a ∞ y p tiende a cero, de manera que np tiende a λ es la distribución de Poisson con parámetro λ. NOTA 2 La media (véase el numeral 3.35) y la varianza (véase el numeral 3.36) de la distribución de Poisson son ambas iguales a λ NOTA 3 La función de masa de probabilidad (véase el numeral 3.24) de la distribución de Poisson da la probabilidad para el número de veces en que ocurre una propiedad de un proceso en un intervalo de tiempo unitario que satisface determinadas condiciones, por ejemplo, intensidad con que ocurre, independientemente del tiempo. 3.48 Distribución hipergeométrica (Hypergeometric Distribution). Distribución discreta (véase el numeral 3.22) con la misma función de masa de probabilidad (véase el numeral 3.24).

Page 42: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

37

( )( )

⎟⎟⎠

⎞⎜⎜⎝

⎛−

⎟⎟⎠

⎞⎜⎜⎝

⎛+−−−

−⎟⎟⎠

⎞⎜⎜⎝

⎛−

==

!)(!!

!)(!!)(

!)(!!

)(

nNnN

xnMNxnMN

xMxM

xXP

en donde máximo (0, M - N) ≤ x ≤ mínimo (M, n) con los parámetros enteros

Nn

NM

N

...,2,1

1...,,2,1,0

...,2,1

=−=

=

NOTA 1 La distribución hipergeométrica (véase el numeral 3.11) designa el número de elementos marcados en una muestra aleatoria simple (véase el numeral 2.7) de tamaño n, tomados sin reemplazo de una población (o lote) de tamaño N que contiene exactamente M elementos marcados. NOTA 2 La Tabla 4 permite comprender la distribución hipergeométrica.

Tabla 4. Ejemplo de distribución hipergeométrica

Conjunto de referencia Elementos marcados o no marcados

Elementos marcados Elementos no marcados

Población N M N - M Elementos incluidos en la muestra n x N - x

Elementos no incluidos en la muestra

N - n M - x N - n - M + x

NOTA 3 Bajo determinadas condiciones (por ejemplo, n es pequeño en relación con N), entonces la distribución hipergeométrica se puede aproximar por la distribución binomial con n y p = M/N. NOTA 4 La media (véase el numeral 3.35) de la distribución hipergeométrica es igual a (nM / N). La varianza (véase el numeral 3.36) de la distribución hipergeométrica es igual a

11

−−

⎟⎠⎞

⎜⎝⎛ −

NnN

NM

nM

n

3.49 Distribución binomial negativa (Negative Binomial Distribution), Distribución discreta (véase el numeral 3.22) que tiene una función de masa de probabilidad (véase el numeral 3.24).

xc pp

cxxc

xXP )1()!1(!)!1(

)( −−−+

==

en donde x = 0, 1, 2, ..., n con el parámetro c > 0 y el parámetro p que satisfacen 0 < p < 1. NOTA 1 Si c = 1, la distribución binomial negativa se conoce como la distribución geométrica y describe la probabilidad (véase el numeral 3.5) de que el primer incidente del evento (véase el numeral 3.2) cuya probabilidad es p, ocurrirá en la prueba (x + 1). NOTA 2 La función de masa de probabilidad también se puede escribir de la manera equivalente siguiente:

( ) xccx ppxXP )1()( −== −

El término "distribución binomial negativa" surge de esta manera de escribir la función de masa de probabilidad.

Page 43: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

38

NOTA 3 La versión de la función de masa de probabilidad dada en la definición se denomina a menudo "distribución de Pascal" siempre y cuando c sea un entero mayor o igual a 1. En este caso, la función de masa de probabilidad describe la probabilidad de que el incidente césimo del evento (véase el numeral 3.2), cuya probabilidad (véase el numeral 3.5) es p, ocurra en la prueba (c + x). NOTA 4 La media (véase el numeral 3.35) de la distribución binomial negativa es (cp) / (1 - p). La varianza (véase el numeral 3.36) de la distribución binomial negativa es (cp)/(1 - p)2. 3.50 Distribución normal, distribución Gaussiana (Normal Distribution, Gaussian Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

2

2

2)(

2

1)( σ

μ

πσ

=x

xf -e

en donde -∞ < x < ∞ y con los parámetros - ∞ < µ < ∞ y σ > 0. NOTA 1 La distribución normal es una de las distribuciones de probabilidad más ampliamente usadas (véase el numeral 3.11) en estadística aplicada. Debido a la forma de la función de densidad, se denomina informalmente como curva "en forma de campana". Además de servir como modelo para fenómenos aleatorios, surge como la distribución límite de los promedios (véase el numeral 2.15). Como distribución de referencia en estadística, es se ampliamente para evaluar la excepcionalidad de los resultados experimentales. NOTA 2 El parámetro de localización µ es la media (véase el numeral 3.35) y el parámetro de la escala σ es la desviación estándar (véase el numeral 3.37) de la distribución normal. 3.51 Distribución normal estandarizada, distribución Gaussiana estandarizada (Standardized Normal Distribution, Standardized Gaussian Distribution). Distribución normal (véase el numeral 3.50) con µ = 0 y σ = 1. NOTA La función de densidad de probabilidad (véase el numeral 3.26) de la distribución normal estandarizada es:

/2x- 2

eπ2

1)( =xf

en donde - ∞< x < ∞. Las tablas de la distribución normal involucran esta función de densidad de probabilidad, dando

por ejemplo, el área bajo f para los valores en (-∞, ∞). 3.52 Distribución lognormal (Lognormal Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

22 2/)(ln

2

1)( σμ

πσ−−= x

xxf e

en donde x > 0 y con los parámetros -∞ < μ < ∞ y σ > 0. NOTA 1 Si Y tiene una distribución normal (véase el numeral 3.50) con una media (véase el numeral 3.35) µ y una desviación estándar (véase el numeral 3.37) σ, entonces la transformación dada por X = exp (Y) tiene la función de densidad de probabilidad dada en la definición. Si X tiene una distribución lognormal con la función de densidad como se da en la definición, entonces ln(X) tiene una distribución normal con una media µ y una desviación estándar σ. NOTA 2 La media de la distribución lognormal es exp [µ + (σ2) / 2] y la varianza es exp(2μ + σ2) x [exp(σ2) -1]. Esto indica que la media y la varianza de la distribución lognormal son funciones de los parámetros µ y σ2.

Page 44: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

39

NOTA 3 La distribución lognormal y la distribución de Weibull (véase el numeral 3.63) se usan comúnmente en aplicaciones de confiabilidad. 3.53 Distribución t, distribución de Student (t Distribution, Student’s Distribution). Distribución continua (véase el numeral 3.23) que tiene una función de densidad de probabilidad (véase el numeral 3.26).

( )[ ] 2/)1(21

)2/(

]2/1)(

+−

⎟⎟⎠

⎞⎜⎜⎝

⎛+×

Γ

+Γ=

v

vt

vv

vtf

π

en donde -∞ < t < ∞ y con el parámetro ν con un entero positivo. NOTA 1 La distribución t se usa ampliamente en la práctica para evaluar la media de la muestra (véase el numeral 2.15) en el caso común en que la desviación estándar de la población se estima a partir de los datos. La función estadística t se puede comparar con la distribución t con n - 1 grados de libertad para evaluar una media especificada como una descripción de la media verdadera de la población. NOTA 2 La distribución t surge como la distribución del cociente de dos variables aleatorias independientes (véase el numeral 3.10), cuyo numerador tiene una distribución normal estandarizada (véase el numeral 3.51) y el denominador está distribuido como la raíz cuadrada positiva de una distribución chi-cuadrado (véase el numeral 3.57) después de dividir por sus grados de libertad. El parámetro ν se designa como los grados de libertad (véase el numeral 3.54). NOTA 3 La función gama es como se define en el numeral 3.56. 3.54 Grados de libertad, ν (Degrees of Freedom, ν). Número de términos en una suma, menos el número de limitaciones sobre los términos de la suma. NOTA Este concepto se encontró previamente en el contexto de uso de n - 1 en el denominador del estimador (véase el numeral 2.12) de la varianza de la muestra (véase el numeral 2.16). El número de grados de libertad se usa para modificar parámetros. El término grados de libertad también se usa ampliamente en la NTC 2062-3 (ISO 3534-3), en donde los cuadrados medios se dan como sumas de los cuadrados divididos por los grados de libertad apropiados. 3.55 Distribución F (F Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

( )[ ]2/)(

21

1)2/(2/

22/

121

2121

121

)()()(

)2/()2/(2/

)(vv

vv

vxv

xvv

vvvv

xf +

+ΓΓ+Γ

en donde x > 0 ν1 y ν2 son enteros positivos Γ es la función gama definida en el numeral 3.56. NOTA 1 La distribución F es una distribución de referencia útil para la evaluación de la relación de dos varianzas independientes (véase el numeral 3.36). NOTA 2 La distribución F surge como la distribución del cociente de dos variables aleatorias independientes, cada una con una distribución de chi-cuadrado (véase el numeral 3.57), dividido por sus grados de libertad (véase el numeral 3.54). El parámetro ν1 es el numerador para grados de libertad y ν2 es el denominador para grados de libertad de la distribución F. 3.56 Distribución gama (Gamma Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

Page 45: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

40

)()(

/1

αβ α

βα

Γ=

−− xexxf

en donde x > 0 y los parámetros σ > 0, β > 0 NOTA 1 La distribución gama se usa en aplicaciones de confiabilidad para modelado de tiempo de falla. Incluye la distribución exponencial (véase el numeral 3.58) como un caso especial, al igual que otros casos con tasas de falla que se incrementan con el tiempo. NOTA 2 La función gama se define por:

dxex x−∞

−∫=Γ0

1)( αα

Para valores enteros de )!1()(, −=Γ ααα NOTA 3 La media (véase el numeral 3.35) de la distribución gama es αβ. La varianza (véase el numeral 3.36) de la distribución gama es αβ2. 3.57 Distribución chi-cuadrado, distribución χ2 (Chi-Squared Distribution, χ2 Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

)2/(2)(

2/

2/12

v

xxf

v

xv

Γ=

−−e

en donde x > 0 y con ν > 0 NOTA 1 Para datos que surgen de una distribución normal (véase el numeral 3.50) con una desviación estándar conocida (véase el numeral 3.37) σ, la función estadística nS2 / σ2 tiene una distribución chi-cuadrado con n - 1 grados de libertad. Este resultado es la base para obtener intervalos de confianza de σ2. Otra área de aplicación para la distribución chi-cuadrado es como referencia para las pruebas de conveniencia a una distribución. NOTA 2 Esta distribución es un caso especial de la distribución gama (véase el numeral 3.56) con parámetros α = v/2 y β = 2. El parámetro ν se refiere a los grados de libertad (véase el numeral 3.54). NOTA 3 La media (véase el numeral 3.35) de la distribución chi-cuadrado es ν. La varianza (véase el numeral 3.36) de la distribución chi-cuadrado es 2 ν. 3.58 Distribución exponencial (Exponential Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

ββ /1)( xxf −−= e en donde x > 0 y con parámetro β > 0 NOTA 1 La distribución exponencial brinda una línea de referencia en aplicaciones de confiabilidad, correspondiente al caso de "falta de envejecimiento" o propiedad sin memoria. NOTA 2 La distribución exponencial es un caso especial de la distribución gama (véase el numeral 3.56) con α = 1 ó en forma equivalente, la distribución chi-cuadrado (véase el numeral 3.57) con ν = 2. NOTA 3 La media (véase el numeral 3.35) de la distribución exponencial es β. La varianza (véase el numeral 3.36) de

Page 46: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

41

la distribución exponencial es β2. 3.59 Distribución beta (Beta Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

11 )1()()()(

)( −− −ΓΓ+Γ

= βαβαβα

xxxf

en donde 0 ≤ x ≤ 1 y con los parámetros α, β, > 0. NOTA La distribución beta es considerablemente flexible, tiene una función de densidad de probabilidad con una variedad de formas (unimodal, en forma de "j", en forma de "u"). La distribución se puede usar como un modelo de la incertidumbre asociada con una proporción. Por ejemplo, en una aplicación de modelado de un seguro contra huracanes, la proporción esperada de daño en un tipo de estructura para una velocidad del viento dada podría ser 0,40, aunque no todas las casas que experimentan este viento sufrirán el mismo daño. Una distribución beta con una media de 0,40 puede servir para modelar la disparidad en el daño a este tipo de estructura. 3.60 Distribución uniforme, distribución rectangular (Uniform Distribution), (Rectangular Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

abxf

−=

1)(

en donde a ≤ x ≤ b NOTA 1 La distribución uniforme con a = 0 y b = 1 es la distribución subyacente para los generadores de números aleatorios típicos. NOTA 2 La media (véase el numeral 3.35) de la distribución uniforme es (a + b)/2. La varianza (véase el numeral 3.36) de la distribución uniforme es (b - a)2/12. NOTA 3 La distribución uniforme es un caso especial de la distribución beta con α = 1 y β = 1. 3.61 Distribución de valores extremos Tipo I, Distribución de Gumbel (Type I Extreme Value Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de distribución (véase el numeral 3.7).

baxexF/)(

)(−−−= e

en donde -∞ < x < ∞ con parámetros -∞ < a < ∞, b > 0 NOTA Las distribuciones de valores extremos proporcionan distribuciones de referencia apropiadas para los extremos de las funciones estadísticas de orden (véase el numeral 2.9) X(1) y X(n). Las tres distribuciones límites posibles cuando n tiende a ∞ son suministradas por los tres tipos de distribuciones de valores extremos dados en los numerales 3.61, 3.62 y 3.63. 3.62 Distribución de valores extremos Tipo II, Distribución de Fréchet (Type II Extreme Value Distribution, Fréchet Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de distribución (véase el numeral 3.7).

k

b

ax

xF

−⎟⎠

⎞⎜⎝

⎛ −−

= e)(

Page 47: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

42

en donde x > a y con parámetros -∞ < a < ∞, b > 0, k > 0 3.63 Distribución de valores extremos tipo III, Distribución de Weibull. (Type II Extreme Value Distribution, Weibull Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de distribución (véase el numeral 3.7).

k

bax

xF⎟⎠⎞

⎜⎝⎛ −

−−= e1)(

en donde x > a con parámetros -∞ < a < ∞, b > 0, k > 0 NOTA 1 Además de funcionar como una de las tres distribuciones límites posibles de las funciones estadísticas de orden extremo, la distribución de Weibull ocupa un lugar destacado en diversas aplicaciones, particularmente confiabilidad e ingeniería. Se ha demostrado que la distribución de Weibull proporciona ajustes empíricos a una variedad de conjuntos de datos. NOTA 2 El parámetro a es un parámetro de posición en el sentido de que es el valor mínimo que puede lograr la distribución de Weibull. El parámetro b es un parámetro de escala [relacionado con la desviación estándar (véase el numeral 3.37) de la distribución de Weibull]. El parámetro k es un parámetro de forma. NOTA 3 Para k = 1, se considera que la distribución Weibull incluye la distribución exponencial. Elevar una distribución exponencial con a = 0 y el parámetro b a la potencia 1/k produce la distribución Weibull de la definición. Otro caso especial es la distribución Rayleigh (para a = 0 y k = 2). 3.64 Distribución normal de múltiples variables (Multivariate Normal Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

2

)()(2/2/

1

)2()(

∑ −−−−−

∑=

μμππ

xxn

T

xf e en donde - ∞ < xi < ∞ para cada i. µ s un vector de parámetro con n dimensiones. Σ es una n x n matriz simétrica definida positiva de parámetros, y

La negrilla indica los vectores con dimensión n. NOTA Cada una de las distribuciones marginales (véase el numeral 3.18) de la distribución con múltiples variables de este numeral tiene una distribución normal. Sin embargo, hay muchas otras distribuciones con múltiples variables que tienen distribuciones marginales normales además de la versión de la distribución dada en este numeral. 3.65 Distribución normal con dos variables (Bivariate Normal Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26)

⎪⎭

⎪⎬

⎪⎩

⎪⎨

⎥⎥⎥

⎢⎢⎢

⎟⎟

⎜⎜

⎛ −+

⎟⎟

⎜⎜

⎛ −⎟⎟⎠

⎞⎜⎜⎝

⎛ −−⎟⎟

⎞⎜⎜⎝

⎛ −

−−

−=

22

222

)1(2

1exp

12

1),(

y

y

y

y

x

x

x

x

yx

yyxxyxf

σ

μ

σ

μ

σμ

ρσ

μρρσπσ

en donde

Page 48: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

43

1

0

0

,

,

,

<

>>

∞<<∞−∞<<∞−

∞<<∞−∞<<−∞

ρ

σσ

μμ

y

x

y

x

y

x

NOTA Como lo sugiere la notación, para (X, Y) que tiene la anterior función de densidad de probabilidad (véase el numeral 3.26), E(X) = µx, E(Y) = µy, V(X) = σx

2, V(Y) = σy2, y ρ es el coeficiente de correlación (véase el numeral 3.44)

entre X y Y. 3.66 Distribución normal estandarizada con dos variables (Standardized Bivariate Normal Distribution). Distribución normal con dos variables (véase el numeral 3.65) que tiene componentes de una distribución normal estandarizada (véase el numeral 3.51). 3.67 Distribución de muestreo (Sampling Distribution). Distribución de una función estadística. NOTA Las ilustraciones de las distribuciones de muestreo específicas se dan en la Nota 2 del numeral 3.53, la Nota 1 del numeral 3.55 y la Nota 1 del numeral 3.57. 3.68 Espacio de probabilidad (Probability Space) (Ω,ℵ,℘). Espacio muestral (véase el numeral 3.1), una suma algebráica de eventos (véase el numeral 3.69) asociados, y una medida de probabilidad (véase el numeral 3.70). EJEMPLO 1 Como un caso simple, el espacio muestral puede estar compuesto por todos los 105 elementos fabricados un día específico en una planta. La suma algebráica de eventos consta de todos los posibles subconjuntos. Estos eventos incluyen {ningún elemento}, {elemento 1}, {elemento 2}, ... {elemento 105}, {elemento 1 y 2}. ... {todos los 105 elementos}. Una medida de probabilidad posible se puede definir como el número de elementos en un evento, dividido por el número total de elementos fabricados. Por ejemplo, el evento {elemento 4, elemento 27, elemento 92} tiene una medida de probabilidad de 3/105. EJEMPLO 2 Como segundo ejemplo, considere la duración de las baterías. Si las baterías llegan a las manos del cliente y no tienen potencia, su tiempo de vida es 0 h. Si las baterías son funcionales, sus tiempos de supervivencia siguen alguna distribución de probabilidad (véase el numeral 3.11), tal como una exponencial (véase el numeral 3.58). El conjunto de los tiempos de vida es entonces gobernado por una distribución que es una mezcla entre discreta (la proporción de baterías que no son funcionales al inicio) y continua (un tiempo de vida real). Para simplificar el ejemplo, se supone que la duración de las baterías es relativamente corta, en comparación con el tiempo de estudio, y que todos los tiempos de vida se miden en continuo. Por supuesto, en la práctica existe la posibilidad de tiempos de vida truncados a la izquierda o a la derecha (por ejemplo, se sabe que el tiempo de falla es al menos de 5 h, o que el tiempo de falla está entre 3 h y 3,5 h), en cuyo caso surgirían ventajas adicionales de esta estructura. El espacio muestral comprende la mitad de la línea real (números reales mayores o iguales a cero). La suma algebráica de eventos incluye todos los intervalos de la forma [0,x] y el conjunto {0}. Adicionalmente, La suma algebráica incluye todas las uniones e intersecciones contables de estos conjuntos. La medida de probabilidad involucra determinar, para cada conjunto, sus componentes que representan baterías no funcionales y las que tienen un tiempo de vida positivo. En donde es apropiado, en este numeral se presentan detalles de los cálculos asociados con los tiempos de falla. 3.69 Suma algebráica de eventos, σ- algebráica, campo de suma, campo-σ. (Sigma Algebra of Events, σ-Algebra, Sigma Field, σ-Field). Conjunto de eventos (véase el numeral 3.2) con las propiedades: a) Pertenece a ℵ;

Page 49: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

44

b) Si un evento pertenece a ℵ, entonces su evento complementario (véase el numeral 3.3) también pertenece a ℵ.

c) Si {Ai} es un conjunto de eventos en ℵ, entonces la unión U∞

= 1,

iiA y la intersección

I∞

=1iiA del evento pertenece a ℵ

EJEMPLO 1 Si el espacio muestral es el conjunto de enteros, entonces se puede escoger una suma algebráica de eventos, como el conjunto de todos los subconjuntos de los enteros. EJEMPLO 2 Si el espacio muestral es el conjunto de los números reales, entonces se puede escoger una suma algebráica de eventos que incluya todos los conjuntos correspondientes a intervalos en la línea real, y todas sus uniones finitas y contables y las intersecciones de estos intervalos. Este ejemplo se puede extender a dimensiones más grandes, considerando intervalos k dimensionales. En particular, en dos dimensiones, el conjunto de intervalos puede estar compuesto de regiones definidas por {(x,y): x < s, y < t} para todos los valores de s y t. NOTA 1 Una suma algebráica es un conjunto compuesto de conjuntos de sus miembros. El conjunto de todos los posibles resultados Ω es un miembro de la suma algebráica de eventos, como se indica en la propiedad a). NOTA 2 La propiedad c) involucra las operaciones definidas sobre un conjunto de subconjuntos (posiblemente infinito en forma contable) de la suma algebráica de eventos. La notación dada indica que todas las uniones e intersecciones contables de estos conjuntos también pertenecen a la suma algebráica de eventos. NOTA 3 La propiedad c) incluye el cerramiento (los conjuntos pertenecen a una suma algebráica de eventos) bajo uniones o intersecciones finitas. El calificativo suma se usa para hacer énfasis en que A está cerrado incluso bajo operaciones infinitas en forma contable, en conjuntos. 3.70 Medida de probabilidad, ℘ (Probability Measure, ℘). Función no negativa definida en la suma algebráica de eventos (véase el numeral 3.69) tal que: a) 1)( =Ω℘ en donde Ω designa el espacio muestral (véase el numeral 3.1).

b) )()(11

iiii AA ∑∞

=

=℘=℘ U

en donde {A i} es una secuencia de eventos divididos por pares (véase el numeral 3.2). EJEMPLO Continuando con el ejemplo de la vida de las baterías del numeral 3.1, considere el evento de que la batería sobrevive menos de una hora. Este evento consta del par disjunto de eventos {no funciona} y {funciona menos de una hora pero funciona inicialmente}. En forma equivalente, los eventos se pueden designar {0} y (0,1). La medida de probabilidad de {0} es la proporción de las baterías que no funcionan en el primer intento. La medida de probabilidad del conjunto (0,1) depende de la distribución de probabilidad continua específica [por ejemplo, exponencial (véase el numeral 3.58)] que rige la distribución de fallas. NOTA 1 Una medida de probabilidad asigna un valor de [0,1] para cada evento en la suma algebráica l de eventos. El valor 0 corresponde a un evento que es imposible, mientras que el valor 1 representa certeza de que ocurre. En particular, la medida de probabilidad asignada con el conjunto es cero y la medida de probabilidad asignada al espacio muestral es 1. NOTA 2 La propiedad b) indica que si una secuencia de eventos no tiene elementos en común cuando se considera por pares, la medida de probabilidad de la unión es la suma de las medidas de probabilidad individuales. Como se indicó en la propiedad b), se aplica si el número de eventos es infinito en forma contable. NOTA 3 Los tres componentes de la probabilidad se vinculan eficazmente por medio de variables aleatorias. Las probabilidades (véase el numeral 3.5) de los eventos en el conjunto de imágenes de la variable aleatoria (véase el numeral 3.10) se deducen de las probabilidades de eventos en el espacio de la muestra. Un evento en el conjunto de imágenes de la variable aleatoria es asignado a la probabilidad del evento en el espacio muestral que se aplica a la variable aleatoria. NOTA 4 El conjunto de imágenes de la variable aleatoria es el conjunto de números reales o el conjunto de n-uplas ordenadas de números reales (observe que el conjunto de imágenes es el conjunto en el cual se aplica la variable aleatoria).

Page 50: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

45

ANEXO A (Informativo)

SÍMBOLOS

Símbolos Término en español Término en inglés Numeral

A Evento Event 3.2 AC Evento complementario Complementary event 3.3

ℵ Suma algebráica de eventos, σ-algebráica, campo de suma, Campo-σ

Sigma Algebra of Events, σ-Algebra, Sigma Field σ-Field

3.69

α Nivel de significación Significance Level 2.45 α, λ, μ, β, σ, ρ, γ,

p, N, M, c, v, a, b, k Parámetro Parameter

β2 Coeficiente de curtosis Coefficient of Kurtosis 3.40 E(Xk) Momento de muestra de orden k Sample Moment of Order k 2.14

E[g(X)] Valor esperado de la función g de una variable aleatoria X

Expectation of the Function g of a Random Variable X

3.12

F(x) Función de distribución Distribution Function 3.7 f(x) Función de densidad de probabilidad Probability Density Function 3.26 γ1 Coeficiente de asimetría Coefficient of Skewness 3.39 H Hipótesis Hypothesis 2.40 Ho Hipótesis nula Null Hypothesis 2.41

HA, H1 Hipótesis alternativa Alternative Hypothesis 2.42 k Dimensión Dimension

k, r, s Orden de un momento Order of a Moment 2.14, 3.34, 3.41, 3.42

μ Media Mean 3.35 v Grados de libertad Degrees of Freedom 3.54 n Tamaño de la muestra Sample Size Ω Espacio muestral Sample Space 3.1

(Ω, ℵ, ℘) Espacio de probabilidad Probability Space 3.68 P(A) Probabilidad de un evento A Probability of an Event A 3.5

P(A|B) Probabilidad condicional de A dado B Conditional Probability of A given B 3.6 ℘ Medida de probabilidad Probability Measure 3.70 rxy Coeficiente de correlación de la muestra Sample Correlation Coefficient 3.23 s Valor observado de una desviación

estándar de la muestra Observed Value of a Sample Standard Deviation

S Desviación estándar de la muestra Sample Standard Deviation 2.17 S2 Varianza de la muestra Sample Variance 2.16 SXY Covarianza de la muestra Sample Covariance 2.22 σ Desviación estándar Sample Deviation 3.37 σ2 Varianza Variance 3.36 σXY Covarianza Covariance 3.43 θ Error estándar Standard Error 2.24

X−σ Error estándar de la media de la muestra Standard Error of the Sample

Mean

θ Parámetro de una distribución Parameter of a Distribution

θ∧

Estimador Estimator

2.12

V(X) Varianza de una variable aleatoria X Variance of a Random Variable X 3.36 X(i) iésima función estadística de orden ith Order Statistic 2.9

x, y, z Valor observado Observed Value 2.4 X, Y, Z, T Variable aleatoria Random Variable 3.10

Xp, xp p-cuantila p-fractila

p-Quantile p-Fractile

3.13

xX, Promedio, media de la muestra Average, Sample Mean 2.15

Page 51: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

46

ANEXO B (Informativo)

DIAGRAMAS DE CONCEPTOS ESTADÍSTICOS

Población (2.1)

Muestra (2.3)

Unidad demuestreo (2.2)

Muestra aleatoria (2.6)Valor observado (2.4)

Muestra aleatoriasimple (2.7)

Estadísticade orden (2.9)

Estadísticadescriptiva (2.5)

...

Rango dela muestra (3.10)

Función dedistribución (3.7)

Estadística (2.8) Estadística deuna prueba (2.52)

Estimador (2.12)

...

Mediana dela muestra (2.13)

Estadística deorden extremo

Rango de lamuestra (2.10) Rango medio (2.11)

Figura B.1. Conceptos básicos sobre población y muestra

Page 52: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

47

Muestra aleatoria

simple (2.7)

Media dela muestra (2.15)

Coeficiente de variaciónde la muestra (2.18)

Momento de la muestrade orden k (2.14)

Desviación estandarde la muestra (2.17)

Varianza dela muestra (2.16)

Coeficiente de asimetríade la muestra (2.20)

Coeficiente de curtosisde la muestra (2.21)

Coeficiente de correlaciónde la muestra (2.23)

Variable aleatorianormalizada de

la muestra (2.19)

Covarianza dela muestra (2.22)

...

Figura B.2. Conceptos acerca de momentos de la muestra

Page 53: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

48

Error estándar

(2.24)

Estimador (2.12) Estimación (2.36)

Estimador porintervalos (2.25) Estimado (2.31) Error de

estimación (2.32)Estimador del máximode verosimilitud (2.35)

Estimación del máximode verosimilitud (2.37)

Intervalo depredicción (2.30) Sesgo (2.33) Estimador

sin sesgo (2.34)

Función deverosimilitud (2.36)Parámetro (3.9)

Intervalo estadísticode tolerancia (2.26)

Función de densidadde probabilidad (3.26)

Intervalo deconfianza (2.28)

Intervalo de confianzaunilateral (2.29)

Límite estadísticode tolerancia (2.27)

Familia dedistribuciones (3.8)

Función de masade probalidad (3.24)

Función de verosimilitudparcial (2.39)

...

... ...

...

Figura B.3. Conceptos de estimación

Page 54: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

49

Estadístico de prueba (2.52)

Prueba estadística(2.48)

Hipótesis (2.40)

Valor-p (2.49)

Hipótesis nula(2.41)

Hipótesisalternativa (2.42)

Hipótesissimple (2.43)

Hipótesiscompuesta (2.44)

Nivel designificación (2.45)

Error tipo I(2.46) Prueba estadística

(2.48)

Error tipo II(2.47)

Potencia de unaprueba (2.50)

Curva dePotencia (2.51)

Familia dedistribuciones (3.8)

Figura B.4. Conceptos acerca de pruebas estadísticas

Page 55: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

50

Estadísticadescriptiva (2.5)

Función estadísticadescriptiva (2.53)

Función estadísticadescriptiva numérica (2.54)

Valorobservado (2.4)

Frecuencia (2.59)Clase (2.55)

Límites declase (2.56)

Punto medio dela clase (2.57)

Distribución defrecuencia (2.60)

Frecuenciarelativa (2.64)

Frecuenciaacumulativa (2.63)

Frecuencia relativaacumulativa (2.65)

(Representación deuna distribución de

frecuencia)

Gráfico debarras (2.62)

Ancho dela clase (2.58)

Histograma (2.61)

...

Figura B.5. Conceptos acerca de clases y distribuciones empíricas

Page 56: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

51

(Población

finita)

(Poblacióninfinita)

(Poblaciónhipotética)

Población(2.1)

Muestra (2.3)

Valorobservado (2.4)

Variablealeatoria (3.10)

(Función estadísticainferencial)

(Predicción)Estimación (2.36)

(Modeloestadístico)

Parámetro (3.9)

Pruebaestadística (2.48)

Figura B.6. Diagrama de conceptos de inferencia estadística

Page 57: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

52

ANEXO C (Informativo)

DIAGRAMA DE CONCEPTOS DE PROBABILIDAD

Espacio de probabilidad(Ω, ℵ,℘) (3.68)

Valoresperado (3.12)

Espaciomuestral, Ω (3.61)

Eventocomplementario (3.3)

Probabilidad condicionalde A dado B (3.6)

Parámetro (3.9)

Función dedistribución (3.7)

Distribución deprobabilidad (3.11)

Mediana(3.14)

Eventoindependiente (3.4)

Evento (3.2)

Suma algebráica deeventos, ℵ (3.69)

Medida deprobabilidad, ℘ (3.70)

Probabilidad (3.6)

Familia dedistribuciones (3.8)

Variablealeatoria (3.10)

Cuartila(3.15)

Cuartila-p(3.13)

(−α, x)

...

Figura C.1. Conceptos fundamentales en probabilidad

Page 58: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

53

Distribución de

probabilidad (3.11)

Variablealeatoria

discreta (3.28)

Distribución de probalidadcentrada (3.30)

Momento centralcombinado de

ordenes r y s (3.42)

Distribución deprobabilidad

normalizada (3.32)

Coeficiente devariación (3.38)

Errorestándar (2.24)

Desviaciónestandar (3.37)

Covarianza (3.43)

Variablealeatoria (3.10)

Valoresperado (3.12)

Variablealeatoria

continua (3.29)

Momento combinadode las órdenes r y s (3.41)

Variablealeatoria

centrada (3.31)

Variable aleatorianormalizada (3.33)

Coeficiente decorrelación (3.44)

Coeficiente deasimetría (3.39)

Momento deorden r (3.34)

Media (3.35)

Varianza (3.36) Coeficiente decurtosis (3.40)

... ...

...

... ...

...

...

Figura C.2. Conceptos acerca de momentos

Page 59: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

54

Distribución de

probabilidad (3.11)

Distribución deprobabilidad con

una variable (3.16)

Distribución deprobabilidad

marginal (3.18)

Curva deregresión (3.20)

Modo de función demasa de probabilidad (3.25)

Distribuciónmultinominal

(3.45)

Distribución deprobabilidad con

múltiples variables(3.17)

Distribuciónbinominal (3.46)

Función dedensidad de

probabilidad (3.26)

Modo de función dedensidad de

probabilidad (3.27)

Distribuciónbinomial

negativa (3.49)

Distribución deprobabilidad

condicional (3.19)

Superficie deregresión (3.21)

Distribución deprobabilidad con

una variable(3.16)

Distribución deprobabilidad con

múltiplesvariables (3.17)

Función demasa de

probabilidad(3.24)

Distribución deprobabilidad

discreta (3.22)

Distribución deprobabilidad

continua (3.24)

Distribución dePoisson (3.47)

Distribuciónhipergeométrica

(3.48)

...

...

Figura C.3. Conceptos acerca de las distribuciones de probabilidad

Page 60: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

55

Distribución de

probabilidad continua (2.23)

Distribuciónlognormal

(3.52)

Distribucióngama(3.56)

Distribución devalores extremos

tipo I (3.61)

Distribución normalcon múltiples

variables (3.64)

Distribución F(3.55)

Distribuciónnormal(3.50)

Distribución t(3.53)

Distribuciónbeta

(3.59)

(Distribuciónde valoresextremos)

Distribución normalestandarizada con

dos variables (3.66)

Distribución normalcon dos variables

(3.65)DistribuciónChi-cuadrado

(3.57)

Distribuciónexponencial

(3.58)

Distribuciónuniforme

(3.60)

Grados delibertad (3.54)

Distribución normalestandarizada (3.51)

Distribución devalores extremos

tipo II (3.62)

Distribución devalores extremos

tipo III (3.63)

...

...

... ...... ...

...

Figura C.4. Conceptos acerca de distribuciones continuas

Page 61: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

56

ANEXO D (Informativo)

METODOLOGÍA USADA EN EL DESARROLLO DEL VOCABULARIO

D.1 INTRODUCCIÓN La aplicación universal de la familia de normas ISO requiere el empleo de un vocabulario coherente y armonizado que sea fácilmente comprensible por usuarios potenciales de normas de estadística aplicada. Los conceptos son interrelacionados. El análisis de estas relaciones entre conceptos dentro del campo de la estadística aplicada y su ordenamiento en diagramas de conceptos es prerrequisito para un vocabulario coherente. Este análisis se utilizó en el desarrollo de esta norma. Ya que los diagramas de conceptos empleados durante el proceso de desarrollo pueden ser útiles en un sentido informativo, se reproducen en el literal D.4. D.2 CONTENIDO DE UNA ENTRADA DE VOCABULARIO Y REGLA DE SUSTITUCIÓN El concepto forma la unidad de transferencia entre idiomas (incluidas las variantes dentro de una lengua, por ejemplo, inglés americano e inglés británico). Para cada idioma se escoge el término más apropiado para representar el concepto en esa lengua, es decir, es un enfoque no literal de la traducción. Una definición se hace describiendo únicamente aquellas características que son esenciales para identificar el concepto. La información concerniente al concepto, que es importante pero no esencial para su descripción, se coloca en una o más notas de la definición. Cuando un término se reemplaza por su definición, sujeto a cambios menores en la sintaxis, no debería haber cambio en el significado del texto. Esta sustitución es un método sencillo para verificar la exactitud de una definición. Sin embargo, en donde la definición es compleja, en el sentido de que contiene varios términos, la mejor forma de hacer la sustitución es tomar una a la vez, o máximo dos definiciones. La sustitución completa de la totalidad de los términos es difícil de lograr sintácticamente y no tendrá utilidad para transmitir significado. D.3 RELACIONES ENTRE CONCEPTOS Y SU REPRESENTACIÓN GRÁFICA D.3.1 Generalidades En el trabajo terminológico, las relaciones entre los conceptos se basan en la formación jerárquica de las características de una especie, de manera que la descripción más económica de un concepto se forma nombrando sus especies y describiendo las características que las distinguen de sus conceptos matriz o asociados. Existen tres formas principales de relaciones de conceptos indicadas en este anexo: genéricas (véase el literal D.3.2), partitivas (véase el literal D.3.3) y asociativas (véase el literal D.3.4). D.3.2 Relación genérica Los conceptos subordinados dentro de la jerarquía heredan todas las características del concepto de rango superior y contienen descripciones de estas características que las diferencian de los conceptos de rango superior e igual, por ejemplo, la relación entre la

Page 62: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

57

primavera, verano, otoño e invierno, con la estación. Las relaciones genéricas se describen mediante un esquema o diagrama de árbol sin flechas (véase la Figura D.1).

Estación

Verano OtoñoPrimavera Invierno

Figura D.1. Representación gráfica de una relación genérica D.3.3 Relaciones partitivas Conceptos subordinados dentro de la jerarquía de las partes componentes del concepto de rango superior, por ejemplo, primavera, verano, otoño e invierno se pueden definir como partes del concepto año. En comparación, es inapropiado definir un clima soleado (una posible característica del verano) como parte de un año. Las relaciones partitivas se representan mediante un esquema sin flechas (véase la Figura D.2). Las partes simples se representan mediante una línea, y las múltiples mediante dos líneas.

Año

Verano OtoñoPrimavera Invierno

Figura D.2. Representación gráfica de una relación partitiva D.3.4 Relación asociativa Las relaciones asociativas no pueden abreviar la descripción, como se presenta en las relaciones genéricas y partitivas, pero son útiles para identificar la naturaleza de la relación entre conceptos dentro de un sistema de conceptos, por ejemplo, causa y efecto, actividad y ubicación, actividad y resultado, herramienta y función, material y producto. Las relaciones asociativas se describen por flechas en dos sentidos (véase la Figura D.3).

Soleado Verano

Figura D.3. Representación gráfica de una relación asociativa

Page 63: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

58

D.4 DIAGRAMAS DE CONCEPTOS Las Figuras B.1 a B.5 muestran los diagramas de conceptos en los que se basan las definiciones del numeral 1 de esta norma. La Figura B.6 es un diagrama de conceptos adicional que indica la relación de algunos términos que aparecen previamente en las Figuras B.1 a B.5. Las Figuras C.1 a C.4 muestran los diagramas de conceptos en los que se basan las definiciones del numeral 2 de esta norma. Existen varios términos que aparecen en diagramas de conceptos múltiples que establecen un vínculo entre los diagramas. Estos términos se indican de la siguiente manera:

Figura B.1 Conceptos básicos sobre población y muestras Estadística descriptiva (véase el numeral 2.5) Muestra aleatoria simple (véase el numeral 2.7) Estimador (Véase la el numeral 2.12) Estadístico de prueba, estadístico de contraste (Véase el numeral 2.52) Variable aleatoria (véase el numeral 3.10) Función de distribución (véase el numeral 3.7)

Véase la Figura B.5 Véase la Figura B.2 Véase la Figura B.3 Véase la Figura B.4 Véase la Figura C.1, C.2 Véase la Figura C.1

Figura B.2 Conceptos acerca de momentos de la muestra (véase el numeral 2.7) Muestra aleatoria simple (véase el numeral 2.7)

Véase la Figura B.1

Figura B.3 Conceptos de estimación: Estimador (véase el numeral 2.12) Parámetro (véase el numeral 3.9) Familia de distribuciones (véase el numeral 3.8) Función de densidad de probabilidad (véase el numeral 3.26) Función de masa de probabilidad (véase el numeral 3.24)

Véase la Figura B.1 Véase la Figura C.1 Véase la Figura B.4, C.1 Véase la Figura C.3 Véase la Figura C 3

Figura B.4. Conceptos acerca de pruebas estadísticas Estadístico de prueba, estadístico de contraste (véase el numeral 2.52) Función de densidad de probabilidad (véase el numeral 3.26) Función de masa de probabilidad (véase el numeral 3.24) Familia de distribuciones (véase el numeral 3.8)

Véase la Figura B.1 Véase la Figura B.3, C.3 Véase la Figura B.3, C.3 Véase la Figura B.3, C.1

Figura B.5. Conceptos acerca de clases y distribuciones empíricas Estadística descriptiva (2.5)

Véase la Figura B.1

Figura 6. Diagrama de conceptos de inferencia estadística Población (véase el numeral 2.1) Muestra (véase el numeral 2.3) Valor observado (véase el numeral 2.4)

Véase la Figura B.1 Véase la Figura B.1 Véase la Figura B.1, B.5

Continúa

Page 64: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

59

(Final)

Figura 6. Diagrama de conceptos de inferencia estadística Estimación (véase el numeral 2.36) Prueba estadística (véase el numeral 2.48) Parámetro (véase el numeral 3.9) Variable aleatoria (véase el numeral 3.10)

Véase la Figura B.3 Véase la Figura B.4 Véase la Figura B.3, C.1 Véase la Figura B.1, C.1, C.2

Figura C.1 Conceptos fundamentales en probabilidad Variable aleatoria (véase el numeral 3.10) Distribución de probabilidad (véase el numeral 3.11) Familia de distribuciones (véase el numeral 3.8) Función de distribución (véase el numeral 3.7) Parámetro (véase el numeral 3.9)

Véase la Figura B.1, C.2

Figura C.2 Conceptos acerca de momentos Variable aleatoria (véase el numeral 3.10) Distribución de probabilidad (véase el numeral 3.11)

Véase la Figura B.1, C.1 Véase la Figura C.1, C.3

Figura C.3 Conceptos acerca de las distribuciones de probabilidad Distribución de probabilidad (véase el numeral 3.11) Función de masa de probabilidad (véase el numeral 3.24) Distribución continua (véase el numeral 3.23) Distribución con una variable (véase el numeral 3.16) Distribución con múltiples variables (véase el numeral 3.17)

Véase la Figura C.2, C.3 Véase la Figura B.3, B.4 Véase la Figura C.4 Véase la Figura C.4 Véase la Figura C.4

Figura C.4. Conceptos acerca de distribuciones continuas Distribución con una variable (véase el numeral 3.16) Distribución con múltiples variables (véase el numeral 3.17) Distribución continua (véase el numeral 3.23)

Véase la Figura C.3 Véase la Figura C.3 Véase la Figura C.3

Como Nota final a la Figura C.4, las siguientes distribuciones son ejemplos de distribuciones con una variable: normal, distribución t, distribución F, normal estandarizada, gama, beta, chi-cuadrado, exponencial, uniforme, valor extremo Tipo I, valor extremo Tipo II y valor extremo Tipo III. Las siguientes distribuciones son ejemplos de distribuciones con variables múltiples: normal con múltiples variables, normal con dos variables y normal estandarizada con dos variables. Al incluir la distribución con una variable (véase el numeral 3.16) y la distribución con múltiples variables (véase el numeral 3.17) se sobrecargaría indebidamente la figura en el diagrama de conceptos.

Page 65: NTC 2062-1

NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

60

DOCUMENTO DE REFERENCIA INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. Statistics - Vocabulary and Symbols. Part 1: General Statistic Terms and Terms Used in Probability. Genève: ISO, 2006, 103 p. (ISO 3534-1).