Intervalos característicos

 

El intervalo característico con nivel de confianza 1 - \alpha para una distribución normal N(\mu, \sigma) está dado por

 

\displaystyle \left(\mu - z_{\alpha/2} \cdot \sigma, \mu + z_{\alpha/2} \cdot \sigma\right)

 

Aquí, el nivel de confianza 1 - \alpha es la probabilidad de que un número que siga la distribución normal caiga dentro del intervalo.

 

El nivel de significación se denota como \alpha. La media de la distribución es \mu y la desviación estándar es \sigma. El valor crítico del intervalo se denota como z_{\alpha/2}.

 

La siguiente tabla resume algunos de los intervalos característicos más comunes:

 

1 - \alpha\alpha/2z_{\alpha/2}Intervalos característicos
0.900.051.645\left( \mu - 1.645 \sigma, \mu + 1.645 \sigma \right)
0.950.0251.96\left( \mu - 1.96 \sigma, \mu + 1.96 \sigma \right)
0.990.0052.575\left( \mu - 2.575 \sigma, \mu + 2.575 \sigma \right)

 

Teorema central del límite

 

Consideremos una población \Omega con media \mu, desviación estándar \sigma y tamaño de muestra n. Entonces la media \overline{X} sigue una distribución aproximadamente normal, es decir,

 

\displaystyle \overline{X} \sim N\left( \mu, \frac{\sigma}{\sqrt{n}} \right)

 

El tamaño de muestra debe ser n > 30. Si la población original \Omega sigue una distribución normal, entonces n puede tener cualquier valor.

 

Estimación de medias y proporciones

 

Estimación de la media de una población

 

Realizamos la estimación por medio de intervalos de confianza. En el caso de la media, el intervalo de confianza con significación \alpha es

 

\displaystyle \left( \overline{X} - z_{\alpha/2} \cdot \frac{S}{\sqrt{n}}, \overline{X} + z_{\alpha/2} \cdot \frac{S}{\sqrt{n}} \right)

 

donde \overline{X} es la media de la muestra, \sigma es la desviación estándar de la población, n es el tamaño de la muestra y z_{\alpha/2} es el valor crítico de la distribución normal estándar.

 

En este caso, el error de estimación es

 

\displaystyle E = z_{\alpha/2} \cdot \frac{S}{\sqrt{n}}

 

Además, si ya conocemos la significación \alpha, la desviación estándar \sigma y el error deseado E, entonces el tamaño de muestra se calcula utilizando

 

\displaystyle n = \left( \frac{z_{\alpha/2} \cdot \sigma}{E} \right)^2

 

Estimación de una proporción

 

Para el caso de la proporción, el intervalo de confianza con significación \alpha es

 

\displaystyle \left( p' - z_{\alpha/2} \cdot \sqrt{\frac{p'(1 - p')}{n}}, p' + z_{\alpha/2} \cdot \sqrt{\frac{p'(1 - p')}{n}} \right)

 

donde p' es la proporción de la muestra, z_{\alpha/2} es el valor crítico de la distribución normal y n es el tamaño de muestra.

 

Aquí, el error máximo de estimación es

 

\displaystyle E = z_{\alpha/2} \cdot \sqrt{\frac{p'(1 - p')}{n}}

 

Con las proporciones es común escribir q = 1 - p, donde p es la probabilidad de éxito y q es la probabilidad de fracaso (de que un individuo de la población tenga una propiedad dada).

 

Estimación de la desviación estándar

 

En el caso de la desviación estándar \sigma, se calcula el intervalo de confianza de la varianza \sigma^2, que está dado por

 

\displaystyle \left( \frac{(n - 1)S^2}{\chi_{\alpha/2, n-1}^2}, \frac{(n - 1)S^2}{\chi_{1 - \alpha/2, n-1}^2} \right)

 

donde n es el tamaño de muestra, S^2 es la varianza de la muestra y se calcula utilizando

 

\displaystyle S^2 = \frac{\sum_{i = 1}^{n}{(x_i - \overline{X})^2}}{n-1}

 

donde \overline{X} es la media de la muestra. Por último, \chi_{\alpha/2, n-1}^2 y \chi_{1 - \alpha/2, n-1}^2 son los valores críticos de una distribución \chi^2; estos valores se calculan un programa de computadora o se obtiene de una tabla chi.

 

Pruebas de hipótesis

 

El procedimiento para hacer una prueba de hipótesis para el parámetro r de una población es el siguiente:

 

1 Se enuncia la hipótesis nula H_0 y la hipótesis alternativa H_1. Donde la hipótesis nula hace algún supuesto sobre el valor de r y H_1 es el supuesto contrario. La siguiente tabla resume las posibles pruebas de hipótesis:

 

BilateralH_0: r = r_0H_A: r \neq r_0
UnilateralH_0: r \geq r_0H_A: r < r_0
H_0: r \leq r_0H_A: r > r_0

 

2 Determinar el nivel de significación \alpha y a partir de ahí obtener los valores críticos z_{\alpha/2} (para el caso bilateral) o z_{\alpha} (para el caso unilateral).

 

3 Determinar la zona de aceptación del parámetro muestral.

 

4 Calcular el valor del parámetro muestral \hat{r}.

 

5 Obtener la conclusión. Si el valor del parámetro muestral está dentro de la zona de aceptación, entonces aceptamos la hipótesis nula con un nivel de significación \alpha. En caso contrario, rechazamos la hipótesis nula.

 

Contraste bilateral

 

Cuando tenemos un contraste bilateral, si estamos probando una hipótesis para la media \mu de la población, es decir,

 

\displaystyle H_0: \mu = \mu_0, \qquad H_A: \mu \neq \mu_0

 

entonces la región de aceptación es

 

\displaystyle \left( \mu_0 - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}, \mu_0 + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}  \right)

 

Por otro lado, si la prueba de hipótesis es para la proporción p,

 

\displaystyle H_0: p = p_0, \qquad H_A: p \neq p_0

 

entonces la región de aceptación es

 

\displaystyle \left( p_0 - z_{\alpha/2} \cdot \sqrt{\frac{p_0(1 - p_0)}{n}}, p_0 + z_{\alpha/2} \cdot \sqrt{\frac{p_0(1 - p_0)}{n}}  \right)

 

donde \sigma es la desviación estándar de la población, n es el tamaño de la muestra y z_{\alpha/2} es el valor crítico de la distribución.

 

Contraste unilateral mayor o igual que

 

Cuando tenemos un contraste unilateral del tipo "mayor o igual que", si estamos probando una hipótesis para la media \mu de la población, es decir,

 

\displaystyle H_0: \mu \geq \mu_0, \qquad H_A: \mu < \mu_0

 

entonces la región de aceptación es

 

\displaystyle \left( \mu_0 - z_{\alpha} \cdot \frac{\sigma}{\sqrt{n}}, \infty  \right)

 

Por otro lado, si la prueba de hipótesis es para la proporción p,

 

\displaystyle H_0: p \geq p_0, \qquad H_A: p < p_0

 

entonces la región de aceptación es

 

\displaystyle \left( p_0 - z_{\alpha} \cdot \sqrt{\frac{p_0(1 - p_0)}{n}}, \infty  \right)

 

donde \sigma es la desviación estándar de la población, n es el tamaño de la muestra y z_{\alpha} es el valor crítico de la distribución.

 

Contraste unilateral menos o igual que

 

Cuando tenemos un contraste unilateral del tipo "menor o igual que", si estamos probando una hipótesis para la media \mu de la población, es decir,

 

\displaystyle H_0: \mu \leq \mu_0, \qquad H_A: \mu > \mu_0

 

entonces la región de aceptación es

 

\displaystyle \left( -\infty , \mu_0 + z_{\alpha} \cdot \frac{\sigma}{\sqrt{n}}  \right)

 

Por otro lado, si la prueba de hipótesis es para la proporción p,

 

\displaystyle H_0: p \leq p_0, \qquad H_A: p > p_0

 

entonces la región de aceptación es

 

\displaystyle \left( -\infty , p_0 + z_{\alpha} \cdot \sqrt{\frac{p_0(1 - p_0)}{n}}  \right)

 

donde, de nuevo, \sigma es la desviación estándar de la población, n es el tamaño de la muestra y z_{\alpha} es el valor crítico de la distribución.

 

La siguiente tabla resume los valores críticos z_{\alpha} para distintos valores de \alpha que se utilizan para las pruebas unilaterales:

 

1 - \alpha\alphaz_{\alpha}
0.900.101.28
0.950.051.645
0.990.012.33

 

Errores

 

Recordemos que existen dos tipos de errores: el error tipo I que ocurre cuando rechazamos la hipótesis nula siendo verdadera, y el error tipo II que ocurre cuando aceptamos la hipótesis nula siendo falsa.

 

La siguiente tabla resume los tipos de errores:

 

H_0VerdaderaFalsa
AceptarDecisión correcta
Probabilidad de 1 - \alpha
Decisión incorrecta:
Error tipo II
RechazarDecisión incorrecta
Error tipo I
Probabilidad de \alpha
Decisión correcta

 

¿Necesitas un/a profe de Matemáticas?

¿Te ha gustado el artículo?

¿Ninguna información? ¿En serio?Ok, intentaremos hacerlo mejor la próxima vezAprobado por los pelos. ¿Puedes hacerlo mejor?Gracias. Haznos cualquier pregunta en los comentar¡Un placer poder ayudarte! :) 5,00/5 - 3 voto(s)
Cargando…

Marta

➗ Licenciada en Químicas da clase de Matemáticas, Física y Química -> Comparto aquí mi pasión por las matemáticas ➗