12  Pruebas con hipótesis simples

12.1 Hipótesis simples

Ejemplo 12.1 Supongamos que tenemos un sistema en el que se registran los tiempos de servicio de los clientes, \(X_1,\dots, X_n\). El administrador del sistema no está seguro de la distribución con la que se atienden a los clientes. Se consideran dos posibilidades:

La primera distribución, denotada \(f_1(x)\), es dada por:

\[f_1(x) = \begin{cases}\dfrac{2(n!)}{(2+\sum_{i=1}^{n} X_i)^{n+1}} & X_i>0\\0 & \text{en otro caso}\end{cases}\]

La segunda distribución es una distribución exponencial con parámetro \(1/2\), denotada \(f_0(x)\):

\[f_0(x)=\begin{cases}\dfrac 1{2^n}e^{-\frac12\sum_{i=1}^{n} X_i} & X_i>0\\0 & \text{en otro caso}\end{cases}\]

Se quiere verificar cuál de las dos hipótesis es verdadera: \(H_0: f=f_0\) vs \(H_1:f=f_1\). Podemos visualizar estas distribuciones utilizando R:

n <- 1
x <- seq(0, 10, length.out = 1000)

f1 <- 2 / (2 + x)^2

f0 <- 1 / 2 * exp(-1 / 2 * x)

df <- data.frame(
  x = c(x, x),
  f = c(f0, f1),
  dist = c(rep("f_0", 1000), rep("f_1", 1000))
)

ggplot(df, aes(x, f, color = dist)) +
  geom_line(linewidth = 2) +
  cowplot::theme_cowplot()

En el caso anterior, teniamos dos distribuciones, pero alternativamente, podemos definir el problema de prueba de hipótesis en términos de un parámetro desconocido \(\theta\). Supongamos que \(\theta\) puede tomar dos posibles valores, \(\theta_0\) y \(\theta_1\), que corresponden a las distribuciones \(f_0\) y \(f_1\) respectivamente. Entonces estamos probando \(H_0: \theta=\theta_0\) vs \(H_1:\theta=\theta_1\).

Al realizar la prueba de hipótesis, estamos interesados en dos tipos de errores:

  • El error de tipo I, denotado \(\alpha(\delta)\), es la probabilidad de rechazar la hipótesis nula cuando en realidad es cierta. Es decir, \(\alpha(\delta) = \mathbb P[\text{Rechazo }H_0|\theta=\theta_0 ]\).

  • El error de tipo II, denotado \(\beta(\delta)\), es la probabilidad de no rechazar la hipótesis nula cuando en realidad es falsa. Es decir, \(\beta(\delta) = \mathbb P[\text{No rechazo }H_0|\theta=\theta_1 ]\).

Siguiendo con el ejemplo anterior, supongamos que, después de un análisis preliminar, decidimos rechazar la hipótesis nula si \(X_1 > 4\) (cuando solo observamos un cliente, es decir, \(n=1\)). Entonces, las probabilidades de los errores de tipo I y II son:

\[\begin{align*} \alpha(\delta) &= \mathbb P[X_1>4|\theta=\theta_0] = 1-(1-e^{-0.5\cdot 4}) = 0.135 \\ \beta(\delta) &= \mathbb P[X_1<4|\theta=\theta_1] = \int_{0}^{4} \dfrac{2}{(2+x_1)^2} dx_1 = 0.667. \end{align*}\]

Tip

Para densidades no usuales, hay dos formas de calcular los valores

  • Teóricamente calculando la integral directamente con lapiz y papel o algún sistema de cálculo simbólico.
  • Si la integral es muy díficil y solo se necesita una aproximación númerica se puede usar integrate:
  densidad_f1 <- function(x) {
    2 / (x + 2)^2
  }
  integrate(densidad_f1, lower = 0, upper = 4)
0.6666667 with absolute error < 2.9e-12

La integral de \(f_1\) debe ser estimada numéricamente ya que no hay una fórmula predefinida en R.

Nota

Nuestro objetivo es encontrar un procedimiento de prueba, \(\delta\), que minimice simultáneamente los errores de tipo I y II, \(\alpha(\delta)\) y \(\beta(\delta)\) respectivamente. En otras palabras, queremos minimizar la cantidad \(a\alpha(\delta) + b\beta(\delta)\), donde \(a\) y \(b\) son constantes positivas.

Teorema 12.1 Supongamos que existe un procedimiento de prueba, \(\delta^*\), que rechaza \(H_0:\theta=\theta_0\) si \(af_0(x) < bf_1(x)\), y no rechaza \(H_0\) si \(af_0(x) > bf_1(x)\). Si \(af_0(x) = bf_1(x)\), puede rechazarse o no \(H_0\). Para cualquier otro procedimiento de prueba, \(\delta\), tenemos que

\[a\alpha(\delta^*) + b\beta(\delta^*) \leq a\alpha(\delta) + b\beta(\delta).\]

Caso discreto solamente.

Sea \(S_1\) región crítica de \(\delta\) (procedimiento arbitrario).

\[\begin{align*} a\alpha(\delta) + b\beta(\delta) & = a\sum_{x\in S_1}f_0(x) + b\sum_{x\in S_1^c}f_1(x) \\ & = a\sum_{x\in S_1}f_0(x) + b\bigg[1-\sum_{x\in S_1}f_1(x)\bigg]\\ & = b + \sum_{x\in S_1}(af_0-bf_1(x)) \end{align*}\]

y lo anterior es mínimo si \(af_0(x)-bf_1(x)<0\) en toda la muestra y no hay punto en donde \(af_0(x)-bf_1(x)>0\).

Definición 12.1 Definimos el Cociente de Verosimilitud como el cociente entre las densidades de las dos hipótesis:

\[\dfrac{f_1(x)}{f_0(x)}.\]

Este cociente de verosimilitud está relacionado con el procedimiento de prueba óptimo que hemos discutido anteriormente. Este tiene la forma:

\[\Lambda(x) = \dfrac{f_0(x)}{\max\{f_0(x),f_1(x)\}} = \dfrac{\sup_{\Omega_0}f(x|\theta)}{\sup_{\Omega}f(x|\theta)}.\]

Corolario 12.1 Bajo las condiciones del teorema anterior, si \(a,b>0\) entonces la prueba \(\delta\) que minimiza \(a\alpha(\delta) + b\beta(\delta)\) rechaza \(H_0\) si el cociente de verosimilitud es mayor a \(\dfrac ab\).

Volviendo al ejemplo del servicio al cliente, en lugar de rechazar \(H_0: \theta = \theta_0\) si \(X_1>4\), queremos encontrar \(a\) y \(b\) que balanceen ambos tipos de errores.

Supongamos que tomamos \(a=b\), entonces, basado en el corolario anterior, rechazamos \(H_0\) si

\[\dfrac{f_1(x)}{f_0(x)}>1\Leftrightarrow \dfrac 4{(2+X_1)^2}\exp\left(\dfrac{X_1}2\right)>1.\]

Podemos ilustrar este concepto con un gráfico:

Ejemplo: Continuando con el ejemplo del servicio al cliente.

En lugar de rechazar \(H_0: \theta = \theta_0\) si \(X_1>4\) hay que encontrar \(a\) y \(b\) que puedan balancear ambos tipos de errores.

Supogamos que tomamos \(a=b\), entonces basado en el colorario anterior rechace \(H_0\) si

\[\dfrac{f_1(x)}{f_0(x)}>1\Leftrightarrow \dfrac 4{(2+X_1)^2}\exp\left(\dfrac{X_1}2\right)>1 \tag{12.1}\]

De acuerdo con el gráfico, la desigualdad es cierta si \(X_1>c\). Podemos calcular numéricamente que \(c\approx5.03\).

Por lo tanto, rechazamos \(H_0\) si \(X_1>5.03\). FInalmente los errores de tipo I y II son:

\(\alpha(\delta^{*})\)

1 - pexp(q = 5.03, rate = 1 / 2)
[1] 0.08086291

y \(\beta(\delta^*)\)

densidad_f1 <- function(x) {
  2 / (x + 2)^2
}

integrate(densidad_f1, lower = 0, upper = 5.03)
0.715505 with absolute error < 1.3e-10

12.2 Criterio de Neyman-Pearson

Retomemos de nuevo las definiciones de los errores de tipo I y II:

Definición 12.2  

  1. Definimos \(\alpha(\delta)\) como la probabilidad de un error de Tipo I (falso positivo), es decir, rechazar la hipótesis nula \(H_0\) cuando es verdadera. Deseamos que \(\alpha(\delta)\) sea menor o igual a un nivel de significancia \(\alpha_0\) preestablecido.

  2. \(\beta(\delta)\) es la probabilidad de un error de Tipo II (falso negativo), es decir, no rechazar la hipótesis nula \(H_0\) cuando es falsa. Queremos minimizar \(\beta(\delta)\).

Lema 12.1 Supongamos que tenemos un procedimiento de prueba, \(\delta'\), que no rechaza \(H_0\) si \(f_1(x)<kf_0(x)\) y rechaza \(H_0\) si \(f_1(x)>kf_0(x)\). En el caso de que \(f_1(x)=kf_0(x)\), podemos decidir rechazar o no \(H_0\).

Si tenemos otro procedimiento de prueba, \(\delta\), que tiene un error de Tipo I no mayor que \(\delta'\) (\(\alpha(\delta)\leq \alpha(\delta')\)), entonces el error de Tipo II de \(\delta\) será mayor o igual que el error de Tipo II de \(\delta'\) (\(\beta(\delta)\geq \beta(\delta')\)).

Tome \(a=k\) y \(b=1\) en el corolario y teoremas anteriores. Como \[k\alpha(\delta')+\beta(\delta')\leq k\alpha(\delta)+\beta(\delta),\] entonces \(\alpha(\delta)\leq \alpha(\delta')\) implica que \(\beta(\delta)\geq \beta(\delta')\).

Observación. La consecuencia directa de este lema es que, si queremos encontrar una prueba que cumpla el criterio de Neyman-Pearson, necesitamos encontrar un valor de \(k\) que haga que \(\alpha(\delta') = \alpha_0\), y se rechace \(H_0\) si \(f_1(x)>kf_0(x) \Leftrightarrow\dfrac{f_0(x)}{f_1(x)}<k^{-1}\).

Tip

Lo que dice el Lemma de Neymann-Pearson es que \(\frac{f_{1}(x)}{f_0(x)}\) sería la mejor prueba que se pueden encontrar para hipotesis simples.

Ejemplo 12.2 Consideremos el ejemplo donde tenemos una muestra \(X_1,\dots,X_n\) de una distribución normal con media desconocida \(\theta\) y varianza conocida 1. Queremos probar la hipótesis nula \(H_0: \theta = 0\) contra la hipótesis alternativa \(H_1: \theta = 1\) con un nivel de significancia de \(\alpha = 0.05\).

Las funciones de densidad bajo las hipótesis \(H_0\) y \(H_1\) son, respectivamente: \[\begin{align*} f_0(x) &= (2\pi)^{-n/2}\exp\left[-\dfrac 12 \sum_{i=1}^{n} X_i^2\right]\\ f_1(x) &= (2\pi)^{-n/2}\exp\left[-\dfrac 12 \sum_{i=1}^{n} (X_i-1)^2\right]. \end{align*}\].

Entonces, el cociente de verosimilitud es

\[\begin{align*} \dfrac{f_1(x)}{f_0(x)} &= \exp\bigg[-\dfrac 12 \sum_{i=1}^{n} (X_i^2-2X_i+1-X_1^2)\bigg]\\ &= \exp\bigg[n\bar X_n - \dfrac n2\bigg] \\ &= \exp\bigg[n\left(\bar X_n - \dfrac 12\right)\bigg] \end{align*}\]

Rechazamos \(H_0\) si este cociente es mayor que \(k\), es decir, si

\[\bar X_n > \dfrac 12 + \dfrac{\ln k}{n}.\]

Buscamos el valor que haga que \(\mathbb P\left[\bar X_n>k'|\theta = 0\right]=0.05\), donde \(k'=\dfrac 12 + \dfrac{\ln k}{n}\).

Entonces buscamos \(k'\) tal que

\[\begin{align*} & \mathbb P[\bar X_n>k'|\theta = 0]=0.05\\ & \mathbb P\bigg[\dfrac{\bar X_n}{1/\sqrt n}>\dfrac{k'}{1/\sqrt n}\bigg|\theta = 0\bigg]=0.05 \end{align*}\]

Resolviendo para \(k'\), obtenemos

\[k'=\dfrac{z_{0.95}}{\sqrt n}.\]

Por lo tanto, entre todas las pruebas donde \(\alpha(\delta)\leq 0.05\), la que tiene el error de Tipo II más pequeño es la que rechaza \(H_0\) si

\[\bar X_n > \dfrac{1.645}{\sqrt n}.\]

El error de Tipo II para esta prueba sería

\[\beta(\delta') = \mathbb P[\bar X_n<1.645\ n^{-1/2}|\theta = 1] = \Phi(1.645-n^{1/2}).\]

Por ejemplo, si \(n=9\), entonces \(\beta(\delta') = \Phi(1.645-3) =0.0877.\)

Ejemplo 12.3 Supongamos que tenemos una muestra \(X_1,\dots,X_n\) de una distribución Bernoulli con probabilidad desconocida \(p\). Queremos probar la hipótesis nula \(H_0: p = 0.2\) contra la hipótesis alternativa \(H_1: p = 0.4\) con un nivel de significancia de \(\alpha = 0.05\).

Vamos a usar \(y\) para representar la suma de la muestra: \(y = \sum_{i=1}^{n} X_i\).

Las funciones de masa de probabilidad bajo las hipótesis \(H_0\) y \(H_1\) son:

  • Bajo \(H_0\): \(f_0(x) = 0.2^y0.8^{n-y}\).
  • Bajo \(H_1\): \(f_1(x) = 0.4^y0.6^{n-y}\).

El cociente de verosimilitud es

\[\dfrac{f_1(x)}{f_0(x)}=\left(\dfrac 34\right)^n\left(\dfrac 83\right)^y.\]

Según el criterio de Neyman-Pearson, rechazamos \(H_0\) si este cociente es mayor que un cierto valor \(k\). Esto es equivalente a

\[-n\ln \left(\dfrac 43 \right) + y \ln \left(\dfrac 83 \right)>\ln k,\]

o, resolviendo para \(y\),

\[y>\dfrac{\ln k + n\ln(4/3)}{\ln (8/3)} = k'.\]

Para encontrar \(k'\), queremos que la probabilidad de obtener un valor de \(Y\) mayor que \(k'\), bajo \(H_0\), sea \(0.05\):

\[\mathbb P(Y>k'|p = 0.2) = 0.05.\]

Pero debido a que \(Y\) sigue una distribución binomial (es discreta), no es posible encontrar un valor exacto para \(k'\). Sin embargo, podemos observar que

\[\mathbb P(Y>4|p=0.2) = 0.0328\] \[\mathbb P(Y>3|p=0.2) = 0.1209.\]

Por lo tanto, se puede especificar una prueba con nivel cercano a 0.05, específicamente \(\alpha(\delta) = 0.0328\), y potencia mínima si elegimos \(Y>4\) como región de rechazo.