Ejemplo 11.1 Supongamos que tenemos un sistema en el que se registran los tiempos de servicio de los clientes, \(X_1,\dots, X_n\). El administrador del sistema no está seguro de la distribución con la que se atienden a los clientes. Se consideran dos posibilidades:
La primera distribución, denotada \(f_1(x)\), es dada por:
\[f_1(x) = \begin{cases}\dfrac{2(n!)}{(2+\sum_{i=1}^{n} X_i)^{n+1}} & X_i>0\\0 & \text{en otro caso}\end{cases}\]
La segunda distribución es una distribución exponencial con parámetro \(1/2\), denotada \(f_0(x)\):
\[f_0(x)=\begin{cases}\dfrac 1{2^n}e^{-\frac12\sum_{i=1}^{n} X_i} & X_i>0\\0 & \text{en otro caso}\end{cases}\]
Se quiere verificar cuál de las dos hipótesis es verdadera: \(H_0: f=f_0\) vs \(H_1:f=f_1\). Podemos visualizar estas distribuciones utilizando R:
En el caso anterior, teniamos dos distribuciones, pero alternativamente, podemos definir el problema de prueba de hipótesis en términos de un parámetro desconocido \(\theta\). Supongamos que \(\theta\) puede tomar dos posibles valores, \(\theta_0\) y \(\theta_1\), que corresponden a las distribuciones \(f_0\) y \(f_1\) respectivamente. Entonces estamos probando \(H_0: \theta=\theta_0\) vs \(H_1:\theta=\theta_1\).
Al realizar la prueba de hipótesis, estamos interesados en dos tipos de errores:
El error de tipo I, denotado \(\alpha(\delta)\), es la probabilidad de rechazar la hipótesis nula cuando en realidad es cierta. Es decir, \(\alpha(\delta) = \mathbb P[\text{Rechazo }H_0|\theta=\theta_0 ]\).
El error de tipo II, denotado \(\beta(\delta)\), es la probabilidad de no rechazar la hipótesis nula cuando en realidad es falsa. Es decir, \(\beta(\delta) = \mathbb P[\text{No rechazo }H_0|\theta=\theta_1 ]\).
Siguiendo con el ejemplo anterior, supongamos que, después de un análisis preliminar, decidimos rechazar la hipótesis nula si \(X_1 > 4\) (cuando solo observamos un cliente, es decir, \(n=1\)). Entonces, las probabilidades de los errores de tipo I y II son:
La integral de \(f_1\) debe ser estimada numéricamente ya que no hay una fórmula predefinida en R.
Nota
Nuestro objetivo es encontrar un procedimiento de prueba, \(\delta\), que minimice simultáneamente los errores de tipo I y II, \(\alpha(\delta)\) y \(\beta(\delta)\) respectivamente. En otras palabras, queremos minimizar la cantidad \(a\alpha(\delta) + b\beta(\delta)\), donde \(a\) y \(b\) son constantes positivas.
Teorema 11.1 Supongamos que existe un procedimiento de prueba, \(\delta^*\), que rechaza \(H_0:\theta=\theta_0\) si \(af_0(x) < bf_1(x)\), y no rechaza \(H_0\) si \(af_0(x) > bf_1(x)\). Si \(af_0(x) = bf_1(x)\), puede rechazarse o no \(H_0\). Para cualquier otro procedimiento de prueba, \(\delta\), tenemos que
Corolario 11.1 Bajo las condiciones del teorema anterior, si \(a,b>0\) entonces la prueba \(\delta\) que minimiza \(a\alpha(\delta) + b\beta(\delta)\) rechaza \(H_0\) si el cociente de verosimilitud es mayor a \(\dfrac ab\).
Volviendo al ejemplo del servicio al cliente, en lugar de rechazar \(H_0: \theta = \theta_0\) si \(X_1>4\), queremos encontrar \(a\) y \(b\) que balanceen ambos tipos de errores.
Supongamos que tomamos \(a=b\), entonces, basado en el corolario anterior, rechazamos \(H_0\) si
Retomemos de nuevo las definiciones de los errores de tipo I y II:
Definición 11.2
Definimos \(\alpha(\delta)\) como la probabilidad de un error de Tipo I (falso positivo), es decir, rechazar la hipótesis nula \(H_0\) cuando es verdadera. Deseamos que \(\alpha(\delta)\) sea menor o igual a un nivel de significancia \(\alpha_0\) preestablecido.
\(\beta(\delta)\) es la probabilidad de un error de Tipo II (falso negativo), es decir, no rechazar la hipótesis nula \(H_0\) cuando es falsa. Queremos minimizar \(\beta(\delta)\).
Lema 11.1 Supongamos que tenemos un procedimiento de prueba, \(\delta'\), que no rechaza \(H_0\) si \(f_1(x)<kf_0(x)\) y rechaza \(H_0\) si \(f_1(x)>kf_0(x)\). En el caso de que \(f_1(x)=kf_0(x)\), podemos decidir rechazar o no \(H_0\).
Si tenemos otro procedimiento de prueba, \(\delta\), que tiene un error de Tipo I no mayor que \(\delta'\) (\(\alpha(\delta)\leq \alpha(\delta')\)), entonces el error de Tipo II de \(\delta\) será mayor o igual que el error de Tipo II de \(\delta'\) (\(\beta(\delta)\geq \beta(\delta')\)).
Prueba
Tome \(a=k\) y \(b=1\) en el corolario y teoremas anteriores. Como \[k\alpha(\delta')+\beta(\delta')\leq k\alpha(\delta)+\beta(\delta),\] entonces \(\alpha(\delta)\leq \alpha(\delta')\) implica que \(\beta(\delta)\geq \beta(\delta')\).
Observación. La consecuencia directa de este lema es que, si queremos encontrar una prueba que cumpla el criterio de Neyman-Pearson, necesitamos encontrar un valor de \(k\) que haga que \(\alpha(\delta') =
\alpha_0\), y se rechace \(H_0\) si \(f_1(x)>kf_0(x)
\Leftrightarrow\dfrac{f_0(x)}{f_1(x)}<k^{-1}\).
Tip
Lo que dice el Lemma de Neymann-Pearson es que \(\frac{f_{1}(x)}{f_0(x)}\) sería la mejor prueba que se pueden encontrar para hipotesis simples.
Ejemplo 11.2 Consideremos el ejemplo donde tenemos una muestra \(X_1,\dots,X_n\) de una distribución normal con media desconocida \(\theta\) y varianza conocida 1. Queremos probar la hipótesis nula \(H_0: \theta = 0\) contra la hipótesis alternativa \(H_1: \theta = 1\) con un nivel de significancia de \(\alpha = 0.05\).
Las funciones de densidad bajo las hipótesis \(H_0\) y \(H_1\) son, respectivamente: \[\begin{align*}
f_0(x) &= (2\pi)^{-n/2}\exp\left[-\dfrac 12 \sum_{i=1}^{n} X_i^2\right]\\
f_1(x) &= (2\pi)^{-n/2}\exp\left[-\dfrac 12 \sum_{i=1}^{n} (X_i-1)^2\right].
\end{align*}\].
Por ejemplo, si \(n=9\), entonces \(\beta(\delta') = \Phi(1.645-3) =0.0877.\)
Ejemplo 11.3 Supongamos que tenemos una muestra \(X_1,\dots,X_n\) de una distribución Bernoulli con probabilidad desconocida \(p\). Queremos probar la hipótesis nula \(H_0: p = 0.2\) contra la hipótesis alternativa \(H_1: p = 0.4\) con un nivel de significancia de \(\alpha = 0.05\).
Vamos a usar \(y\) para representar la suma de la muestra: \(y = \sum_{i=1}^{n} X_i\).
Las funciones de masa de probabilidad bajo las hipótesis \(H_0\) y \(H_1\) son:
Para encontrar \(k'\), queremos que la probabilidad de obtener un valor de \(Y\) mayor que \(k'\), bajo \(H_0\), sea \(0.05\):
\[\mathbb P(Y>k'|p = 0.2) = 0.05.\]
Pero debido a que \(Y\) sigue una distribución binomial (es discreta), no es posible encontrar un valor exacto para \(k'\). Sin embargo, podemos observar que
Por lo tanto, se puede especificar una prueba con nivel cercano a 0.05, específicamente \(\alpha(\delta) = 0.0328\), y potencia mínima si elegimos \(Y>4\) como región de rechazo.