15  Tablas de contingencia

Las tablas de contingencia son una herramienta poderosa en estadística inferencial para analizar la relación entre dos variables categóricas. En este capítulo, aprenderemos cómo realizar una prueba para determinar si dos variables categóricas son independientes utilizando R.

Antes de avanzar, necesitamos definir algunos términos y notaciones que usaremos a lo largo de este capítulo:

Definición 15.1 (Tabla de Contingencia) Un arreglo bidimensional en el que cada observación se puede clasificar de dos o más formas, generalmente a lo largo de filas y columnas.

Introducimos la siguiente notación:

Además, definimos:

Note que la suma de todas las probabilidades \(p_{ij}\) es igual a 1, es decir, \(\displaystyle \sum_{i=1}^R\sum_{j=1}^Cp_{ij} = 1\).

Ejemplo 15.1 (Votaciones universitarias) Para ilustrar este concepto, consideremos un ejemplo con una muestra de 200 estudiantes de una universidad. La muestra se categoriza según dos variables: el currículum del estudiante (área de estudio) y su candidato preferido en unas elecciones universitarias (A, B o Indeciso). Los datos se presentan en la siguiente tabla de contingencia:

Área/Candidato A B Indeciso Totales
Ingeniería 24 23 12 59
Humanidades 24 14 10 48
Artes 17 8 13 38
Administración 27 19 9 55
Totales 92 64 44 200

Para ilustrar estos conceptos con nuestro ejemplo, podemos interpretar:

  • \(N_{11} = 24\) como los estudiantes de ingeniería que planean votar por el candidato A.
  • \(N_{2+} = 48\) como el total de estudiantes de Humanidades.
  • \(N_{+3} = 44\) como el total de estudiantes que se encuentran indecisos sobre a quién votar.
  • \(n = N_{++} = 200\) como el total de estudiantes en la muestra.

Este marco nos proporciona un lenguaje común y un conjunto de herramientas para describir y analizar las relaciones entre variables categóricas. En las siguientes secciones, aprenderemos cómo usar estos conceptos y notaciones para realizar pruebas estadísticas que nos ayuden a entender si las variables categóricas son independientes o si están relacionadas de alguna manera.

15.1 Prueba de independencia

Después de familiarizarnos con las tablas de contingencia, pasemos a la prueba de independencia, un método fundamental para determinar si dos variables categóricas son independientes.

La hipótesis nula \(H_0\) que queremos probar es:

\[H_0: p_{ij} = p_{i+}\cdot p_{+j},\;i=1,\dots,R \; ;j=1,\dots, c\]

Esta hipótesis sugiere que las probabilidades conjuntas de la tabla de contingencia son el producto de las probabilidades marginales, lo cual implica que las variables son independientes. Para llevar a cabo esta prueba, podemos “vectorizar” la tabla de contingencia y emplear una distribución multinomial. Similar al caso de las pruebas parametrizadas, tenemos una prueba con parámetros \(p_{ij}\) que debemos estimar. Por lo tanto lo primero que debemos hacer es encontrar los estimadores de máxima verosimilitud del problema.

La verosimilitud y log-verosimilitud de nuestra distribución multinomial es respectivamente:

\[\begin{align*} \mathcal L & \propto \prod_{i=1}^R\prod_{j=1}^C p_{ij}^{N_{ij}} \\ \ell & \propto \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log p_{ij}. \end{align*}\]

Si asumimos que \(H_0\) es cierta, entonces

\[\begin{align*} \ell & \propto \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log{p_{i+}p_{+j}} \\ & = \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log{p_{i+}} + \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log{p_{+j}} \\ \end{align*}\]

Para maximizar esta suma, se debe tomar en cuenta las restricciones \(\sum_{j=1}^C p_{i+} = 1\) y \(\sum_{i=1}^R p_{+j} = 1\). Para esto, se usan multiplicadores de Langrage con la función:

\[\begin{align*} L & = \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log{p_{i+}} + \sum_{i=1}^R\sum_{j=1}^C N_{ij}\log{p_{+j}} \\ & \quad - \lambda_1\left(\sum_{i=1}^R p_{i+} - 1\right) - \lambda_2\left(\sum_{j=1}^C p_{+j} - 1\right) \\ & = \left[\sum_{i=1}^R n_{i+}\log{p_{i+}} - \lambda_1\left(\sum_{i=1}^R p_{i+} - 1\right)\right] \\ & \quad + \left[\sum_{j=1}^C n_{+j}\log{p_{+j}} - \lambda_2\left(\sum_{j=1}^C p_{+j} - 1\right)\right] \\ \end{align*}\]

Note que \(L\) está divido en dos sumando que dependen solo de \(p_{i+}\) y \(p_{+j}\) respectivamente. Para encontrar el gradiente primero vamos a derivar con respecto a \(p_{i+}\).

\[\begin{align*} \dfrac{\partial L}{\partial p_{i+}} & = \sum_{i=1}^R \dfrac{N_{i+}}{p_{i+}} - \lambda_1 = 0\\ \implies & \frac{N_{i+}}{p_{i+}} - \lambda_1 & = 0 \\ \end{align*}\]

La solución de esta ecuación require la restricción puesta anteriomente

\[\begin{align*} N_{i+} & = \lambda_1 p_{i+} \\ \sum_{i=1}^R N_{i+} & = \lambda_1 \sum_{i=1}^R p_{i+} \\ n & = \lambda_1 \\ \end{align*}\]

Por lo tanto, el MLE de esta distribución muestral sería

\[\begin{equation*} \hat{p}_{i+} = \dfrac{N_{i+}}{n} \end{equation*}\]

El mismo razonamiento nos lleva a \[\begin{equation*} \hat{p}_{+j} = \dfrac{N_{+j}}{n} \end{equation*}\]

Para definir el número de grados de libertad, recuerde que el número de celdas es \(k=RC\). Ahora el número de párametros para estimar dentro de la verosimilitud \(H_0\) es \(s =(R-1)+(C-1) = R+C-2\). Por lo tanto el número de grados de libertad es \(k-s-1 = RC-(R+C-2)-1 = (R-1)(C-1)\).

El MLE para el conteo en la celda \(i,j\) (valor esperado bajo \(H_0\)) es

\[\hat E_{ij} = n\hat p_{i+} \hat p_{+j} = n\dfrac{N_{i+}}{n}\dfrac{N_{+j}}{n} = \dfrac{N_{i+}N_{+j}}{n}.\]

La prueba de independencia se basa en el estadístico \(\chi^2\), que se calcula como

\[Q = \sum_{i=1}^R\sum_{j=1}^C \dfrac{(N_{ij}-\hat E_{ij})^2}{\hat E_{ij}} \underset{n\text{ grande, }H_0}{\sim} \chi^2_{(R-1)(C-1)}.\]

Para un dado nivel de significancia \(\alpha\), rechazamos \(H_0\) si \(Q>\chi^2_{(R-1)(C-1), 1-\alpha}\).

Resumen de la prueba de independencia

En este caso, estamos utilizando una tabla de contingencia con \(R\) filas y \(C\) columnas, lo que nos da un total de \(RC\) celdas o contingencias posibles.

El término \(k-s-1\) es el número de grados de libertad en la prueba de \(\chi^2\), donde \(k\) es el número total de celdas y \(s\) es el número de parámetros que se estiman en la hipótesis nula. En otras palabras:

  • \(k = RC\) es simplemente el número total de celdas en la tabla de contingencia.
  • \(s\) es el número de parámetros que se estiman bajo la hipótesis nula, que es \(R+C-2\). Aquí, \(R-1\) son las probabilidades marginales para las filas y \(C-1\) son las probabilidades marginales para las columnas. Se resta \(2\) debido a las restricciones que resultan de que las sumas de las probabilidades marginales deben ser \(1\) (una para las filas y otra para las columnas).

Por lo tanto, \(s = R+C-2\). Así pues obtenemos:

\[\begin{equation*} k-s-1 = RC-(R+C-2)-1 \end{equation*}\]

Simplificando esto, obtenemos: \[\begin{equation*} k-s-1 = (R-1)(C-1) \end{equation*}\]

Esto nos da el número de grados de libertad en la prueba de \(\chi^2\). Los grados de libertad se refieren a la cantidad de valores en la prueba final de \(\chi^2\) que son libres de variar. En este caso, estamos tomando el número total de celdas y restando las restricciones impuestas por las sumas de las probabilidades marginales y una unidad adicional debido a la hipótesis nula de independencia.

Ejemplo 15.2 (Votaciones universitarias) Aplicando estos conceptos a nuestro ejemplo de estudiantes universitarios, calculamos los valores esperados de cada celda bajo \(H_0\). Como muestra se da el cálculo para las celdas \(E_{11}\) y \(E_{32}\):

\[\begin{align*} \hat E_{11} &= \dfrac{59\cdot 92}{200} = 27.14 \\ \hat E_{32} &= \dfrac{38\cdot 64}{200} = 12.165 \end{align*}\]

El resto de celdas se estiman de la misma manera:

Área/Candidato A B Indeciso Totales
Ingeniería 27.14 18.88 12.98 59
Humanidades 22.08 15.36 10.56 48
Artes 17.48 12.16 8.36 38
Administración 25.30 17.60 12.10 55
Totales 92 64 44 200

Recordemos la tabla de valores observados:

Área/Candidato A B Indeciso Totales
Ingeniería 24 23 12 59
Humanidades 24 14 10 48
Artes 17 8 13 38
Administración 27 19 9 55
Totales 92 64 44 200

Luego, calculamos el estadístico de prueba \(Q\) sumando los cuadrados de las diferencias entre las observaciones y los valores esperados, cada una dividida por su respectivo valor esperado. En nuestro ejemplo, obtenemos:

\[\begin{multline*} Q = \frac{(24-27.14)^2}{27.14} + \frac{(24-22.08)^2}{22.08} + \frac{(17-17.48)^2}{17.48} \\ - \frac{(27-25.30)^2}{25.30} + \frac{(23-18.88)^2}{18.88} + \frac{(14-15.36)^2}{15.36} \\ - \frac{(8-12.16)^2}{12.16} + \frac{(19-17.60)^2}{17.60} + \frac{(12-12.98)^2}{12.98} \\ - \frac{(10-10.56)^2}{10.56} + \frac{(13-8.36)^2}{8.36} + \frac{(9-12.10)^2}{12.10} = 6.68 \end{multline*}\]

Si asumimos un nivel de significancia de 10% entonces el valor crítico es \(\chi^2_{(4-1)(3-1)}(0.9) = \chi^2_6(0.9) = 10.64\).

El valor-\(p\) asociado con este estadístico de prueba es \(1- F_{\chi^2_6}(6.68) = 0.3\). Por lo tanto, rechazamos la hipótesis de independencia entre el currículum y la preferencia electoral a un nivel de significancia del 10%.

Estos análisis se pueden realizar eficientemente en R utilizando la función chisq.test. Primero, definimos la tabla de datos:

M <- as.table(rbind(
  c(24, 23, 12),
  c(24, 14, 10),
  c(17, 8, 13),
  c(27, 19, 9)
))

dimnames(M) <- list(
  Carrera = c(
    "Ingeniería",
    "Humanidades",
    "Artes",
    "Administración"
  ),
  Voto = c("A", "B", "Indeciso")
)

knitr::kable(M)
A B Indeciso
Ingeniería 24 23 12
Humanidades 24 14 10
Artes 17 8 13
Administración 27 19 9

Luego el test se ejecuta sobre la matriz de los datos

chisq.test(M)

    Pearson's Chi-squared test

data:  M
X-squared = 6.6849, df = 6, p-value = 0.351

15.2 Prueba de Homogeneidad

En muchos estudios estadísticos, puede ser de interés determinar si diferentes poblaciones tienen la misma distribución para ciertas variables. En estadística, utilizamos la Prueba de Homogeneidad para este propósito.

Objetivo de la prueba

Supongamos que seleccionamos individuos de varias poblaciones y observamos una variable aleatoria discreta para cada uno. El objetivo de nuestro análisis es determinar si la distribución de esta variable es la misma a través de todas las poblaciones.

Sean \(R\) el número de individuos por población y \(C\) el número de categorías por población. Definimos \(p_{ij}\) como la probabilidad de que una observación pertenezca a la i-ésima población y a la categoría \(j\). Estas probabilidades deben sumar 1 para cada población \(i\), es decir, \(\sum_{j=1}^Cp_{ij} = 1\), para \(i=1,\dots,R\).

La hipótesis nula, \(H_0\), dice que las probabilidades para cada categoría \(j\) son las mismas en todas las poblaciones, es decir, \(p_{1j} = p_{2j} = \dots = p_{Rj}\) para todas las categorías \(j=1,\dots, C\).

Para una fila fija \(i\) y probabilidades \(p_{ij}\) conocidas, se puede calcular el estadístico del test:

\[Q^{(i)}=\sum_{j=1}^C\dfrac{(N_{ij}-N_{i+}p_{ij})}{N_{i+}p_{ij}}\]

Bajo la hipótesis nula \(H_0\), \(Q^{(i)}\) sigue una distribución \(\chi^2\) con \(C-1\) grados de libertad.

Supuesto

Las poblaciones son independientes. Esto implica que \(Q^{(i)}\) son variables independientes y \[Q = \sum_{i=1}^R\sum_{j=1}^C\dfrac{(N_{ij}-N_{i+}p_{ij})^2}{N_{i+}p_{ij}}\] sigue una distribución \(\chi^2\) con \(R(C-1)\) grados de libertad.

Observación. Este resultado proviene del hecho de que la suma de variables \(\chi ^{2}\) sigue una distribución \(\chi ^{2}\) con la suma de sus grados de libertad.

Sin embargo, los valores \(p_{ij}\) generalmente no son conocidos, por lo que debemos estimarlos. La estimación de máxima verosimilitud (MLE) para \(p_{ij}\), dada la hipótesis nula, es \(\hat p_{ij} = \dfrac{N_{+j}}{n}\).

Sustituyendo esto en la ecuaciónPara \(Q\) obtenemos:

\[Q = \sum_{i=1}^R\sum_{j=1}^C\dfrac{(N_{ij}-\hat E_{ij})^2}{\hat E_{ij}}\]

donde \(\hat E_{ij} = \dfrac{N_{i+}\cdot N_{+j}}{n}\) es la expectativa estimada del número de observaciones en la i-ésima población y la j-ésima categoría.

Finalmente, los grados de libertad de la prueba son:

\[k-s-1 = R(C-1)-(C-1) = (R-1)(C-1).\]

Aquí, \(k\) es el número total de celdas en la tabla de contingencia, y \(s\) es el número de restricciones, que es igual al número de categorías menos uno.

Para concluir el test, se rechaza la hipótesis nula, \(H_0\), si el valor de la estadística del test cae en la región de rechazo. Esta región de rechazo se determina de la misma manera que en la prueba de independencia, es decir, se rechaza \(H_0\) si el valor p es menor que el nivel de significancia preestablecido, a menudo 0.05.

Con este proceso, podemos realizar un test de homogeneidad y determinar si la distribución de una variable discreta es la misma en diferentes poblaciones.

Ejemplo 15.3 Ejemplo: Sigamos con un ejemplo anterior en el que se tomaron muestras de tamaño 59, 48, 38 y 55 de cada área. Nos interesa saber si la distribución de la variable ‘preferencia’ es la misma independientemente del área. Es decir, ¿es homogénea la forma en que los estudiantes votan, independientemente de la carrera que están cursando?

Para este caso, el cálculo de \(Q\) es el mismo con la misma cantidad de grados de libertad (6). Debemos rechazar la hipótesis nula de que todas la carreras tienen más misma probabilidad.

15.3 Comparación entre las Pruebas de Independencia y Homogeneidad

Aunque estas pruebas son similares en muchos aspectos, también tienen diferencias clave en cuanto a su interpretación y aplicación.

15.3.1 Similitudes

Desde un punto de vista computacional, las pruebas de independencia y homogeneidad se calculan de la misma manera. Ambas pruebas se basan en la comparación de las frecuencias observadas y esperadas en una tabla de contingencia, y utilizan la misma estadística de prueba (\(\chi^2\)). Así, en términos de cálculo, ambas pruebas son esencialmente idénticas.

15.3.2 Diferencias

A pesar de su similitud en términos de cálculo, la interpretación de estas dos pruebas es bastante diferente:

  • Prueba de Independencia:

    • La prueba de independencia se utiliza para analizar la relación entre dos variables categóricas en una única población.
    • La hipótesis nula para esta prueba es que las dos variables son independientes, es decir, que la distribución condicional de una variable es la misma para todas las categorías de la otra variable.
    • Si rechazamos la hipótesis nula en una prueba de independencia, concluimos que hay una asociación entre las dos variables.
  • Prueba de Homogeneidad:

    • La prueba de homogeneidad se utiliza para comparar las distribuciones de una variable categórica entre varias poblaciones o grupos.
    • Cada fila de la tabla de contingencia se considera como una subpoblación distinta.
    • La hipótesis nula es que todas las subpoblaciones tienen la misma distribución de la variable categórica.
    • Si rechazamos la hipótesis nula en una prueba de homogeneidad, concluimos que al menos una subpoblación tiene una distribución diferente de las demás.

15.4 Comparación de proporciones en dos o más grupos

En muchos estudios de investigación, podemos estar interesados en comparar las proporciones de una categoría en dos o más grupos. Estos grupos pueden representar diferentes poblaciones, condiciones de tratamiento, momentos en el tiempo, o cualquier otra división relevante para nuestro estudio.

Ejemplo 15.4 Supongamos que realizamos una encuesta en varias ciudades y preguntamos a los encuestados si vieron un determinado programa de televisión. Podemos representar los resultados en una tabla de contingencia como la siguiente:

Ciudad Vio el programa No lo vio
1 \(N_{11}\) \(N_{12}\)
\(\vdots\) \(\vdots\) \(\vdots\)
R \(N_{R1}\) \(N_{R2}\)

Nos gustaría saber si la proporción de espectadores del programa es la misma en todas las ciudades. Podemos plantear la hipótesis nula de homogeneidad, que afirma que la proporción de espectadores es la misma en todas las ciudades. Para probar esta hipótesis, podemos utilizar la estadística de prueba \(\chi^2\):

\[Q = \sum_{i=1}^R\sum_{j=1}^2\dfrac{(N_{ij}-\hat E_{ij})^{2}}{\hat E_{ij}}\underset{H_0}\sim \chi^2_{R-1}\]

Si rechazamos la hipótesis nula, concluimos que la proporción de espectadores varía de una ciudad a otra.

Supongamos que tenemos los siguientes datos:

(ciudades <- data.frame(
  Ciudad = factor(c("Ciudad 1", "Ciudad 2", "Ciudad 3")),
  Vio = c(300, 150, 50),
  NoVio = c(200, 350, 450)
))
    Ciudad Vio NoVio
1 Ciudad 1 300   200
2 Ciudad 2 150   350
3 Ciudad 3  50   450

Si aplicamos la prueba de homogeneidad obtenemos:

(chi_sq_test <- chisq.test(ciudades[, -1]))

    Pearson's Chi-squared test

data:  ciudades[, -1]
X-squared = 285, df = 2, p-value < 2.2e-16
ggplot(ciudades, aes(x = Ciudad, y = Vio / (Vio + NoVio))) +
  geom_bar(stat = "identity", fill = "blue", alpha = 0.7) +
  labs(x = "Ciudad", y = "Proporción que vio el programa") +
  cowplot::theme_cowplot()

Lo cual nos permite rechazar la hipótesis nula de homogeneidad. Por lo tanto, concluimos que la proporción de espectadores varía de una ciudad a otra.

Comparemos este mismo ejemplo, pero con diferentes datos:

# Datos de ejemplo
(ciudades <- data.frame(
  Ciudad = factor(c("Ciudad 1", "Ciudad 2", "Ciudad 3")),
  Vio = c(250, 240, 260),
  NoVio = c(250, 260, 240)
))
    Ciudad Vio NoVio
1 Ciudad 1 250   250
2 Ciudad 2 240   260
3 Ciudad 3 260   240
# Cálculo de chi-cuadrado
(chi_sq_test <- chisq.test(ciudades[, -1]))

    Pearson's Chi-squared test

data:  ciudades[, -1]
X-squared = 1.6, df = 2, p-value = 0.4493
ggplot(ciudades, aes(x = Ciudad, y = Vio / (Vio + NoVio))) +
  geom_bar(stat = "identity", fill = "darkgreen", alpha = 0.7) +
  labs(x = "Ciudad", y = "Proporción que vio el programa") +
  cowplot::theme_cowplot()

Ejemplo 15.5 Supongamos que seleccionamos aleatoriamente a 100 personas en una ciudad y les preguntamos si están satisfechas con el trabajo de los bomberos. Posteriormente, ocurre un incendio en la ciudad, y hacemos la misma pregunta a las mismas personas. Los resultados se pueden resumir en la siguiente tabla:

Satisfactorio No Satisfactorio
Antes del incendio 80 20
Después del incendio 72 28

En este caso, no sería apropiado realizar una prueba de independencia o homogeneidad, ya que los datos son dependientes (la misma persona proporciona medidas antes y después del incendio). En cambio, podríamos estar interesados en responder las siguientes preguntas:

  • ¿Qué proporción de personas cambió su opinión sobre el servicio de bomberos después del incendio?
  • ¿Cuál fue el cambio de opinión más común entre aquellos que cambiaron de opinión?

En base a la tabla de contingencia, podemos calcular que el 12% de las personas (10 de 80 que estaban satisfechas y 2 de 20 que no lo estaban) cambiaron de opinión. Entre estas personas, el 83% (10 de 12) cambió de tener una opinión satisfactoria a una no satisfactoria.

Estos cálculos nos permiten hacer inferencias sobre el cambio de opinión en la población general después del incendio.

15.4.0.1 Paradoja de Simpson

La Paradoja de Simpson es un fenómeno estadístico que puede surgir cuando se trabaja con datos agrupados. Esta paradoja puede generar conclusiones erróneas si no se tiene cuidado al interpretar los resultados. Fue descrita por Edward H. Simpson en 1951, y ha sido utilizada para ilustrar cómo el mal uso de las estadísticas puede generar resultados engañosos. Sin embargo, no es una paradoja en el sentido estricto de la palabra, ya que no hay ninguna contradicción, sino simplemente dos formas diferentes de pensar sobre los mismos datos​​.

La Paradoja de Simpson puede manifestarse incluso en grandes conjuntos de datos, y su presencia no depende del tamaño de la muestra, sino de la proporción de los datos​​. Esto puede ocurrir con más frecuencia cuando se trabaja con datos discretos, por eso hay que tener cuidado con la forma en que agrupamos estos.

Ejemplo 15.6 Consideremos un experimento en el que se comparan dos tratamientos para bajar de peso, uno nuevo y otro ya establecido. En total, se toma una muestra de 80 sujetos, 40 de los cuales reciben el nuevo tratamiento y 40 el antiguo. A continuación, se evalúa la mejora en cada paciente.

Mejoró No mejoró % mejora
Nuevo 20 20 50
Viejo 24 16 60
Importante

Según los datos globales, el tratamiento antiguo parece tener un porcentaje de mejora mayor que el nuevo.

Sin embargo, si desagregamos los datos según el género de los pacientes, observamos que para los hombres:

Mejoró No mejoró % mejora
Nuevo 12 18 40
Viejo 3 7 30

y para mujeres:

Mejoró No mejoró % mejora
Nuevo 8 2 80
Viejo 21 9 70

En este caso, tanto para hombres como para mujeres, el tratamiento nuevo muestra una mayor tasa de mejora que el antiguo. Esta es la Paradoja de Simpson en acción: aunque los datos agregados sugieren que el tratamiento antiguo es más efectivo, los datos desagregados por género indican lo contrario.

La desagregación de los datos revela una variable “oculta”, el género, que influye en la efectividad de los tratamientos. En este caso, las mujeres muestran una mayor tasa de mejora que los hombres en ambos tratamientos. Adicionalmente, la mayoría de las mujeres recibieron el tratamiento antiguo, mientras que la mayoría de los hombres recibieron el tratamiento nuevo. A nivel global, el efecto total es mayor porque los hombres tuvieron una mayor influencia en la efectividad del tratamiento antiguo.

Tip

A este proceso de separar las tablas se le conoce como desagregación.

15.4.0.1.1 ¿Cómo evitamos esta paradoja?

Para evitar la Paradoja de Simpson, es importante considerar las variables ocultas en los datos y cómo pueden afectar los resultados. En el contexto de la probabilidad condicional, esto implica considerar las interacciones entre diferentes eventos.

Hay un par de condiciones que se deben cumplir para evitar problemas en este caso

Considere los eventos:

  • “Hombre” si se selecciona a un hombre.

  • \(\text{Hombre}^c\)” si se selecciona a una mujer.

  • “Nuevo” si es el tratamiento nuevo.

  • “Mejora” si hubo una mejora en el tratamiento.

La paradora de Simpson nos dice que es posible tener las siguientes desigualdades:

\[\mathbb P[\text{Mejora}|\text{Hombre}\cap \text{Nuevo}]>\mathbb P[\text{Mejora}|\text{Hombre}\cap \text{Nuevo}^c] \tag{15.1}\] \[\mathbb P[\text{Mejora}|\text{Hombre}^c\cap \text{Nuevo}]>\mathbb P[\text{Mejora}|\text{Hombre} ^c\cap \text{Nuevo}^c] \tag{15.2}\] \[\mathbb P[\text{Mejora}|\text{Nuevo}]<\mathbb P[\text{Mejora}|\text{Nuevo}^c] \tag{15.3}\]

Si tenemos el supuesto que

\[\mathbb P[\text{Hombre}|\text{Nuevo}] = \mathbb P[\text{Hombre}|\text{Nuevo}^c]\]

Entonces, podemos expresar la probabilidad de mejora dada la administración del nuevo tratamiento, \(\mathbb P[\text{Mejora}|\text{Nuevo}]\), en términos de las probabilidades de mejora condicionada al género y al tratamiento:

\[\begin{align*} \mathbb P[\text{Mejora}|\text{Nuevo}] & = \mathbb P[\text{Mejora}|\text{Hombre} \cap \text{Nuevo}] \cdot \mathbb P[\text{Hombre}|\text{Nuevo}] \\ & \quad + \mathbb P[\text{Mejora}|\text{Hombre}^c \cap \text{Nuevo}] \cdot \mathbb P[\text{Hombre}^c|\text{Nuevo}] \\ \end{align*}\]

Usando las desigualdades Ecuación 15.1 y Ecuación 15.2, obtenemos la siguiente desigualdad:

\[\begin{align*} & > \mathbb P[\text{Mejora}|\text{Hombre}\cap \text{Nuevo}^c] \cdot \mathbb P[\text{Hombre}|\text{Nuevo}] \\ & \quad + \mathbb P[\text{Mejora}|\text{Hombre}^c\cap\text{Nuevo}^c] \cdot \mathbb P[\text{Hombre}^c|\text{Nuevo}]\\ \end{align*}\]

Usando la suposición Ecuación 15.3, obtenemos la siguiente desigualdad:

\[\begin{align*} & = \mathbb P[\text{Mejora}|\text{Hombre}\cap \text{Nuevo}^c] \cdot \mathbb P[\text{Hombre}|\text{Nuevo}^c] \\ & \quad + \mathbb P[\text{Mejora}|\text{Hombre}^c\cap \text{Nuevo}^c] \cdot \mathbb P[\text{Hombre}^c|\text{Nuevo}^c] \\ \end{align*}\]

Finalmente, utilizando las propiedades de la probabilidad condicional, podemos simplificar esta expresión a:

\[\begin{align*} & = \mathbb P[\text{Mejora}|\text{Nuevo}^c] \end{align*}\]

Resumiendo, obtenemos que

\[\mathbb P[\text{Mejora}|\text{Nuevo}] > \mathbb P[\text{Mejora}|\text{Nuevo}^{c}]\]

Por lo tanto, la paradoja no se cumple en este caso.

En otras palabras para evitar la Paradoja de Simpson, queremos asegurarnos de que la probabilidad total de mejora dado el nuevo tratamiento es mayor que la probabilidad total de mejora dado el tratamiento viejo. Esto se logra asegurándose de que la probabilidad de ser un hombre (o una mujer) es la misma independientemente de si se recibe el tratamiento nuevo o el viejo.

Ejercicio 15.1 Otra forma de evitar la paradoja es si se cumple que \(\mathbb{P}[\text{Nuevo}|\text{Hombre}] = \mathbb{P}[\text{Nuevo}|\text{Hombre}^{c}]\). Esto se deja como un ejercicio.