Estadística Elemental con R

Autor/a

Maikol Solís

Fecha de publicación

13 de abril de 2026

1 Introducción

Este libro nació como material de apoyo para un curso de estadística matemática de nivel universitario. Su propósito es ofrecer una presentación rigurosa pero accesible de los fundamentos de la inferencia estadística, combinando la teoría con implementaciones prácticas en R.

El hilo conductor del libro es una pregunta central: ¿cómo extraer conclusiones confiables sobre una población a partir de una muestra de datos? Esta pregunta, aparentemente simple, da lugar a una teoría vasta que ha sido desarrollada durante más de un siglo y que sigue siendo la base del análisis de datos moderno.

1.1 Enfoque y filosofía

El libro adopta una perspectiva dual: se presentan tanto el enfoque frecuentista como el enfoque bayesiano de la inferencia estadística. Esta decisión es deliberada. Ningún enfoque es universalmente superior; cada uno ofrece herramientas distintas y formas complementarias de pensar sobre la incertidumbre. El estudiante que comprenda ambos estará mejor equipado para elegir el método más adecuado según el problema que enfrente.

A lo largo del texto se ha cuidado que cada concepto teórico venga acompañado de al menos un ejemplo concreto y, cuando es posible, de código en R que permita reproducir los resultados. El objetivo no es que el estudiante memorice fórmulas, sino que entienda por qué funcionan y cuándo aplicarlas.

1.2 Estructura del libro

El libro está organizado en tres grandes bloques.

Bloque I — Exploración y fundamentos. El Capítulo 2 introduce el flujo de trabajo de un proyecto de ciencia de datos: búsqueda, importación, transformación, visualización y modelado. Se cubren las medidas descriptivas clásicas (tendencia central, dispersión, asimetría, correlación) y las herramientas gráficas esenciales (histogramas, boxplots, QQ-plots). A continuación, el Capítulo 3 establece el marco formal de la inferencia: qué es un modelo estadístico, qué papel juegan los parámetros y cómo se relacionan los enfoques frecuentista y bayesiano.

Bloque II — Estimación. El Capítulo 4 introduce la estimación bayesiana a través de las distribuciones previas y posteriores, las familias conjugadas y los estimadores de Bayes bajo distintas funciones de pérdida. El Capítulo 5 aborda el método de máxima verosimilitud (MLE): su definición, propiedades de invarianza y consistencia, y su cálculo tanto analítico como numérico. Los capítulos Capítulo 6 y Capítulo 7 profundizan en las propiedades deseables de los estimadores: suficiencia, mediante el criterio de factorización de Fisher; y eficiencia, a través de la cota de Cramér-Rao y los estimadores UMVUE. El Capítulo 8 estudia cómo se distribuyen los estadísticos en muestras repetidas, incluyendo las distribuciones \(\chi^2\), \(t\) de Student y \(F\).

Bloque III — Inferencia, pruebas de hipótesis y métodos no paramétricos. El Capítulo 9 aborda el problema de cuantificar la incertidumbre de un estimador puntual. Partiendo de la distribución muestral, se construyen intervalos aleatorios \([T_1, T_2]\) que contienen al parámetro con una probabilidad prefijada \(1-\alpha\). Se desarrollan intervalos de confianza para la media y la varianza de distribuciones normales —con varianza conocida y desconocida, usando las distribuciones \(t\) y \(\chi^2\)— y para proporciones en muestras grandes. Los capítulos Capítulo 10, Capítulo 11 y Capítulo 12 presentan la teoría general de las pruebas de hipótesis —incluyendo el Lema de Neyman-Pearson para hipótesis simples— y las pruebas paramétricas clásicas: \(t\) de una y dos muestras, \(F\) de igualdad de varianzas, y pruebas para proporciones. La última parte del libro está dedicada a los métodos no paramétricos. El Capítulo 13 introduce las pruebas \(\chi^2\) de bondad de ajuste e independencia. El Capítulo 14 analiza las tablas de contingencia y el paradox de Simpson. El Capítulo 15 desarrolla la prueba de Kolmogorov-Smirnov para comparar una muestra con una distribución teórica o para comparar dos muestras. Finalmente, el Capítulo 16 cubre las pruebas de signo y de rangos de Wilcoxon-Mann-Whitney, útiles cuando no se puede asumir ninguna distribución paramétrica.

1.3 Prerrequisitos

Se asume que el lector tiene familiaridad con:

  • Cálculo diferencial e integral en una y varias variables.
  • Álgebra lineal básica.
  • Probabilidad a nivel introductorio: variables aleatorias, distribuciones comunes (normal, exponencial, gamma, beta, binomial, Poisson), esperanza y varianza.
  • Programación básica en R (instalación de paquetes, lectura de datos, operaciones vectoriales).

No se requiere experiencia previa con inferencia estadística; el libro parte desde los fundamentos.

1.4 Sobre el uso de R

Todos los ejemplos computacionales están escritos en R y se pueden reproducir directamente desde el código que acompaña a cada capítulo. Los bloques de código utilizan principalmente el ecosistema tidyverse para manipulación y visualización de datos. Se recomienda tener instalada la versión más reciente de R y RStudio antes de comenzar.

El código está plegado por defecto en la versión web del libro; se puede expandir haciendo clic en cada bloque para ver los detalles de implementación.