Conceptos Clave en Inferencia Estadística
Muestra Aleatoria Simple
Sea X la variable aleatoria correspondiente a una población con función de distribución F(x). Si las variables aleatorias X₁, X₂, …, Xₙ son independientes y tienen la misma función de distribución F(x) que la de la población, entonces las variables aleatorias X₁, X₂, …, Xₙ forman un conjunto de variables aleatorias independientes e idénticamente distribuidas que constituyen una muestra aleatoria simple de tamaño n de la población F(x).
Parámetro Poblacional
Son las características numéricas de la distribución de la población, como la media, la varianza o la proporción poblacional.
Estadístico
Un estadístico es cualquier función real de las variables aleatorias que integran la muestra; es decir, es una función de las observaciones muestrales que no contiene ningún valor o parámetro desconocido.
Estimador
El estimador del parámetro poblacional θ es una función de las variables aleatorias u observaciones muestrales y se representa por θ̂.
Estimación
Para una realización particular de la muestra, se obtiene un valor específico del estimador que recibe el nombre de estimación.
Diferencias entre Estimador y Estimación
Utilizaremos el término estimador cuando nos referimos a la función de variables aleatorias muestrales X₁, X₂, …, Xₙ, y los valores que toma la función estimador para las diferentes realizaciones o muestras concretas serán estimaciones. El estimador es un estadístico y, por tanto, una variable aleatoria, y el valor de esta variable aleatoria para una muestra concreta será la estimación puntual.
Función de Distribución Empírica
Consideremos una población con una función de distribución F(x) y sean (X₁, X₂, …, Xₙ) los valores observados correspondientes a una muestra aleatoria simple procedente de esa población. Designamos por N(x) el número de valores observados que son menores o iguales que x. Entonces, definimos la función de distribución empírica de la muestra, que denotaremos por Fₙ(x), como:
Fₙ(x) = N(x) / n
Nivel de Confianza
La probabilidad de que el parámetro θ tome algún valor en el intervalo (θ₁, θ₂) es igual a 1 – α.
Estimador Insesgado
Diremos que el estadístico θ̂ = g(X₁, X₂, …, Xₙ) es un estimador insesgado o centrado del parámetro θ si E[θ̂] = θ para todos los valores de θ. En este caso, el sesgo es Sesgo(θ̂) = E[θ̂] – θ = 0.
Estimadores Eficientes
Diremos que un estimador θ̂ del parámetro poblacional θ es eficiente si es insesgado y, además, su varianza alcanza la cota de Frechet-Cramer-Rao.
Métodos de Estimación de Parámetros
Método de los Momentos
El método consiste en igualar tantos momentos muestrales como parámetros desconocidos haya a los correspondientes momentos poblacionales, que son función de dichos parámetros. La solución al sistema resultante es el estimador por el método de los momentos de los parámetros de la distribución.
Método de Máxima Verosimilitud
Consiste en elegir como estimador del parámetro desconocido θ el valor θ̂(X₁, X₂, …, Xₙ) que hace máxima la función de verosimilitud de la muestra L(X₁, X₂, …, Xₙ; θ). Es decir, consiste en elegir el valor θ̂(X₁, X₂, …, Xₙ) tal que:
L(X₁, X₂, …, Xₙ; θ̂) = max L(X₁, X₂, …, Xₙ; θ)
El estimador θ̂(X₁, X₂, …, Xₙ) se llama estimador de máxima verosimilitud. Para obtenerlo, se siguen los siguientes pasos:
- Obtenemos la función de verosimilitud L(X₁, X₂, …, Xₙ; θ) = Π f(Xᵢ; θ).
- Calculamos el logaritmo natural de la función de verosimilitud, ln L(X₁, X₂, …, Xₙ; θ).
- Resolvemos la ecuación ∂(ln L) / ∂θ = 0.
Método de la Cantidad Pivotal (para la construcción de intervalos de confianza)
Sea una población con función de distribución F(x; θ), donde θ es un parámetro desconocido que toma valores en el espacio paramétrico Ω. Este método consiste en la obtención de una cantidad pivotal o simplemente pivote que verifique las siguientes condiciones:
- La cantidad pivotal o pivote T(X₁, X₂, …, Xₙ; θ) es una función de las observaciones muestrales y del parámetro θ, de tal manera que para cada muestra solo dependerá de θ.
- La distribución muestral de la cantidad pivotal o pivote T(X₁, X₂, …, Xₙ; θ) no depende de θ.
Contrastes de Hipótesis y Bondad de Ajuste
Introducción a los Contrastes de Pearson (χ²)
Utilizamos la distribución χ² de Pearson para:
- Contrastar si una supuesta distribución se ajusta a un conjunto de datos. Esto se conoce como Contrastes de Bondad de Ajuste.
- Contrastar si existe dependencia entre dos características de la misma población. Esto se conoce como Contraste de Independencia.
- Contrastar si varias muestras proceden de la misma población. Esto se conoce como Contraste de Homogeneidad.
Contrastes de Bondad de Ajuste
Se emplean para verificar si un conjunto de datos o una muestra aleatoria procede de una población con una cierta distribución de probabilidad.
Existen diferentes contrastes de bondad de ajuste:
El Contraste χ² de Bondad de Ajuste
Existen dos casos:
Cuando los parámetros de la distribución de la población son todos conocidos.
Consideramos una muestra aleatoria de tamaño n y pretendemos contrastar las hipótesis:
- H₀: La muestra aleatoria procede de una población con función de distribución F₀(x).
- H₁: La muestra no procede de la población con función de distribución F₀(x).
Formalmente:
- H₀: F(x) = F₀(x)
- H₁: F(x) ≠ F₀(x)
Donde Pᵢ = P{X ∈ Sᵢ} para i=1, …, k, y Σ Pᵢ = 1.
Contraste χ² de bondad de ajuste cuando hay que estimar algunos parámetros de la población.
- H₀: F(x) = F₀(x; θ₁, …, θₘ)
- H₁: F(x) ≠ F₀(x; θ₁, …, θₘ)
Donde los parámetros θ₁, …, θₘ son desconocidos.
En resumen, las fases a realizar en este contraste de bondad de ajuste serán:
- Formulación de las hipótesis.
- Estimación, si procede, de los parámetros desconocidos, utilizando el método de máxima verosimilitud. Cálculo de las probabilidades teóricas Pᵢ, obtención de las frecuencias esperadas npᵢ, y reagrupamiento, si procede, de las clases hasta satisfacer la condición npᵢ > 5.
- Selección del nivel de significación.
- Determinación de la región crítica.
- Obtención del valor experimental del estadístico de contraste.
- Aplicación de la regla de decisión basada en el valor experimental.
El Contraste de Kolmogorov-Smirnov
Es un test de bondad de ajuste que no necesita que las observaciones muestrales se agrupen en intervalos o clases y que es aplicable a muestras pequeñas.
- H₀: La muestra aleatoria procede de una población con función de distribución F₀(x).
Comparación entre el Test χ² de Pearson y el Test de Kolmogorov-Smirnov
- En general, el test χ² de Pearson es más complicado de aplicar que el test de Kolmogorov-Smirnov.
- El test χ² utiliza datos agrupados en intervalos o clases, mientras que el test de Kolmogorov-Smirnov utiliza los datos observados directamente.
- El test χ² está pensado para grandes muestras y su distribución es aproximada. Sin embargo, el test de Kolmogorov-Smirnov se puede utilizar para muestras pequeñas.
- El test χ² permite estimar los parámetros desconocidos, lo cual no es posible en los tests de Kolmogorov-Smirnov, salvo para el caso de la distribución normal.
- En general, la potencia del test de Kolmogorov-Smirnov es mayor que la potencia del test χ², aunque cuando n es suficientemente grande, las potencias tienden a coincidir.
- El test χ² se aplica tanto en poblaciones discretas como continuas, mientras que el test de Kolmogorov-Smirnov requiere que la población de donde se extrae la muestra sea continua.
El Contraste de Normalidad de Lilliefors
La hipótesis nula establece que la población pertenece a la familia de distribuciones normales, sin especificar la media o la varianza de la distribución normal.
- H₀: La muestra aleatoria procede de una población normal, con media y varianza desconocidas.
- H₁: La muestra no procede de una población normal.