En el capitulo 9 nos enfocamos en encontrar estimadores para parámetros desconocidos. Una vez obtenida la muestra podíamos evaluar estos estimadores y conseguir de esta forma una estimación puntual de los parámetros desconocidos.
Encontramos que si teníamos una muestra aleatoria de una población normal de parámetros $(\mu,\sigma^2)$
$$ X_1,...X_n \overset{iid} \sim N(\mu,\sigma^2) $$
los estimadores de máxima verosimilitud para cada parámetro eran
$$ \hat{\mu} = \bar{X} = \frac{1}{n} \cdot \sum_{i=1}^n X_i
\\
\hat{\sigma}^2 = \frac{1}{n} \cdot \sum_{i=1}^n (X_i-\bar{X})^2 $$
También vimos que este estimador de máxima verosimilitud para la varianza no era insesgado. Entonces nos construíamos un estimador insesgado
$$ S^2 = \frac{1}{n-1} \cdot \sum_{i=1}^n (X_i-\bar{X})^2 $$
y lo que cambiaba era que en lugar de dividir por $n$ dividimos por $n-1$ de manera que nos quede un buen estimador insesgado para la varianza.
También vimos que si teníamos una muestra aleatoria de una población con distribución Bernoulli de parámetro $p$
$$ X_1,...X_n \overset{iid} \sim B(p) $$