Estimación Bayesiana

Lo que estudiamos hasta ahora en esta segunda parte de estadística se conoce como el enfoque frecuentista, en donde se busca estimar un parámetro $\theta$ del cual no tenemos ningún conocimiento previo.

Este parámetro lo suponíamos como una constante desconocida a la cual podíamos estimar mediante muestras.

Consideremos nuevamente un problema estadístico de estimación paramétrico.

Tenemos $\underline{X} = (X_1, ..., X_n)$ una muestra aleatoria.

En el enfoque Bayesiano, a diferencia del frecuentista, supone que se tiene alguna información previa sobre mi parámetro desconocido $\theta$ expresada por medio de una distribución. Es decir que considera al parámetro desconocido como una VA con función de probabilidad o de densidad dependiendo si la variable es discreta o continua.

Como es una VA la vamos a llamar $\Theta$.

Esta distribución previa, que la llamamos distribución “a priori”, va a tener una densidad si de trata de una VAC o una función de probabilidad si se trata de una VAD:

  1. $f_{\Theta}(\theta)$ si es continua.
  2. $p_\Theta(\theta)$ si es discreta.

La distribución a priori puede tener distintas interpretaciones según el problema. Se pueden dar algunas alternativas. Por ejemplo, la distribución a priori podría estar basada en experiencias previas similares o simplemente acerca de una creencia subjetiva.