El sesgo es una variable aleatoria (pues \(b = \hat{E}_{\theta}\ \left[\ T\ \left(\overline{X}_n\right) \right] - F_Z, \text{con} \hat{E}_{\theta}\ \left[\ T\ \left(\overline{X}_n\right) \right] \sim N\left(p, \frac{p(1-p)}{n} \right)\) ) por lo que, al aumentar el valor de \(m\) , no siempre se aprecia una reducción del sesgo respecto al caso anterior. Sin embargo, en los casos anteriores sí se que se puede observar una tendencia: el sesgo tiende a cero conforme aumentamos el tamaño de las muestras. Por tanto, según la ley fuerte de los grandes números \(\hat{E}_{\theta}\ \left[\ T\ \left(\overline{X}_n\right) \right]\) es un estimador asintoticamente insesgado (o consistente) de \(F_Z=\mathbb{F}_Z\left(x=-\frac{\mu\sqrt{n}}{\sigma}\right)\). (Aquí no entiendo muy bien la diferencia entre estimador consistente e insesgado, ya que el primero se hace insesgado en el límite. ¿Acaso la media un estimador insesgado arroja siempre un valor correcto del parámetro sin importar el tamaño de la muestra?)
Si tomamos también \(n\ \rightarrow\infty\) la variable aleatoria \(\overline{X}_n\) se acercará cada vez más a \(N\left(\mu,\frac{\sigma}{\sqrt{n}}\right)\),sin embargo, también ocurriría lo siguiente: