![]() |
500 Variables aleatorias i.i.d. simuladas por una computadora |
Teorema (Teorema Central del límite)
Sea $X_1,X_2,...,$ una sucesion de variables aleatorias i.i.d. con $E(X_i)=\mu$ y $0<Var(X_i)={\sigma}^2< \infty$ definimos $\overline{X}_n=(1/n)\sum _{ i=0 }^{ n }{X_i}$, denotamos a la funcion de acumulación de $\sqrt{n}(\overline{X}_n-\mu)/\sigma$ como $G_n$. Entonces para todo $x \in (-\infty,\infty)$ $$\lim _{ n\rightarrow \infty }{ { G }_{ n }(x) } ={ \frac { 1 }{ \sqrt { 2\pi } } \int _{ -\infty }^{ x }{ e }^{ -y^{ 2 }/2 }dy } $$
Lema:
Si la sucesión de funciones características $\varphi_n(t)$ converge en cada punto t a una función $\varphi (t)$ continua en algún intervalo $|t| < \tau$ , entonces la sucesión $F_n (x)$ de las correspondientes funciones de distribución converge a la función de distribución $F(x)$ que corresponde a la función característica $\varphi(t)$
DEMOSTRACIÓN
Calcularemos la función característica de $G_n$ y haremos que tienda a infinito.Definimos a $G_n=\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma } =\frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } } $ y calculamos su función característica, $$\varphi_{\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma }}(t)=\varphi_{\frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } }}(t)$$
Este paso se da gracias al teorema 4.4.7 del libro de la fuente $$=\varphi_{Y_1}(\frac{t}{\sqrt{n}})\varphi_{Y_2}(\frac{t}{\sqrt{n}})...\varphi_{Y_n}(\frac{t}{\sqrt{n}})=\left[ \varphi_Y (\frac{t}{\sqrt{n}}) \right]^n$$Podemos calcular ese valor si lo expadimos en su serie de Taylor y calculamos sus elementos $$\varphi_Y \left( \frac{t}{\sqrt{n}} \right)=\sum _{ k=0 }^{ \infty }{ { { \varphi } }_{ Y }^{ (k) }(0) } \frac { { (t/\sqrt { n } ) }^{ k } }{ k! } $$ Para calcular las derivadas recordemos que al evaluar en cero hacemos referencia a los momentos k-esimos, es decir ${E}[X^k] = (-i)^k \varphi_X^{(k)}(0)$, así ya podemos calcular las primeras derivadas $\varphi_Y(0)=1$, $\varphi^{(1)}_Y(0)=iE(X)=0$ (ya que es una variable aleatoria reducida), $\varphi^{(2)}_Y(0)=-E(Y^2)=-1$, el resto no importa, veremos que el residuo tiende a 0. $${ \left[ \varphi_Y \left( \frac{t}{\sqrt{n}} \right) \right] }^{ n }={ \left[ 1-\frac { { t }^{ 2 } }{ 2n } +R_Y\left( \frac{t}{\sqrt{n}} \right) \right] }^{ n }$$Donde $R_Y$ es el error del polinomio, una de sus propiedades es que $\lim _{ n\rightarrow \infty }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } } } =0$ y si tomamos una $t$ fija, distinta de 0 tenemos que $\lim _{ n\rightarrow \infty }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } } } =\lim _{ n\rightarrow \infty }{ n } { R }_{ Y }\left( \frac { t }{ \sqrt { n } } \right) =0$ , por lo tanto calculando el limite de la función característica $$\lim _{ n\rightarrow \infty }{ \varphi _{ \frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } } }(t) } =\lim _{ n\rightarrow \infty }{ { \left[ 1-\frac { 1 }{ n } \left( \frac { { t }^{ 2 } }{ 2 } +nR_{ Y }\left( \frac { t }{ \sqrt { n } } \right) \right) \right] }^{ n } } ={ e }^{ { -t }^{ 2 }/2 }$$De esta manera vemos que la sucesión de funciones características converge a la función característica de una normal $\mathcal{N}(0,1)$
Con esto queda demostrado el teorema.
Fuente: Casella, George (2002), Statiscal Inference (2da edición), Duxbury.
Comentarios
Publicar un comentario