martes, 3 de junio de 2014

DISTRIBUCION

Distribución $\chi ^2$

Si consideramos una v.a. $Z{\leadsto}{ {{\bf N} \left( 0,1 \right)} }$, la v.a. X=Z2 se distribuye según una ley de probabilidad distribución ${ \mbox{\boldmath$\chi$ } }^2$con un grado de libertad, lo que se representa como


\begin{displaymath}X{\leadsto}{ \mbox{\boldmath$\chi$ } }_1^2
\end{displaymath}


Si tenemos n v.a. independientes $Z_i{\leadsto}{ {{\bf N} \left( 0,1 \right)} }$, la suma de sus cuadrados respectivos es una distribución que denominaremos ley de distribución $\chi ^2$ con n grados de libertad,${ \mbox{\boldmath$\chi$ } }_n^2$.
\begin{displaymath}{
\mbox{\fbox{$\displaystyle
\{Z_i\}_{i=1}^n{\leadsto}{ {{\b...
...}^n \, Z_i^2 {\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2
$ } }
}
\end{displaymath}
La media y varianza de esta variable son respectivamente:

\begin{eqnarray}\html{eqn91}{ {{\bf E} \left[ X \right]} }&=&n
\\
{ {{\bf Var } \left[ X \right]} }&=&2n
\end{eqnarray}

y su función de densidad es:

\begin{displaymath}f_{\chi_n^2}(x)=\left\{
\begin{array}{l}
0 \qquad \mbox{si } ...
...rac{x}{2}} \qquad \mbox{si } x\in(0,\infty)
\end{array}\right.
\end{displaymath}


Los percentiles de esta distribución que aparecen con más frecuencia en la práctica los podemos encontrar en la tabla 5.

  
Figura: Función de densidad de $\chi _n^2$ para valores pequeños de n.
\includegraphics[angle=0, width=0.8\textwidth]{fig06-14.eps}


  
Figura: Función de densidad de $\chi _n^2$ para valores grandes de n.
\includegraphics[angle=0, width=0.8\textwidth]{fig06-15.eps}

En consecuencia, si tenemos $X_1,\dots,X_n$, v.a. independientes, donde cada $X_i{\leadsto}{ {{\bf N} \left( \mu_i,\sigma_i^2 \right)} }$, se tiene


\begin{displaymath}\sum_{i=1}^n \, \left(\frac{X_i -\mu_i}{\sigma_i}\right)^2
\: {\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2
\end{displaymath}



6.8.8.1 Observación

La ley de distribución ${ \mbox{\boldmath$\chi$ } }^2$ muestra su importancia cuando queremos determinar la variabilidad (sin signo) de cantidades que se distribuyen en torno a un valor central siguiendo un mecanismo normal. Como ilustración tenemos el siguiente ejemplo:

6.8.8.2 Ejemplo

Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes aproximados con la realidad, aunque existe cierta cantidad de error $\epsilon$ que se distribuye de modo normal con media 0 y desviación típica $\sigma=2$.


\begin{displaymath}X_{\mbox{real}} = X_{\mbox{exp}} + \epsilon,\qquad
\epsilon{\leadsto}{ {{\bf N} \left( \mu=0,\sigma^2=2^2 \right)} }
\end{displaymath}


Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo de n=100 pacientes. Nos interesa medir la cantidad de error que se acumula en las mediciones de todos los pacientes. Podemos plantear varias estrategias para medir los errores acumulados. Entre ellas destacamos las siguientes:
1.
Definimos el error acumulado en las mediciones de todos los pacientes como

\begin{displaymath}E_1 = \sum_{i=1}^n \epsilon_i
\end{displaymath}


¿Cuál es el valor esperado para E1?
2.
Definimos el error acumulado como la suma de los cuadrados de todos los errores (cantidades positivas):

\begin{displaymath}E_2 = \sum_{i=1}^n \epsilon_i^2
\end{displaymath}

Distribución normal o gaussiana

 Distribución normal o gaussiana

La distribución gaussiana, recibe también el nombre de distribución normal, ya que una gran mayoría de las v.a continuas6.3 de la naturaleza siguen esta distribución. Se dice que una v.a. X sigue una distribución normal de parámetros $\mu $ y $\sigma ^2$, lo que representamos del modo $X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }$6.4 si su función de densidad es:
\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(x) = {\scriptstyle \frac{1}{\...
...-\mu}{\sigma}\right)^2},\qquad
\forall \, x\in I\!\!R
$ } }
}
\end{displaymath}

6.8.6.1 Observación

Estos dos parámetros $\mu $ y $\sigma ^2$ coinciden además con la media (esperanza) y la varianza respectivamente de la distribución como se demostrará más adelante6.5:

\begin{eqnarray}\html{eqn64}{ {{\bf E} \left[ X \right]} }&=&\mu
\\
{ {{\bf Var } \left[ X \right]} }&=&\sigma^2
\end{eqnarray}

La forma de la función de densidad es la llamada campana de Gauss.

  
Figura: Campana de Gauss o función de densidad de una v.a. de distribución normal. El área contenida entre la gráfica y el eje de abcisas vale 1.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-07.epsi}

Para el lector es un ejercicio interesante comprobar que ésta alcanza un único máximo (moda) en $\mu $, que es simétrica con respecto al mismo, y por tanto${{\cal P}}[X\leq \mu]={{\cal P}}[X\geq \mu]=1/2$, con lo cual en $\mu $ coinciden la media, la mediana y la moda, y por último,calcular sus puntos de inflexión.
El soporte de la distribución es todo $I\!\!R$, de modo que la mayor parte de la masa de probabilidad (área comprendida entre la curva y el eje de abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se extienden asintóticamente a los ejes, de modo que cualquier valor ``muy alejado" de la media es posible (aunque poco probable).
La forma de la campana de Gauss depende de los parámetros $\mu $ y $\sigma $:
  • $\mu $ indica la posición de la campana (parámetro de centralización);
      
    Figura: Distribuciones gaussianas con diferentes medias e igual dispersión.
    \includegraphics[angle=0, width=0.9\textwidth]{fig06-08.eps}

  • $\sigma ^2$ (o equivalentemente, $\sigma $) será el parámetro de dispersión. Cuanto menor sea, mayor cantidad de masa de probabilidad habrá concentrada alrededor de la media (grafo de fmuy apuntado cerca de $\mu $) y cuanto mayor sea ``más aplastado" será.
      
    Figura: Distribuciones gaussianas con igual media pero varianza diferente.
    \includegraphics[angle=0, width=0.9\textwidth]{fig06-09.eps}

La función característica de la distribución normal, se comprueba más adelante que es


\begin{displaymath}\phi_X(t)= e^{it\mu-\frac{1}{2}t^2\sigma^2}
\end{displaymath}


Como consecuencia, la distribución normal es reproductiva con respecto a los parámetros $\mu $, y $\sigma ^2$, ya que
\begin{eqnarray}\html{eqn66}\left\{
\begin{array}{l}
X{\leadsto}{ {{\bf N} \left...
...N} \left( \mu_1+\mu_2,\sigma_1^2+\sigma_2^2 \right)} }
\nonumber
\end{eqnarray}


6.8.6.2 Observación

Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la encontramos en la mayoría de los fenómenos que observamos en la naturaleza, por ello gran parte de lo que resta del curso lo vamos a dedicar a su estudio y a el de las distribuciones asociadas a ella. Sin embargo, a pesar de su utilidad, hay que apuntar un hecho negativo para esta ley de probabilidad:


La función $\displaystyle e^{-x^2} $ no posee primitiva6.6 conocida6.7.

Las consecuencias desde el punto de vista práctico son importantes, ya que eso impide el que podamos escribir de modo sencillo la función de distribución de la normal, y nos tenemos que limitar a decir que:


\begin{displaymath}F(x) = P[X\leq x] = \int_{-\infty}^{x} f(t)\,dt =
{\scriptsty...
...x}
e^{-\frac{1}{2}\,\left(\frac{t-\mu}{\sigma}\right)^2}\, dt
\end{displaymath}


sin poder hacer uso de ninguna expresión que la simplifique. Afortunadamente esto no impide que para un valor de xfijo, F(x) pueda ser calculado. De hecho puede ser calculado con tanta precisión (decimales) como se quiera, pero para esto se necesita usar técnicas de cálculo numérico y ordenadores. Para la utilización en problemas prácticos de la función de distribución F, existen ciertas tablas donde se ofrecen (con varios decimales de precisión) los valores F(x) para una serie limitada de valores xi dados. Normalmente F se encuentra tabulada para una distribución Z, normal de media 0 y varianza 1 que se denomina distribución normal tipificada:
\begin{displaymath}{
\mbox{\fbox{$\displaystyle
Z{\leadsto}{ {{\bf N} \left( 0,...
...{2\pi}}}
e^{-\frac{z^2}{2}}\:\: \forall\, z\in I\!\!R
$ } }
}
\end{displaymath}