of 64 /64
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad. González J.J., Guerra N., Quintana M.P. y Santana A. 153 TEMA 7 VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

VARIABLES ALEATORIAS Y

  • Author
    others

  • View
    7

  • Download
    0

Embed Size (px)

Text of VARIABLES ALEATORIAS Y

Microsoft Word - FTema 7 Variab_aleat_y_distr_prob.docGonzález J.J., Guerra N., Quintana M.P. y Santana A. 153
TEMA 7
154 González J.J., Guerra N., Quintana M.P. y Santana A.
1. Variables Aleatorias. En muchos experimentos aleatorios los resultados no son intrínsecamente numéricos; el número resulta de aplicar un instrumento de medida (función) al objeto observado. Una variable aleatoria es una función que a cada suceso elemental de un espacio muestral le asigna un número. Ejemplos:
• Se elige al azar una montaña de un mapa y se mide su altura:
X( ) 3.714 m.
• Se elige al azar un pez entre todos los de una captura y se mide su longitud:
X( ) 2,24 m.
• Se pide a una persona elegida al azar que corra lo más rápido posible y se mide lo que tarda en recorrer 100 m.:
X( ) 32 seg. • Se lanzan dos dados y se mide cuánto vale la suma de sus caras
superiores:
González J.J., Guerra N., Quintana M.P. y Santana A. 155
Definición de variable aleatoria. Formalmente, dado un experimento aleatorio cuyo espacio muestral asociado es E, si denotamos por w a los sucesos elementales de este espacio, una variable aleatoria definida sobre E es una función:
X: E —
ω ∈E X r( )ω = ∈ —
que cumple, además que para todo valor x real el conjunto:
{ }( ) E

es un suceso de E. Puesto que el experimento cuyo resultado se está midiendo con X es aleatorio, el valor de X también será aleatorio (no es posible conocerlo hasta que se lleve a cabo efectivamente el experimento). Por tanto, cada posible valor de X tendrá asignada una determinada probabilidad. En particular, dado que el conjunto
{ }( ) E

es un suceso de E, tendrá asignada una cierta probabilidad, que por simplicidad se denotará como:
( ) { }( ) EP X x P X x
ω ω
156 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1: Sea el experimento “Tirar un dado”. El espacio muestral es entonces:
E = { } Los valores correspondientes a la variable aleatoria “Resultado obtenido” serían: X( ) = 1; X( ) = 2; X( ) = 3; X( ) = 4; X( ) = 5; X( ) = 6;
y sus correspondientes probabilidades:
= = = = = =
= = = = = =
, , ,
, ,
calcular ( ) { }( ) EP X x P X x
ω ω
P X P
P X P
P X P
P X P
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) }
Ejemplo 2: Sea el experimento aleatorio “Tirar dos dados”. El espacio muestral resultante es ahora:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
158 González J.J., Guerra N., Quintana M.P. y Santana A.
X( )=3
X( )=2
X( )=5
X( )=6
X( )=7
X( )=8
X( )=6
X( )=7
X( )=8
X( )=9
X( )=10
X( )=11
X( )=5
X( )=4
X( )=6
X( )=7
X( )=9
X( )=7
X( )=8
X( )=9
X( )=10
X( )=11
X( )=8
X( )=12
Si sobre este espacio medimos la variable X =”Suma de los dos dados” obtenemos: El espacio muestral contiene 36 elementos (todas las posibles parejas de resultados). Si los dos dados están bien construidos no hay razón para pensar que una pareja de valores sea más probable que otra. Por tanto, aplicando la regla de Laplace, cada pareja de valores tiene
probabilidad 1
González J.J., Guerra N., Quintana M.P. y Santana A. 159
Ahora bien, la variable aleatoria X sólo puede tomar 11 valores (los números del 2 al 12). La probabilidad de que X tome el valor concreto k, entre 2 y 12, es entonces la probabilidad del conjunto de parejas de valores que suman k:
P X k P X k P a b a b a b k= = =
RST UVW = ≤ ≤ ≤ ≤ + = RST
ω ,
0 055
0 083
5 1 4 4 1 2 3 3 2 4 36
0 111
6 1 5 51 2 4 4 2 3 3 5 36
0 138
7 1
b g b g b gm r
b g b g b g b gm r
b g b g b g b gb gm r
b g b g b g b g b g b gm r
b g
, ,
, , , ,
, , , , , ,
, , , , , , ) ,
, , , , , , , , , ,
,6 6 1 2 5 5 2 3 4 4 3 6 36
0 166
8 2 6 6 2 3 5 5 3 4 4 5 36
0 138
9 3 6 6 3 4 5 5 4 4 36
0 111
0 083
11 5 6 6 5
b g b g b g b g b g b gm r
b g b g b g b g b g b gm r
b g b g b g b g b gm r
b g b g b g b gm r
b g b g b
, , , , , , , , , , ,
, , , , , , , , , ,
, , , , , , , ,
, , , , , ,
, , ,
= =
= = = =
= = = =
= = = =
= =
= =
= = = =
0 027
, .,P X P
Nótese que en este caso los distintos valores que toma X no son equiprobables.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
160 González J.J., Guerra N., Quintana M.P. y Santana A.
1.1. Variables Aleatorias Discretas. Son aquéllas que toman un nº finito o numerable de valores. Ejemplos:
• X = ”Resultado de lanzar un dado“
X ∈ 1 2 3 4 5 6, , , , ,l q • Y = “Resultado de aplicar un tratamiento a un enfermo
y observar si se cura (1) o no se cura (0)”.
Y ∈ 1 0,l q • U = “Número de tornillos defectuosos fabricados por
una máquina”
U ∈ 0 1 2 3, , , ,...l q Función de probabilidad Dada una variable aleatoria discreta X, se define su función de probabilidad como la función que a cada valor x le asigna su probabilidad de ocurrencia:
f x P X x( ) = =b g Si llamamos M al conjunto de todos los valores que puede tomar X, es evidente que esta función cumple las siguientes propiedades:
0 1≤ ≤ ∀f x x( ) ,
f x x M
González J.J., Guerra N., Quintana M.P. y Santana A. 161
Ejemplo 1:
Si X es el resultado que se observa al tirar un dado, su función de probabilidad es:
f x x( ) , , , , ,= ∀ ∈R S| T|
1 6
0 l q
en otro caso
X 1 2 3 4 5 6
f(x) 1 6
162 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 2:
Si en cierta población de insectos el 30% son machos y el 70% hembras, y se elige al azar un insecto, siendo:
X = RST 0 si el insecto es hembra 1 si el insecto es macho
entonces la función de probabilidad de X es:
f x si x( ) ,
si x = 0 ,
en otro caso
y en forma gráfica:
González J.J., Guerra N., Quintana M.P. y Santana A. 163
Función de distribución de probabilidad Otra forma de describir la asignación de probabilidades a los distintos valores que puede tomar una variable aleatoria discreta X es a través de su función de distribución, definida como:
F x P X x P E X x( ) ( )= ≤ = ∈
≤ RST
ω ωb g
De esta forma, F(x) es la probabilidad acumulada por todos los sucesos que dan lugar a valores de X que son menores o iguales que x. Recuérdese que para que una variable aleatoria esté bien definida debe ocurrir que el conjunto { }( )
E X x
∈ ≤ sea un suceso de E y por tanto
tenga asignada una probabilidad; ello significa que la función de distribución de una variable aleatoria discreta siempre existe y está definida para todo valor x real.
Ejemplo: Si X es el resultado que se observa al tirar un dado, su función de distribución de probabilidad es:
F x
x
||||
0 1 1 6 1 2 2 6 2 3 3 6 3 4 4 6 4 5 5 6 5 6
1 6
164 González J.J., Guerra N., Quintana M.P. y Santana A.
Gráficamente:
2(2) ( 2) 6
4(4,7) ( 4,7) 6
F P X
F P X
= ≤ =
= ≤ =
= ≤ = − = ≤− =
González J.J., Guerra N., Quintana M.P. y Santana A. 165
Algunas propiedades de la función de distribución de una v.a. discreta: Es fácil observar que se cumplen las siguientes propiedades:
o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)
o
o
o
o F(x) es no decreciente; además F(x) es una función escalonada, cuyos saltos (escalones) se producen en los valores k tales que f(k)>0.
o
F k f j
k P X k P X j f j j k
j k j k
P a X b F b F a( ) ( ) ( )< ≤ = −
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
166 González J.J., Guerra N., Quintana M.P. y Santana A.
1.2. Variables Aleatorias Continuas. Son aquéllas que toman valores en un rango continuo.
Ejemplos:
• X = ”Longitud (en cm.) de un pez elegido al azar entre los de una captura“
X ∈ 5 300,
• Y = “Resultado de medir la proporción (en %) de alcohol en un recipiente con fruta en fermentación”
Y ∈ 0 100,
• U = “Distancia al centro de la diana medida desde la posición en que cae un dardo lanzado por un tirador experto”
U r∈ 0, (r es el radio de la diana)
Observación importante: Dado que en cualquier intervalo continuo (aunque sea finito) hay un número infinito de valores, la probabilidad de que una variable aleatoria continua X definida sobre ese intervalo1 tome un valor arbitrario x prefijado de antemano es siempre 0:
P X x x( )= = ∀0
E En el caso de variables aleatorias continuas no es posible definir la función de probabilidad del mismo modo que en el caso discreto 1 Se entiende que nos referimos a variables que, a priori, puedan tomar cualquier valor del intervalo, y no concentren su probabilidad en un número finito de valores del mismo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 167
No obstante, aunque cada valor individual x tenga una probabilidad 0 de ocurrir, les evidente que algunos rangos continuos de valores (esto es, intervalos de la forma [a,b]) han de tener asignada una probabilidad no nula. A modo de ejemplo, si a y b son, respectivamente, los valores mínimo y máximo que puede tomar la variable X, se tiene que P X a b∈ =,c h 1 . Ejemplo 1:
Disponemos de una cuerda de 1 metro de longitud y realizamos el experimento de tirar de sus extremos hasta que la cuerda se parta. Supongamos que la densidad del material con que está hecha la cuerda es completamente uniforme, de forma que a priori es igualmente probable que se rompa en cualquier punto: Sea X =”Posición del punto en que se parte la cuerda”. Obviamente, dado que existen infinitos puntos entre 0 y 1 en los que la cuerda puede romperse, la probabilidad de que se rompa en un punto x concreto es 0 cualquiera que sea x:
P X x x= = ∀ ∈b g 0 0 1, Ahora bien, dado que efectivamente la cuerda ha de romperse en algún punto, y todos son equiprobables, podemos aplicar la regla de Laplace para calcular, por ejemplo, la probabilidad de que la cuerda se parta en algún punto de la mitad izquierda:
( ) Medida del trozo [0,0.5] 0.5[0,0.5] 0.5 Medida de la cuerda 1
P X ∈ = = =
168 González J.J., Guerra N., Quintana M.P. y Santana A.
a b
x
La probabilidad de que la cuerda se parta en algún punto de un intervalo arbitrario [a,b] será, también por la regla de Laplace:
P X a b a b b a b a∈ = = −
= −[ , ] [ , ]b g Medida del trozo Medida de la cuerda 1
En particular, la probabilidad de que la cuerda se rompa en algún punto situado entre el extremo izquierdo y una posición arbitraria x (con 0 1≤ ≤x ) es:
P X x P X x x x( ) ,≤ = ∈ = = =0 1
c h Medida del trozo [0,x] Medida de la cuerda
Evidentemente P X x x P X x x( ) ( )≤ = < ≤ = >0 0 1 1 si y si
Ejemplo 2:
Un tirador inexperto lanza dardos contra una diana circular, de 1 metro de radio. Tras cada lanzamiento se mide la variable aleatoria
X=”distancia desde el punto donde ha acertado el dardo hasta el centro de la diana”
Al igual que en el ejemplo anterior, la probabilidad de que X tome un valor concreto x es siempre 0, cualquiera que sea el valor x elegido. Sin embargo, utilizando la regla de Laplace, podemos calcular fácilmente la probabilidad de que el dardo caiga, por ejemplo, a menos de 0.3 metros del centro.
0 1
0 1
González J.J., Guerra N., Quintana M.P. y Santana A. 169
En efecto, por ser el tirador inexperto podemos suponer que todos los puntos de la diana tienen la misma probabilidad de ser alcanzados. Por tanto la probabilidad de acertar a menos de 0.3 m. del centro será igual a la probabilidad de acertar en un circulo de 0.3 m. de radio cuyo centro es también el centro de la diana. Luego:
En general, la probabilidad de acertar a una distancia inferior a x metros del centro será:
P X x x x≤ = ⋅ ⋅
=b g π π
1
La probabilidad de acertar a una distancia entre a y b metros del centro será, a su vez:
P a X b P X b P X a b a≤ ≤ = ≤ − ≤ = −b g b g b g 2 2
1 m.
0.3 m.
P X ≤ = =
2 2
Área(círculo de radio 0.3) Área(círculo de radio 1)
π π
a b
170 González J.J., Guerra N., Quintana M.P. y Santana A.
Función de distribución de probabilidad
En general, dada cualquier variable aleatoria continua X, la función:
F x P X x( ) ( )= ≤
siempre estará definida para todo valor x real (ya que, por construcción, los conjuntos de la forma { }( )
E X x
∈ ≤ son
sucesos en el espacio muestral E y por tanto tienen asignada una probabilidad). Así, por ejemplo, si M es el mayor valor que puede tomar la variable aleatoria X, es claro que F M P X M( ) ( )= ≤ = 1 . Al igual que en el caso de las variables aleatorias discretas, esta función se denomina función de distribución.
Algunas propiedades:
o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)
o F(x) es continua y no decreciente
o
o Al ser P(X=x) = 0 para todo x real se tiene que:
P X x P X x
< = ≤
< < = ≤ < = < ≤ = ≤ ≤
b g b g b g b g b g( )
P a X b F b F a( ) ( ) ( )< ≤ = −
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 171
Ejemplo 3:
Supongamos que estamos en una situación idéntica a la del ejemplo 2, pero con un tirador de dardos experto. Ahora no podemos suponer que todos los puntos de la diana tienen la misma probabilidad de ser alcanzados. Al contrario, será mucho más probable acertar cerca del centro que de los bordes, siendo la probabilidad de acertar cerca del centro tanto mayor cuanto más experto sea nuestro tirador. Si consideramos nuevamente la variable aleatoria:
X=”distancia desde el el punto en que se clava el dardo hasta el centro de la diana”
la función de distribución de esta variable aleatoria podemos esperar que ahora sea de la forma:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
)
Esta función, como vemos crece muy deprisa entre 0 y 0.1; así, por ejemplo, vemos que ya para x=0.1 se tiene P X ≤ =01 0 97. .b g , o lo que es lo mismo, la probabilidad de que el dardo caiga a menos de 10 cm del centro de la diana es del 97% (que es lo que cabría esperar de un buen tirador). Si vamos mirando el resto de los valores (0.2, 0.4, 0.6, etc.), vemos que la probabilidad acumulada crece muy despacio, cosa que también es de esperar en un buen tirador, que ya ha acumulado prácticamente toda la probabilidad de acertar en los 10 cm. más próximos al centro de la diana.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
172 González J.J., Guerra N., Quintana M.P. y Santana A.
Una función que se comporta de esta forma y que, por tanto, podría ser un buen modelo para esta distribución de probabilidad es:
F x x x x( ) ,= +
+ − −L NM
O QP ≤ ≤
1 1
α α
βc he j
Como puede apreciarse, esta función cumple las siguientes condiciones, necesarias para que pueda servir como función de distribución de una variable aleatoria definida en [0,1]:
0 ( ) 1 [0,1] ( ) es continua [0] 0; [1] 1 ( ) 0 [0,1] (Por tanto F(x) es no decreciente en [0,1])
≤ ≤ ∀ ∈
= = ′ > ∀ ∈
Además, para α=0 la función anterior se reduce a F(x)=x2 que es justo la función de distribución que ya habíamos visto para el tirador inexperto. Como podemos ver en las gráficas siguientes, variando los valores de α y β podemos hacer que esta función se ajuste al comportamiento de tiradores con distintos grados de puntería:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
González J.J., Guerra N., Quintana M.P. y Santana A. 173
( ) ( )
x

− =
++ = −
+ + − +
En este caso, tomando α=-1, β=0 obtenemos también la función de distribución del tirador inexperto F(x)=x2. Al igual que antes, se cumplen las condiciones necesarias para ser función de distribución en [0,1], y variando los valores de α y β podemos ajustar el comportamiento de tiradores con distinto grado de puntería:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
)
La selección de este modelo o del anterior como el más adecuado a este experimento dependerá del grado de ajuste a datos muestrales debidamente obtenidos, o de consideraciones teóricas que lleven a preferir uno de los modelos sobre el otro.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
174 González J.J., Guerra N., Quintana M.P. y Santana A.
Función de densidad de probabilidad de una v.a. continua. Ya hemos visto que en el caso de las variables aleatorias continuas la probabilidad asignada a valores de x concretos, P(X=x), es siempre 0, mientras que la probabilidad asignada a intervalos finitos, P X a b∈ ,c h , sí que puede ser distinta de 0. Aunque no tenga mucho sentido preguntarse por la probabilidad de que ocurra exactamente el valor x, ya que sabemos que es 0, sí que podría tener sentido preguntarse por la probabilidad de que ocurra un valor en un entorno próximo a x, esto es:
P X x x x∈ +, bc h Esta expresión nos da la probabilidad total de que nuestro experimento aleatorio produzca un valor en un entorno de amplitud Dx a la derecha de x. Si dividimos esta cantidad por Dx obtenemos la densidad de probabilidad en ese entorno (dicho de otro modo, obtenemos la cantidad de probabilidad por unidad de medida en las proximidades de x):
P X x x x x
∈ +,
bc h
Si vamos tomando valores de Dx cada vez más pequeños, en el límite obtenemos la función de densidad de probabilidad en el punto x:
f x Lim P X x x x
xx ( )
González J.J., Guerra N., Quintana M.P. y Santana A. 175
Si ahora observamos que:
P X x x x P x X x x F x x F x∈ + = < ≤ + = + −, ( ) ( ) bc h b g
es inmediato deducir que:
x Lim F x x F x
x F x
0 0
bc h
Así pues, en el caso de variables aleatorias continuas, la función de densidad de probabilidad coincide con la derivada de la función de distribución:
f x F x( ) ( )= ′ Por tanto, la función de distribución puede obtenerse también integrando la función de densidad:
F x f s ds x
( ) ( )= −∞z
Gráficamente ello significa que el valor de la función de distribución en un punto x (o lo que es lo mismo, la probabilidad acumulada hasta x) coincide con el área encerrada bajo la función de densidad hasta ese punto:
( )f x , función de densidad
x
F(x)
176 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1:
Si volvemos a nuestro ejemplo de la cuerda, ya habíamos visto que la función de distribución de la variable X=”punto donde se rompe la cuerda al tirar de sus extremos”
F x x
x x x
f x F x x
x x
0 0 1 0 1 0 1
lo que refleja que la densidad de probabilidad de esta variable es constante en todos los puntos de la cuerda (resultado que era de esperar toda vez que es igualmente probable que la cuerda se rompa en cualquier punto). Ejemplo 2:
En el caso del tirador inexperto habíamos visto que la función de distribución de la variable:
X=”distancia desde el punto en que acierta el dardo al centro de la diana”
era:
F x P X x x x( ) ( ) ,= ≤ = ≤ ≤2 0 1
Por tanto la función de densidad de esta variable aleatoria es:
f x F x x x( ) ( ) ,= ′ = ≤ ≤2 0 1
lo que indica que la densidad de probabilidad aumenta linealmente con el valor de x.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 177
Ejemplo 3:
En el caso del tirador experto, la función de densidad sería:
f x x x x( ) ,= +
+ − ≤ ≤ −2
α αβ
βc he j
En su representación gráfica, que se muestra a continuación (para α=100, β=50), se observa que la densidad de probabilidad es grande cerca del cero (centro de la diana), lo que indica que es muy probable acertar en ese entorno, y decrece a medida que nos alejamos del centro, lo que indica que es difícil (muy poco probable) que el tirador experto llegue a lanzar el dardo lejos del centro.
0.0 0.2 0.4 0.6 0.8 1.0
0 1
2 3
4 5
178 González J.J., Guerra N., Quintana M.P. y Santana A.
Algunas propiedades de la función de densidad:
1 1
f x dx
P a X b P X b P X a F b F a f x dx
F x P X x f u du
a
b
x
= ≤ =b g
En la primera propiedad, por generalidad se han puesto como límites de integración −∞ e ∞ . Si la función de densidad sólo toma valores distintos de 0 en un intervalo [a,b], los límites de integración se restringen a los extremos de este intervalo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 179
1.3. Parámetros de una variable aleatoria En el tema anterior hemos visto la analogía existente entre el concepto de frecuencia relativa con que se presenta un valor en un conjunto de datos obtenidos generalmente mediante muestreo, y el concepto de probabilidad de que se produzca un valor concreto como resultado de un experimento aleatorio:
En particular una de las formas de asignar probabilidades a sucesos es precisamente tomar como probabilidad de un suceso dado la frecuencia relativa con que se presenta dicho suceso cuando el experimento aleatorio se realiza muchas veces, por lo cual ambos conceptos coinciden en este caso.
Y, aún cuando no se haya realizado una asignación frecuentista, la probabilidad de obtener al azar determinado valor en una población coincide con la proporción (que en definitiva también es la frecuencia relativa) en que dicho valor se halla presente en la población.
A la hora de sintetizar (resumir) los valores observados en un conjunto de datos, hasta ahora hemos hablado de medidas de posición (Media, mediana, moda, percentiles), medidas de dispersión (Varianza, desviación típica) y medidas de forma (momentos, simetría, apuntamiento). Estas medidas, de hecho, caracterizan la distribución de frecuencias relativas de los datos (la forma en que se reparten las frecuencias relativas entre los distintos valores): la media nos señala donde está el centro de esta distribución, la desviación típica nos indica si es una distribución muy concentrada o muy dispersa, la curtosis nos informa de su grado de apuntamiento ...
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
180 González J.J., Guerra N., Quintana M.P. y Santana A.
Estas medidas de síntesis pueden generalizarse de modo natural a las distribuciones de probabilidad de las variables aleatorias.
1 2 3 4 5 6
0. 00
0. 05
0. 10
0. 15
0. 20
0. 00
0. 05
0. 10
0. 15
0. 20
0. 00
0. 02
0. 04
0. 06
0. 08
0. 10
0. 12
x
y
En el caso de variables discretas, el diagrama de barras viene a ser lo mismo que el gráfico de la función de probabilidad; en el caso continuo, el histograma coincide conceptualmente con el gráfico de la función de densidad de probabilidad.
DIAGRAMA DE BARRAS RESULTANTE DE LANZAR UN DADO 1000 VECES
HISTOGRAMA DE LONGITUDES DE UNA MUESTRA DE 1000 PECES.
FUNCIÓN DE DENSIDAD DE LA VARIABLE ALEATORIA LONGITUD DEL PEZ
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 181
Del mismo modo que la media se sitúa en la posición central del diagrama de barras o del histograma, es posible definir un concepto equivalente que se sitúe en la posición central de la distribución de probabilidades. Al igual que la desviación típica mide la dispersión en el diagrama de barras o en el histograma, es posible con un concepto equivalente medir la dispersión en la distribución de probabilidades... Estos conceptos se conocen como parámetros característicos de la distribución de probabilidades de una variable aleatoria. Media, Varianza y momentos de una variable aleatoria Medidas de síntesis para datos medidos sobre una población de tamaño N: Recordemos que si hemos medido todos los valores de una variable en una población de tamaño N, en la que hay k valores distintos x1, x2, …, xk y donde fi = frecuencia relativa del valor xi, se definen las siguientes medidas de síntesis, cada una de ellas asociada a una característica distinta de la distribución de frecuencias de los datos:
Nombre Expresión matemática
1
182 González J.J., Guerra N., Quintana M.P. y Santana A.
Parámetros de una variable aleatoria discreta: Dada una variable aleatoria discreta X de la que conocemos su distribución de probabilidad:
X x1 x2 x3 ...... ........ xk
P X xi( )= p1 p2 p3 ....... ........ pk se definen sus parámetros de modo análogo a las medidas de síntesis anteriores. En este caso los parámetros miden características de la distribución de probabilidad:
Nombre Expresión Matemática Característica medida
Media o Esperanza
( )
[( ) ]
Forma (asimetría, apuntamiento)
Ejemplo: Si X = ”Lanzar un dado (equilibrado)”: La posición central de la distribución de probabilidad de esta variable es:
1
1 1 1 1 1 1[ ] 1 2 3 4 5 6 3,5 6 6 6 6 6 6
k
2 2 2 2 2
1
1 1 1[ ] ( ) (1 3,5) (2 3,5) ..... (6 3,5) 2,91 6 6 6
k
= = − = − ⋅ + − ⋅ + + − ⋅ =∑
González J.J., Guerra N., Quintana M.P. y Santana A. 183
Parámetros de una variable aleatoria continua Dada una variable aleatoria continua X de la que conocemos su función de densidad de probabilidad f(x), si dx es una cantidad infinitesimal, el producto f(x) dx mide aproximadamente la cantidad de probabilidad en el intervalo [x, x+dx]. Con esta idea en mente, pueden generalizarse al caso continuo las medidas vistas para el caso discreto, con la consideración obvia de que las sumas habrán de ser sustituidas por integrales:
Nombre Expresión Matemática Característica medida
Media o Esperanza [ ] ( )E X x f x dxµ

−∞ = = ∫
E x
σ µ
( ) ( )
[( ) ]
E x
Ejemplo:
En el caso del tirador de dardos inexperto, la función de densidad de probabilidad de la variable:
X=”distancia a la que cae el dardo desde el centro de la diana”
Es, como ya hemos visto, f(x)=2x 0≤x≤1. La distancia media a la que caen los dardos lanzados por este tirador sería entonces:
E X x f x dx x x dx x dx x = = = =
O QP = =
2 3
0
1
La dispersión de los diferentes puntos de acierto vendría dada por:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
184 González J.J., Guerra N., Quintana M.P. y Santana A.
Var X x f x dx x x dx x x x dx
x x x dx x x x
( ) ( )
,
Desv Tip X Var X. .( ) ( ) , ,= = =183 1 354
Interpretación de los parámetros de una v.a. Esperanza: representa la media de todos los valores que tomaría la variable aleatoria X si el experimento aleatorio que da lugar a esta variable se realizara un número muy grande de veces. Varianza: representa la varianza de todos los valores que tomaría la variable aleatoria X si el experimento aleatorio que da lugar a esta variable se realizara un número muy grande de veces.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 185
Algunas propiedades de la media y la varianza de variables aleatorias. Sea X una variable aleatoria (discreta o continua).
1. Cambio de escala: si Y = c·X
µ µ
Y X
Y X
= = = =
= − = − = − = =
[ ] [ ]
[( ) ] [( ) ] [ ( ) ] | |
2. Traslación: si Y = X+c
µ µ
Y X
E Y E X c c
= = + = + = +
= − = + − − = =
[ ] [ ]
[( ) ] [( ) ]2 2 2 2
Esperanza de una función de una variable aleatoria. Es frecuente en la práctica que del valor que tome una variable aleatoria X dependa una función de la misma g(X). Se define entonces la esperanza de esta función como:
E g X g x p
g x f x dx
i i i
=



Si X es una v.a. discreta
( ) Si X es una v.a. continua -
siendo pi=P(X=xi) la función de probabilidad de X en el caso discreto y f(x) la función de densidad de probabilidad de X en el caso continuo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
186 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1:
Supongamos que apostamos en un juego de dados de la siguiente forma: Se tira un dado; si sale número par ganamos 1 €; si sale número impar perdemos 1€. ¿Cuál será nuestra ganancia (o pérdida) esperada en este juego?
En este caso la función g(x) que mide la ganancia en el juego es:
g x
( ) =
− = =
− = =
− = =
1 4 1 5
y su valor esperado:
( ) ( )= = − + − + − + =
= − ⋅ + ⋅ − ⋅ + ⋅ − ⋅ + ⋅ =
= ∑
1
6
1 2 3 4 5 61 1 1 1 1 1
1 1 6
1 1 6
1 1 6
1 1 6
1 1 6
1 1 6
0
Así pues, por término medio en este juego no ganaremos (ni perderemos) nada.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 187
Ejemplo 2:
Supongamos que somos malos tiradores de dardos y que jugamos del siguiente modo: lanzamos un dardo a una diana de un metro de diámetro; si acertamos a menos de 10 cm. del centro ganamos 20 €; si acertamos entre 10 y 20 cm del centro ganamos 10 €; si nuestro dardo cae a más de 20 cm. del centro perdemos 1 €. ¿Merece la pena jugar a este juego? En este caso, la función que mide la ganancia en el juego es:
g x Si x
Si x Si x
1 0 2
y su valor esperado sería (recordemos que la función de densidad del mal tirador de dardos era f(x)=2x para x entre 0 y 1):
E g x g x f x dx g x x dx x dx x dx x dx
x x x
( ) ( ) ( ) ( )
. . . .
. . . .
.
..
. .
.
.
.
= = = ⋅ + ⋅ + − ⋅ =
= + − = −
−∞
∞z z zz z2 20 2 10 2 1 2
40 2
20 2
2 2
20 0 01 10 0 04 0 01 1 0 04
0 2 0 3 0 96 0 91
0
1
b g b g
Por tanto, de jugar reiteradamente a este juego, podemos esperar perder, por término medio, 0.91 €.
Distribuciones discretas notables Distribución uniforme discreta
Es la distribución de probabilidad de una variable aleatoria que toma un número finito k de valores, siendo todos equiprobables. Su función de probabilidad es de la forma:
X x1 x2 x3 ...... ........ xk P X xi( )=
1 k
1 k
1 k
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
188 González J.J., Guerra N., Quintana M.P. y Santana A.
µ = = = = = = = ∑ ∑ ∑E X x p x
k k xi i
1
2
1
2
1
k k xi i
Ejemplo: Si X = ”Resultado obtenido al lanzar un dado equilibrado”
µ = = = = = = = ∑ ∑E X p x ii i i
k
i
61 6
3 5 2 91= = − = − = = = ∑ ∑V X p x ii i i
k
i
González J.J., Guerra N., Quintana M.P. y Santana A. 189
Distribución de Bernoulli Es la distribución de probabilidad de una variable aleatoria que sólo admite dos resultados “éxito” o “fracaso” ( 1 ó 0 ) siendo sus probabilidades respectivas p y 1-p, con 0 1≤ ≤p .
Su función de probabilidad es, por tanto:
f x P X x p p para xx x( ) ( ) ( )= = = − =−1 0 11 ó o, expresada de otra forma:
f P X p f P X p
( ) ( ) ( ) ( ) 1 1 0 0 1 = = = = = = −
Su media y varianza vienen dadas por:
µ
V X p x p p p p p p
i i i
1 1 0 1
Ejemplo 1: Si se realiza el experimento aleatorio consistente en lanzar una moneda equilibrada y se define la variable aleatoria:
X = RST 0 1
1 2
P X
P X
µ
σ
X
X
p
190 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 2: Se realiza el experimento aleatorio consistente en lanzar un dado equilibrado y se define la variable aleatoria:
X = RST 1 0
si sale múltiplo de 3 si no sale múltiplo de 3
La función de probabilidad en este caso es:
P X
P X
González J.J., Guerra N., Quintana M.P. y Santana A. 191
Distribución binomial B(n,p)
Es la distribución de probabilidad de la variable aleatoria:
X = “Número de éxitos obtenidos al repetir n veces un experimento de Bernoulli, siendo p la probabilidad de éxito en cada experimento, y siendo cada repetición independiente de las anteriores”
La variable binomial suele denotarse como:
X B n p≈ ( , )
Obviamente, al realizar n experimentos sólo son posibles entre 0 y n éxitos, luego X n∈{ , , ,...., }0 1 2
Su función de probabilidad es:
f x P X x n x
p p para x nn p x n x
, ( ) ( ) ( ) ; , , ,....,= = = F HG I KJ − =−1 0 1 2
Es evidente que cada una de estas probabilidades es no negativa. Es fácil comprobar también que la suma de todas las probabilidades para x = 0, 1, 2, ...,n es 1. En efecto:
P X n P X P X P X n
f f f n n
p p n
p p n
n
, ,..., ( ) ... ( )
( ) ( ) ... ( )
( ) ( ) ( ) ...... ( )
( )
l qc h b g
b g (hemos empleado simplemente la expresión del desarrollo del binomio de Newton)
La media y varianza de la distribución binomial son:
µ
= ⋅
192 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo: Se sabe que en una población la proporción de machos es del 40% (o lo que es lo mismo, si se elige al azar un ejemplar de esta población, la probabilidad de que sea macho es P(macho)=0.4). Supongamos que se eligen al azar 3 ejemplares. Determinar la función de probabilidad de la variable:
X = ”Número de machos entre los 3 elegidos”
Al elegir un individuo de la población y observar su sexo, solo hay dos resultados posibles: macho o hembra, con probabilidades respectivas 0.4 y 0.6. La variable X es, por tanto, B(3, 0.4), y:
P X x x
P X P X
P X P X
0 3 0
0 4 0 6 1 1 0 216 0 216 1 3 1
0 4 0 6 3 0 4 0 36 0 432
2 3 2
0 4 0 6 3 016 0 6 0 288 3 3 3
0
0 3 0 1 3 1
2 3 2 4 0 6 0 4 0 0643 3 3 3( . ) . .− = =
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 193
Distribución binomial negativa BN(k,p)
Supongamos que un experimento de Bernoulli (con probabilidad p de éxito) se repite sucesivas veces independientes hasta que se observa el k-ésimo éxito (por ejemplo, se tira una moneda al aire sucesivas veces hasta que sale cara por k-ésima vez). Se denomina distribución binomial negativa a la distribución de probabilidad de la variable aleatoria:
X = “Número de experimentos que ha sido necesario realizar hasta obtener el k-ésimo éxito”
La variable binomial negativa suele denotarse como:
X BN k p≈ ( , )
Obviamente, para obtener k éxitos será necesario hacer como mínimo k experimentos. Por tanto X k k k∈ + +{ , , ,....}1 2
Ejemplo: Se sabe que en una población la proporción de machos es del 40% ¿cuál es la probabilidad de que para conseguir 3 machos haya que elegir 15 ejemplares? Sea X=”Número de ejemplares que hay que observar hasta conseguir tres machos”
De acuerdo con lo visto, Y≈ BN(3, 0.4). Ahora bien, si es preciso observar 15 ejemplares para obtener el tercer macho, entonces debe ocurrir que entre los 14 primeros ejemplares observados haya 2 machos y 12 hembras, y que el decimoquinto ejemplar observado sea macho. Si llamamos Y =”número de machos en 14 ejemplares”
Z = “Sexo del decimoquinto ejemplar” se tiene que, debido a la independencia entre los ejemplares observados:
P X P Y Z Macho P Y P Z Macho( ) ( " ") ( ) ( " ")= = = ∩ = = = ⋅ =15 2 2b gc h
Obviamente la variable Y sigue una distribución binomial B(14, 0.4), y la Z una distribución de Bernoulli de parámetro 0.4. Por tanto:
P X P Y P Z Macho( ) ( ) ( " ") . . . . .= = = ⋅ = = F HG I KJ ⋅ ⋅ ⋅ =
F HG I KJ ⋅ ⋅15 2
14 2
0 4 0 62 12 3 12
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
194 González J.J., Guerra N., Quintana M.P. y Santana A.
Razonando como en este ejemplo, es fácil ver que la expresión general de la función de probabilidad de una variable con distribución binomial negativa BN(k,p) es:
P X x f x k p x k
p p para x k k kk x k( ) ( ; , ) ( ) ; , , , ....= = = − − F HG I KJ − = + +−1
1 1 1 2
2 2
González J.J., Guerra N., Quintana M.P. y Santana A. 195
Distribución geométrica Geo(p)
Es una Binomial Negativa con k=1, y probabilidad p de éxito, esto es:
X = “Número de experimentos independientes de Bernoulli que es preciso realizar hasta que ocurre el primer éxito”
Se denota como:
X Geo p≈ ( )
Obviamente, para obtener el primer éxito es preciso realizar al menos un experimento. Por tanto X∈{1,2,3, ...}. Su función de probabilidad es de la forma:
P X x p p xx( ) ( ) ; , , ,.....= = − ⋅ =−1 1 2 31
y su media y varianza son:
2 2
µ σ − = =
Ejemplo: El 75% de los sujetos de una población pertenecen al grupo sanguíneo A+. Supongamos que los donantes de sangre llegan al azar al centro de extracción. Si se elige un día arbitrario, determinar la función de probabilidad de la variable: X =”nº de individuos a los que se les extrae sangre hasta conseguir uno con el
grupo A+”
( ) (0.75) ( ) (1 )
( 1) (1 ) 0, 25 0,75 0.75 ( 2) (1 ) 0, 25 0,75 0.1875 ( 3) (1 ) 0,25 0,75 0.046875 ( 4) (1 ) 0, 25 0,75 0.01171875
x
X Geo p Geo P X x p p





≈ ≡
= = −
= = − = ⋅ =
= = − = ⋅ =
= = − = ⋅ =
= = − = ⋅ =
Podemos interpretar estas probabilidades del siguiente modo: el 75% de los días el primer individuo al que se extrae sangre es A+; el 18.75% de los días, el primer A+ es el segundo individuo al que se pincha; el 4.68% de los días es preciso pinchar a 3 para conseguir el primer A+…
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
196 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución Hipergeométrica.
Supongamos que se dispone de una población finita de tamaño N, que está dividida en dos grupos (r éxitos y N-r fracasos). Se denomina distribución Hipergeométrica a la distribución de probabilidad de la variable aleatoria:
X = “Número de éxitos obtenidos al extraer al azar y sin reemplazamiento n objetos de esta población”
La variable con distribución hipergeométrica suele denotarse como:
( , , )X H n N r≈
Si llamamos p a la proporción de éxitos en la población, esto es,
rp N
( , , )X H n N p≈
La función de probabilidad de esta variable aleatoria es:
{ } { }( ) , 0, ( ) ,....., ,
r N r x n x
− − = = = − −

( ) ( ) ( )2 2
X
X
n r n p N r N r n N n N n
n p p N N N
µ
σ
= =
− − − = = −
− −
NOTA: Es evidente que si en el experimento donde surge la distribución hipergeométrica se realiza reemplazamiento, la variable X considerada tendría distribución binomial. Debe señalarse que, aún habiendo reemplazamiento, si N es grande es muy difícil que un mismo objeto de la población sea elegido aleatoriamente dos ó más veces, lo que es equivalente a que no haya reemplazamiento. Ello significa que la distribución hipergeométrica se va pareciendo cada vez más a la binomial a medida que N crece.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 197
Ejemplo: De una urna en la que hay 10 bolas blancas y 5 bolas negras, se extraen 8 bolas sin reemplazamiento. ¿Cual es la probabilidad de que entre estas ocho haya 4 bolas negras?
Sea:
X = “nº de bolas negras en la muestra” º H(n,N,r) donde:
8 15
5 15 5 5 10 4 8 4 4 4
( 4) 0.1631 15 15 8 8
P X
198 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución de Poisson P(λ)
Una variable aleatoria discreta se dice que es una variable de Poisson, si su función de probabilidad es de la forma:
P X x x
; , , , , ....= = =−λ λ 0 1 2 3
siendo λ un valor real positivo. Su media y su varianza son:
µ λ
=2
La distribución de Poisson surge como límite de la distribución binomial B(n,p) cuando n Ø ¶ y p Ø 0, a la vez que el producto np Ø l. En efecto, si Xº B(n,p) entonces:
0 0
( 1)...( 1)lim
n n n p p np np
k n k k n k
n n
k k n n
n n n n k n k k n n k n n
n n n k n
λ λ
λ λ
n kk
λ

− −
→∞
− =
− = ⋅ ⋅ − ⋅ ⋅ − − − =
En general, la distribución de Poisson constituye un modelo de probabilidad adecuado para aquellas variables aleatorias que cuentan el número de puntos que se encuentran en cierto espacio continuo, siempre y cuando estos puntos se encuentren repartidos completamente al azar. A modo de ejemplo podemos citar:
− Número de nidos en una zona boscosa (los puntos son los nidos y el espacio continuo es el área donde se ubica la zona boscosa)
− Número de estrellas en cierta porción del firmamento (los puntos son las estrellas y el espacio continuo es el área que se está observando)
− Número de llamadas telefónicas recibidas en una centralita a lo largo de un día (los puntos son los instantes en que se producen las
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 199
llamadas, y el espacio continuo en que se sitúan estos puntos es el tiempo transcurrido entre las 0 y las 24 horas)
La distribución de Poisson constituye una buena aproximación de la binomial B(n,p) cuando se dan las condiciones siguientes:
1) n es grande (n≥20) 2) p es pequeño (p≤0.05)
en cuyo caso
( , ) ( )B n p P λ≅ , siendo n pλ = ⋅
Ejemplo: Supongamos que un microcircuito consta de 300 componentes, siendo la probabilidad de fallo de cada uno de 0.005. Para que el microcircuito funcione tienen que estar operativos todos los componentes. ¿Cuál es la probabilidad de que falle el microcircuito? Si llamamos: X = “Número de componentes que fallan en el microcircuito” se tiene que X º B(300, 0.005). Por tanto: P(falle el microcircuito) = P(falle alguno de sus componentes) =
1-P(no falle ningún componente) = 1 – P(X = 0) =
= 0 300 0 300300 1 0.005 (1 0.005) 1 0.995 1 0.2222922=0.7777078
0 −
− − = − = −
Para obtener esta probabilidad hemos tenido que hallar 0.995 elevado a 300, cálculo que no es sencillo, incluso para una calculadora (aquí se ha obtenido utilizando ordenador). Dado que se cumplen las condiciones 1 y 2 citadas más arriba, la variable X puede aproximarse mediante una distribución de Poisson de parámetro np = 1.5. Con esta aproximación:
P(fallo) = 0
P X e−− = = − = − =
Este valor sí que puede ser fácilmente obtenido con calculadora. La diferencia con el valor exacto, obtenido antes, es de 0.0008379603. Por tanto vemos que la aproximación mediante la distribución de Poisson funciona razonablemente bien y es aconsejable su uso cuando no se dispone de medios informáticos avanzados.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
200 González J.J., Guerra N., Quintana M.P. y Santana A.
Aditividad de la Poisson
Si 1 1 2 2( ) y ( )X P X Pλ λ≈ ≈ , y además son independientes entonces:
1 2 1 2( ) X X P λ λ+ ≈ + En general, si 1 2, ,..., ( )nX X X P λ≈ , y además son independientes entonces:
1
( ) n
González J.J., Guerra N., Quintana M.P. y Santana A. 201
Distribuciones continuas notables
Distribución uniforme en (a,b) Una variable aleatoria X sigue una distribución uniforme en el intervalo real (a,b), y se denota X º U(a,b), si y solo si su función de densidad de probabilidad viene dada por:
f x a b b a si a x b
en otro caso a b
b a
En la práctica, esta distribución corresponde a variables del tipo:
X = “Resultado de elegir al azar un valor del intervalo (a,b), siendo equiprobables todos los valores del mismo”
X U≈ ( , )2 6
Ejemplo: X = “Distancia, medida desde el extremo inicial, a la que se rompe una cuerda homogénea de 1 metro cuando se tira con igual fuerza de ambos extremos” º U(0,1),
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
202 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución exponencial Una variable aleatoria X sigue una distribución exponencial de parámetro q, y se denota X º exp(q), si y solo si su función de densidad de probabilidad viene dada por:
2 2
en otro caso
1 2
X Exp ≈
En la práctica, esta distribución aparece asociada a variables que miden la distancia entre sucesos puntuales que se dispersan completamente al azar en un medio continuo y que, por tanto, tienen distribución de Poisson (tales como, por ejemplo, el tiempo transcurrido entre la caída de dos rayos sucesivos durante una tormenta, la distancia entre dos nidos de ave en un bosque, el tiempo transcurrido entre dos llamadas telefónicas, etc.).
Ejemplo: El número de rayos que caen durante la fase central de una tormenta tropical sigue una distribución de Poisson de media l=22
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 203
rayos por minuto. ¿Cuál es la probabilidad de que entre la caída de dos rayos sucesivos transcurran como mucho 3 segundos? Si llamamos:
X = “Tiempo transcurrido entre dos rayos sucesivos”
debemos calcular la probabilidad de que X sea menor que 3. Para ello consideremos la variable:
Y = “Número de rayos que caen en 3 segundos”
Dado que durante la fase central de la tormenta caen por término medio 22
rayos por minuto, y 3 segundos es la vigésima parte de un minuto ( 1 20
min.),
cabe esperar que cada 3 segundos caigan, por término medio 122 1,1 20 ⋅ =
rayos. Por tanto la variable Y sigue una distribución de Poisson de parámetro 1,1. Entonces:
1,1( 3) 1 ( 3) 1 ( 0) 1P X P X P Y e−≤ = − > = − = = −
(Hemos usado aquí el hecho de que el suceso {X>3}, esto es, que pasen más de 3 segundos entre dos rayos sucesivos, es igual que el suceso {Y=0}, que en un periodo de 3 segundos no caiga ningún rayo, y por tanto las probabilidades de ambos sucesos coinciden). En general, si llamamos t al tiempo (en minutos) transcurrido entre dos rayos sucesivos, la expresión anterior puede generalizarse como:
( ) 1 , 0tP X t e tλ−≤ = − ≥
Esta expresión es, por definición, la función de distribución de la variable aleatoria X:
( )( )F t P X t= ≤
y por tanto, la función de densidad será su derivada:
( ) '( ) , 0tf t F t e tλλ −= = ≥
De esta forma, hemos comprobado que la función de densidad de la distribución exponencial (de parámetro 1/l) aparece asociada a la distancia entre eventos puntuales cuyo número sigue una distribución de Poisson (de parámetro l).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
204 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución gamma Una variable aleatoria X sigue una distribución Gamma de parámetros a y b, denotada como X ºGamma(a,b), con a>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:
1
en otro caso
α α ββ
ii) Γ( ) ( )!n n n N= − ∀ ∈1
X Gamma≈ ( , . )2 8 4
En el caso particular de que a = n entero y b=nm, la variable X ºGamma(n,nm) es la que se obtiene como resultado de sumar n variables con distribución exponencial de idéntico parámetro m. Siguiendo con el ejemplo de la página anterior el tiempo transcurrido hasta la caída de los próximos tres rayos de la tormenta seguiría una distribución Gamma(3,3ÿ22) ª Gamma(3,66).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 205
Distribución beta Una variable aleatoria X sigue una distribución Beta de parámetros a y b, denotada como X ºBeta(a,b), con a>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:
f x x x si x
en otro caso
α β1 1
X Beta≈ ( . , . )4 2 2 3
Una de las principales aplicaciones de la distribución Beta es el ajuste de distribuciones teóricas a datos empíricos, ya que su función de distribución adopta formas muy diversas según cuáles sean los valores de a y b, tal como podemos comprobar en los siguientes gráficos:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
206 González J.J., Guerra N., Quintana M.P. y Santana A.
0.0 0.2 0.4 0.6 0.8 1.0
0. 6
0. 8
1. 0
1. 2
1. 4
1. 0
1. 5
2. 0
2. 5
3. 0
0. 0
0. 5
1. 0
1. 5
2. 0
0. 0
0. 5
1. 0
1. 5
2. 0
0 1
2 3
4 5
0. 0
0. 5
1. 0
1. 5
2. 0
2. 5
3. 0
González J.J., Guerra N., Quintana M.P. y Santana A. 207
Distribución Weibull Una variable aleatoria X sigue una distribución Weibull de parámetros b y l, denotada como X º W(b,l), con l>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:
1
donde y
ββ α
0.02
0.04
0.06
0.08
(2,9)X W≈
Distribución normal Una variable aleatoria X sigue una distribución Normal de parámetros m (media) y s (desviación típica), y se denota como X º N(m,s), con s>0, si y solo si su función de densidad de probabilidad viene dada por:
f x e x x
X
X
208 González J.J., Guerra N., Quintana M.P. y Santana A.
Nótese que f(x) es una función simétrica respecto a µ, esto es f(µ-x) = f(µ+x)
En la práctica, la distribución normal aparece asociada a variables aleatorias que se comportan de tal manera que lo más probable es observar valores en torno a la media; y que los valores cada vez más alejados de la media, bien sea hacia arriba o hacia abajo, van siendo progresivamente más difíciles de observar. Muchas variables biológicas se comportan aproximadamente de esta forma: la talla, el peso, la temperatura corporal, etc. También se comportan de esta manera los errores de medida. La distribución normal es una de las más frecuentes en la naturaleza, cosa que se justifica por la acción del teorema central del límite, que veremos más adelante. Este teorema indica que si una variable se obtiene como resultado de la suma de efectos de muchas otras variables independientes, la variable resultante tiene necesariamente distribución normal.
La distribución normal estándar El caso particular en que X sigue una distribución normal con µ σ= =0 1y se conoce con el nombre de distribución normal estándar:
f x e x x
X
X
( ) = − ∞ < < ∞ RST
0. 00
0. 05
0. 10
0. 15
0. 20
González J.J., Guerra N., Quintana M.P. y Santana A. 209
La distribución normal estándar se suele denotar con la letra Z, y tal como se aprecia en la siguiente gráfica, correspondiente a dicha distribución, prácticamente toda su probabilidad se concentra entre –4 y 4, esto es, P Z( )− ≤ ≤ ≅4 4 1:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
210 González J.J., Guerra N., Quintana M.P. y Santana A.
Teorema: (Tipificación de una variable normal) Si X ≈ N(m,s), entonces:
Z X N= −
σ ( , )0 1
Consecuencia importante de este teorema: Este teorema nos permite calcular las probabilidades asociadas a cualquier variable aleatoria N(m,s) en función de las probabilidades asociadas a la normal estándar N(0,1). En efecto:
P X x P X x P X x P Z x( )≤ = − ≤ − = −
≤ −F
F x F x X Z( ) = −F
HG I KJ
µ σ
Recordemos que al proceso de restar a una variable su media y dividirla por su valor típico se le denomina tipificación de la variable.
Los valores de la función de distribución FZ (z) de la variable N(0,1) se encuentran tabulados. De esta forma, si deseamos calcular FX(x) para una variable X ≈ N(m,s), simplemente procederemos a tipificar el valor de x, restándole µ y dividiendo por σ, y buscaremos
el correspondiente valor F x Z
−F HG I KJ
González J.J., Guerra N., Quintana M.P. y Santana A. 211
Sumas y Promedios de variables con distribución normal.
Una propiedad importante de la distribución normal es la siguiente: Si X1, X2, ..., Xn son variables aleatorias independientes tales que Xi
≈ N(µi,σi) ∀i, entonces:
X X X X
2 2 2
2 2 2
e j
En el caso particular de que todas las Xi tengan las mismas media y varianza, esto es, µ µ σ σi i i= = ∀, 2 2 , las expresiones anteriores se reducen a:
S X X X N n n
X X X X
µ σ
µ σ
d i
Cambio de escala de variables con distribución normal. Si una variable normal X se cambia de escala (se multiplica por una constante k), la variable resultante es también normal, con la media y la desviación típica multiplicadas por el mismo factor de escala, esto es:
Si X N Y k X N k k≈ ⇒ = ⋅ ≈( , ) ( , )µ σ µ σ
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
212 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribuciones relacionadas con la Normal
Distribución χ2 de Pearson
Una variable aleatoria X sigue una distribución Chi-Cuadrado de Pearson con n grados de libertad ( χ n
2 ) si y solo si su función de densidad de probabilidad viene dada por:
f x n
x e x
2
2
Γ
µ
σ
Esta variable puede verse como un caso particular de la Gamma,
concretamente la Gamma n 2
1 2
,FHG I KJ
Seguidamente se muestra la gráfica de la χ n 2 para diversos valores
de n:
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5
González J.J., Guerra N., Quintana M.P. y Santana A. 213
Si Z1, Z2, ..., Zn son n variables aleatorias N(0,1) independientes, puede probarse que la suma de sus cuadrados:
X Z Z Zn= + + +1 2
2 2 2...
sigue una distribución Chi-Cuadrado con n grados de libertad. En la práctica la distribución χ n
2 aparece asociada a problemas de inferencia sobre la varianza de poblaciones con distribución normal.
Distribución F de Fisher-Snedecor Una variable aleatoria X sigue una distribución F de Fisher- Snedecor con n grados de libertad (Fm,n) si y solo si su función de densidad de probabilidad viene dada por:
f x m n m n
m n x n mx x
n n
m n
+ ≤ < ∞
µ σ
A continuación se representa la función de densidad de la Fm,n para diversos valores de m y n :
0 1 2 3 4 5 6
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5
0. 6
0. 7
214 González J.J., Guerra N., Quintana M.P. y Santana A.
Si X es una variable aleatoria con distribución χm 2 e Y es otra
variable independiente de la anterior y con distribución χ n 2 , puede
probarse que la variable:
=
sigue una distribución F de Fisher-Snedecor con m y n grados de libertad. Expresado de otra forma:
χ
χ
m
m
n
F
2
2 ≈ ,
De aquí se sigue también la siguiente propiedad de la distribución F:
Si X F X
Fm n n m≈ ⇒ ≈, , 1
En la práctica, la distribución F aparece en problemas de inferencia estadística en los que a partir de información muestral es preciso decidir sobre la igualdad o no de dos varianzas poblacionales desconocidas.
Distribución t de Student Una variable aleatoria X sigue una distribución t de Student con n grados de libertad (tn) si y solo si su función de densidad de probabilidad viene dada por:
f x
+ F HG I KJ − ∞ < < ∞
π
A continuación se representa la función de densidad de la tn para diversos valores de n. Como puede apreciarse, esta distribución es simétrica respecto al eje de ordenadas y también tiene una forma acampanada (aunque algo más estrecha que la normal). En cualquier caso, a medida que se incrementa n la forma de esta distribución se parece cada vez más a la N(0,1). A partir de n≥30, la tn es prácticamente indistinguible de la N(0,1).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 215
Si Z es una variable aleatoria con distribución N(0,1) e Y es otra variable independiente de la anterior y con distribución χ n
2 , puede probarse que la variable:
T Z Y n
=
sigue una distribución t de Student con n grados de libertad. Expresado de otra forma:
N
n
2χ ≈
Si nos damos cuenta que la N ( , )0 1 11 2≈ χ , tenemos que:
t N
( , ) , ,
χ χ
b g
En la práctica, la distribución t aparece en problemas de inferencia estadística en los que es preciso decidir sobre el valor (desconocido) de la media de una población cuando no se conoce tampoco el valor de la varianza en dicha población.
-4 -2 0 2 4
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5