Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad. González J.J., Guerra N., Quintana M.P. y Santana A. 153 TEMA 7 VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD
Microsoft Word - FTema 7 Variab_aleat_y_distr_prob.docGonzález
J.J., Guerra N., Quintana M.P. y Santana A. 153
TEMA 7
154 González J.J., Guerra N., Quintana M.P. y Santana A.
1. Variables Aleatorias. En muchos experimentos aleatorios los
resultados no son intrínsecamente numéricos; el número resulta de
aplicar un instrumento de medida (función) al objeto observado. Una
variable aleatoria es una función que a cada suceso elemental de un
espacio muestral le asigna un número. Ejemplos:
• Se elige al azar una montaña de un mapa y se mide su
altura:
X( ) 3.714 m.
• Se elige al azar un pez entre todos los de una captura y se mide
su longitud:
X( ) 2,24 m.
• Se pide a una persona elegida al azar que corra lo más rápido
posible y se mide lo que tarda en recorrer 100 m.:
X( ) 32 seg. • Se lanzan dos dados y se mide cuánto vale la suma de
sus caras
superiores:
González J.J., Guerra N., Quintana M.P. y Santana A. 155
Definición de variable aleatoria. Formalmente, dado un experimento
aleatorio cuyo espacio muestral asociado es E, si denotamos por w a
los sucesos elementales de este espacio, una variable aleatoria
definida sobre E es una función:
X: E —
ω ∈E X r( )ω = ∈ —
que cumple, además que para todo valor x real el conjunto:
{ }( ) E
≤
es un suceso de E. Puesto que el experimento cuyo resultado se está
midiendo con X es aleatorio, el valor de X también será aleatorio
(no es posible conocerlo hasta que se lleve a cabo efectivamente el
experimento). Por tanto, cada posible valor de X tendrá asignada
una determinada probabilidad. En particular, dado que el
conjunto
{ }( ) E
≤
es un suceso de E, tendrá asignada una cierta probabilidad, que por
simplicidad se denotará como:
( ) { }( ) EP X x P X x
ω ω
156 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1: Sea el experimento “Tirar un dado”. El espacio muestral
es entonces:
E = { } Los valores correspondientes a la variable aleatoria
“Resultado obtenido” serían: X( ) = 1; X( ) = 2; X( ) = 3; X( ) =
4; X( ) = 5; X( ) = 6;
y sus correspondientes probabilidades:
= = = = = =
= = = = = =
, , ,
, ,
calcular ( ) { }( ) EP X x P X x
ω ω
P X P
P X P
P X P
P X P
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) )
( )
( )
( )
( )
( )
( )
( )
( )
( )
( ) }
Ejemplo 2: Sea el experimento aleatorio “Tirar dos dados”. El
espacio muestral resultante es ahora:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
158 González J.J., Guerra N., Quintana M.P. y Santana A.
X( )=3
X( )=2
X( )=5
X( )=6
X( )=7
X( )=8
X( )=6
X( )=7
X( )=8
X( )=9
X( )=10
X( )=11
X( )=5
X( )=4
X( )=6
X( )=7
X( )=9
X( )=7
X( )=8
X( )=9
X( )=10
X( )=11
X( )=8
X( )=12
Si sobre este espacio medimos la variable X =”Suma de los dos
dados” obtenemos: El espacio muestral contiene 36 elementos (todas
las posibles parejas de resultados). Si los dos dados están bien
construidos no hay razón para pensar que una pareja de valores sea
más probable que otra. Por tanto, aplicando la regla de Laplace,
cada pareja de valores tiene
probabilidad 1
González J.J., Guerra N., Quintana M.P. y Santana A. 159
Ahora bien, la variable aleatoria X sólo puede tomar 11 valores
(los números del 2 al 12). La probabilidad de que X tome el valor
concreto k, entre 2 y 12, es entonces la probabilidad del conjunto
de parejas de valores que suman k:
P X k P X k P a b a b a b k= = =
RST UVW = ≤ ≤ ≤ ≤ + = RST
ω ,
0 055
0 083
5 1 4 4 1 2 3 3 2 4 36
0 111
6 1 5 51 2 4 4 2 3 3 5 36
0 138
7 1
b g b g b gm r
b g b g b g b gm r
b g b g b g b gb gm r
b g b g b g b g b g b gm r
b g
, ,
, , , ,
, , , , , ,
, , , , , , ) ,
, , , , , , , , , ,
,6 6 1 2 5 5 2 3 4 4 3 6 36
0 166
8 2 6 6 2 3 5 5 3 4 4 5 36
0 138
9 3 6 6 3 4 5 5 4 4 36
0 111
0 083
11 5 6 6 5
b g b g b g b g b g b gm r
b g b g b g b g b g b gm r
b g b g b g b g b gm r
b g b g b g b gm r
b g b g b
, , , , , , , , , , ,
, , , , , , , , , ,
, , , , , , , ,
, , , , , ,
, , ,
= =
= = = =
= = = =
= = = =
= =
= =
= = = =
0 027
, .,P X P
Nótese que en este caso los distintos valores que toma X no son
equiprobables.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
160 González J.J., Guerra N., Quintana M.P. y Santana A.
1.1. Variables Aleatorias Discretas. Son aquéllas que toman un nº
finito o numerable de valores. Ejemplos:
• X = ”Resultado de lanzar un dado“
X ∈ 1 2 3 4 5 6, , , , ,l q • Y = “Resultado de aplicar un
tratamiento a un enfermo
y observar si se cura (1) o no se cura (0)”.
Y ∈ 1 0,l q • U = “Número de tornillos defectuosos fabricados
por
una máquina”
U ∈ 0 1 2 3, , , ,...l q Función de probabilidad Dada una variable
aleatoria discreta X, se define su función de probabilidad como la
función que a cada valor x le asigna su probabilidad de
ocurrencia:
f x P X x( ) = =b g Si llamamos M al conjunto de todos los valores
que puede tomar X, es evidente que esta función cumple las
siguientes propiedades:
0 1≤ ≤ ∀f x x( ) ,
f x x M
González J.J., Guerra N., Quintana M.P. y Santana A. 161
Ejemplo 1:
Si X es el resultado que se observa al tirar un dado, su función de
probabilidad es:
f x x( ) , , , , ,= ∀ ∈R S| T|
1 6
0 l q
en otro caso
X 1 2 3 4 5 6
f(x) 1 6
162 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 2:
Si en cierta población de insectos el 30% son machos y el 70%
hembras, y se elige al azar un insecto, siendo:
X = RST 0 si el insecto es hembra 1 si el insecto es macho
entonces la función de probabilidad de X es:
f x si x( ) ,
si x = 0 ,
en otro caso
y en forma gráfica:
González J.J., Guerra N., Quintana M.P. y Santana A. 163
Función de distribución de probabilidad Otra forma de describir la
asignación de probabilidades a los distintos valores que puede
tomar una variable aleatoria discreta X es a través de su función
de distribución, definida como:
F x P X x P E X x( ) ( )= ≤ = ∈
≤ RST
ω ωb g
De esta forma, F(x) es la probabilidad acumulada por todos los
sucesos que dan lugar a valores de X que son menores o iguales que
x. Recuérdese que para que una variable aleatoria esté bien
definida debe ocurrir que el conjunto { }( )
E X x
∈ ≤ sea un suceso de E y por tanto
tenga asignada una probabilidad; ello significa que la función de
distribución de una variable aleatoria discreta siempre existe y
está definida para todo valor x real.
Ejemplo: Si X es el resultado que se observa al tirar un dado, su
función de distribución de probabilidad es:
F x
x
||||
0 1 1 6 1 2 2 6 2 3 3 6 3 4 4 6 4 5 5 6 5 6
1 6
164 González J.J., Guerra N., Quintana M.P. y Santana A.
Gráficamente:
2(2) ( 2) 6
4(4,7) ( 4,7) 6
F P X
F P X
= ≤ =
= ≤ =
= ≤ = − = ≤− =
González J.J., Guerra N., Quintana M.P. y Santana A. 165
Algunas propiedades de la función de distribución de una v.a.
discreta: Es fácil observar que se cumplen las siguientes
propiedades:
o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)
o
o
o
o F(x) es no decreciente; además F(x) es una función escalonada,
cuyos saltos (escalones) se producen en los valores k tales que
f(k)>0.
o
F k f j
k P X k P X j f j j k
j k j k
P a X b F b F a( ) ( ) ( )< ≤ = −
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
166 González J.J., Guerra N., Quintana M.P. y Santana A.
1.2. Variables Aleatorias Continuas. Son aquéllas que toman valores
en un rango continuo.
Ejemplos:
• X = ”Longitud (en cm.) de un pez elegido al azar entre los de una
captura“
X ∈ 5 300,
• Y = “Resultado de medir la proporción (en %) de alcohol en un
recipiente con fruta en fermentación”
Y ∈ 0 100,
• U = “Distancia al centro de la diana medida desde la posición en
que cae un dardo lanzado por un tirador experto”
U r∈ 0, (r es el radio de la diana)
Observación importante: Dado que en cualquier intervalo continuo
(aunque sea finito) hay un número infinito de valores, la
probabilidad de que una variable aleatoria continua X definida
sobre ese intervalo1 tome un valor arbitrario x prefijado de
antemano es siempre 0:
P X x x( )= = ∀0
E En el caso de variables aleatorias continuas no es posible
definir la función de probabilidad del mismo modo que en el caso
discreto 1 Se entiende que nos referimos a variables que, a priori,
puedan tomar cualquier valor del intervalo, y no concentren su
probabilidad en un número finito de valores del mismo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 167
No obstante, aunque cada valor individual x tenga una probabilidad
0 de ocurrir, les evidente que algunos rangos continuos de valores
(esto es, intervalos de la forma [a,b]) han de tener asignada una
probabilidad no nula. A modo de ejemplo, si a y b son,
respectivamente, los valores mínimo y máximo que puede tomar la
variable X, se tiene que P X a b∈ =,c h 1 . Ejemplo 1:
Disponemos de una cuerda de 1 metro de longitud y realizamos el
experimento de tirar de sus extremos hasta que la cuerda se parta.
Supongamos que la densidad del material con que está hecha la
cuerda es completamente uniforme, de forma que a priori es
igualmente probable que se rompa en cualquier punto: Sea X
=”Posición del punto en que se parte la cuerda”. Obviamente, dado
que existen infinitos puntos entre 0 y 1 en los que la cuerda puede
romperse, la probabilidad de que se rompa en un punto x concreto es
0 cualquiera que sea x:
P X x x= = ∀ ∈b g 0 0 1, Ahora bien, dado que efectivamente la
cuerda ha de romperse en algún punto, y todos son equiprobables,
podemos aplicar la regla de Laplace para calcular, por ejemplo, la
probabilidad de que la cuerda se parta en algún punto de la mitad
izquierda:
( ) Medida del trozo [0,0.5] 0.5[0,0.5] 0.5 Medida de la cuerda
1
P X ∈ = = =
168 González J.J., Guerra N., Quintana M.P. y Santana A.
a b
x
La probabilidad de que la cuerda se parta en algún punto de un
intervalo arbitrario [a,b] será, también por la regla de
Laplace:
P X a b a b b a b a∈ = = −
= −[ , ] [ , ]b g Medida del trozo Medida de la cuerda 1
En particular, la probabilidad de que la cuerda se rompa en algún
punto situado entre el extremo izquierdo y una posición arbitraria
x (con 0 1≤ ≤x ) es:
P X x P X x x x( ) ,≤ = ∈ = = =0 1
c h Medida del trozo [0,x] Medida de la cuerda
Evidentemente P X x x P X x x( ) ( )≤ = < ≤ = >0 0 1 1 si y
si
Ejemplo 2:
Un tirador inexperto lanza dardos contra una diana circular, de 1
metro de radio. Tras cada lanzamiento se mide la variable
aleatoria
X=”distancia desde el punto donde ha acertado el dardo hasta el
centro de la diana”
Al igual que en el ejemplo anterior, la probabilidad de que X tome
un valor concreto x es siempre 0, cualquiera que sea el valor x
elegido. Sin embargo, utilizando la regla de Laplace, podemos
calcular fácilmente la probabilidad de que el dardo caiga, por
ejemplo, a menos de 0.3 metros del centro.
0 1
0 1
González J.J., Guerra N., Quintana M.P. y Santana A. 169
En efecto, por ser el tirador inexperto podemos suponer que todos
los puntos de la diana tienen la misma probabilidad de ser
alcanzados. Por tanto la probabilidad de acertar a menos de 0.3 m.
del centro será igual a la probabilidad de acertar en un circulo de
0.3 m. de radio cuyo centro es también el centro de la diana.
Luego:
En general, la probabilidad de acertar a una distancia inferior a x
metros del centro será:
P X x x x≤ = ⋅ ⋅
=b g π π
1
La probabilidad de acertar a una distancia entre a y b metros del
centro será, a su vez:
P a X b P X b P X a b a≤ ≤ = ≤ − ≤ = −b g b g b g 2 2
1 m.
0.3 m.
P X ≤ = =
2 2
Área(círculo de radio 0.3) Área(círculo de radio 1)
π π
a b
170 González J.J., Guerra N., Quintana M.P. y Santana A.
Función de distribución de probabilidad
En general, dada cualquier variable aleatoria continua X, la
función:
F x P X x( ) ( )= ≤
siempre estará definida para todo valor x real (ya que, por
construcción, los conjuntos de la forma { }( )
E X x
∈ ≤ son
sucesos en el espacio muestral E y por tanto tienen asignada una
probabilidad). Así, por ejemplo, si M es el mayor valor que puede
tomar la variable aleatoria X, es claro que F M P X M( ) ( )= ≤ = 1
. Al igual que en el caso de las variables aleatorias discretas,
esta función se denomina función de distribución.
Algunas propiedades:
o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)
o F(x) es continua y no decreciente
o
o Al ser P(X=x) = 0 para todo x real se tiene que:
P X x P X x
< = ≤
< < = ≤ < = < ≤ = ≤ ≤
b g b g b g b g b g( )
P a X b F b F a( ) ( ) ( )< ≤ = −
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 171
Ejemplo 3:
Supongamos que estamos en una situación idéntica a la del ejemplo
2, pero con un tirador de dardos experto. Ahora no podemos suponer
que todos los puntos de la diana tienen la misma probabilidad de
ser alcanzados. Al contrario, será mucho más probable acertar cerca
del centro que de los bordes, siendo la probabilidad de acertar
cerca del centro tanto mayor cuanto más experto sea nuestro
tirador. Si consideramos nuevamente la variable aleatoria:
X=”distancia desde el el punto en que se clava el dardo hasta el
centro de la diana”
la función de distribución de esta variable aleatoria podemos
esperar que ahora sea de la forma:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
)
Esta función, como vemos crece muy deprisa entre 0 y 0.1; así, por
ejemplo, vemos que ya para x=0.1 se tiene P X ≤ =01 0 97. .b g , o
lo que es lo mismo, la probabilidad de que el dardo caiga a menos
de 10 cm del centro de la diana es del 97% (que es lo que cabría
esperar de un buen tirador). Si vamos mirando el resto de los
valores (0.2, 0.4, 0.6, etc.), vemos que la probabilidad acumulada
crece muy despacio, cosa que también es de esperar en un buen
tirador, que ya ha acumulado prácticamente toda la probabilidad de
acertar en los 10 cm. más próximos al centro de la diana.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
172 González J.J., Guerra N., Quintana M.P. y Santana A.
Una función que se comporta de esta forma y que, por tanto, podría
ser un buen modelo para esta distribución de probabilidad es:
F x x x x( ) ,= +
+ − −L NM
O QP ≤ ≤
1 1
α α
βc he j
Como puede apreciarse, esta función cumple las siguientes
condiciones, necesarias para que pueda servir como función de
distribución de una variable aleatoria definida en [0,1]:
0 ( ) 1 [0,1] ( ) es continua [0] 0; [1] 1 ( ) 0 [0,1] (Por tanto
F(x) es no decreciente en [0,1])
≤ ≤ ∀ ∈
= = ′ > ∀ ∈
Además, para α=0 la función anterior se reduce a F(x)=x2 que es
justo la función de distribución que ya habíamos visto para el
tirador inexperto. Como podemos ver en las gráficas siguientes,
variando los valores de α y β podemos hacer que esta función se
ajuste al comportamiento de tiradores con distintos grados de
puntería:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
González J.J., Guerra N., Quintana M.P. y Santana A. 173
( ) ( )
x
−
− =
++ = −
+ + − +
En este caso, tomando α=-1, β=0 obtenemos también la función de
distribución del tirador inexperto F(x)=x2. Al igual que antes, se
cumplen las condiciones necesarias para ser función de distribución
en [0,1], y variando los valores de α y β podemos ajustar el
comportamiento de tiradores con distinto grado de puntería:
0.0 0.2 0.4 0.6 0.8 1.0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
0. 0
0. 2
0. 4
0. 6
0. 8
1. 0
)
La selección de este modelo o del anterior como el más adecuado a
este experimento dependerá del grado de ajuste a datos muestrales
debidamente obtenidos, o de consideraciones teóricas que lleven a
preferir uno de los modelos sobre el otro.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
174 González J.J., Guerra N., Quintana M.P. y Santana A.
Función de densidad de probabilidad de una v.a. continua. Ya hemos
visto que en el caso de las variables aleatorias continuas la
probabilidad asignada a valores de x concretos, P(X=x), es siempre
0, mientras que la probabilidad asignada a intervalos finitos, P X
a b∈ ,c h , sí que puede ser distinta de 0. Aunque no tenga mucho
sentido preguntarse por la probabilidad de que ocurra exactamente
el valor x, ya que sabemos que es 0, sí que podría tener sentido
preguntarse por la probabilidad de que ocurra un valor en un
entorno próximo a x, esto es:
P X x x x∈ +, bc h Esta expresión nos da la probabilidad total de
que nuestro experimento aleatorio produzca un valor en un entorno
de amplitud Dx a la derecha de x. Si dividimos esta cantidad por Dx
obtenemos la densidad de probabilidad en ese entorno (dicho de otro
modo, obtenemos la cantidad de probabilidad por unidad de medida en
las proximidades de x):
P X x x x x
∈ +,
bc h
Si vamos tomando valores de Dx cada vez más pequeños, en el límite
obtenemos la función de densidad de probabilidad en el punto
x:
f x Lim P X x x x
xx ( )
González J.J., Guerra N., Quintana M.P. y Santana A. 175
Si ahora observamos que:
P X x x x P x X x x F x x F x∈ + = < ≤ + = + −, ( ) ( ) bc h b
g
es inmediato deducir que:
x Lim F x x F x
x F x
0 0
bc h
Así pues, en el caso de variables aleatorias continuas, la función
de densidad de probabilidad coincide con la derivada de la función
de distribución:
f x F x( ) ( )= ′ Por tanto, la función de distribución puede
obtenerse también integrando la función de densidad:
F x f s ds x
( ) ( )= −∞z
Gráficamente ello significa que el valor de la función de
distribución en un punto x (o lo que es lo mismo, la probabilidad
acumulada hasta x) coincide con el área encerrada bajo la función
de densidad hasta ese punto:
( )f x , función de densidad
x
F(x)
176 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1:
Si volvemos a nuestro ejemplo de la cuerda, ya habíamos visto que
la función de distribución de la variable X=”punto donde se rompe
la cuerda al tirar de sus extremos”
F x x
x x x
f x F x x
x x
0 0 1 0 1 0 1
lo que refleja que la densidad de probabilidad de esta variable es
constante en todos los puntos de la cuerda (resultado que era de
esperar toda vez que es igualmente probable que la cuerda se rompa
en cualquier punto). Ejemplo 2:
En el caso del tirador inexperto habíamos visto que la función de
distribución de la variable:
X=”distancia desde el punto en que acierta el dardo al centro de la
diana”
era:
F x P X x x x( ) ( ) ,= ≤ = ≤ ≤2 0 1
Por tanto la función de densidad de esta variable aleatoria
es:
f x F x x x( ) ( ) ,= ′ = ≤ ≤2 0 1
lo que indica que la densidad de probabilidad aumenta linealmente
con el valor de x.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 177
Ejemplo 3:
En el caso del tirador experto, la función de densidad sería:
f x x x x( ) ,= +
+ − ≤ ≤ −2
α αβ
βc he j
En su representación gráfica, que se muestra a continuación (para
α=100, β=50), se observa que la densidad de probabilidad es grande
cerca del cero (centro de la diana), lo que indica que es muy
probable acertar en ese entorno, y decrece a medida que nos
alejamos del centro, lo que indica que es difícil (muy poco
probable) que el tirador experto llegue a lanzar el dardo lejos del
centro.
0.0 0.2 0.4 0.6 0.8 1.0
0 1
2 3
4 5
178 González J.J., Guerra N., Quintana M.P. y Santana A.
Algunas propiedades de la función de densidad:
1 1
f x dx
P a X b P X b P X a F b F a f x dx
F x P X x f u du
a
b
x
= ≤ =b g
En la primera propiedad, por generalidad se han puesto como límites
de integración −∞ e ∞ . Si la función de densidad sólo toma valores
distintos de 0 en un intervalo [a,b], los límites de integración se
restringen a los extremos de este intervalo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 179
1.3. Parámetros de una variable aleatoria En el tema anterior hemos
visto la analogía existente entre el concepto de frecuencia
relativa con que se presenta un valor en un conjunto de datos
obtenidos generalmente mediante muestreo, y el concepto de
probabilidad de que se produzca un valor concreto como resultado de
un experimento aleatorio:
En particular una de las formas de asignar probabilidades a sucesos
es precisamente tomar como probabilidad de un suceso dado la
frecuencia relativa con que se presenta dicho suceso cuando el
experimento aleatorio se realiza muchas veces, por lo cual ambos
conceptos coinciden en este caso.
Y, aún cuando no se haya realizado una asignación frecuentista, la
probabilidad de obtener al azar determinado valor en una población
coincide con la proporción (que en definitiva también es la
frecuencia relativa) en que dicho valor se halla presente en la
población.
A la hora de sintetizar (resumir) los valores observados en un
conjunto de datos, hasta ahora hemos hablado de medidas de posición
(Media, mediana, moda, percentiles), medidas de dispersión
(Varianza, desviación típica) y medidas de forma (momentos,
simetría, apuntamiento). Estas medidas, de hecho, caracterizan la
distribución de frecuencias relativas de los datos (la forma en que
se reparten las frecuencias relativas entre los distintos valores):
la media nos señala donde está el centro de esta distribución, la
desviación típica nos indica si es una distribución muy concentrada
o muy dispersa, la curtosis nos informa de su grado de apuntamiento
...
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
180 González J.J., Guerra N., Quintana M.P. y Santana A.
Estas medidas de síntesis pueden generalizarse de modo natural a
las distribuciones de probabilidad de las variables
aleatorias.
1 2 3 4 5 6
0. 00
0. 05
0. 10
0. 15
0. 20
0. 00
0. 05
0. 10
0. 15
0. 20
0. 00
0. 02
0. 04
0. 06
0. 08
0. 10
0. 12
x
y
En el caso de variables discretas, el diagrama de barras viene a
ser lo mismo que el gráfico de la función de probabilidad; en el
caso continuo, el histograma coincide conceptualmente con el
gráfico de la función de densidad de probabilidad.
DIAGRAMA DE BARRAS RESULTANTE DE LANZAR UN DADO 1000 VECES
HISTOGRAMA DE LONGITUDES DE UNA MUESTRA DE 1000 PECES.
FUNCIÓN DE DENSIDAD DE LA VARIABLE ALEATORIA LONGITUD DEL PEZ
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 181
Del mismo modo que la media se sitúa en la posición central del
diagrama de barras o del histograma, es posible definir un concepto
equivalente que se sitúe en la posición central de la distribución
de probabilidades. Al igual que la desviación típica mide la
dispersión en el diagrama de barras o en el histograma, es posible
con un concepto equivalente medir la dispersión en la distribución
de probabilidades... Estos conceptos se conocen como parámetros
característicos de la distribución de probabilidades de una
variable aleatoria. Media, Varianza y momentos de una variable
aleatoria Medidas de síntesis para datos medidos sobre una
población de tamaño N: Recordemos que si hemos medido todos los
valores de una variable en una población de tamaño N, en la que hay
k valores distintos x1, x2, …, xk y donde fi = frecuencia relativa
del valor xi, se definen las siguientes medidas de síntesis, cada
una de ellas asociada a una característica distinta de la
distribución de frecuencias de los datos:
Nombre Expresión matemática
1
182 González J.J., Guerra N., Quintana M.P. y Santana A.
Parámetros de una variable aleatoria discreta: Dada una variable
aleatoria discreta X de la que conocemos su distribución de
probabilidad:
X x1 x2 x3 ...... ........ xk
P X xi( )= p1 p2 p3 ....... ........ pk se definen sus parámetros
de modo análogo a las medidas de síntesis anteriores. En este caso
los parámetros miden características de la distribución de
probabilidad:
Nombre Expresión Matemática Característica medida
Media o Esperanza
( )
[( ) ]
Forma (asimetría, apuntamiento)
Ejemplo: Si X = ”Lanzar un dado (equilibrado)”: La posición central
de la distribución de probabilidad de esta variable es:
1
1 1 1 1 1 1[ ] 1 2 3 4 5 6 3,5 6 6 6 6 6 6
k
2 2 2 2 2
1
1 1 1[ ] ( ) (1 3,5) (2 3,5) ..... (6 3,5) 2,91 6 6 6
k
= = − = − ⋅ + − ⋅ + + − ⋅ =∑
González J.J., Guerra N., Quintana M.P. y Santana A. 183
Parámetros de una variable aleatoria continua Dada una variable
aleatoria continua X de la que conocemos su función de densidad de
probabilidad f(x), si dx es una cantidad infinitesimal, el producto
f(x) dx mide aproximadamente la cantidad de probabilidad en el
intervalo [x, x+dx]. Con esta idea en mente, pueden generalizarse
al caso continuo las medidas vistas para el caso discreto, con la
consideración obvia de que las sumas habrán de ser sustituidas por
integrales:
Nombre Expresión Matemática Característica medida
Media o Esperanza [ ] ( )E X x f x dxµ
∞
−∞ = = ∫
E x
σ µ
( ) ( )
[( ) ]
E x
Ejemplo:
En el caso del tirador de dardos inexperto, la función de densidad
de probabilidad de la variable:
X=”distancia a la que cae el dardo desde el centro de la
diana”
Es, como ya hemos visto, f(x)=2x 0≤x≤1. La distancia media a la que
caen los dardos lanzados por este tirador sería entonces:
E X x f x dx x x dx x dx x = = = =
O QP = =
2 3
0
1
La dispersión de los diferentes puntos de acierto vendría dada
por:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
184 González J.J., Guerra N., Quintana M.P. y Santana A.
Var X x f x dx x x dx x x x dx
x x x dx x x x
( ) ( )
,
Desv Tip X Var X. .( ) ( ) , ,= = =183 1 354
Interpretación de los parámetros de una v.a. Esperanza: representa
la media de todos los valores que tomaría la variable aleatoria X
si el experimento aleatorio que da lugar a esta variable se
realizara un número muy grande de veces. Varianza: representa la
varianza de todos los valores que tomaría la variable aleatoria X
si el experimento aleatorio que da lugar a esta variable se
realizara un número muy grande de veces.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 185
Algunas propiedades de la media y la varianza de variables
aleatorias. Sea X una variable aleatoria (discreta o
continua).
1. Cambio de escala: si Y = c·X
µ µ
Y X
Y X
= = = =
= − = − = − = =
[ ] [ ]
[( ) ] [( ) ] [ ( ) ] | |
2. Traslación: si Y = X+c
µ µ
Y X
E Y E X c c
= = + = + = +
= − = + − − = =
[ ] [ ]
[( ) ] [( ) ]2 2 2 2
Esperanza de una función de una variable aleatoria. Es frecuente en
la práctica que del valor que tome una variable aleatoria X dependa
una función de la misma g(X). Se define entonces la esperanza de
esta función como:
E g X g x p
g x f x dx
i i i
=
∞
∞
∑
Si X es una v.a. discreta
( ) Si X es una v.a. continua -
siendo pi=P(X=xi) la función de probabilidad de X en el caso
discreto y f(x) la función de densidad de probabilidad de X en el
caso continuo.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
186 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 1:
Supongamos que apostamos en un juego de dados de la siguiente
forma: Se tira un dado; si sale número par ganamos 1 €; si sale
número impar perdemos 1€. ¿Cuál será nuestra ganancia (o pérdida)
esperada en este juego?
En este caso la función g(x) que mide la ganancia en el juego
es:
g x
( ) =
− = =
− = =
− = =
1 4 1 5
y su valor esperado:
( ) ( )= = − + − + − + =
= − ⋅ + ⋅ − ⋅ + ⋅ − ⋅ + ⋅ =
= ∑
1
6
1 2 3 4 5 61 1 1 1 1 1
1 1 6
1 1 6
1 1 6
1 1 6
1 1 6
1 1 6
0
Así pues, por término medio en este juego no ganaremos (ni
perderemos) nada.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 187
Ejemplo 2:
Supongamos que somos malos tiradores de dardos y que jugamos del
siguiente modo: lanzamos un dardo a una diana de un metro de
diámetro; si acertamos a menos de 10 cm. del centro ganamos 20 €;
si acertamos entre 10 y 20 cm del centro ganamos 10 €; si nuestro
dardo cae a más de 20 cm. del centro perdemos 1 €. ¿Merece la pena
jugar a este juego? En este caso, la función que mide la ganancia
en el juego es:
g x Si x
Si x Si x
1 0 2
y su valor esperado sería (recordemos que la función de densidad
del mal tirador de dardos era f(x)=2x para x entre 0 y 1):
E g x g x f x dx g x x dx x dx x dx x dx
x x x
( ) ( ) ( ) ( )
. . . .
. . . .
.
..
. .
.
.
.
= = = ⋅ + ⋅ + − ⋅ =
= + − = −
−∞
∞z z zz z2 20 2 10 2 1 2
40 2
20 2
2 2
20 0 01 10 0 04 0 01 1 0 04
0 2 0 3 0 96 0 91
0
1
b g b g
Por tanto, de jugar reiteradamente a este juego, podemos esperar
perder, por término medio, 0.91 €.
Distribuciones discretas notables Distribución uniforme
discreta
Es la distribución de probabilidad de una variable aleatoria que
toma un número finito k de valores, siendo todos equiprobables. Su
función de probabilidad es de la forma:
X x1 x2 x3 ...... ........ xk P X xi( )=
1 k
1 k
1 k
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
188 González J.J., Guerra N., Quintana M.P. y Santana A.
µ = = = = = = = ∑ ∑ ∑E X x p x
k k xi i
1
2
1
2
1
k k xi i
Ejemplo: Si X = ”Resultado obtenido al lanzar un dado
equilibrado”
µ = = = = = = = ∑ ∑E X p x ii i i
k
i
61 6
3 5 2 91= = − = − = = = ∑ ∑V X p x ii i i
k
i
González J.J., Guerra N., Quintana M.P. y Santana A. 189
Distribución de Bernoulli Es la distribución de probabilidad de una
variable aleatoria que sólo admite dos resultados “éxito” o
“fracaso” ( 1 ó 0 ) siendo sus probabilidades respectivas p y 1-p,
con 0 1≤ ≤p .
Su función de probabilidad es, por tanto:
f x P X x p p para xx x( ) ( ) ( )= = = − =−1 0 11 ó o, expresada
de otra forma:
f P X p f P X p
( ) ( ) ( ) ( ) 1 1 0 0 1 = = = = = = −
Su media y varianza vienen dadas por:
µ
V X p x p p p p p p
i i i
1 1 0 1
Ejemplo 1: Si se realiza el experimento aleatorio consistente en
lanzar una moneda equilibrada y se define la variable
aleatoria:
X = RST 0 1
1 2
P X
P X
µ
σ
X
X
p
190 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo 2: Se realiza el experimento aleatorio consistente en
lanzar un dado equilibrado y se define la variable aleatoria:
X = RST 1 0
si sale múltiplo de 3 si no sale múltiplo de 3
La función de probabilidad en este caso es:
P X
P X
González J.J., Guerra N., Quintana M.P. y Santana A. 191
Distribución binomial B(n,p)
Es la distribución de probabilidad de la variable aleatoria:
X = “Número de éxitos obtenidos al repetir n veces un experimento
de Bernoulli, siendo p la probabilidad de éxito en cada
experimento, y siendo cada repetición independiente de las
anteriores”
La variable binomial suele denotarse como:
X B n p≈ ( , )
Obviamente, al realizar n experimentos sólo son posibles entre 0 y
n éxitos, luego X n∈{ , , ,...., }0 1 2
Su función de probabilidad es:
f x P X x n x
p p para x nn p x n x
, ( ) ( ) ( ) ; , , ,....,= = = F HG I KJ − =−1 0 1 2
Es evidente que cada una de estas probabilidades es no negativa. Es
fácil comprobar también que la suma de todas las probabilidades
para x = 0, 1, 2, ...,n es 1. En efecto:
P X n P X P X P X n
f f f n n
p p n
p p n
n
, ,..., ( ) ... ( )
( ) ( ) ... ( )
( ) ( ) ( ) ...... ( )
( )
l qc h b g
b g (hemos empleado simplemente la expresión del desarrollo del
binomio de Newton)
La media y varianza de la distribución binomial son:
µ
= ⋅
192 González J.J., Guerra N., Quintana M.P. y Santana A.
Ejemplo: Se sabe que en una población la proporción de machos es
del 40% (o lo que es lo mismo, si se elige al azar un ejemplar de
esta población, la probabilidad de que sea macho es P(macho)=0.4).
Supongamos que se eligen al azar 3 ejemplares. Determinar la
función de probabilidad de la variable:
X = ”Número de machos entre los 3 elegidos”
Al elegir un individuo de la población y observar su sexo, solo hay
dos resultados posibles: macho o hembra, con probabilidades
respectivas 0.4 y 0.6. La variable X es, por tanto, B(3, 0.4),
y:
P X x x
P X P X
P X P X
0 3 0
0 4 0 6 1 1 0 216 0 216 1 3 1
0 4 0 6 3 0 4 0 36 0 432
2 3 2
0 4 0 6 3 016 0 6 0 288 3 3 3
0
0 3 0 1 3 1
2 3 2 4 0 6 0 4 0 0643 3 3 3( . ) . .− = =
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 193
Distribución binomial negativa BN(k,p)
Supongamos que un experimento de Bernoulli (con probabilidad p de
éxito) se repite sucesivas veces independientes hasta que se
observa el k-ésimo éxito (por ejemplo, se tira una moneda al aire
sucesivas veces hasta que sale cara por k-ésima vez). Se denomina
distribución binomial negativa a la distribución de probabilidad de
la variable aleatoria:
X = “Número de experimentos que ha sido necesario realizar hasta
obtener el k-ésimo éxito”
La variable binomial negativa suele denotarse como:
X BN k p≈ ( , )
Obviamente, para obtener k éxitos será necesario hacer como mínimo
k experimentos. Por tanto X k k k∈ + +{ , , ,....}1 2
Ejemplo: Se sabe que en una población la proporción de machos es
del 40% ¿cuál es la probabilidad de que para conseguir 3 machos
haya que elegir 15 ejemplares? Sea X=”Número de ejemplares que hay
que observar hasta conseguir tres machos”
De acuerdo con lo visto, Y≈ BN(3, 0.4). Ahora bien, si es preciso
observar 15 ejemplares para obtener el tercer macho, entonces debe
ocurrir que entre los 14 primeros ejemplares observados haya 2
machos y 12 hembras, y que el decimoquinto ejemplar observado sea
macho. Si llamamos Y =”número de machos en 14 ejemplares”
Z = “Sexo del decimoquinto ejemplar” se tiene que, debido a la
independencia entre los ejemplares observados:
P X P Y Z Macho P Y P Z Macho( ) ( " ") ( ) ( " ")= = = ∩ = = = ⋅
=15 2 2b gc h
Obviamente la variable Y sigue una distribución binomial B(14,
0.4), y la Z una distribución de Bernoulli de parámetro 0.4. Por
tanto:
P X P Y P Z Macho( ) ( ) ( " ") . . . . .= = = ⋅ = = F HG I KJ ⋅ ⋅
⋅ =
F HG I KJ ⋅ ⋅15 2
14 2
0 4 0 62 12 3 12
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
194 González J.J., Guerra N., Quintana M.P. y Santana A.
Razonando como en este ejemplo, es fácil ver que la expresión
general de la función de probabilidad de una variable con
distribución binomial negativa BN(k,p) es:
P X x f x k p x k
p p para x k k kk x k( ) ( ; , ) ( ) ; , , , ....= = = − − F HG I
KJ − = + +−1
1 1 1 2
2 2
González J.J., Guerra N., Quintana M.P. y Santana A. 195
Distribución geométrica Geo(p)
Es una Binomial Negativa con k=1, y probabilidad p de éxito, esto
es:
X = “Número de experimentos independientes de Bernoulli que es
preciso realizar hasta que ocurre el primer éxito”
Se denota como:
X Geo p≈ ( )
Obviamente, para obtener el primer éxito es preciso realizar al
menos un experimento. Por tanto X∈{1,2,3, ...}. Su función de
probabilidad es de la forma:
P X x p p xx( ) ( ) ; , , ,.....= = − ⋅ =−1 1 2 31
y su media y varianza son:
2 2
µ σ − = =
Ejemplo: El 75% de los sujetos de una población pertenecen al grupo
sanguíneo A+. Supongamos que los donantes de sangre llegan al azar
al centro de extracción. Si se elige un día arbitrario, determinar
la función de probabilidad de la variable: X =”nº de individuos a
los que se les extrae sangre hasta conseguir uno con el
grupo A+”
( ) (0.75) ( ) (1 )
( 1) (1 ) 0, 25 0,75 0.75 ( 2) (1 ) 0, 25 0,75 0.1875 ( 3) (1 )
0,25 0,75 0.046875 ( 4) (1 ) 0, 25 0,75 0.01171875
x
X Geo p Geo P X x p p
−
−
−
−
−
≈ ≡
= = −
= = − = ⋅ =
= = − = ⋅ =
= = − = ⋅ =
= = − = ⋅ =
Podemos interpretar estas probabilidades del siguiente modo: el 75%
de los días el primer individuo al que se extrae sangre es A+; el
18.75% de los días, el primer A+ es el segundo individuo al que se
pincha; el 4.68% de los días es preciso pinchar a 3 para conseguir
el primer A+…
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
196 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución Hipergeométrica.
Supongamos que se dispone de una población finita de tamaño N, que
está dividida en dos grupos (r éxitos y N-r fracasos). Se denomina
distribución Hipergeométrica a la distribución de probabilidad de
la variable aleatoria:
X = “Número de éxitos obtenidos al extraer al azar y sin
reemplazamiento n objetos de esta población”
La variable con distribución hipergeométrica suele denotarse
como:
( , , )X H n N r≈
Si llamamos p a la proporción de éxitos en la población, esto
es,
rp N
( , , )X H n N p≈
La función de probabilidad de esta variable aleatoria es:
{ } { }( ) , 0, ( ) ,....., ,
r N r x n x
− − = = = − −
( ) ( ) ( )2 2
X
X
n r n p N r N r n N n N n
n p p N N N
µ
σ
= =
− − − = = −
− −
NOTA: Es evidente que si en el experimento donde surge la
distribución hipergeométrica se realiza reemplazamiento, la
variable X considerada tendría distribución binomial. Debe
señalarse que, aún habiendo reemplazamiento, si N es grande es muy
difícil que un mismo objeto de la población sea elegido
aleatoriamente dos ó más veces, lo que es equivalente a que no haya
reemplazamiento. Ello significa que la distribución hipergeométrica
se va pareciendo cada vez más a la binomial a medida que N
crece.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 197
Ejemplo: De una urna en la que hay 10 bolas blancas y 5 bolas
negras, se extraen 8 bolas sin reemplazamiento. ¿Cual es la
probabilidad de que entre estas ocho haya 4 bolas negras?
Sea:
X = “nº de bolas negras en la muestra” º H(n,N,r) donde:
8 15
5 15 5 5 10 4 8 4 4 4
( 4) 0.1631 15 15 8 8
P X
198 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución de Poisson P(λ)
Una variable aleatoria discreta se dice que es una variable de
Poisson, si su función de probabilidad es de la forma:
P X x x
; , , , , ....= = =−λ λ 0 1 2 3
siendo λ un valor real positivo. Su media y su varianza son:
µ λ
=2
La distribución de Poisson surge como límite de la distribución
binomial B(n,p) cuando n Ø ¶ y p Ø 0, a la vez que el producto np Ø
l. En efecto, si Xº B(n,p) entonces:
0 0
( 1)...( 1)lim
n n n p p np np
k n k k n k
n n
k k n n
n n n n k n k k n n k n n
n n n k n
λ λ
λ λ
n kk
λ
−
− −
→∞
− =
− = ⋅ ⋅ − ⋅ ⋅ − − − =
En general, la distribución de Poisson constituye un modelo de
probabilidad adecuado para aquellas variables aleatorias que
cuentan el número de puntos que se encuentran en cierto espacio
continuo, siempre y cuando estos puntos se encuentren repartidos
completamente al azar. A modo de ejemplo podemos citar:
− Número de nidos en una zona boscosa (los puntos son los nidos y
el espacio continuo es el área donde se ubica la zona
boscosa)
− Número de estrellas en cierta porción del firmamento (los puntos
son las estrellas y el espacio continuo es el área que se está
observando)
− Número de llamadas telefónicas recibidas en una centralita a lo
largo de un día (los puntos son los instantes en que se producen
las
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 199
llamadas, y el espacio continuo en que se sitúan estos puntos es el
tiempo transcurrido entre las 0 y las 24 horas)
La distribución de Poisson constituye una buena aproximación de la
binomial B(n,p) cuando se dan las condiciones siguientes:
1) n es grande (n≥20) 2) p es pequeño (p≤0.05)
en cuyo caso
( , ) ( )B n p P λ≅ , siendo n pλ = ⋅
Ejemplo: Supongamos que un microcircuito consta de 300 componentes,
siendo la probabilidad de fallo de cada uno de 0.005. Para que el
microcircuito funcione tienen que estar operativos todos los
componentes. ¿Cuál es la probabilidad de que falle el
microcircuito? Si llamamos: X = “Número de componentes que fallan
en el microcircuito” se tiene que X º B(300, 0.005). Por tanto:
P(falle el microcircuito) = P(falle alguno de sus componentes)
=
1-P(no falle ningún componente) = 1 – P(X = 0) =
= 0 300 0 300300 1 0.005 (1 0.005) 1 0.995 1
0.2222922=0.7777078
0 −
− − = − = −
Para obtener esta probabilidad hemos tenido que hallar 0.995
elevado a 300, cálculo que no es sencillo, incluso para una
calculadora (aquí se ha obtenido utilizando ordenador). Dado que se
cumplen las condiciones 1 y 2 citadas más arriba, la variable X
puede aproximarse mediante una distribución de Poisson de parámetro
np = 1.5. Con esta aproximación:
P(fallo) = 0
P X e−− = = − = − =
Este valor sí que puede ser fácilmente obtenido con calculadora. La
diferencia con el valor exacto, obtenido antes, es de 0.0008379603.
Por tanto vemos que la aproximación mediante la distribución de
Poisson funciona razonablemente bien y es aconsejable su uso cuando
no se dispone de medios informáticos avanzados.
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
200 González J.J., Guerra N., Quintana M.P. y Santana A.
Aditividad de la Poisson
Si 1 1 2 2( ) y ( )X P X Pλ λ≈ ≈ , y además son independientes
entonces:
1 2 1 2( ) X X P λ λ+ ≈ + En general, si 1 2, ,..., ( )nX X X P λ≈
, y además son independientes entonces:
1
( ) n
González J.J., Guerra N., Quintana M.P. y Santana A. 201
Distribuciones continuas notables
Distribución uniforme en (a,b) Una variable aleatoria X sigue una
distribución uniforme en el intervalo real (a,b), y se denota X º
U(a,b), si y solo si su función de densidad de probabilidad viene
dada por:
f x a b b a si a x b
en otro caso a b
b a
En la práctica, esta distribución corresponde a variables del
tipo:
X = “Resultado de elegir al azar un valor del intervalo (a,b),
siendo equiprobables todos los valores del mismo”
X U≈ ( , )2 6
Ejemplo: X = “Distancia, medida desde el extremo inicial, a la que
se rompe una cuerda homogénea de 1 metro cuando se tira con igual
fuerza de ambos extremos” º U(0,1),
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
202 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución exponencial Una variable aleatoria X sigue una
distribución exponencial de parámetro q, y se denota X º exp(q), si
y solo si su función de densidad de probabilidad viene dada
por:
2 2
en otro caso
1 2
X Exp ≈
En la práctica, esta distribución aparece asociada a variables que
miden la distancia entre sucesos puntuales que se dispersan
completamente al azar en un medio continuo y que, por tanto, tienen
distribución de Poisson (tales como, por ejemplo, el tiempo
transcurrido entre la caída de dos rayos sucesivos durante una
tormenta, la distancia entre dos nidos de ave en un bosque, el
tiempo transcurrido entre dos llamadas telefónicas, etc.).
Ejemplo: El número de rayos que caen durante la fase central de una
tormenta tropical sigue una distribución de Poisson de media
l=22
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 203
rayos por minuto. ¿Cuál es la probabilidad de que entre la caída de
dos rayos sucesivos transcurran como mucho 3 segundos? Si
llamamos:
X = “Tiempo transcurrido entre dos rayos sucesivos”
debemos calcular la probabilidad de que X sea menor que 3. Para
ello consideremos la variable:
Y = “Número de rayos que caen en 3 segundos”
Dado que durante la fase central de la tormenta caen por término
medio 22
rayos por minuto, y 3 segundos es la vigésima parte de un minuto (
1 20
min.),
cabe esperar que cada 3 segundos caigan, por término medio 122 1,1
20 ⋅ =
rayos. Por tanto la variable Y sigue una distribución de Poisson de
parámetro 1,1. Entonces:
1,1( 3) 1 ( 3) 1 ( 0) 1P X P X P Y e−≤ = − > = − = = −
(Hemos usado aquí el hecho de que el suceso {X>3}, esto es, que
pasen más de 3 segundos entre dos rayos sucesivos, es igual que el
suceso {Y=0}, que en un periodo de 3 segundos no caiga ningún rayo,
y por tanto las probabilidades de ambos sucesos coinciden). En
general, si llamamos t al tiempo (en minutos) transcurrido entre
dos rayos sucesivos, la expresión anterior puede generalizarse
como:
( ) 1 , 0tP X t e tλ−≤ = − ≥
Esta expresión es, por definición, la función de distribución de la
variable aleatoria X:
( )( )F t P X t= ≤
y por tanto, la función de densidad será su derivada:
( ) '( ) , 0tf t F t e tλλ −= = ≥
De esta forma, hemos comprobado que la función de densidad de la
distribución exponencial (de parámetro 1/l) aparece asociada a la
distancia entre eventos puntuales cuyo número sigue una
distribución de Poisson (de parámetro l).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
204 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribución gamma Una variable aleatoria X sigue una distribución
Gamma de parámetros a y b, denotada como X ºGamma(a,b), con a>0
y b>0, si y solo si su función de densidad de probabilidad viene
dada por:
1
en otro caso
α α ββ
ii) Γ( ) ( )!n n n N= − ∀ ∈1
X Gamma≈ ( , . )2 8 4
En el caso particular de que a = n entero y b=nm, la variable X
ºGamma(n,nm) es la que se obtiene como resultado de sumar n
variables con distribución exponencial de idéntico parámetro m.
Siguiendo con el ejemplo de la página anterior el tiempo
transcurrido hasta la caída de los próximos tres rayos de la
tormenta seguiría una distribución Gamma(3,3ÿ22) ª
Gamma(3,66).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 205
Distribución beta Una variable aleatoria X sigue una distribución
Beta de parámetros a y b, denotada como X ºBeta(a,b), con a>0 y
b>0, si y solo si su función de densidad de probabilidad viene
dada por:
f x x x si x
en otro caso
α β1 1
X Beta≈ ( . , . )4 2 2 3
Una de las principales aplicaciones de la distribución Beta es el
ajuste de distribuciones teóricas a datos empíricos, ya que su
función de distribución adopta formas muy diversas según cuáles
sean los valores de a y b, tal como podemos comprobar en los
siguientes gráficos:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
206 González J.J., Guerra N., Quintana M.P. y Santana A.
0.0 0.2 0.4 0.6 0.8 1.0
0. 6
0. 8
1. 0
1. 2
1. 4
1. 0
1. 5
2. 0
2. 5
3. 0
0. 0
0. 5
1. 0
1. 5
2. 0
0. 0
0. 5
1. 0
1. 5
2. 0
0 1
2 3
4 5
0. 0
0. 5
1. 0
1. 5
2. 0
2. 5
3. 0
González J.J., Guerra N., Quintana M.P. y Santana A. 207
Distribución Weibull Una variable aleatoria X sigue una
distribución Weibull de parámetros b y l, denotada como X º W(b,l),
con l>0 y b>0, si y solo si su función de densidad de
probabilidad viene dada por:
1
donde y
ββ α
0.02
0.04
0.06
0.08
(2,9)X W≈
Distribución normal Una variable aleatoria X sigue una distribución
Normal de parámetros m (media) y s (desviación típica), y se denota
como X º N(m,s), con s>0, si y solo si su función de densidad de
probabilidad viene dada por:
f x e x x
X
X
208 González J.J., Guerra N., Quintana M.P. y Santana A.
Nótese que f(x) es una función simétrica respecto a µ, esto es
f(µ-x) = f(µ+x)
En la práctica, la distribución normal aparece asociada a variables
aleatorias que se comportan de tal manera que lo más probable es
observar valores en torno a la media; y que los valores cada vez
más alejados de la media, bien sea hacia arriba o hacia abajo, van
siendo progresivamente más difíciles de observar. Muchas variables
biológicas se comportan aproximadamente de esta forma: la talla, el
peso, la temperatura corporal, etc. También se comportan de esta
manera los errores de medida. La distribución normal es una de las
más frecuentes en la naturaleza, cosa que se justifica por la
acción del teorema central del límite, que veremos más adelante.
Este teorema indica que si una variable se obtiene como resultado
de la suma de efectos de muchas otras variables independientes, la
variable resultante tiene necesariamente distribución normal.
La distribución normal estándar El caso particular en que X sigue
una distribución normal con µ σ= =0 1y se conoce con el nombre de
distribución normal estándar:
f x e x x
X
X
( ) = − ∞ < < ∞ RST
0. 00
0. 05
0. 10
0. 15
0. 20
González J.J., Guerra N., Quintana M.P. y Santana A. 209
La distribución normal estándar se suele denotar con la letra Z, y
tal como se aprecia en la siguiente gráfica, correspondiente a
dicha distribución, prácticamente toda su probabilidad se concentra
entre –4 y 4, esto es, P Z( )− ≤ ≤ ≅4 4 1:
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
210 González J.J., Guerra N., Quintana M.P. y Santana A.
Teorema: (Tipificación de una variable normal) Si X ≈ N(m,s),
entonces:
Z X N= −
σ ( , )0 1
Consecuencia importante de este teorema: Este teorema nos permite
calcular las probabilidades asociadas a cualquier variable
aleatoria N(m,s) en función de las probabilidades asociadas a la
normal estándar N(0,1). En efecto:
P X x P X x P X x P Z x( )≤ = − ≤ − = −
≤ −F
F x F x X Z( ) = −F
HG I KJ
µ σ
Recordemos que al proceso de restar a una variable su media y
dividirla por su valor típico se le denomina tipificación de la
variable.
Los valores de la función de distribución FZ (z) de la variable
N(0,1) se encuentran tabulados. De esta forma, si deseamos calcular
FX(x) para una variable X ≈ N(m,s), simplemente procederemos a
tipificar el valor de x, restándole µ y dividiendo por σ, y
buscaremos
el correspondiente valor F x Z
−F HG I KJ
González J.J., Guerra N., Quintana M.P. y Santana A. 211
Sumas y Promedios de variables con distribución normal.
Una propiedad importante de la distribución normal es la siguiente:
Si X1, X2, ..., Xn son variables aleatorias independientes tales
que Xi
≈ N(µi,σi) ∀i, entonces:
X X X X
2 2 2
2 2 2
e j
En el caso particular de que todas las Xi tengan las mismas media y
varianza, esto es, µ µ σ σi i i= = ∀, 2 2 , las expresiones
anteriores se reducen a:
S X X X N n n
X X X X
µ σ
µ σ
d i
Cambio de escala de variables con distribución normal. Si una
variable normal X se cambia de escala (se multiplica por una
constante k), la variable resultante es también normal, con la
media y la desviación típica multiplicadas por el mismo factor de
escala, esto es:
Si X N Y k X N k k≈ ⇒ = ⋅ ≈( , ) ( , )µ σ µ σ
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
212 González J.J., Guerra N., Quintana M.P. y Santana A.
Distribuciones relacionadas con la Normal
Distribución χ2 de Pearson
Una variable aleatoria X sigue una distribución Chi-Cuadrado de
Pearson con n grados de libertad ( χ n
2 ) si y solo si su función de densidad de probabilidad viene dada
por:
f x n
x e x
2
2
Γ
µ
σ
Esta variable puede verse como un caso particular de la
Gamma,
concretamente la Gamma n 2
1 2
,FHG I KJ
Seguidamente se muestra la gráfica de la χ n 2 para diversos
valores
de n:
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5
González J.J., Guerra N., Quintana M.P. y Santana A. 213
Si Z1, Z2, ..., Zn son n variables aleatorias N(0,1)
independientes, puede probarse que la suma de sus cuadrados:
X Z Z Zn= + + +1 2
2 2 2...
sigue una distribución Chi-Cuadrado con n grados de libertad. En la
práctica la distribución χ n
2 aparece asociada a problemas de inferencia sobre la varianza de
poblaciones con distribución normal.
Distribución F de Fisher-Snedecor Una variable aleatoria X sigue
una distribución F de Fisher- Snedecor con n grados de libertad
(Fm,n) si y solo si su función de densidad de probabilidad viene
dada por:
f x m n m n
m n x n mx x
n n
m n
+ ≤ < ∞
µ σ
A continuación se representa la función de densidad de la Fm,n para
diversos valores de m y n :
0 1 2 3 4 5 6
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5
0. 6
0. 7
214 González J.J., Guerra N., Quintana M.P. y Santana A.
Si X es una variable aleatoria con distribución χm 2 e Y es
otra
variable independiente de la anterior y con distribución χ n 2 ,
puede
probarse que la variable:
=
sigue una distribución F de Fisher-Snedecor con m y n grados de
libertad. Expresado de otra forma:
χ
χ
m
m
n
F
2
2 ≈ ,
De aquí se sigue también la siguiente propiedad de la distribución
F:
Si X F X
Fm n n m≈ ⇒ ≈, , 1
En la práctica, la distribución F aparece en problemas de
inferencia estadística en los que a partir de información muestral
es preciso decidir sobre la igualdad o no de dos varianzas
poblacionales desconocidas.
Distribución t de Student Una variable aleatoria X sigue una
distribución t de Student con n grados de libertad (tn) si y solo
si su función de densidad de probabilidad viene dada por:
f x
+ F HG I KJ − ∞ < < ∞
π
A continuación se representa la función de densidad de la tn para
diversos valores de n. Como puede apreciarse, esta distribución es
simétrica respecto al eje de ordenadas y también tiene una forma
acampanada (aunque algo más estrecha que la normal). En cualquier
caso, a medida que se incrementa n la forma de esta distribución se
parece cada vez más a la N(0,1). A partir de n≥30, la tn es
prácticamente indistinguible de la N(0,1).
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones
de probabilidad.
González J.J., Guerra N., Quintana M.P. y Santana A. 215
Si Z es una variable aleatoria con distribución N(0,1) e Y es otra
variable independiente de la anterior y con distribución χ n
2 , puede probarse que la variable:
T Z Y n
=
sigue una distribución t de Student con n grados de libertad.
Expresado de otra forma:
N
n
2χ ≈
Si nos damos cuenta que la N ( , )0 1 11 2≈ χ , tenemos que:
t N
( , ) , ,
χ χ
b g
En la práctica, la distribución t aparece en problemas de
inferencia estadística en los que es preciso decidir sobre el valor
(desconocido) de la media de una población cuando no se conoce
tampoco el valor de la varianza en dicha población.
-4 -2 0 2 4
0. 0
0. 1
0. 2
0. 3
0. 4
0. 5