64
Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad. González J.J., Guerra N., Quintana M.P. y Santana A. 153 TEMA 7 VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

VARIABLES ALEATORIAS Y

  • Upload
    others

  • View
    25

  • Download
    0

Embed Size (px)

Citation preview

Page 1: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 153

TEMA 7

VARIABLES ALEATORIAS Y

DISTRIBUCIONES DE PROBABILIDAD

Page 2: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

154 González J.J., Guerra N., Quintana M.P. y Santana A.

1. Variables Aleatorias. En muchos experimentos aleatorios los resultados no son intrínsecamente numéricos; el número resulta de aplicar un instrumento de medida (función) al objeto observado. Una variable aleatoria es una función que a cada suceso elemental de un espacio muestral le asigna un número. Ejemplos:

• Se elige al azar una montaña de un mapa y se mide su altura:

X( ) 3.714 m.

• Se elige al azar un pez entre todos los de una captura y se mide su longitud:

X( ) 2,24 m.

• Se pide a una persona elegida al azar que corra lo más rápido posible y se mide lo que tarda en recorrer 100 m.:

X( ) 32 seg. • Se lanzan dos dados y se mide cuánto vale la suma de sus caras

superiores:

X( ) 10

Page 3: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 155

Definición de variable aleatoria. Formalmente, dado un experimento aleatorio cuyo espacio muestral asociado es E, si denotamos por w a los sucesos elementales de este espacio, una variable aleatoria definida sobre E es una función:

X: E —

ω ∈E X r( )ω = ∈ —

que cumple, además que para todo valor x real el conjunto:

{ }( )E

X xω

ω∈

es un suceso de E. Puesto que el experimento cuyo resultado se está midiendo con X es aleatorio, el valor de X también será aleatorio (no es posible conocerlo hasta que se lleve a cabo efectivamente el experimento). Por tanto, cada posible valor de X tendrá asignada una determinada probabilidad. En particular, dado que el conjunto

{ }( )E

X xω

ω∈

es un suceso de E, tendrá asignada una cierta probabilidad, que por simplicidad se denotará como:

( ) { }( )EP X x P X x

ωω

⎛ ⎞∈≤ = ⎜ ⎟≤⎝ ⎠

Page 4: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

156 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo 1: Sea el experimento “Tirar un dado”. El espacio muestral es entonces:

E = { } Los valores correspondientes a la variable aleatoria “Resultado obtenido” serían: X( ) = 1; X( ) = 2; X( ) = 3; X( ) = 4; X( ) = 5; X( ) = 6;

y sus correspondientes probabilidades:

P X P X P X

P X P X P X

= = = = = =

= = = = = =

1 16

2 16

3 16

4 16

5 16

6 16

b g b g b g

b g b g b g

, , ,

, ,

Obsérvese que para cualquier valor x real tiene sentido

calcular ( ) { }( )EP X x P X x

ωω

⎛ ⎞∈≤ = ⎜ ⎟≤⎝ ⎠ :

{ }( )

( ) { }( )( ) ( )( ) { }( )

1( 1) 16

33,67 1, 2,36

4 0

867 1, 2,3, 4,5,6, 1

P X P

P X P

P X P

P X P

≤ = =

≤ = =

≤ − = ∅ =

≤ = =

Page 5: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 157

( )

E ={ ( )

( ) )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( ) )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( ) )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( ) }

Ejemplo 2: Sea el experimento aleatorio “Tirar dos dados”. El espacio muestral resultante es ahora:

Page 6: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

158 González J.J., Guerra N., Quintana M.P. y Santana A.

X( )=3

X( )=2

X( )=4 X( )=5

X( )=6

X( )=7

X( )=5

X( )=6

X( )=7

X( )=8

X( )=9

X( )=10

X( )=4 X( ) =3

X( )=5

X( )=6

X( )=7

X( )=8

X( )=6

X( )=7

X( )=8

X( )=9

X( )=10

X( )=11

X( )=5

X( )=4

X( )=6

X( )=7

X( )=9

X( )=7

X( )=8

X( )=9

X( )=10

X( )=11

X( )=8

X( )=12

Si sobre este espacio medimos la variable X =”Suma de los dos dados” obtenemos: El espacio muestral contiene 36 elementos (todas las posibles parejas de resultados). Si los dos dados están bien construidos no hay razón para pensar que una pareja de valores sea más probable que otra. Por tanto, aplicando la regla de Laplace, cada pareja de valores tiene

probabilidad 1

36 .

Page 7: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 159

Ahora bien, la variable aleatoria X sólo puede tomar 11 valores (los números del 2 al 12). La probabilidad de que X tome el valor concreto k, entre 2 y 12, es entonces la probabilidad del conjunto de parejas de valores que suman k:

P X k P X k P a ba b a b k= = =

RSTUVW = ≤ ≤ ≤ ≤ + =RST

UVWb g b gb gω

ω,

; ;1 6 1 6 ,

esto es:

P X P

P X P

P X P

P X P

P X P

P X P

= = = =

= = = =

= = = =

= = = =

= = = =

= =

2 11 136

0 027

3 1 2 2 1 236

0 055

4 1 3 31 2 2 336

0 083

5 1 4 4 1 2 3 3 2 436

0 111

6 1 5 51 2 4 4 2 3 3 536

0 138

7 1

b g b gm r

b g b g b gm r

b g b g b g b gm r

b g b g b g b gb gm r

b g b g b g b g b g b gm r

b g

, ,

, , , ,

, , , , , ,

, , , , , , ) ,

, , , , , , , , , ,

,6 6 1 2 5 5 2 3 4 4 3 636

0 166

8 2 6 6 2 3 5 5 3 4 4 536

0 138

9 3 6 6 3 4 5 5 4 436

0 111

10 4 6 6 4 5 5 336

0 083

11 5 6 6 5

b g b g b g b g b g b gm r

b g b g b g b g b g b gm r

b g b g b g b g b gm r

b g b g b g b gm r

b g b g b

, , , , , , , , , , ,

, , , , , , , , , ,

, , , , , , , ,

, , , , , ,

, , ,

= =

= = = =

= = = =

= = = =

= =

P X P

P X P

P X P

P X P gm r

b g b gm r

= =

= = = =

236

0 055

12 6 6 136

0 027

,

, .,P X P

Nótese que en este caso los distintos valores que toma X no son equiprobables.

Page 8: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

160 González J.J., Guerra N., Quintana M.P. y Santana A.

1.1. Variables Aleatorias Discretas. Son aquéllas que toman un nº finito o numerable de valores. Ejemplos:

• X = ”Resultado de lanzar un dado“

X ∈ 1 2 3 4 5 6, , , , ,l q • Y = “Resultado de aplicar un tratamiento a un enfermo

y observar si se cura (1) o no se cura (0)”.

Y ∈ 1 0,l q • U = “Número de tornillos defectuosos fabricados por

una máquina”

U ∈ 0 1 2 3, , , ,...l q Función de probabilidad Dada una variable aleatoria discreta X, se define su función de probabilidad como la función que a cada valor x le asigna su probabilidad de ocurrencia:

f x P X x( ) = =b g Si llamamos M al conjunto de todos los valores que puede tomar X, es evidente que esta función cumple las siguientes propiedades:

0 1≤ ≤ ∀f x x( ) ,

f xx M

( )∈∑ = 1

Page 9: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 161

Ejemplo 1:

Si X es el resultado que se observa al tirar un dado, su función de probabilidad es:

f x x( ) , , , , ,= ∀ ∈RS|T|

16

1 2 3 4 5 6

0l q

en otro caso

Podemos expresar esta función en forma de tabla:

X 1 2 3 4 5 6

f(x) 16

16

16

16

16

16

o gráficamente:

X

654321

f(x)

.20

.18

.16

.14

.12

.10

.08

Page 10: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

162 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo 2:

Si en cierta población de insectos el 30% son machos y el 70% hembras, y se elige al azar un insecto, siendo:

X =RST0 si el insecto es hembra1 si el insecto es macho

entonces la función de probabilidad de X es:

f x si x( ),

= =RS|T|

0 70 3 10

si x = 0,

en otro caso

En forma de tabla:

x 0 1 f(x) 0.7 0.3

y en forma gráfica:

X

10

f(x)

.8

.7

.6

.5

.4

.3

.2

Page 11: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 163

Función de distribución de probabilidad Otra forma de describir la asignación de probabilidades a los distintos valores que puede tomar una variable aleatoria discreta X es a través de su función de distribución, definida como:

F x P X x P EX x( ) ( )= ≤ = ∈

≤RST

UVWFHG

IKJ

ωωb g

De esta forma, F(x) es la probabilidad acumulada por todos los sucesos que dan lugar a valores de X que son menores o iguales que x. Recuérdese que para que una variable aleatoria esté bien definida debe ocurrir que el conjunto { }( )

EX x

ωω

∈≤ sea un suceso de E y por tanto

tenga asignada una probabilidad; ello significa que la función de distribución de una variable aleatoria discreta siempre existe y está definida para todo valor x real.

Ejemplo: Si X es el resultado que se observa al tirar un dado, su función de distribución de probabilidad es:

F x

xxxxxx

x

( )

/////

=

<≤ <≤ <≤ <≤ <≤ <≥

R

S

||||

T

||||

0 11 6 1 22 6 2 33 6 3 44 6 4 55 6 5 6

1 6

Page 12: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

164 González J.J., Guerra N., Quintana M.P. y Santana A.

Gráficamente:

Como vemos, F(x) está definida sobre todo —:

2(2) ( 2)6

4(4,7) ( 4,7)6

(6,2) ( 6,2) 1( 8,9) ( 8.9) 0

F P X

F P X

F P XF P X

= ≤ =

= ≤ =

= ≤ =− = ≤− =

Page 13: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 165

Algunas propiedades de la función de distribución de una v.a. discreta: Es fácil observar que se cumplen las siguientes propiedades:

o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)

o

o

o

o F(x) es no decreciente; además F(x) es una función escalonada, cuyos saltos (escalones) se producen en los valores k tales que f(k)>0.

o

F k f j

k P X k P X j f jj k

j k j k

( ) ( )

( ) ( ) ( ))

=

= ≤ = = =≤

≤ ≤

∑ ∑(pues F b g

lim ( ) ; lim ( )k k

F k F k→∞ →−∞

= =1 0

f k F k F k( ) ( ) ( )= − −1

P a X b F b F a( ) ( ) ( )< ≤ = −

Page 14: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

166 González J.J., Guerra N., Quintana M.P. y Santana A.

1.2. Variables Aleatorias Continuas. Son aquéllas que toman valores en un rango continuo.

Ejemplos:

• X = ”Longitud (en cm.) de un pez elegido al azar entre los de una captura“

X ∈ 5 300,

• Y = “Resultado de medir la proporción (en %) de alcohol en un recipiente con fruta en fermentación”

Y ∈ 0 100,

• U = “Distancia al centro de la diana medida desde la posición en que cae un dardo lanzado por un tirador experto”

U r∈ 0, (r es el radio de la diana)

Observación importante: Dado que en cualquier intervalo continuo (aunque sea finito) hay un número infinito de valores, la probabilidad de que una variable aleatoria continua X definida sobre ese intervalo1 tome un valor arbitrario x prefijado de antemano es siempre 0:

P X x x( )= = ∀0

E En el caso de variables aleatorias continuas no es posible definir la función de probabilidad del mismo modo que en el caso discreto 1 Se entiende que nos referimos a variables que, a priori, puedan tomar cualquier valor del intervalo, y no concentren su probabilidad en un número finito de valores del mismo.

Page 15: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 167

No obstante, aunque cada valor individual x tenga una probabilidad 0 de ocurrir, les evidente que algunos rangos continuos de valores (esto es, intervalos de la forma [a,b]) han de tener asignada una probabilidad no nula. A modo de ejemplo, si a y b son, respectivamente, los valores mínimo y máximo que puede tomar la variable X, se tiene que P X a b∈ =,c h 1 . Ejemplo 1:

Disponemos de una cuerda de 1 metro de longitud y realizamos el experimento de tirar de sus extremos hasta que la cuerda se parta. Supongamos que la densidad del material con que está hecha la cuerda es completamente uniforme, de forma que a priori es igualmente probable que se rompa en cualquier punto: Sea X =”Posición del punto en que se parte la cuerda”. Obviamente, dado que existen infinitos puntos entre 0 y 1 en los que la cuerda puede romperse, la probabilidad de que se rompa en un punto x concreto es 0 cualquiera que sea x:

P X x x= = ∀ ∈b g 0 0 1, Ahora bien, dado que efectivamente la cuerda ha de romperse en algún punto, y todos son equiprobables, podemos aplicar la regla de Laplace para calcular, por ejemplo, la probabilidad de que la cuerda se parta en algún punto de la mitad izquierda:

( ) Medida del trozo [0,0.5] 0.5[0,0.5] 0.5Medida de la cuerda 1

P X ∈ = = =

0 1 0.5

Page 16: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

168 González J.J., Guerra N., Quintana M.P. y Santana A.

a b

x

La probabilidad de que la cuerda se parta en algún punto de un intervalo arbitrario [a,b] será, también por la regla de Laplace:

P X a b a b b a b a∈ = =−

= −[ , ] [ , ]b g Medida del trozo Medida de la cuerda 1

En particular, la probabilidad de que la cuerda se rompa en algún punto situado entre el extremo izquierdo y una posición arbitraria x (con 0 1≤ ≤x ) es:

P X x P X x x x( ) ,≤ = ∈ = = =01

c h Medida del trozo [0,x]Medida de la cuerda

Evidentemente P X x x P X x x( ) ( )≤ = < ≤ = >0 0 1 1 si y si

Ejemplo 2:

Un tirador inexperto lanza dardos contra una diana circular, de 1 metro de radio. Tras cada lanzamiento se mide la variable aleatoria

X=”distancia desde el punto donde ha acertado el dardo hasta el centro de la diana”

Al igual que en el ejemplo anterior, la probabilidad de que X tome un valor concreto x es siempre 0, cualquiera que sea el valor x elegido. Sin embargo, utilizando la regla de Laplace, podemos calcular fácilmente la probabilidad de que el dardo caiga, por ejemplo, a menos de 0.3 metros del centro.

0 1

0 1

Page 17: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 169

En efecto, por ser el tirador inexperto podemos suponer que todos los puntos de la diana tienen la misma probabilidad de ser alcanzados. Por tanto la probabilidad de acertar a menos de 0.3 m. del centro será igual a la probabilidad de acertar en un circulo de 0.3 m. de radio cuyo centro es también el centro de la diana. Luego:

En general, la probabilidad de acertar a una distancia inferior a x metros del centro será:

P X x x x≤ =⋅⋅

=b g ππ

2

22

1

La probabilidad de acertar a una distancia entre a y b metros del centro será, a su vez:

P a X b P X b P X a b a≤ ≤ = ≤ − ≤ = −b g b g b g 2 2

1 m.

0.3 m.

P X ≤ = =

= = =

0 3

0 31

0 3 0 092

22

.

..( )

. .

b gb g b g

Área(círculo de radio 0.3)Área(círculo de radio 1)

ππ

ab

Page 18: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

170 González J.J., Guerra N., Quintana M.P. y Santana A.

Función de distribución de probabilidad

En general, dada cualquier variable aleatoria continua X, la función:

F x P X x( ) ( )= ≤

siempre estará definida para todo valor x real (ya que, por construcción, los conjuntos de la forma { }( )

EX x

ωω

∈≤ son

sucesos en el espacio muestral E y por tanto tienen asignada una probabilidad). Así, por ejemplo, si M es el mayor valor que puede tomar la variable aleatoria X, es claro que F M P X M( ) ( )= ≤ = 1 . Al igual que en el caso de las variables aleatorias discretas, esta función se denomina función de distribución.

Algunas propiedades:

o 0 1≤ ≤ ∀F x x( ) (Evidente, pues F(x) es una probabilidad)

o F(x) es continua y no decreciente

o

o Al ser P(X=x) = 0 para todo x real se tiene que:

P X x P X x

P a X b P a X b P a X b P a X b

< = ≤

< < = ≤ < = < ≤ = ≤ ≤

b g b gb g b g b g( )

P a X b F b F a( ) ( ) ( )< ≤ = −

Page 19: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 171

Ejemplo 3:

Supongamos que estamos en una situación idéntica a la del ejemplo 2, pero con un tirador de dardos experto. Ahora no podemos suponer que todos los puntos de la diana tienen la misma probabilidad de ser alcanzados. Al contrario, será mucho más probable acertar cerca del centro que de los bordes, siendo la probabilidad de acertar cerca del centro tanto mayor cuanto más experto sea nuestro tirador. Si consideramos nuevamente la variable aleatoria:

X=”distancia desde el el punto en que se clava el dardo hasta el centro de la diana”

la función de distribución de esta variable aleatoria podemos esperar que ahora sea de la forma:

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x

F(x

)

Esta función, como vemos crece muy deprisa entre 0 y 0.1; así, por ejemplo, vemos que ya para x=0.1 se tiene P X ≤ =01 0 97. .b g , o lo que es lo mismo, la probabilidad de que el dardo caiga a menos de 10 cm del centro de la diana es del 97% (que es lo que cabría esperar de un buen tirador). Si vamos mirando el resto de los valores (0.2, 0.4, 0.6, etc.), vemos que la probabilidad acumulada crece muy despacio, cosa que también es de esperar en un buen tirador, que ya ha acumulado prácticamente toda la probabilidad de acertar en los 10 cm. más próximos al centro de la diana.

Page 20: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

172 González J.J., Guerra N., Quintana M.P. y Santana A.

Una función que se comporta de esta forma y que, por tanto, podría ser un buen modelo para esta distribución de probabilidad es:

F x x x x( ) ,=+

+ − −LNM

OQP ≤ ≤

11

1 1 0 12 2

αα

βc he j

Como puede apreciarse, esta función cumple las siguientes condiciones, necesarias para que pueda servir como función de distribución de una variable aleatoria definida en [0,1]:

0 ( ) 1 [0,1]( ) es continua[0] 0; [1] 1( ) 0 [0,1] (Por tanto F(x) es no decreciente en [0,1])

F x xF xF FF x x

≤ ≤ ∀ ∈

= =′ > ∀ ∈

Además, para α=0 la función anterior se reduce a F(x)=x2 que es justo la función de distribución que ya habíamos visto para el tirador inexperto. Como podemos ver en las gráficas siguientes, variando los valores de α y β podemos hacer que esta función se ajuste al comportamiento de tiradores con distintos grados de puntería:

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

alfa=1 beta=10

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

alfa=2 beta=10

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

alfa=2 beta=50

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

alfa=100 beta=50

x

F(x

)

Page 21: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 173

NOTA: Esta no es la única función que se comporta de esta manera. A modo de ejemplo, otra función cuya gráfica es también de la forma señalada es:

( )( )

( ) ( )1

1 siendo

1( ) ,

1xF x k k

x

αα

α α α

ββ αββ β β α β

−=

⎡ ⎤ ++= −⎢ ⎥

+ + − +⎢ ⎥⎣ ⎦

En este caso, tomando α=-1, β=0 obtenemos también la función de distribución del tirador inexperto F(x)=x2. Al igual que antes, se cumplen las condiciones necesarias para ser función de distribución en [0,1], y variando los valores de α y β podemos ajustar el comportamiento de tiradores con distinto grado de puntería:

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

a=10, b=2

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

a=20, b=2

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

a=50, b=2

x

F(x

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

a=200, b=2

x

F(x

)

La selección de este modelo o del anterior como el más adecuado a este experimento dependerá del grado de ajuste a datos muestrales debidamente obtenidos, o de consideraciones teóricas que lleven a preferir uno de los modelos sobre el otro.

Page 22: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

174 González J.J., Guerra N., Quintana M.P. y Santana A.

Función de densidad de probabilidad de una v.a. continua. Ya hemos visto que en el caso de las variables aleatorias continuas la probabilidad asignada a valores de x concretos, P(X=x), es siempre 0, mientras que la probabilidad asignada a intervalos finitos, P X a b∈ ,c h , sí que puede ser distinta de 0. Aunque no tenga mucho sentido preguntarse por la probabilidad de que ocurra exactamente el valor x, ya que sabemos que es 0, sí que podría tener sentido preguntarse por la probabilidad de que ocurra un valor en un entorno próximo a x, esto es:

P X x x x∈ +, ∆bc h Esta expresión nos da la probabilidad total de que nuestro experimento aleatorio produzca un valor en un entorno de amplitud Dx a la derecha de x. Si dividimos esta cantidad por Dx obtenemos la densidad de probabilidad en ese entorno (dicho de otro modo, obtenemos la cantidad de probabilidad por unidad de medida en las proximidades de x):

P X x x xx

∈ +, ∆

∆bc h

Si vamos tomando valores de Dx cada vez más pequeños, en el límite obtenemos la función de densidad de probabilidad en el punto x:

f x LimP X x x x

xx( )

,=

∈ +→∆

∆0

bc h

Page 23: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 175

Si ahora observamos que:

P X x x x P x X x x F x x F x∈ + = < ≤ + = + −, ( ) ( )∆ ∆ ∆bc h b g

es inmediato deducir que:

f x LimP X x x x

xLim F x x F x

xF x

x x( )

, ( ) ( ) ' ( )=∈ +

=+ −

=→ →∆ ∆

∆∆∆0 0

bc h

Así pues, en el caso de variables aleatorias continuas, la función de densidad de probabilidad coincide con la derivada de la función de distribución:

f x F x( ) ( )= ′ Por tanto, la función de distribución puede obtenerse también integrando la función de densidad:

F x f s dsx

( ) ( )=−∞z

Gráficamente ello significa que el valor de la función de distribución en un punto x (o lo que es lo mismo, la probabilidad acumulada hasta x) coincide con el área encerrada bajo la función de densidad hasta ese punto:

( )f x , función de densidad

x

F(x)

Page 24: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

176 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo 1:

Si volvemos a nuestro ejemplo de la cuerda, ya habíamos visto que la función de distribución de la variable X=”punto donde se rompe la cuerda al tirar de sus extremos”

F xx

x xx

( ) =<

≤ ≤>

RS|T|

0 00 1

1 1

Por tanto la función de densidad se obtiene como:

f x F xx

xx

( ) ' ( )= =<

≤ ≤>

RS|T|

0 01 0 10 1

lo que refleja que la densidad de probabilidad de esta variable es constante en todos los puntos de la cuerda (resultado que era de esperar toda vez que es igualmente probable que la cuerda se rompa en cualquier punto). Ejemplo 2:

En el caso del tirador inexperto habíamos visto que la función de distribución de la variable:

X=”distancia desde el punto en que acierta el dardo al centro de la diana”

era:

F x P X x x x( ) ( ) ,= ≤ = ≤ ≤2 0 1

Por tanto la función de densidad de esta variable aleatoria es:

f x F x x x( ) ( ) ,= ′ = ≤ ≤2 0 1

lo que indica que la densidad de probabilidad aumenta linealmente con el valor de x.

Page 25: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 177

Ejemplo 3:

En el caso del tirador experto, la función de densidad sería:

f x x x x( ) ,=+

+ − ≤ ≤−2

11 1 0 12 1

ααβ

βc he j

En su representación gráfica, que se muestra a continuación (para α=100, β=50), se observa que la densidad de probabilidad es grande cerca del cero (centro de la diana), lo que indica que es muy probable acertar en ese entorno, y decrece a medida que nos alejamos del centro, lo que indica que es difícil (muy poco probable) que el tirador experto llegue a lanzar el dardo lejos del centro.

0.0 0.2 0.4 0.6 0.8 1.0

01

23

45

6

x

f(x)

Page 26: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

178 González J.J., Guerra N., Quintana M.P. y Santana A.

Algunas propiedades de la función de densidad:

1 1

2

3

) ( )

) ( ) ( ) ( ) ( ) ( ) ( )

) ( ) ( )

f x dx

P a X b P X b P X a F b F a f x dx

F x P X x f u du

a

b

x

−∞

−∞

zz

z

=

< ≤ = ≤ − ≤ = − =

= ≤ =b g

En la primera propiedad, por generalidad se han puesto como límites de integración −∞ e ∞ . Si la función de densidad sólo toma valores distintos de 0 en un intervalo [a,b], los límites de integración se restringen a los extremos de este intervalo.

Page 27: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 179

1.3. Parámetros de una variable aleatoria En el tema anterior hemos visto la analogía existente entre el concepto de frecuencia relativa con que se presenta un valor en un conjunto de datos obtenidos generalmente mediante muestreo, y el concepto de probabilidad de que se produzca un valor concreto como resultado de un experimento aleatorio:

En particular una de las formas de asignar probabilidades a sucesos es precisamente tomar como probabilidad de un suceso dado la frecuencia relativa con que se presenta dicho suceso cuando el experimento aleatorio se realiza muchas veces, por lo cual ambos conceptos coinciden en este caso.

Y, aún cuando no se haya realizado una asignación frecuentista, la probabilidad de obtener al azar determinado valor en una población coincide con la proporción (que en definitiva también es la frecuencia relativa) en que dicho valor se halla presente en la población.

A la hora de sintetizar (resumir) los valores observados en un conjunto de datos, hasta ahora hemos hablado de medidas de posición (Media, mediana, moda, percentiles), medidas de dispersión (Varianza, desviación típica) y medidas de forma (momentos, simetría, apuntamiento). Estas medidas, de hecho, caracterizan la distribución de frecuencias relativas de los datos (la forma en que se reparten las frecuencias relativas entre los distintos valores): la media nos señala donde está el centro de esta distribución, la desviación típica nos indica si es una distribución muy concentrada o muy dispersa, la curtosis nos informa de su grado de apuntamiento ...

Page 28: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

180 González J.J., Guerra N., Quintana M.P. y Santana A.

Estas medidas de síntesis pueden generalizarse de modo natural a las distribuciones de probabilidad de las variables aleatorias.

1 2 3 4 5 6

0.00

0.05

0.10

0.15

0.20

1 2 3 4 5 6

0.00

0.05

0.10

0.15

0.20

peces

Den

sity

35 40 45 50

0.00

0.02

0.04

0.06

0.08

0.10

0.12

30 35 40 45 50

0.00

0.02

0.04

0.06

0.08

0.10

0.12

x

y

En el caso de variables discretas, el diagrama de barras viene a ser lo mismo que el gráfico de la función de probabilidad; en el caso continuo, el histograma coincide conceptualmente con el gráfico de la función de densidad de probabilidad.

DIAGRAMA DE BARRAS RESULTANTE DE LANZAR UN DADO 1000 VECES

HISTOGRAMA DE LONGITUDES DE UNA MUESTRA DE 1000 PECES.

FUNCIÓN DE DENSIDAD DE LA VARIABLE ALEATORIA LONGITUD DEL PEZ

Page 29: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 181

Del mismo modo que la media se sitúa en la posición central del diagrama de barras o del histograma, es posible definir un concepto equivalente que se sitúe en la posición central de la distribución de probabilidades. Al igual que la desviación típica mide la dispersión en el diagrama de barras o en el histograma, es posible con un concepto equivalente medir la dispersión en la distribución de probabilidades... Estos conceptos se conocen como parámetros característicos de la distribución de probabilidades de una variable aleatoria. Media, Varianza y momentos de una variable aleatoria Medidas de síntesis para datos medidos sobre una población de tamaño N: Recordemos que si hemos medido todos los valores de una variable en una población de tamaño N, en la que hay k valores distintos x1, x2, …, xk y donde fi = frecuencia relativa del valor xi, se definen las siguientes medidas de síntesis, cada una de ellas asociada a una característica distinta de la distribución de frecuencias de los datos:

Nombre Expresión matemática

Característica medida

Media

1

k

i ii

x x f=

= ∑ Posición central

Varianza ( )22

1

k

i ii

s x x f=

= −∑

Dispersión

Momento de orden r respecto a la media ( )

1

kr

r i ii

m x x f=

= −∑ Forma (asimetría, apuntamiento)

Page 30: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

182 González J.J., Guerra N., Quintana M.P. y Santana A.

Parámetros de una variable aleatoria discreta: Dada una variable aleatoria discreta X de la que conocemos su distribución de probabilidad:

X x1 x2 x3 ...... ........ xk

P X xi( )= p1 p2 p3 ....... ........ pk se definen sus parámetros de modo análogo a las medidas de síntesis anteriores. En este caso los parámetros miden características de la distribución de probabilidad:

Nombre Expresión Matemática Característica medida

Media o Esperanza

1[ ]

k

i ii

E X x pµ=

= =∑ Posición central

Varianza 2 2

12

[ ] ( )

[( ) ]

k

i ii

Var X x p

E X

σ µ

µ=

= = − =

= −

Dispersión

Momento de orden r respecto a la media 1

( )

[( ) ]

kr

r i ii

r

x p

E X

µ µ

µ=

= − =

= −

Forma (asimetría, apuntamiento)

Ejemplo: Si X = ”Lanzar un dado (equilibrado)”: La posición central de la distribución de probabilidad de esta variable es:

1

1 1 1 1 1 1[ ] 1 2 3 4 5 6 3,56 6 6 6 6 6

k

i ii

E X p xµ=

= = = ⋅ + ⋅ + ⋅ + ⋅ + ⋅ + ⋅ =∑

Asimismo, su dispersión (variabilidad) puede medirse mediante:

2 2 2 2 2

1

1 1 1[ ] ( ) (1 3,5) (2 3,5) ..... (6 3,5) 2,916 6 6

k

i ii

V X p xσ µ=

= = − = − ⋅ + − ⋅ + + − ⋅ =∑

Page 31: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 183

Parámetros de una variable aleatoria continua Dada una variable aleatoria continua X de la que conocemos su función de densidad de probabilidad f(x), si dx es una cantidad infinitesimal, el producto f(x) dx mide aproximadamente la cantidad de probabilidad en el intervalo [x, x+dx]. Con esta idea en mente, pueden generalizarse al caso continuo las medidas vistas para el caso discreto, con la consideración obvia de que las sumas habrán de ser sustituidas por integrales:

Nombre Expresión Matemática Característica medida

Media o Esperanza [ ] ( )E X x f x dxµ

−∞= = ∫

Posición central

Varianza 2 2

2

[ ] ( ) ( )

[( ) ]

V X x f x dx

E x

σ µ

µ

−∞= = − =

= −

Dispersión

Momento de orden r respecto a la media

( ) ( )

[( ) ]

rr

r

m x f x dx

E x

µ

µ

−∞= − =

= −

Forma (asimetría, apuntamiento)

Ejemplo:

En el caso del tirador de dardos inexperto, la función de densidad de probabilidad de la variable:

X=”distancia a la que cae el dardo desde el centro de la diana”

Es, como ya hemos visto, f(x)=2x 0≤x≤1. La distancia media a la que caen los dardos lanzados por este tirador sería entonces:

E X x f x dx x x dx x dx x= = = =

OQP = =

−∞

∞z z z( ) ,2 2 23

23

0 660

1 2

0

1 3

0

1

La dispersión de los diferentes puntos de acierto vendría dada por:

Page 32: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

184 González J.J., Guerra N., Quintana M.P. y Santana A.

Var X x f x dx x x dx x x x dx

x x x dx x x x

( ) ( )

,

= − = −FHGIKJ = − +F

HGIKJ =

= − +FHG

IKJ = − +LNM

OQP = + + =

= =

−∞

∞z z zz

µb g22

0

1 2

0

1

3 2

0

1 4 3 2

0

1

23

2 43

49

2

2 83

89

24

83 3

89 2

12

89

49

3318

183

Desv Tip X Var X. .( ) ( ) , ,= = =183 1 354

Interpretación de los parámetros de una v.a. Esperanza: representa la media de todos los valores que tomaría la variable aleatoria X si el experimento aleatorio que da lugar a esta variable se realizara un número muy grande de veces. Varianza: representa la varianza de todos los valores que tomaría la variable aleatoria X si el experimento aleatorio que da lugar a esta variable se realizara un número muy grande de veces.

Page 33: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 185

Algunas propiedades de la media y la varianza de variables aleatorias. Sea X una variable aleatoria (discreta o continua).

1. Cambio de escala: si Y = c·X

µ µ

σ µ µ µ σσ σ

Y X

Y Y X X X

Y X

E Y E cX cE X c

E Y E cX c E c X cc

= = = =

= − = − = − ==

[ ] [ ]

[( ) ] [( ) ] [ ( ) ]| |

2 2 2 2 2 2 2

2. Traslación: si Y = X+c

µ µ

σ µ µ σσ σ

Y X

Y Y X X

Y X

E Y E X c E X c c

E Y E X c c

= = + = + = +

= − = + − − ==

[ ] [ ]

[( ) ] [( ) ]2 2 2 2

Esperanza de una función de una variable aleatoria. Es frecuente en la práctica que del valor que tome una variable aleatoria X dependa una función de la misma g(X). Se define entonces la esperanza de esta función como:

E g Xg x p

g x f x dx

i ii

k

b g =RS|T|

=

z( )

( )1

Si X es una v.a. discreta

( ) Si X es una v.a. continua-

siendo pi=P(X=xi) la función de probabilidad de X en el caso discreto y f(x) la función de densidad de probabilidad de X en el caso continuo.

Page 34: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

186 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo 1:

Supongamos que apostamos en un juego de dados de la siguiente forma: Se tira un dado; si sale número par ganamos 1 €; si sale número impar perdemos 1€. ¿Cuál será nuestra ganancia (o pérdida) esperada en este juego?

En este caso la función g(x) que mide la ganancia en el juego es:

g x

Si xSi xSi xSi xSi xSi x

( ) =

− ==

− ==

− ==

R

S

|||

T

|||

1 11 21 3

1 41 5

1 6

y su valor esperado:

E g x g x p p p p p p pi ii

( ) ( )= = − + − + − + =

= − ⋅ + ⋅ − ⋅ + ⋅ − ⋅ + ⋅ =

=∑

1

6

1 2 3 4 5 61 1 1 1 1 1

1 16

1 16

1 16

1 16

1 16

1 16

0

Así pues, por término medio en este juego no ganaremos (ni perderemos) nada.

Page 35: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 187

Ejemplo 2:

Supongamos que somos malos tiradores de dardos y que jugamos del siguiente modo: lanzamos un dardo a una diana de un metro de diámetro; si acertamos a menos de 10 cm. del centro ganamos 20 €; si acertamos entre 10 y 20 cm del centro ganamos 10 €; si nuestro dardo cae a más de 20 cm. del centro perdemos 1 €. ¿Merece la pena jugar a este juego? En este caso, la función que mide la ganancia en el juego es:

g xSi x

Si xSi x

( ).

. ..

=<

≤ <− ≥

RS|T|

20 0110 01 0 2

1 0 2

y su valor esperado sería (recordemos que la función de densidad del mal tirador de dardos era f(x)=2x para x entre 0 y 1):

E g x g x f x dx g x x dx x dx x dx x dx

x x x

( ) ( ) ( ) ( )

. . . .

. . . .

.

..

..

.

.

.

= = = ⋅ + ⋅ + − ⋅ =

=LNMOQP +LNMOQP −LNMOQP = ⋅ + − − − =

= + − = −

−∞

∞z z zz z2 20 2 10 2 1 2

402

202

22

20 0 01 10 0 04 0 01 1 0 04

0 2 0 3 0 96 0 91

0

1

0 1

0 2

0

0 1

0 2

1

2

0

0 1 2

0 1

0 2 2

0 2

1

b g

b g b g

Por tanto, de jugar reiteradamente a este juego, podemos esperar perder, por término medio, 0.91 €.

Distribuciones discretas notables Distribución uniforme discreta

Es la distribución de probabilidad de una variable aleatoria que toma un número finito k de valores, siendo todos equiprobables. Su función de probabilidad es de la forma:

X x1 x2 x3 ...... ........ xk P X xi( )=

1k

1k

1k

....... ........ 1

k

y su media y varianza son:

Page 36: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

188 González J.J., Guerra N., Quintana M.P. y Santana A.

µ = = = == = =∑ ∑ ∑E X x p x

k kxi i

i

k

ii

k

ii

k

[ ]1 1 1

1 1

σ µ µ µ2 2

1

2

1

2

1

1 1= = − = − = −

= = =∑ ∑ ∑V X x p x

k kxi i

i

k

ii

k

ii

k

[ ] ( ) ( ) ( )

Ejemplo: Si X = ”Resultado obtenido al lanzar un dado equilibrado”

µ = = = = == =∑ ∑E X p x ii ii

k

i

[ ] ,1 1

616

16

21 3 5

σ µ2 2

1

2

1

616

3 5 2 91= = − = − == =∑ ∑V X p x ii ii

k

i

[ ] ( ) ( , ) ,

Page 37: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 189

Distribución de Bernoulli Es la distribución de probabilidad de una variable aleatoria que sólo admite dos resultados “éxito” o “fracaso” ( 1 ó 0 ) siendo sus probabilidades respectivas p y 1-p, con 0 1≤ ≤p .

Su función de probabilidad es, por tanto:

f x P X x p p para xx x( ) ( ) ( )= = = − =−1 0 11 ó o, expresada de otra forma:

f P X pf P X p

( ) ( )( ) ( )1 10 0 1= = == = = −

Su media y varianza vienen dadas por:

µ

σ µ

= = = + − =

= = − = − + − − = −

=

=

E X p x p p p

V X p x p p p p p p

i ii

k

i ii

k

[ ] • ( ) •

[ ] ( ) ( ) ( )( ) ( )

1

2 2 2 2

1

1 1 0

1 1 0 1

Ejemplo 1: Si se realiza el experimento aleatorio consistente en lanzar una moneda equilibrada y se define la variable aleatoria:

X =RST01

si sale carasi sale cruz

entonces X Be≈ FHGIKJ

12

La función de probabilidad en este caso es:

P X

P X

( )

( )

= =

= = − =

1 12

0 1 12

12

y la media y varianza:

µ

σ

X

X

p

p p

= =

= − = =

12

1 12

12

14

2 ( )

Page 38: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

190 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo 2: Se realiza el experimento aleatorio consistente en lanzar un dado equilibrado y se define la variable aleatoria:

X =RST10

si sale múltiplo de 3si no sale múltiplo de 3

La función de probabilidad en este caso es:

P X

P X

( )

( )

= = =

= = − = =

UV||

W||

1 26

13

0 1 26

46

23

y por tanto:

13

X Be⎛ ⎞≈ ⎜ ⎟⎝ ⎠

Page 39: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 191

Distribución binomial B(n,p)

Es la distribución de probabilidad de la variable aleatoria:

X = “Número de éxitos obtenidos al repetir n veces un experimento de Bernoulli, siendo p la probabilidad de éxito en cada experimento, y siendo cada repetición independiente de las anteriores”

La variable binomial suele denotarse como:

X B n p≈ ( , )

Obviamente, al realizar n experimentos sólo son posibles entre 0 y n éxitos, luego X n∈{ , , ,...., }0 1 2

Su función de probabilidad es:

f x P X xnx

p p para x nn px n x

, ( ) ( ) ( ) ; , , ,....,= = =FHGIKJ − =−1 0 1 2

Es evidente que cada una de estas probabilidades es no negativa. Es fácil comprobar también que la suma de todas las probabilidades para x = 0, 1, 2, ...,n es 1. En efecto:

P X n P X P X P X n

f f f nn

p pn

p pn

p pnn

p p

p p

n n n n n n

n

∈ = = + = + + = =

= + + + =

=FHGIKJ − +

FHGIKJ − +

FHGIKJ − + +

FHGIKJ − =

= − + =

− − − −

0 1 0 1

0 1

01

11

21 1

1 1

0 0 1 1 2 2

, ,..., ( ) ... ( )

( ) ( ) ... ( )

( ) ( ) ( ) ...... ( )

( )

l qc h b g

b g (hemos empleado simplemente la expresión del desarrollo del binomio de Newton)

La media y varianza de la distribución binomial son:

µ

σX

X

n pn p p

= ⋅

= ⋅ ⋅ −2 1( )

Page 40: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

192 González J.J., Guerra N., Quintana M.P. y Santana A.

Ejemplo: Se sabe que en una población la proporción de machos es del 40% (o lo que es lo mismo, si se elige al azar un ejemplar de esta población, la probabilidad de que sea macho es P(macho)=0.4). Supongamos que se eligen al azar 3 ejemplares. Determinar la función de probabilidad de la variable:

X = ”Número de machos entre los 3 elegidos”

Al elegir un individuo de la población y observar su sexo, solo hay dos resultados posibles: macho o hembra, con probabilidades respectivas 0.4 y 0.6. La variable X es, por tanto, B(3, 0.4), y:

P X xx

p p para x siendo p

P X P X

P X P X

x n x( ) ( ) ; , , , .

( ) . ( . ) . . ( ) . ( . ) . . .

( ) . ( . ) . . . ( ) .

= =FHGIKJ − = =

= =FHGIKJ = ⋅ ⋅ = = =

FHGIKJ = ⋅ ⋅ =

= =FHGIKJ = ⋅ ⋅ = = =

FHGIKJ

− −

31 0 1 2 3 0 4

030

0 4 0 6 1 1 0 216 0 216 131

0 4 0 6 3 0 4 0 36 0 432

232

0 4 0 6 3 016 0 6 0 288 333

0

0 3 0 1 3 1

2 3 2 4 0 6 0 4 0 0643 3 3 3( . ) . .− = =

Page 41: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 193

Distribución binomial negativa BN(k,p)

Supongamos que un experimento de Bernoulli (con probabilidad p de éxito) se repite sucesivas veces independientes hasta que se observa el k-ésimo éxito (por ejemplo, se tira una moneda al aire sucesivas veces hasta que sale cara por k-ésima vez). Se denomina distribución binomial negativa a la distribución de probabilidad de la variable aleatoria:

X = “Número de experimentos que ha sido necesario realizar hasta obtener el k-ésimo éxito”

La variable binomial negativa suele denotarse como:

X BN k p≈ ( , )

Obviamente, para obtener k éxitos será necesario hacer como mínimo k experimentos. Por tanto X k k k∈ + +{ , , ,....}1 2

Ejemplo: Se sabe que en una población la proporción de machos es del 40% ¿cuál es la probabilidad de que para conseguir 3 machos haya que elegir 15 ejemplares? Sea X=”Número de ejemplares que hay que observar hasta conseguir tres machos”

De acuerdo con lo visto, Y≈ BN(3, 0.4). Ahora bien, si es preciso observar 15 ejemplares para obtener el tercer macho, entonces debe ocurrir que entre los 14 primeros ejemplares observados haya 2 machos y 12 hembras, y que el decimoquinto ejemplar observado sea macho. Si llamamos Y =”número de machos en 14 ejemplares”

Z = “Sexo del decimoquinto ejemplar” se tiene que, debido a la independencia entre los ejemplares observados:

P X P Y Z Macho P Y P Z Macho( ) ( " ") ( ) ( " ")= = = ∩ = = = ⋅ =15 2 2b gc h

Obviamente la variable Y sigue una distribución binomial B(14, 0.4), y la Z una distribución de Bernoulli de parámetro 0.4. Por tanto:

P X P Y P Z Macho( ) ( ) ( " ") . . . . .= = = ⋅ = =FHGIKJ ⋅ ⋅ ⋅ =

FHGIKJ ⋅ ⋅15 2

142

0 4 0 6 0 4142

0 4 0 62 12 3 12

Page 42: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

194 González J.J., Guerra N., Quintana M.P. y Santana A.

Razonando como en este ejemplo, es fácil ver que la expresión general de la función de probabilidad de una variable con distribución binomial negativa BN(k,p) es:

P X x f x k pxk

p p para x k k kk x k( ) ( ; , ) ( ) ; , , , ....= = =−−FHGIKJ − = + +−1

11 1 2

La media y varianza de esta distribución son:

22

(1 )

X

X

kpk p

p

µ

σ

=

−=

Page 43: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 195

Distribución geométrica Geo(p)

Es una Binomial Negativa con k=1, y probabilidad p de éxito, esto es:

X = “Número de experimentos independientes de Bernoulli que es preciso realizar hasta que ocurre el primer éxito”

Se denota como:

X Geo p≈ ( )

Obviamente, para obtener el primer éxito es preciso realizar al menos un experimento. Por tanto X∈{1,2,3, ...}. Su función de probabilidad es de la forma:

P X x p p xx( ) ( ) ; , , ,.....= = − ⋅ =−1 1 2 31

y su media y varianza son:

22

1 1X X

pp p

µ σ −= =

Ejemplo: El 75% de los sujetos de una población pertenecen al grupo sanguíneo A+. Supongamos que los donantes de sangre llegan al azar al centro de extracción. Si se elige un día arbitrario, determinar la función de probabilidad de la variable: X =”nº de individuos a los que se les extrae sangre hasta conseguir uno con el

grupo A+”

1

1 1 0

2 1 1

3 1 2

4 1 3

( ) (0.75)( ) (1 )

( 1) (1 ) 0, 25 0,75 0.75( 2) (1 ) 0, 25 0,75 0.1875( 3) (1 ) 0,25 0,75 0.046875( 4) (1 ) 0, 25 0,75 0.01171875

x

X Geo p GeoP X x p p

P X p pP X p pP X p pP X p p

≈ ≡

= = −

= = − = ⋅ =

= = − = ⋅ =

= = − = ⋅ =

= = − = ⋅ =

Podemos interpretar estas probabilidades del siguiente modo: el 75% de los días el primer individuo al que se extrae sangre es A+; el 18.75% de los días, el primer A+ es el segundo individuo al que se pincha; el 4.68% de los días es preciso pinchar a 3 para conseguir el primer A+…

Page 44: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

196 González J.J., Guerra N., Quintana M.P. y Santana A.

Distribución Hipergeométrica.

Supongamos que se dispone de una población finita de tamaño N, que está dividida en dos grupos (r éxitos y N-r fracasos). Se denomina distribución Hipergeométrica a la distribución de probabilidad de la variable aleatoria:

X = “Número de éxitos obtenidos al extraer al azar y sin reemplazamiento n objetos de esta población”

La variable con distribución hipergeométrica suele denotarse como:

( , , )X H n N r≈

Si llamamos p a la proporción de éxitos en la población, esto es,

rpN

=

la distribución geométrica puede denotarse también como:

( , , )X H n N p≈

La función de probabilidad de esta variable aleatoria es:

{ } { }( ) , 0, ( ) ,....., ,

r N rx n x

P X x x Max n N r Min r nNn

−⎛ ⎞⎛ ⎞⎜ ⎟⎜ ⎟−⎝ ⎠⎝ ⎠= = = − −

⎛ ⎞⎜ ⎟⎝ ⎠

Su media y varianza vienen dadas por:

( ) ( ) ( )22

· ·

· (1 )( 1) ( 1)

X

X

n r n pNr N r n N n N n

n p pN N N

µ

σ

= =

− − −= = −

− −

NOTA: Es evidente que si en el experimento donde surge la distribución hipergeométrica se realiza reemplazamiento, la variable X considerada tendría distribución binomial. Debe señalarse que, aún habiendo reemplazamiento, si N es grande es muy difícil que un mismo objeto de la población sea elegido aleatoriamente dos ó más veces, lo que es equivalente a que no haya reemplazamiento. Ello significa que la distribución hipergeométrica se va pareciendo cada vez más a la binomial a medida que N crece.

Page 45: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 197

Ejemplo: De una urna en la que hay 10 bolas blancas y 5 bolas negras, se extraen 8 bolas sin reemplazamiento. ¿Cual es la probabilidad de que entre estas ocho haya 4 bolas negras?

Sea:

X = “nº de bolas negras en la muestra” º H(n,N,r) donde:

815

5

nNr

===

Entonces:

5 15 5 5 104 8 4 4 4

( 4) 0.163115 158 8

P X

−⎛ ⎞⎛ ⎞ ⎛ ⎞⎛ ⎞⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟−⎝ ⎠⎝ ⎠ ⎝ ⎠⎝ ⎠= = = =

⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

Page 46: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

198 González J.J., Guerra N., Quintana M.P. y Santana A.

Distribución de Poisson P(λ)

Una variable aleatoria discreta se dice que es una variable de Poisson, si su función de probabilidad es de la forma:

P X xx

e xx

( )!

; , , , , ....= = =−λ λ 0 1 2 3

siendo λ un valor real positivo. Su media y su varianza son:

µ λ

σ λX

X

=

=2

La distribución de Poisson surge como límite de la distribución binomial B(n,p) cuando n Ø ¶ y p Ø 0, a la vez que el producto np Ø l. En efecto, si Xº B(n,p) entonces:

0 0

lim ( ) lim (1 ) lim 1

! ( 1)...( 1)lim 1 lim 1( )! ! !

( 1)...( 1)lim

k n kk n k

n n np pnp np

k n k k n k

n n

n

n nP X k p p

k k n n

n n n n kn k k n n k n n

n n n kn

λ λ

λ λ

λ λ λ λ

−−

→∞ →∞ →∞→ →→ →

− −

→∞ →∞

→∞

⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞= = − = − =⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠⎝ ⎠ ⎝ ⎠

− − +⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞= − = − =⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟− ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠

− − += 1

!

1 1lim 1 1 ... 1 1 1! !

n kk

k

n kk k

n

k n

k ek n n n n k

λ

λ λ

λ λ λ λ

−−

→∞

⎛ ⎞− =⎜ ⎟⎝ ⎠

⎡ − ⎤⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞= ⋅ ⋅ − ⋅ ⋅ − − − =⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎢ ⎥⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎣ ⎦

En general, la distribución de Poisson constituye un modelo de probabilidad adecuado para aquellas variables aleatorias que cuentan el número de puntos que se encuentran en cierto espacio continuo, siempre y cuando estos puntos se encuentren repartidos completamente al azar. A modo de ejemplo podemos citar:

− Número de nidos en una zona boscosa (los puntos son los nidos y el espacio continuo es el área donde se ubica la zona boscosa)

− Número de estrellas en cierta porción del firmamento (los puntos son las estrellas y el espacio continuo es el área que se está observando)

− Número de llamadas telefónicas recibidas en una centralita a lo largo de un día (los puntos son los instantes en que se producen las

Page 47: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 199

llamadas, y el espacio continuo en que se sitúan estos puntos es el tiempo transcurrido entre las 0 y las 24 horas)

La distribución de Poisson constituye una buena aproximación de la binomial B(n,p) cuando se dan las condiciones siguientes:

1) n es grande (n≥20) 2) p es pequeño (p≤0.05)

en cuyo caso

( , ) ( )B n p P λ≅ , siendo n pλ = ⋅

Ejemplo: Supongamos que un microcircuito consta de 300 componentes, siendo la probabilidad de fallo de cada uno de 0.005. Para que el microcircuito funcione tienen que estar operativos todos los componentes. ¿Cuál es la probabilidad de que falle el microcircuito? Si llamamos: X = “Número de componentes que fallan en el microcircuito” se tiene que X º B(300, 0.005). Por tanto: P(falle el microcircuito) = P(falle alguno de sus componentes) =

1-P(no falle ningún componente) = 1 – P(X = 0) =

= 0 300 0 3003001 0.005 (1 0.005) 1 0.995 1 0.2222922=0.7777078

0−⎛ ⎞

− − = − = −⎜ ⎟⎝ ⎠

Para obtener esta probabilidad hemos tenido que hallar 0.995 elevado a 300, cálculo que no es sencillo, incluso para una calculadora (aquí se ha obtenido utilizando ordenador). Dado que se cumplen las condiciones 1 y 2 citadas más arriba, la variable X puede aproximarse mediante una distribución de Poisson de parámetro np = 1.5. Con esta aproximación:

P(fallo) =0

1.5 1.51 ( 0) 1 1 0.2231302 0.77686980!

P X e−− = = − = − =

Este valor sí que puede ser fácilmente obtenido con calculadora. La diferencia con el valor exacto, obtenido antes, es de 0.0008379603. Por tanto vemos que la aproximación mediante la distribución de Poisson funciona razonablemente bien y es aconsejable su uso cuando no se dispone de medios informáticos avanzados.

Page 48: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

200 González J.J., Guerra N., Quintana M.P. y Santana A.

Aditividad de la Poisson

Si 1 1 2 2( ) y ( )X P X Pλ λ≈ ≈ , y además son independientes entonces:

1 2 1 2( ) X X P λ λ+ ≈ + En general, si 1 2, ,..., ( )nX X X P λ≈ , y además son independientes entonces:

1

( ) n

ii

X P nλ=

≈∑

Page 49: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 201

Distribuciones continuas notables

Distribución uniforme en (a,b) Una variable aleatoria X sigue una distribución uniforme en el intervalo real (a,b), y se denota X º U(a,b), si y solo si su función de densidad de probabilidad viene dada por:

f x a b b asi a x b

en otro casoa b

b a

X

X

( ; , )

( )

= −< <R

S|T|

=+

= −

1

0

21

122 2

µ

σ

En la práctica, esta distribución corresponde a variables del tipo:

X = “Resultado de elegir al azar un valor del intervalo (a,b), siendo equiprobables todos los valores del mismo”

X U≈ ( , )2 6

Ejemplo: X = “Distancia, medida desde el extremo inicial, a la que se rompe una cuerda homogénea de 1 metro cuando se tira con igual fuerza de ambos extremos” º U(0,1),

Page 50: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

202 González J.J., Guerra N., Quintana M.P. y Santana A.

Distribución exponencial Una variable aleatoria X sigue una distribución exponencial de parámetro q, y se denota X º exp(q), si y solo si su función de densidad de probabilidad viene dada por:

22

0( )

01

1

x

X

X

e si xf x

en otro caso

θθ

µθ

σθ

−⎧ >= ⎨⎩

=

=

12

X Exp ⎛ ⎞≈ ⎜ ⎟⎝ ⎠

En la práctica, esta distribución aparece asociada a variables que miden la distancia entre sucesos puntuales que se dispersan completamente al azar en un medio continuo y que, por tanto, tienen distribución de Poisson (tales como, por ejemplo, el tiempo transcurrido entre la caída de dos rayos sucesivos durante una tormenta, la distancia entre dos nidos de ave en un bosque, el tiempo transcurrido entre dos llamadas telefónicas, etc.).

Ejemplo: El número de rayos que caen durante la fase central de una tormenta tropical sigue una distribución de Poisson de media l=22

Page 51: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 203

rayos por minuto. ¿Cuál es la probabilidad de que entre la caída de dos rayos sucesivos transcurran como mucho 3 segundos? Si llamamos:

X = “Tiempo transcurrido entre dos rayos sucesivos”

debemos calcular la probabilidad de que X sea menor que 3. Para ello consideremos la variable:

Y = “Número de rayos que caen en 3 segundos”

Dado que durante la fase central de la tormenta caen por término medio 22

rayos por minuto, y 3 segundos es la vigésima parte de un minuto ( 120

min.),

cabe esperar que cada 3 segundos caigan, por término medio 122 1,120⋅ =

rayos. Por tanto la variable Y sigue una distribución de Poisson de parámetro 1,1. Entonces:

1,1( 3) 1 ( 3) 1 ( 0) 1P X P X P Y e−≤ = − > = − = = −

(Hemos usado aquí el hecho de que el suceso {X>3}, esto es, que pasen más de 3 segundos entre dos rayos sucesivos, es igual que el suceso {Y=0}, que en un periodo de 3 segundos no caiga ningún rayo, y por tanto las probabilidades de ambos sucesos coinciden). En general, si llamamos t al tiempo (en minutos) transcurrido entre dos rayos sucesivos, la expresión anterior puede generalizarse como:

( ) 1 , 0tP X t e tλ−≤ = − ≥

Esta expresión es, por definición, la función de distribución de la variable aleatoria X:

( )( )F t P X t= ≤

y por tanto, la función de densidad será su derivada:

( ) '( ) , 0tf t F t e tλλ −= = ≥

De esta forma, hemos comprobado que la función de densidad de la distribución exponencial (de parámetro 1/l) aparece asociada a la distancia entre eventos puntuales cuyo número sigue una distribución de Poisson (de parámetro l).

Page 52: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

204 González J.J., Guerra N., Quintana M.P. y Santana A.

Distribución gamma Una variable aleatoria X sigue una distribución Gamma de parámetros a y b, denotada como X ºGamma(a,b), con a>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:

1

22

0( ) ( )

0

x

X

X

x e si xf x

en otro caso

αα ββ

α

αµβασβ

− −⎧>⎪= Γ⎨

⎪⎩

=

=

donde Γ( )a y e dya y= − −∞z 1

0 es la función Gamma, que cumple las siguientes

propiedades: i) Γ Γ( ) ( ) ( )a a a= − −1 1

ii) Γ( ) ( )!n n n N= − ∀ ∈1

X Gamma≈ ( , . )2 8 4

En el caso particular de que a = n entero y b=nm, la variable X ºGamma(n,nm) es la que se obtiene como resultado de sumar n variables con distribución exponencial de idéntico parámetro m. Siguiendo con el ejemplo de la página anterior el tiempo transcurrido hasta la caída de los próximos tres rayos de la tormenta seguiría una distribución Gamma(3,3ÿ22) ª Gamma(3,66).

Page 53: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 205

Distribución beta Una variable aleatoria X sigue una distribución Beta de parámetros a y b, denotada como X ºBeta(a,b), con a>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:

f xx x si x

en otro caso

X

X

( )( )

( ) • ( )( )

( ) ( )

=+

− < <RS|T|

=+

=+ + +

− −ΓΓ Γ

α βα β

µ αα β

σ αβα β α β

α β1 1

22

1 0 1

0

1

X Beta≈ ( . , . )4 2 2 3

Una de las principales aplicaciones de la distribución Beta es el ajuste de distribuciones teóricas a datos empíricos, ya que su función de distribución adopta formas muy diversas según cuáles sean los valores de a y b, tal como podemos comprobar en los siguientes gráficos:

Page 54: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

206 González J.J., Guerra N., Quintana M.P. y Santana A.

0.0 0.2 0.4 0.6 0.8 1.0

0.6

0.8

1.0

1.2

1.4

Beta(1,1)

y

x6

0.0 0.2 0.4 0.6 0.8 1.0

1.0

1.5

2.0

2.5

3.0

Beta(0.5,0.5)

y

x5

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

Beta(2,1)

y

x4

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

Beta(3,4)

y

x3

0.0 0.2 0.4 0.6 0.8 1.0

01

23

45

6

Beta(0.5,1.5)

y

x2

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Beta(1,3)

y

x

Page 55: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 207

Distribución Weibull Una variable aleatoria X sigue una distribución Weibull de parámetros b y l, denotada como X º W(b,l), con l>0 y b>0, si y solo si su función de densidad de probabilidad viene dada por:

1

22

2

0( )00 0

1 11

1 2 11 1

x

X

X

x e si xf xen otro caso

donde y

ββ α

β

β

αβ

α β

µβα

σβ βα

− −⎧⎪ ⋅ >= ⎨⎪⎩> >

⎛ ⎞= Γ +⎜ ⎟

⎝ ⎠⎧ ⎫⎛ ⎞ ⎛ ⎞⎪ ⎪= Γ + − Γ +⎨ ⎬⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠⎪ ⎪⎩ ⎭

5 10 15 20 25 30

0.02

0.04

0.06

0.08

(2,9)X W≈

Distribución normal Una variable aleatoria X sigue una distribución Normal de parámetros m (media) y s (desviación típica), y se denota como X º N(m,s), con s>0, si y solo si su función de densidad de probabilidad viene dada por:

f x e xx

X

X

( ) = − ∞ < < ∞RS|T|

=

=

−−FHGIKJ1

2

12

2 2

2

σ π

µ µ

σ σ

µσ

Page 56: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

208 González J.J., Guerra N., Quintana M.P. y Santana A.

Nótese que f(x) es una función simétrica respecto a µ, esto es f(µ-x) = f(µ+x)

En la práctica, la distribución normal aparece asociada a variables aleatorias que se comportan de tal manera que lo más probable es observar valores en torno a la media; y que los valores cada vez más alejados de la media, bien sea hacia arriba o hacia abajo, van siendo progresivamente más difíciles de observar. Muchas variables biológicas se comportan aproximadamente de esta forma: la talla, el peso, la temperatura corporal, etc. También se comportan de esta manera los errores de medida. La distribución normal es una de las más frecuentes en la naturaleza, cosa que se justifica por la acción del teorema central del límite, que veremos más adelante. Este teorema indica que si una variable se obtiene como resultado de la suma de efectos de muchas otras variables independientes, la variable resultante tiene necesariamente distribución normal.

La distribución normal estándar El caso particular en que X sigue una distribución normal con µ σ= =0 1y se conoce con el nombre de distribución normal estándar:

f x e xx

X

X

( ) = − ∞ < < ∞RST

=

=

−12

01

12

2

2

πµ

σ

-2 0 2 4 6 8 10 12

0.00

0.05

0.10

0.15

0.20

µ

x7

Page 57: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 209

La distribución normal estándar se suele denotar con la letra Z, y tal como se aprecia en la siguiente gráfica, correspondiente a dicha distribución, prácticamente toda su probabilidad se concentra entre –4 y 4, esto es, P Z( )− ≤ ≤ ≅4 4 1:

Page 58: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

210 González J.J., Guerra N., Quintana M.P. y Santana A.

Teorema: (Tipificación de una variable normal) Si X ≈ N(m,s), entonces:

Z X N=−

≈µ

σ( , )0 1

Consecuencia importante de este teorema: Este teorema nos permite calcular las probabilidades asociadas a cualquier variable aleatoria N(m,s) en función de las probabilidades asociadas a la normal estándar N(0,1). En efecto:

P X x P X x P X x P Z x( )≤ = − ≤ − =−

≤−F

HGIKJ = ≤

−FHG

IKJµ µ µ

σµ

σµ

σb g

Dicho de otro modo, si llamamos:

la igualdad anterior puede expresarse como:

F x F xX Z( ) = −F

HGIKJ

µσ

Recordemos que al proceso de restar a una variable su media y dividirla por su valor típico se le denomina tipificación de la variable.

Los valores de la función de distribución FZ (z) de la variable N(0,1) se encuentran tabulados. De esta forma, si deseamos calcular FX(x) para una variable X ≈ N(m,s), simplemente procederemos a tipificar el valor de x, restándole µ y dividiendo por σ, y buscaremos

el correspondiente valor F xZ

−FHGIKJ

µσ

en la mencionada tabla.

Page 59: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 211

Sumas y Promedios de variables con distribución normal.

Una propiedad importante de la distribución normal es la siguiente: Si X1, X2, ..., Xn son variables aleatorias independientes tales que Xi

≈ N(µi,σi) ∀i, entonces:

S X X X N

XX X X

nN

n n

n n n n

nn n n

= + + + ≈ + + + + + +

=+ + +

≈+ + + + + +F

HGIKJ

1 2 1 2 12

22 2

1 2 1 2 12

22 2

... ... , ...

... ...,

...

µ µ µ σ σ σ

µ µ µ σ σ σ

e j

En el caso particular de que todas las Xi tengan las mismas media y varianza, esto es, µ µ σ σi i i= = ∀, 2 2 , las expresiones anteriores se reducen a:

S X X X N n n

XX X X

nN

n

n n

nn

= + + + ≈

=+ + +

≈FHGIKJ

1 2

1 2

... ,

...,

µ σ

µ σ

d i

Cambio de escala de variables con distribución normal. Si una variable normal X se cambia de escala (se multiplica por una constante k), la variable resultante es también normal, con la media y la desviación típica multiplicadas por el mismo factor de escala, esto es:

Si X N Y k X N k k≈ ⇒ = ⋅ ≈( , ) ( , )µ σ µ σ

Page 60: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

212 González J.J., Guerra N., Quintana M.P. y Santana A.

Distribuciones relacionadas con la Normal

Distribución χ2 de Pearson

Una variable aleatoria X sigue una distribución Chi-Cuadrado de Pearson con n grados de libertad ( χ n

2 ) si y solo si su función de densidad de probabilidad viene dada por:

f xn

x e x

nn

n

n x

( ) = FHGIKJ

≤ < ∞

RS||

T||

=

=

− −1

22

0

2

2

21

2

2

Γ

µ

σ

Esta variable puede verse como un caso particular de la Gamma,

concretamente la Gamma n2

12

,FHGIKJ

Seguidamente se muestra la gráfica de la χ n2 para diversos valores

de n:

0 5 10 15 20 25

0.0

0.1

0.2

0.3

0.4

0.5

x

y

Page 61: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 213

Si Z1, Z2, ..., Zn son n variables aleatorias N(0,1) independientes, puede probarse que la suma de sus cuadrados:

X Z Z Zn= + + +12

22 2...

sigue una distribución Chi-Cuadrado con n grados de libertad. En la práctica la distribución χ n

2 aparece asociada a problemas de inferencia sobre la varianza de poblaciones con distribución normal.

Distribución F de Fisher-Snedecor Una variable aleatoria X sigue una distribución F de Fisher-Snedecor con n grados de libertad (Fm,n) si y solo si su función de densidad de probabilidad viene dada por:

f xm n m n

m nx n mx x

nn

n m nm n n

m n

m m n

( )

, ( )( ) ( )

=

+FHGIKJ

FHGIKJFHGIKJ

+ ≤ < ∞

RS||

T||

=−

=+ −

− −

− −+

2 2

21

2

22

2

2

2 2

0

22 2

2 4

Γ

Γ Γb g

µ σ

A continuación se representa la función de densidad de la Fm,n para diversos valores de m y n :

0 1 2 3 4 5 6

0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

x

y5

Page 62: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

214 González J.J., Guerra N., Quintana M.P. y Santana A.

Si X es una variable aleatoria con distribución χm2 e Y es otra

variable independiente de la anterior y con distribución χ n2 , puede

probarse que la variable:

UX mY n

=

sigue una distribución F de Fisher-Snedecor con m y n grados de libertad. Expresado de otra forma:

χ

χ

m

nm n

m

n

F

2

2 ≈ ,

De aquí se sigue también la siguiente propiedad de la distribución F:

Si X FX

Fm n n m≈ ⇒ ≈, ,1

En la práctica, la distribución F aparece en problemas de inferencia estadística en los que a partir de información muestral es preciso decidir sobre la igualdad o no de dos varianzas poblacionales desconocidas.

Distribución t de Student Una variable aleatoria X sigue una distribución t de Student con n grados de libertad (tn) si y solo si su función de densidad de probabilidad viene dada por:

f x

n

n nxn

x

n

( ) =

+FHGIKJFHGIKJ

+FHGIKJ − ∞ < < ∞

RS||

T||

−+Γ

Γ

12

2

12

12

π

A continuación se representa la función de densidad de la tn para diversos valores de n. Como puede apreciarse, esta distribución es simétrica respecto al eje de ordenadas y también tiene una forma acampanada (aunque algo más estrecha que la normal). En cualquier caso, a medida que se incrementa n la forma de esta distribución se parece cada vez más a la N(0,1). A partir de n≥30, la tn es prácticamente indistinguible de la N(0,1).

Page 63: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

González J.J., Guerra N., Quintana M.P. y Santana A. 215

Si Z es una variable aleatoria con distribución N(0,1) e Y es otra variable independiente de la anterior y con distribución χ n

2 , puede probarse que la variable:

T ZY n

=

sigue una distribución t de Student con n grados de libertad. Expresado de otra forma:

N

n

tn

n( , )0 1

2χ≈

Si nos damos cuenta que la N ( , )0 1 112≈ χ , tenemos que:

t N

n

n

nn

F F tn

n

n

n nn n n≈ ≅ = ≅ ⇒ ≈

( , ), ,

0 1 12

2

2

12

2 1 12

χ

χ

χ

χχ

b g

En la práctica, la distribución t aparece en problemas de inferencia estadística en los que es preciso decidir sobre el valor (desconocido) de la media de una población cuando no se conoce tampoco el valor de la varianza en dicha población.

-4 -2 0 2 4

0.0

0.1

0.2

0.3

0.4

0.5

x

y

Page 64: VARIABLES ALEATORIAS Y

Métodos Estadísticos Tema 7: Variables aleatorias y distribuciones de probabilidad.

216 González J.J., Guerra N., Quintana M.P. y Santana A.