27
3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción Muchos fenómenos de la naturaleza no son deterministas, es decir, conllevan una aleatoriedad. Por ejemplo, lanzamiento de una moneda o de un dado, el número de personas que entran en un comercio un día determinado o el color del pelo de los compañeros de clase, son fenómenos muy inciertos. De forma muy similar a jugar veintiuno o invertir, hacer inferencias basadas en datos de muestras también está sujeto a incertidumbre. Una muestra pocas veces cuenta una historia perfectamente exacta de la población de la cual se seleccionó. ¿Cómo medimos la incertidumbre asociada a eventos? La respuesta es la probabilidad. En los Temas 1 y 2 hemos presentado algunos métodos para describir un conjunto de datos de una muestra (Estadística Descriptiva). Para obtener conclusiones válidas y hacer predicciones correctas acerca de una pobla- ción a través de la observación de una muestra, hay que recurrir a métodos de Inferencia Estadística. Estos métodos implican el uso adecuado de la Teoría de Probabilidad. 1 A lo largo del tema usaremos ejemplos acerca de los dados, cartas, monedas, etc, esto es frecuente en la literatura estadística, ya que por una parte se debe al origen histórico del Cálculo de Probabilidades y ya que por otra parte, los juegos de cartas, dados etc. son ejemplos típicos de fenómenos que, ocurriendo al azar, son suficientemente simples y se prestan a servir de modelo para otros fenómenos más complejos. Así, el resultado del lanzamiento de una moneda (cara o cruz) puede ser equiparable a cualquier situación dicotómica (estar enfermo o no, ser varón o hembra, etc.). 3.2 Conceptos previos Llamamos a un experimento a cualquier proceso que genera un conjunto de datos. Diremos que un experi- mento es determinista cuando al repetirlo en las mismas condiciones, produce siempre el mismo resultado. 1 Los primeros investigadores de la probabilidad de sucesos, sobre todo aplicada a los juegos de azar, fueron los franceses Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662). El nombre de azar proviene de los juegos de dados, donde aparecía pintada la flor de azahar y estaba asociada a la buena suerte, significaba una buena partida. Incluso el nombre de suceso aleatorio, es decir, suceso del cual es imposible predecir el resultado, proviene del latín «aleas» que significa dado. Sin embargo, ya un siglo antes Galileo estudió problemas sencillos como porqué es mejor apostar a sacar un 10 que a sacar un 9 en una tirada de tres dados. Antes que Galileo también se dedicó al estudio de estos problemas Cardano, quien incluso escribió un libro sobre los juegos de dados en el que llega a explicar cómo hacer trampas para ganar. La introducción de Pascal y Fermat en este tema vino de la amistad de Pascal con un jugador profesional, conocido como Caballero de Meré, quien propuso a Pascal una serie de problemas sobre distintas situaciones en las apuestas de dados. Pascal enviaba los problemas a Fermat, con quien le unía una buena amistad y así mantuvieron una continua correspondencia sobre ideas y métodos. Pierre Simon Laplace (1749-1827) construyó la formulación definitiva de la teoría general de la probabilidad. Laplace definió el cálculo de probabilidades como «el sentido común expresado con números». 1

Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

  • Upload
    lylien

  • View
    222

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3 Versión: 9 de octubre de 2017

Probabilidad y variables aleatorias

3.1 Introducción

Muchos fenómenos de la naturaleza no son deterministas, es decir, conllevan una aleatoriedad. Por ejemplo,lanzamiento de una moneda o de un dado, el número de personas que entran en un comercio un día determinadoo el color del pelo de los compañeros de clase, son fenómenos muy inciertos.De forma muy similar a jugar veintiuno o invertir, hacer inferencias basadas en datos de muestras también estásujeto a incertidumbre. Una muestra pocas veces cuenta una historia perfectamente exacta de la población dela cual se seleccionó.¿Cómo medimos la incertidumbre asociada a eventos? La respuesta es la probabilidad.

En los Temas 1 y 2 hemos presentado algunos métodos para describir un conjunto de datos de una muestra(Estadística Descriptiva). Para obtener conclusiones válidas y hacer predicciones correctas acerca de una pobla-ción a través de la observación de una muestra, hay que recurrir a métodos de Inferencia Estadística. Estosmétodos implican el uso adecuado de la Teoría de Probabilidad.1

A lo largo del tema usaremos ejemplos acerca de los dados, cartas, monedas, etc, esto es frecuente en la literaturaestadística, ya que por una parte se debe al origen histórico del Cálculo de Probabilidades y ya que por otra parte,los juegos de cartas, dados etc. son ejemplos típicos de fenómenos que, ocurriendo al azar, son suficientementesimples y se prestan a servir de modelo para otros fenómenos más complejos. Así, el resultado del lanzamientode una moneda (cara o cruz) puede ser equiparable a cualquier situación dicotómica (estar enfermo o no, servarón o hembra, etc.).

3.2 Conceptos previos

Llamamos a un experimento a cualquier proceso que genera un conjunto de datos. Diremos que un experi-mento es determinista cuando al repetirlo en las mismas condiciones, produce siempre el mismo resultado.

1Los primeros investigadores de la probabilidad de sucesos, sobre todo aplicada a los juegos de azar, fueron los franceses PierreFermat (1601-1665) y Blaise Pascal (1623-1662).El nombre de azar proviene de los juegos de dados, donde aparecía pintada la flor de azahar y estaba asociada a la buena suerte,

significaba una buena partida. Incluso el nombre de suceso aleatorio, es decir, suceso del cual es imposible predecir el resultado,proviene del latín «aleas» que significa dado. Sin embargo, ya un siglo antes Galileo estudió problemas sencillos como porqué esmejor apostar a sacar un 10 que a sacar un 9 en una tirada de tres dados. Antes que Galileo también se dedicó al estudio de estosproblemas Cardano, quien incluso escribió un libro sobre los juegos de dados en el que llega a explicar cómo hacer trampas paraganar.La introducción de Pascal y Fermat en este tema vino de la amistad de Pascal con un jugador profesional, conocido como

Caballero de Meré, quien propuso a Pascal una serie de problemas sobre distintas situaciones en las apuestas de dados. Pascalenviaba los problemas a Fermat, con quien le unía una buena amistad y así mantuvieron una continua correspondencia sobre ideasy métodos. Pierre Simon Laplace (1749-1827) construyó la formulación definitiva de la teoría general de la probabilidad. Laplacedefinió el cálculo de probabilidades como «el sentido común expresado con números».

1

Page 2: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 2

Ejemplo 3.1 Experimento determinista

A igualdad de temperatura de un gas, todo aumento de la presión (P ) ocasiona una disminución de volumen(V ) del mismo, relacionándose ambas cantidades por la ecuación P ×V = K (constante). Como repetición delexperimento da lugar siempre a igual resultado, estamos ante un fenómeno determinista.

Experimento es aleatorio si al repetirlo en las mismas condiciones, sus posibles resultados son conocidospreviamente y el resultado de cada prueba depende del azar.

Ejemplo 3.2 Experimentos aleatorios

Son experimentos aleatorios: el lanzamiento de un dado, lanzamiento de una moneda, el número de veces quehay que lanzar una moneda hasta que salga cara, la extracción de un naipe de la baraja, el tiempo de esperade una persona en la parada del autobús, el número de hijos de una pareja, el sexo del mayor, su estatura oel número de años que vivirá, o determinación de la solubilidad del sulfato de bario en gramos por 100 ml deagua.

Espacio muestral, Ω, es el conjunto formado por todos los posibles resultados de un experimento aleatorio.

Ejemplo 3.3

En el lanzamiento del dado una vez, Ω = 1, 2, 3, 4, 5, 6 es el espacio muestral.

Suceso es cualquier subconjunto del espacio muestral.

Ejemplo 3.4

Si lanzamos un dado, Ω = 1, 2, 3, 4, 5, 6, podemos considerar muchos sucesos, entre ellos: A = 2, 4, 6, «quesalga un número par».

Suceso elemental está constituido por un solo punto del espacio muestral.

Ejemplo 3.5

En el lanzamiento del dado una vez, Ω = 1, 2, 3, 4, 5, 6, los sucesos elementales son: A = 1, «que salgaun 1», B = 2, «que salga un 2», . . . , F = 6, «que salga un 6».

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 3: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 3

Un espacio muestral puede ser discreto (formado por puntos aislados) o continuo. Los espacios discretos puedentener un número finito o infinito de valores.

Ejemplo 3.6

– Lanzamiento de una moneda, Ω = C,+, donde C representa «sale cara» y + «sale cruz».– Número de veces que hay que lanzar una moneda hasta que salga cara, Ω = 1, 2, ..., n, ....– Tiempo de espera de una persona en la parada del autobús, Ω = [0, 40] (si la frecuencia del autobús es de40 minutos).

3.3 Probabilidad

Si bien ante un fenómeno aleatorio no se conoce de antemano cuál va a ser su resultado, resulta sumamente útildisponer de algún número que mida la probabilidad de que ocurra cada uno de los sucesos.

Cuando se emplea coloquialmente el término probabilidad, se refiere al grado de certidumbre o incertidumbreen el resultado de un experimento antes de su realización.La interpretación de probabilidades puede sintetizarse de la siguiente forma:

1. Las probabilidades son números comprendidos entre 0 y 1, ambos inclusive, que reflejan las expectativascon respecto a que un suceso físico determinado ocurra.

2. Probabilidades próximas a 1 indican que cabe esperar que ocurran los sucesos de que se trate, pero noindican que el suceso vaya a producirse. A un suceso que deba producirse con certeza se le asigna unaprobabilidad de 1.

3. Probabilidades próximas a 0 indican que no cabe esperar que ocurran los sucesos . No indican que elsuceso no vaya a producirse, sólo que este tipo de sucesos se considera raro. A un suceso que es físicamenteimposible se le asigna la probabilidad 0.

4. Probabilidades próximas a 1/2 indican que tan verosímil que el suceso se produzco como que no.

¿Qué podemos considerar como una probabilidad grande o pequeña? Sin duda, una probabilidad de 1 es grande yuna probabilidad de 0 es pequeña. ¿Cómo de cercana a estos extremos debe encontrarse la probabilidad para serconsiderada grande o pequeña? No existe una respuesta bien definida a esta pregunta, ya que una probabilidadpuede ser grande en un entorno y puede parecer pequeña en el otro. Por ejemplo, supongamos que queremoshacer un paseo al aire libre y sabemos que la probabilidad de que llueva es 0.1, que se podría considerar pequeñay concluir que es más probable que no llueva. Si recibimos una propuesta de descender al fondo del onceno enun nuevo minisubmarino y que la probabilidad de que el vehículo falle es 0.1, la probabilidad sería grande, yaque las consecuencias del fallo son demasiado serias para aceptarlas.

A continuación veremos el modo de asignar un valor de probabilidad a uno u otro suceso.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 4: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 4

Ejemplo 3.7

Si se lanza una moneda al aire N veces, una medida de la probabilidad de que «salga cara» (suceso C) nopuede ser el número nC de veces que ha salido la cara, pues nC aumenta con N . Más conveniente es proponercomo medida de la probabilidad de cara la frecuencia relativa:

fC =nCN

=Número de veces que ha ocurrido C en N repetciones

N

Sin embargo, al lanzar 10 veces la moneda, puedeobtenerse que fC = 0.6 y al lanzar otras 10 vecesdistintas puede obtenerse fC = 0.4, o cualquier otronúmero. Es claro que la medida de la probabilidad deque «saga cara» no puede depender de una experien-cia particular, sino que debe ser un número objetivo.Se ha observado que conforme una moneda correc-ta se lanza un número cada vez mayor de veces, lafrecuencia relativa de cara, fC , se va estabilizandoa un valor fijo (como en la figura). Se observa que,conforme N aumenta, los valores de fC se van acer-cando cada vez más al número 0.5. Este número esla probabilidad de cara, P (C) , es decir es el límitecuando N → +∞ de frecuencias relativas:

P (C) = lımN→+∞

nCN

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

N

Fre

cuencia

s r

ela

tivas

Se ha observado que la estabilización de frecuencias relativas de un suceso alrededor de un número es algogeneral, válido para todo fenómeno aleatorio y para todo suceso; tal propiedad empírica es conocida como la laley de azar o ley de estabilización de frecuencias relativas.

Ley de azarLa probabilidad de un suceso A, P (A), es el límite de sus frecuencias relativas cuando realizamos elexperimento muchas veces:

P (A) = lımN→+∞

n(A)

N= lım

N→+∞fN (A)

El hecho de definir la probabilidad de un evento como la proporción de veces que el evento ocurre en unaserie muy larga de experimentos, no siempre es posible, ya que algunos experimentos no pueden repetirse. Porejemplo, si se invierte en una empresa de perforación petrolera, la probabilidad de que la inversión tenga éxitotiene algún valor desconocido que nunca se podrá evaluar mediante experimentos repetitivos.

A principios del siglo XX se definió la probabilidad mediante la utilización de una definición axiomática (que sebasa en exigencia de unas condiciones de coherencia que se admiten como ciertas y no requieren demostraciónya que son de origen intuitivo). La definición, debida a A. N. Kolmogórov2, es la que damos a continuación.

2A.N. Kolmogórov (1903–1987) fue un matemático ruso que hizo progresos importantes en los campos de la teoría de la proba-bilidad y de la topología. En particular, estructuró el sistema axiomático de la teoría de la probabilidad a partir de la teoría deconjuntos, donde los elementos son eventos. Trabajó al principio de su carrera en lógica constructivista y en las series de Fourier.También trabajó en turbulencias y mecánica clásica. Asimismo, fue el fundador de la teoría de la complejidad algorítmica.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 5: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 5

ProbabilidadSe llama probabilidad a una regla que asocia a cada suceso, A, del espacio muestral, Ω, un número real,P (A), llamado probabilidad de A y que cumple los siguientes Axiomas del Cálculo de Probabilidades:

1. P (A) ≥ 0 cualquiera que sea A (la probabilidad nunca puede ser negativa).

2. P (Ω) = 1, donde Ω es el espacio muestral (es decir la probabilidad de un suceso seguro es 1)

3. Si A y B son dos sucesos mutuamente excluyentes (es decir, si ocurre uno, el otro es imposible), entonces

P (A ∪B) = P (A) + P (B),

Cuando todos los sucesos elementales tienen la misma probabilidad, es decir no hay razones para suponer queunos sucesos sean más probables que ortos, y el espacio muestral es finito, el cálculo de probabilidad es fácil yse basa en la conocida Regla de Laplace.

Regla de LaplaceLa probabilidad, P (A), de un suceso A es el cociente entre el número de casos favorables al suceso y el númerode casos posibles del fenómeno:

P (A) =no de casos favorables al suceso Ano de casos posibles del fenómeno

Ejemplo 3.8Si se supone que en una población los varones y las hembras nacen en igual proporción, ¿cuál es la probabilidadde que, de 2 niños elegidos al azar, uno sea varón y otro hembra?Solución: Los sucesos elementales V (varón) yH (hembra) son equiparables. Al tomar 2 niños hay 4 resultadosposibles, que constituyen los 4 sucesos elementales del espacio muestral:

Ω = V V, V H, HV, HH

indicando la primera letra el sexo del primer niño y la segunda el del segundo niño. Luego,

P (un varón y una hembra) = P (V H ∪HV ) =2

4=

1

2

pues hay 2 casos favorables de entre 4 posibles. De igual modo, P (V V ) = P (HH) = 1/4

Supongamos que conocemos la probabilidad de que se produzca el suceso A, y deseamos hallar la probabilidad deque A no se produzca. Podemos hacerlo fácilmente restando de 1. Por ejemplo, basándonos en una investigaciónrealizada recientemente, estimaremos que la probabilidad de «curar» la leucemia infantil es de 1/3 («curar»significa que el niño se libre de la enfermedad durante al menos 4 años una vez finalizado el tratamiento). Portanto la probabilidad de que la enfermedad no esté curada es 1− 1/3 = 2/3.

Probabilidad del suceso complementario: La probabilidad de que el suceso A no ocurra es:

P (Ac) = 1− P (A)

Al cálculo de probabilidades está asociada álgebra de sucesos que se escapa de los objetivos de este tema. En lasección que sigue vamos a introducir el concepto de la variable aleatoria que nos va permitir cambiar el álgebrade sucesos por el manejo de intervalos y cálculo con funciones reales, facilitando la manipulación matemáticade los experimentos aleatorios.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 6: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 6

3.4 Variables aleatorias

Para poder trasladar la Teoría de Probabilidad al análisis de datos de una muestra y sacar conclusiones acercade una población, con base de una muestra extraída, hace falta desarrollar la noción de la variable aleatoria.

Variable aleatoria es toda regla que asocia a cada elemento de un espacio muestral, Ω, un número real ysolo uno.

Los valores que puede tomar una variable aleatoria son numéricos y vamos a calcular sus probabilidades. Unatabla, fórmula o gráfica que proporcione tales probabilidades se llama una distribución de probabilidad dela variable aleatoria.

Ejemplo 3.9Se considera el experimento de lanzar tres monedas al aire (o una moneda tres veces). El espacio muestral es

Ω = (CCC), (CC+), (C + C), (+CC), (C + +), (+C+), (+ + C), (+ + +),

donde C representa «sale cara» y + «sale cruz».

Consideramos la variable aleatoria X=«número de caras que salen».Es claro que el valor de la variable aleatoria X para el suceso elemental (CCC) es igual a 3. El valor de lavariable aleatoria asociado a cada suceso elemental es:

X(CCC) = 3, X(CC+) = X(C+C) = X(+CC) = 2, X(+C+) = X(++C) = X(C++) = 1, X(+++) = 0

Obsérvese que, a cada suceso le corresponde un valor de la variable aleatoria pero el recíproco no es cierto.Usando la regla de Laplace, obtenemos que la distribución de probabilidades es:

X 0 1 2 3P 1/8 3/8 3/8 1/8

Para decir que la probabilidad de que la variable aleatoria X tome el valor 1 (es decir que la probabilidad deque «cara saga una vez») es 3/8, escribiremos P (X = 1) = 3/8.

Ejemplo 3.10Consideremos el experimento que consiste en lanzar un dado. El espacio muestral es

Ω = 1, 2, 3, 4, 5, 6.

Aquí, X es una variable aleatoria que representa «el número que salga» y el valor que toma la variable aleatoriapara cada suceso elemental de Ω es respectivamente: 1, 2, 3, 4, 5 y 6. Usando la regla de Laplace, obtenemosque la distribución de probabilidades es:

X 1 2 3 4 5 6P 1/6 1/6 1/6 1/6 1/6 1/6

La probabilidad de que la variable aleatoria, X, tome el valor i para i = 1, 2, 3, 4, 5, 6 es 1/6 y se escribe, porejemplo, P (X = 3) = 1/6.

Las variables aleatorias pueden ser discretas y continuas en función del conjunto de valores que pueden tomar.A cada una de ellas y los ejemplos más relevantes dedicamos las siguientes secciones.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 7: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 7

3.5 Variables aleatorias discretas

Variable aleatoria discreta sólo puede tomar valores en un conjunto finito o infinito numerable de valo-res reales. Por ejemplo, el número de caras al lanzar dos veces una moneda o el número de pacientes conenfermedades articulares en centros de salud.

Puesto que el comportamiento de la variable aleatoria está gobernado por el azar, necesitamos ser capaces depredecir, en algún sentido, el valor que tomará la variable en cualquier momento. Lo más conveniente es describirsu comportamiento en términos de probabilidad. Para ello se utilizan dos funciones, la función de densidad y lafunción de distribución acumulada.

La función de densidad, para una variable aleatoria discreta, proporciona la probabilidad de que la variablealeatoria X adopte un valor numérico x determinado; la distribución acumulada proporciona la probabilidadde que X tome un valor por debajo de x, incluyendo éste.

3.5.1 Distribución de probabilidad

Si X es una variable aleatoria discreta, su distribución de probabilidad es una tabla, gráfica o fórmula queda la probabilidad asociada a cada posible valor de x. Vamos a ilustrar el concepto con un simple ejemplo.

Ejemplo 3.11

Se lanzan dos monedas y se observa el número decaras. Calcular la distribución de probabilidad y de-terminar la probabilidad de que salga a lo sumo unacara.

El espacio muestral es:

Ω = (CC), (C+), (+C), (++).

Definimos la variable aleatoria X = «numero de ca-ras que salen».Es claro que la distribución de probabilidad es

X 0 1 2P (X = xi) 1/4 1/2 1/4

0 1 2

0.25

0.5

1

Valor de la variable aleatoria X

Pro

ba

bilid

ad

La probabilidad de que salga exactamente una cara es:

P (X = 1) = 1/2 = 0.5

y la probabilidad de que salga a lo sumo una cara es

P (X ≤ 1) = P (X = 0) + P (X = 1) =1

4+

1

2=

3

4= 0.75

Se observa también que

P (X < 1) = P (X = 0) =1

4= 0.25 6= P (X ≤ 1)

es decir la inclusión o la exclusión de un punto extremo en el caso discreto afecta al valor numérico de larespuesta.

La distribución de probabilidad puede también representarse mediante un diagrama de probabilidad, como enla figura.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 8: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 8

Función de densidad de una variable aleatoria discreta X, es toda regla, f(x) : R 7→ [0, 1], que permiteasociar a cada valor x de la variable aleatoria X la probabilidad con que lo toma y se escribe

f(x) = P (X = x) para x real

Por ejemplo f(3) = P (X = 3) es la probabilidad de que la variable aleatoria X tome el valor numérico 3.

Es claro que f(x) ≥ 0 para cualquier x y que si sumamos f sobre todos los valores físicos posibles de X, lasuma deberá se 1:

K∑i=1

f(xi) =

K∑i=1

P (X = xi) = 1

Es claro que la regla que permite definir la función de densidad puede explicarse mediante una tabla, fórmulao gráfica.

La segunda función que utilizaremos en el cálculo de probabilidades es la función de distribución acumuladaque es el equivalente teórico de la distribución de frecuencias relativas acumuladas consideradas en el Tema 1.

Función de distribución acumulada, F (x) : R 7→ [0, 1], de una variable aleatoria discreta,X = x1, x2, . . . , xK, es la probabilidad de que la variable X tome valores menores o iguales que x:

F (x) = P (X ≤ x) =∑xi≤x

P (X = xi)

El diagrama de barras de frecuencias acumuladas para variables discretas del Tema 1 se puede reinterpretar entérminos de probabilidades y da lugar a la función de distribución.

Se observa que los puntos de salto de la función de distribución vienen determinados por:

F (x1) = P (X ≤ x1) = P (X = x1)F (x2) = P (X ≤ x2) = P (X = x1) + P (X = x2)

. . .F (xK) = P (X ≤ xK) = P (X = x1) + · · ·+ P (X = xK) = 1

Obsérvese que siempre la función de distribución en el máximo de todos los valores posibles es igual a uno.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 9: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 9

Ejemplo 3.12

Consideramos de nuevo el experimento de lanzar dos monedas del Ejemplo 3.11. Completamos la tabla conlos valores de la función distribución acumulada.

X 0 1 2

P (X = xi)1

4

1

2

1

4

F (x)1

4

3

41

F (0) = P (X = 0) =1

4

F (1) = P (X ≤ 1) = P (X = 0) + P (X = 1) =1

4+

1

2=

3

4

F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) =1

4+

1

2+

1

4= 1

La función distribución puede representarse median-te polígono de distribución, que es un diagramaen escalera.

El polígono de distribución de la variable aleatoria«número de caras que salen» está representado en lafigura de la derecha.

Se observa que es un diagrama en escalera donde seha definido F (x) = 0 para x < 0, ya que no hayvalores de X menores que 0 y F (x) = 1 para x > 2,ya que no hay valores de X mayores que 2.

0 1 2

0.25

0.75

1

Valor de la variable aleatoria X

Fu

nció

n d

e d

istr

ibu

ció

n:

F(x

)

PROPIEDADES DE LA FUNCIÓN DISTIBUCIÓN

P (X > a) = 1− P (X ≤ a) = 1− F (a) Puesto que la probabilidad de un suceso es igual a uno menosla probabilidad de su complementario: P (A) = 1− P (Ac)

P (a < X ≤ b) = P (X ≤ b)− P (X ≤ a)

= F (b)− F (a)

Ya que los sucesos (X ≤ a) y (a < X ≤ b) son incompatibles(exluyentes) y (X ≤ a) ∪ (a < X ≤ b) = (X ≤ b) y por elaxioma 3 de probabilidad:P (X ≤ b) = P (X ≤ a) + P (a < X ≤ b)

Ejemplo 3.13

Consideramos el experimento de lanzar tres veces una moneda del Ejemplo 3.9.

a): ¿Cuál será la probabilidad de que salgan al menos dos caras?

b): ¿y la probabilidad de que el número de caras esté entre 1 y 2 (ambos inclusive)?

Solución: Apartado a): La variable aleatoria X=«número de caras que salen», X = 0, 1, 2, 3.

P (X ≥ 2) = 1− P (X < 2) = 1− P (X ≤ 1) = 1− P (X = 0)− P (X = 1) = 1− 1

8− 3

8=

4

8= 0.5

Apartado b): Tenemos

P (1 ≤ X ≤ 2) = P (X ≤ 2)− P (X < 1) = P (X = 0) + P (X = 1) + P (X = 2)− P (X = 0) =7

8− 1

8=

6

8=

3

4

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 10: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 10

3.5.2 Esperanza, varianza y desviación típica

La media de una variable de Estadística Descriptiva del Tema 1 se definió como x =1

N

∑i xini =

∑i xifi,

siendo fi =niN

las frecuencias relativas y ni las frecuencias absolutas. Como la probabilidad es el límite de lasfrecuencias relativas, parece natural introducir las definiciones que siguen.

Esperanza o media de una variable aleatoria discreta, X = x1, x2, . . . , xK, es la media de susposibles valores x1, x2, . . . , xK ponderados por sus respectivas probabilidades p1, p2, . . . , pK que se denota porµ y también, a veces, por E(X):

µ = E(X) = x1p1 + x2p2 + · · ·xKpK =

K∑i=1

xipi ≡K∑i=1

xiP (X = xi)

Varianza de una variable aleatoria discreta, X = x1, x2, . . . , xK, es la media ponderada de las desvia-ciones a la media al cuadrado, que se denota por σ2 y también, a veces, por V AR(X):

σ2 = V AR(X) =

K∑i=1

(xi − µ)2pi ≡K∑i=1

(xi − µ)2P (X = xi)

La interpretación de la varianza es la misma que para un conjunto de datos: es un valor no negativo que expresala dispersión de la distribución alrededor de la media. Además, se puede calcular la desviación típica σ comola raíz cuadrada de la varianza. Los valores pequeños de σ indican concentración de la distribución alrededorde la esperanza y valores grandes corresponden a distribuciones más dispersas.

Ejemplo 3.14

Calcular la media y varianza del número de hijos varones de una familia con dos hijos (datos del Ejemplo 3.8).

µ =

3∑i=1

xiP (X = xi) = 0× 1

4+ 1× 2

4+ 2× 1

4= 1

σ2 =

3∑i=1

(xi − µ)2P (X = xi)− 12 = (0− 1)2 × 1

4+ (1− 1)2 × 2

4+ (2− 1)2 × 1

4=

1

4+

1

4=

1

2

con lo que, en promedio, una familia con dos hijos tiene 1 hijo varón, con una varianza de 1/2.

A veces es más cómo usar la siguiente propiedad la calcular la varianza.

PROPIEDADES DE LA VARIANZA DE LA VARIABLE DISCRETA

σ2 = V AR(X) = E(X2)− E(X)2 =

K∑i=1

x2iP (X = xi)− E(X)2

La media juega un importante papel para evaluar qué cabe esperar en promedio de una variable aleatoria, paraasí tomar una decisión coherente en base a ello.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 11: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 11

Ejemplo 3.15

Después de una determinada operación quirúrgica, un equipo médico tiene dos opciones: mantener ingresadoal paciente en el hospital durante 5 días o durante 8 días. Cuando los pacientes son dados de alta a los 8días, el coste es de 600 euros y no regresan al hospital por causa de la operación. Cuando son dados de altaa los 5 días, 2/3 de los pacientes no regresan al hospital por causa de la operación, pero 1/3 sí lo hacen.Cada individuo del primer caso cuesta 300 euros; cada individuo del segundo cuesta 900 euros. En términospuramente económicos ¿es preferible dar de alta a los enfermos a los 5 o a los 8 días?

La media de los pacientes dados de alta a los 8 días es igual 600 euros, pues todos cuestan lo mismo siempre.Sea X=«coste de un paciente dado de alta a los 5 días». Es una variable aleatoria discreta que toma los valoresX = 300, 900 con probabilidades P (X) = 2/3, 1/3. El coste medio de tal individuos será:

E(X) = 300× 2

3+ 900× 1

3= 500.

Como 500 < 600, es preferible, con estos datos, darlos de alta a los 5 días, ya que tiene un coste menor.

3.5.3 Experimentos de Bernoulli

Se ha dicho que cada variable aleatoria discreta viene identificada por su función de probabilidad. La granmayoría de los fenómenos de Naturaleza siguen exacta o aproximadamente unas pocas leyes bien conocidas,llamadas leyes o distribuciones de probabilidad teóricas. En lo que sigue describimos la distribución deprobabilidad de variables aleatorias discretas que más destaca en la teoría estadística y en la práctica.

En muchas ocasiones nos encontramos ante experimentos aleatorios con sólo dos posibles resultados: éxito yfracaso (cara o cruz en el lanzamiento de una moneda, ganar o perder un partido, aprobar o suspender unexamen,. . . ). Este tipo de pruebas es conocido como experimentos de Bernoulli. Se pueden modelar estassituaciones mediante la variable aleatoria

X =

1 si éxito0 si fracaso

En este caso el espacio muestral es Ω = 0, 1.Lo único que hay que conocer es la probabilidad de éxito, p, ya que los valores de X son siempre los mismos yla probabilidad de fracaso es q = 1− p.

Distribución de Bernoulli de una variable aleatoria discreta X que tiene la probabilidad de éxito p vienedada por

X 0 1f(x) = P (X = xi) 1− p p

La probabilidad de éxito p determina plenamente la distribución de Bernoulli. La media y la varianza de unadistribución de Bernoulli son respectivamente:

µ = E(X) = 0 · (1− p) + 1 · p = p

σ2 = V AR(X) = (0− p)2 · (1− p) + (1− p)2 · p = p(1− p)

Una variable aleatoria de Bernoulli, por sí sola, tiene poco interés en las aplicaciones. En cambio, la realizaciónde una serie de pruebas de Bernoulli conduce a varias distribuciones de probabilidad discretas bien conocidas yútiles. Una de ellas es la que describimos a continuación.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 12: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 12

3.5.4 Distribución binomial

Supongamos que tenemos la siguiente situación:

Realizamos n experimentos Bernoulli idénticos.

Las pruebas son independientes (es decir, el resultado obtenido en cada prueba es independiente de losresultados anteriores).

Cada prueba tiene sólo dos posibles resultados: éxito o fracaso.

p es la probabilidad del éxito y q = 1− p es la probabilidad del fracaso.

La variable aleatoria binomial X es el «número de éxitos» en n pruebas.

La distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en unasecuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxitoentre los ensayos.

Distribución de probabilidad binomialLa distribución de probabilidad para una variable aleatoria binomial, X, está dada por:

P (X = k) =

(nk

)pk(1− p)n−k k = 0, 1, 2..., n (3.1)

donde

p = probabilidad de éxito en una sola prueba,

n = número de pruebas,

el coeficiente binomial (nk

)=

n!

k!(n− k)!(3.2)

representa el número de subconjuntos diferentes de k elementos que se pueden definir a partir de un totalde n elementos (combinaciones de n elementos tomados de k en k).

La media y la varianza de una distribución binormal son:

µ = np

σ2 = np(1− p)

Cuando una variable aleatoria X sigue una distribución binomial de parámetros n y p, se suele escribir queX ∼ B(n, p).

Ejemplo 3.16

Se lanza un dado diez veces y se cuenta el número X de treses obtenidos: entonces X ∼ B(10, 1/6)

Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ∼ B(2, 1/2)

Supongamos que se lanza un dado 5 veces y queremos calcular la probabilidad de que el número 6 salga 3veces. En este caso tenemos X = “que salga 6", siendo X ∼ B(5, 1/6) y la probabilidad sería P (X = 3):

P (X = 3) =

(53

)(1

6

)3(1− 1

6

)5−3

=5!

3!(5− 3)!

(1

6

)3(5

6

)2

≈ 0.032

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 13: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 13

3.6 Variables aleatorias continuas

Variable aleatoria es continua cuando puede tomar todos los valores posibles dentro de un cierto intervalode la recta real. Por ejemplo, el peso de una persona o el contenido de paracetamol en un lote de pastillas.

El estudio de las variables continuas es más sutil que el de las discretas. En este caso, no tiene sentido hablar dela probabilidad de que tome exactamente un valor concreto, se admite que ésta es 0. Por ejemplo, supongamosque estamos considerando medidas entre 165 cm y 166 cm. Entre estas dos medidas hay infinitas, por ello escero la probabilidad de encontrar una persona que mida exactamente 165.7321 cm, ya que se trata de un sólocaso favorable entre infinitos casos posibles.Por ello el interés está en conocer la probabilidad correspondiente a un intervalo: P (a ≤ X ≤ b), siendo a y bnúmeros reales con a < b. Los intervalos ahora desempeñan el mismo papel en el caso continuo que los puntosen el caso discreto.

3.6.1 Distribuciones continuas

En el caso continuo el cálculo de probabilidades puede hacerse geométricamente igualando probabilidades aáreas. A continuación justificamos esta idea.

En Estadística Descriptiva utilizamos el histograma para representar la distribución de frecuencias de las va-riables continuas agrupadas en intervalos. Si consideramos un histograma construido con frecuencias relativas(fi = ni/N), el área de los rectángulos levantados sobre cada intervalo representa la frecuencia relativa co-rrespondiente. El polígono de frecuencias (no acumuladas) se obtiene uniendo los puntos medios de las basessuperiores de los rectángulos (véase la Figura 3.1). Recordando la noción «frecuentista» de probabilidad, po-demos verlo como una representación aproximada de la verdadera distribución de probabilidades que sigue lavariable de la que provienen los datos.Más concretamente, si aumentamos el número de elementos de la muestra, es decir si tomamos intervalos cadavez más pequeños, haciendo tender a cero la amplitud de los intervalos, la línea poligonal tiende a convertirse enuna curva «suave» (véase la Figura 3.2). Esta curva, f(x), se llama función de densidad. Sus ordenadas norepresentan la probabilidad sino la densidad de probabilidad3, por ello, podemos definir P (a ≤ x ≤ b) medianteel área determinada bajo la curva y = f(x) el eje OX y las rectas x = a y x = b.

Figura 3.1Histograma de frecuencias relativas y el polígono

de frecuencias relativas

x

y

Figura 3.2El polígono de frecuencias tiende a una curvacuando la amplitud de los intervalos tiende a 0

x

y

3El concepto de densidad usual se refiere al cociente entre la masa y el volumen de un cuerpo, llamándose en general la densidada cualquier cociente entre dos magnitudes que aluden al mismo objeto.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 14: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 14

Función de densidad de una variable aleatoria continua, X es una función, y = f(x) tal que

1. f(x) ≥ 0 en todo su dominio de definición.

2. El área total bajo la gráfica de f(x) y el eje OX es igual a 1 (véase la Figura 3.3)

3. P (a ≤ X ≤ b) =

∫ b

a

f(x) dx ∀ a, b ∈ R, a < b, es decir la probabilidad de que la variable tome un valor

entre a y b es el área delimitada por la función de densidad, el eje OX y las rectas x = a y x = b (véasela Figura 3.4).

Figura 3.3Función de densidad:

el área total limitada por y = f(x) es 1

x

y

Área = 1

f

Figura 3.4El área bajo la gráfica de y = f(x) entre a y b es

la probabilidad que de X este entre a y b

x

y

a b

Área = P(a < X < b)

f

La función de densidad se interpreta como el histograma. Sus valores más altos corresponden a las zonas másprobables y viceversa. Es erróneo entender la función de densidad como la probabilidad de que la variable tomeun valor específico, pues esta siempre es cero para cualquier variable continua ya que el área que queda encimade un punto es siempre cero. De esto deducimos que, para variables continuas, debemos de despreocuparnos dedistinguir los signos ≤ del < y el ≥ del >, en el caso de las variables continuas.

P (a < X < b) = P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b).

La primera tarea de un científico experimental es determinar la densidad adecuada de la variable aleatoria queesté considerando. Si esta variable aleatoria ha sido estudiada ampliamente en el pasado, se supone que sudensidad puede haber sido ya desarrollada por otros y podemos utilizarla para contestar a las preguntas que senos planteen. En cambio, si la variable es estudiada por primera vez, su densidad debe ser hallada a partir dedatos experimentales. En este tema nos vamos a centrar en la forma de utilizar una densidad para el cálculo deprobabilidades, una vez que conozcamos ya su forma.

La función de distribución se define como en el caso discreto.

Función de distribución de una variable aleatoria continua, X, es la función definida por

F (x) = P (X ≤ x) ≡ área delimitada por la gráfica de densidad, f , a la izquierda del punto x

El cálculo de áreas delimitadas bajo la función de densidad, en general es bastante complejo, se han creadotablas de probabilidades acumuladas para las variables aleatorias utilizadas con mayor frecuencia. Más adelante

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 15: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 15

veremos ejemplos de tales tablas y diremos cómo hay que usarlas. Para ello hay que ser capaz de representarlas probabilidades deseadas y expresarlas en función de F .

De manera similar al caso discreto, se pueden definir la media y varianza para las variables continuas.

Media o esperanza matemática de una variable aleatoria continua, X, que toma los valores en elintervalo (a, b) (a puede ser −∞ y/o b puede ser +∞) y cuya función de densidad es f(x), es el siguiente valor:

µ = E(X) =

∫ b

a

xf(x) dx

La interpretación de la media o esperanza es el valor esperado al realizar el experimento con la variable aleatoria.Además, la media puede verse también como el valor central de la distribución de probabilidad.

Varianza de una variable aleatoria continua, X, que toma los valores en el intervalo (a, b) (a puede ser−∞ y/o b puede ser +∞) y cuya función de densidad es f(x) y la esperanza es µ, es el siguiente valor:

σ2 = V AR(X) =

∫ b

a

(x− µ)2f(x) dx

La interpretación de la varianza es la misma que para un conjunto de datos: es un valor no negativo queexpresa la dispersión de la distribución alrededor de la media. Además, se puede calcular la desviación típicapoblacional σ como la raíz cuadrada de la varianza. Los valores pequeños de σ indican concentración de ladistribución alrededor de la esperanza y valores grandes corresponden a distribuciones más dispersas. Igual queen caso discreto,

PROPIEDADES DE LA VARIANZA DE LA VARIABLE CONTINUA

σ2 = V AR(X) =

∫ b

a

(x− µ)2f(x) dx =

∫ b

a

x2f(x) dx− µ2

3.6.2 La distribución Normal

Una variable continua viene identificada por su función de densidad. Igual que en caso discreto, existen leyeso distribuciones de probabilidad teóricas que permiten describir las probabilidades de ciertos fenómenos. Porejemplo, la distribución uniforme, distribución exponencial o, la más importante, la distribución normal.La distribución Normal4 es de mayor uso de todas las distribuciones continuas de probabilidad, llamadaasí porque en un tiempo se creyó que describía el comportamiento «normal» de los fenómenos, es decir sedebe al hecho de que una gran mayoría de las variables aleatorias de la Naturaleza la siguen. Por ejemplo, laconcentración de plomo en partes por millón en la corriente sanguínea del individuo, la cantidad de radiaciónque puede ser absorbida por un individuo antes de que sobrevenga la muerte, el volumen de la cavidad cranealde los primates, el error que se comete cuando se utiliza un instrumento electrónico para contar partículas comoglóbulos blancos, la densidad de la tierra arcillosa, etc.

Por múltiples razones se viene considerando la más idónea para modelar una gran diversidad de mediciones dela Física, Química, Biología, Pedagogía o Psicología. Entre estas razones está el Teorema Central del Límite(se verá más adelante), que justifica la utilización de la normal como aproximación para las distribuciones devariables aleatorias bajo ciertas condiciones.

4Cada especialidad parece tener su definición particular del concepto de normalidad. Por ejemplo, una de las más difundidas enMedicina es considerar al paciente sano como «normal». Para no confundir el término normal de Estadística con el de Medicina uotros, en algunos libros de estadística, se le llama con la primera letra mayúscula.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 16: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 16

La normal es una familia de variables que depende de dos parámetros, la media, µ y la varianza, σ.

Una variable aleatoria continua X sigue una distribución Normal, el parámetros µ ∈ R y σ > 0, quedenotaremos X ∼ N(µ, σ), si su función de densidad es

f(x) =1

σ√

2πe−

12 ( x−µσ )2 , x ∈ R.

La gráfica de la función de densidad de una distri-bución Normal, f(x), se conoce como campana deGauss (véase la Figura 3.5).

Puede observarse que la función de densidad f(x)tiene además las siguientes propiedades:

1. Es simétrica respecto de la recta vertical x = µ,lo que ocasiona que a la derecha y a la izquierdade µ quede un área de 0.5 (ya que el área totales igual a 1), y así la media µ es también lamediana de la distribución.

2. El máximo está en x = µ.

3. La función tiene dos puntos de inflexión enx = µ− σ y x = µ+ σ.

De ahí, cuanto más grande sea σ, más achatadao aplastada es la curva de densidad.

Figura 3.5Curva de densidad de una distribución Normal

(campana de Gauss)

x

y

µ

σ

Como ya hemos dicho antes, la proporción de la población, cuyos valores están comprendidos entre a y b esel área delimitada por la curva de densidad, el eje de abscisas y las rectas verticales x = a y x = b (véase laFigura 3.3), es decir es la probabilidad de que la variable aleatoria X tome cualquier valor entre a y b. El cálculode dicha probabilidad se realiza mediante integral definida de la función de densidad:

P (a ≤ X ≤ b) = F (b)− F (a) =1

σ√

∫ b

a

e−12 ( x−µσ )2 dx,

donde F ′(x) = f(x) es la función de distribución. Dicha integral no se puede calcular en términos de funcioneselementales, es decir, no existe una expresión explícita de la primitiva, F (x), por tanto, esta integral sólo puedeaproximarse mediante técnicas numéricas (se verá más adelante en el Tema 9).

En la práctica, lo que se usa son las tablas que indican el valor de F (x) = P (X ≤ x) para cada x. Ahorabien, como la Normal depende de µ ∈ R y de σ ∈ (0,+∞), la idea de tabulación es impracticable, debido a lainfinidad de tablas que serían precisas (una para cada pareja de valores de µ y σ). Afortunadamente, con uncambio de variables, es posible convertir cualquier N(µ, σ) en una N(0, 1), llamada Normal estándar, por loque basta con tabular esta última.

Cambio de variables: distribución Normal estándarSea X ∼ N(µ, σ) una variable Normal de media µ y desviación típica σ. Se introduce el siguiente cambio devariables:

Z =X − µσ

∼ N(0, 1) ⇒ X = µ+ σZ ∼ N(µ, σ) (3.3)

A Z se le llama variable aleatoria tipificada y a su distribución normal, N(0, 1) de parámetros µ = 0 y σ = 1,se le denomina distribución Normal estándar (véase la Figura 3.6).La función densidad de Z ∼ N(0, 1) viene dada por:

f(z) =1√2πe−

12 z

2

, z ∈ R

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 17: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 17

Si X una variable aleatoria normal cuya función de distribución es F (x) y sea F (z) la función de distribuciónde la variable aleatoria tipificada Z, entonces del cambio de variables (3.3) se deduce

F (x) = P (X ≤ x) = P (σZ + µ ≤ x) = P

(Z ≤ x− µ

σ

)≡ P (Z ≤ z) = F (z) (3.4)

Esta proporción permite relacionar áreas bajo una curva normal general con áreas bajo la normal estándar:

P (a ≤ X ≤ b) = P

(a− µσ≤ Z ≤ b− µ

σ

)Por tanto, el área bajo la curva normal general comprendida entre x = a y x = b es igual al área bajo la curvanormal estándar comprendida entre sus transformadas z = (a− µ)/σ y z = (b− µ)/σ (véase la Figura 3.7).

Figura 3.6Distribuciones Normales

x

y

µ=0

µ=0, σ=1 (normal estándar)

µ=−1, σ=0.5

µ=3, σ=0.7

Figura 3.7El área bajo la normal general es igual al área

bajo la normal estándar

x

y

a b(a−µ)/σ (b−µ)/σ

P((a−µ)/σ) < Z < ((b−µ)/σ)

P(a< X< b)

F(x)F(z)

La distribución normal estándar está tabulada en la Tabla 3.1. Dicha tabla proporciona probabilidades P (Z ≤ z),redondeadas a 4 cifras decimales para valores de z con dos decimales. El siguiente ejemplo muestra el uso deesta tabla.

Ejemplo 3.17

Supongamos que Z ∼ N(0, 1). Vamos a calcular F (1.34) = P (Z ≤ 1.34) usando los valores tabulados.Buscamos en la primera columna de la tabla el valor de z igual a 1.3 y en la primera fila (que señala lascentésimas) el valor de 0.04. En la intersección de esta fila y la columna se encuentra el valor 0.9099 quecorresponde a la probabilidad buscada.

En la tabla sólo se presentan valores de z positivos. En realidad, la misma tabla puede usarse para los valoresde z negativos, como muestra el siguiente cuadro.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 18: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 18

Tabla 3.1Distribución Normal estándar N(0, 1): P (Z ≤ z)

La primera columna muestra el valor de z con un decimal y la primera fila las centésimas de z.

normal: z 0 0,0 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,090,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,53590,1 0,5398 0,5438 0,5477 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,57540,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,61410,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,65170,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,68790,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7124 0,7157 0,7190 0,72240,6 0,7258 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7518 0,75490,7 0,7580 0,7612 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,78520,8 0,7881 0,7910 0,7939 0,7967 0,7996 0,8023 0,8051 0,8079 0,8106 0,81330,9 0,8159 0,8186 0,8212 0,8238 0,8265 0,8289 0,8315 0,8340 0,8365 0,83891,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,86211,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,88301,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,90151,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,91771,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,93191,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9430 0,94411,6 0,9452 0,9463 0,9474 0,9485 0,9495 0,9505 0,9515 0,9525 0,9535 0,95451,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,96331,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9700 0,97061,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9762 0,97672,0 0,9773 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,98172,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,98572,2 0,9861 0,9865 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,98902,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,99162,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,99362,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,99522,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,99642,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,99742,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9980 0,9980 0,99802,9 0,9981 0,9982 0,9983 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,99863,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,99903,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,99933,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,99953,3 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,99973,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998 0,99983,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,99983,6 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,99993,7 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,99993,8 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 1,0000 1,0000 1,00003,9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,00004,0 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

1

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 19: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 19

CÁLCULO DE PROBABILIDADES DE LA NORMAL ESTÁNDAR Z ∼ N(0, 1)

P (Z ≥ a) = 1− P (Z ≤ a)

z

y

a

P(Z < a) 1 − P(Z < a)

P (Z ≤ −a) = P (Z ≥ a)

z

y

a−a

P(Z < −a) P(Z > a)

P (Z ≥ −a) = P (Z ≤ a)

z

y

−a

P(Z >−a)

P (a ≤ Z ≤ b) = P (Z ≤ b)− P (Z ≤ a)

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 20: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 20

Ejemplo 3.18

Calcular las siguientes probabilidades usando la Tabla 3.1.

P (Z ≥ 1.34) = 1− P (Z ≤ 1.34) = 1− 0.9099 = 0.0901

P (Z ≤ −1.34) = P (Z ≥ 1.34) = 1− P (Z ≤ 1.34) = 1− 0.9099 = 0.0901.

Se observa que P (Z ≥ 1.34) = P (Z ≤ −1.34).

P (1.18 ≤ Z ≤ 1.56) = P (Z ≤ 1.56)− P (Z ≤ 1.18) = 0.9406− 0.881 = 0.0596

P (−1.65 ≤ Z ≤ −1.24) = P (Z ≤ −1.24) − P (Z ≤ −1.65) = P (Z ≥ 1.24) − P (Z ≥ 1.65) == 1− P (Z ≤ 1.24)− 1 + P (Z ≤ 1.65) = −0.8925 + 0.9505 = 0.0580

P (−0.18 ≤ Z ≤ 1.73) = P (Z ≤ 1.73) − P (Z ≤ −0.18) = 0.9573 − P (Z ≥ 0.18) == 0.9573− 1 + P (Z ≤ 0.18) = −0.0427 + 0.5714 = 0.5287

Ejemplo 3.19

Calcular el valor de k tal que

a) P (Z ≤ k) = 0.75.

b) P (Z ≤ k) = 0.35.

Solución: a): Se observa que el valor exacto de 0.75 no aparece en la tabla. Se buscan en la tabla los valorescercanos a él (se observa que son números muy próximos)

0.7486 < 0.75 < 0.7518

y se determina cuál de ellos es el más cercano a 0.75. En este caso, el más cercano es 0.7486 (ya que 0.75 −0.7486 = 0.0014 < 0.7518− 0.75 = 0.0018), luego k = 0.67.

b): Se observa que el valor 0.35 no está en la tabla, ya que sólo contiene los valores comprendidos entre 0.5 y1. Gracias a la simetría respecto de µ = 0 de la normal, tenemos

0.35 = P (Z ≤ k) = P (Z ≥ −k) = 1− P (Z ≤ −k),

de donde

P (Z ≤ −k) = 1− 0.35 = 0.65

Razonemos ahora como en el apartado anterior. Buscamos en la tabla los valores cercanos 0.65:

0.648 < 0.65 < 0.6517

siendo el más próximo 0.6517, luego −k = 0.39, es decir k = −0.39.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 21: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 21

Ejemplo 3.20

Consideramos X la variable aleatoria que sigue una distribución Normal de media µ = 10 y la desviacióntípica σ = 2.5. Para calcular la probabilidad de que X tome un valor menor o igual que 12, vamos a tipificarlausando el cambio de variables (3.3):

Z =X − 10

2.5∼ N(0, 1)

Luego

P (X ≤ 12) = P

(Z ≤ 12− 10

2.5

)= P (Z ≤ 0.8) = 0.7881

3.6.3 Aproximación de la distribución binomial por la distribución Normal

Es importante hacer notar que muchas distribuciones discretas se aproximan a una Normal cuando n es grande.Este hecho permite simplificar los cálculos de la probabilidad de estas distribuciones.Más concretamente, para una distribución binomial, cuando el número n de experimentos de Bernoulli crece,es difícil aplicar las fórmulas (3.1)-(3.2) (convendría encontrar otra fórmula, menos costosa para calcular laprobabilidad).

Se puede demostrar que una distribución binomial de parámetros n y p con la probabilidad de éxito, p, no muypróxima ni a 0 ni a 1, se aproxima, cuando n es grande a una distribución Normal de media µ = np y desviacióntípica σ =

√npq, donde q = 1− p representa la probabilidad de fracaso (véase la Figura 3.8):

B(n, p) ≈ N(np,√npq).

A veces también dicha aproximación es válida cuando n es pequeño y p es próximo a 0.5. En cualquier caso, escorrecto aproximar la distribución binomial por al normal antes mencionada cuando np ≥ 5 y n(1−p) = nq ≥ 5.

Figura 3.8Distribución binomial para varios valores de n y p = 0.5

0 1 2 3 4 50

0.1

0.2

0.3

0.4

Valor de la la variable X

Pro

ba

bilid

ad

n=5

0 1 2 3 4 5 6 7 80

0.1

0.2

0.3

0.4

Valor de la la variable X

Pro

ba

bilid

ad

n=7

0 1 2 3 4 5 6 7 8 9 100

0.05

0.1

0.15

0.2

0.25

Valor de la la variable X

Pro

ba

bilid

ad

n=10

0 10 20 300

0.05

0.1

0.15

Valor de la la variable X

Pro

babilid

ad

n=30

Se observa en la Figura 3.8 que el histograma de probabilidad de una variable binomial cuando n es grande yp no está próximo a 0 ni a 1, se aproxima a la curva de Gauss.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 22: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 22

Cuando se realiza la aproximación, hay que tener en cuenta que se está aproximando una variable discreta poruna variable continua. Más concretamente, cuando se hace la aproximación de una variable discreta binomial,X ∼ B(n, p), por una normal, Y ∼ N(µ, σ), es necesario dar un sentido a P (X = k), (recordemos que para unavariable continua se asume que es cero, pero para una discreta no).Se aplica un cambio llamado corrector de medio punto o correción de continuidad:

P (X = k) ≈ P (k − 0.5 ≤ Y ≤ k + 0.5).

Si X ∼ B(n, p), y Y ∼ N(µ, σ), teniendo en cuenta el factor de corrección y usando el cambio de variables (3.3),llamando Z la variable tipificada podemos resumir el cálculo de probabilidad de una distribución binomial porla aproximación de la Normal en el siguiente cuadro:

CÁLCULO DE PROBABILIDAD DE UNA DISTIBUCIÓN BINOMIAL POR LA APROXIMACIÓN NORMAL

P (X = k) ≈ P (k − 0.5 ≤ Y ≤ k + 0.5) = P

((k − 0.5)− np√npq

≤ Z ≤ (k + 0.5)− np√npq

)

P (a ≤ X ≤ b) ≈ P (a− 0.5 ≤ Y ≤ b+ 0.5) = P

((a− 0.5)− np√npq

≤ Z ≤ (b+ 0.5)− np√npq

)

P (a < X ≤ b) ≈ P (a+ 0.5 ≤ Y ≤ b+ 0.5) = P

((a+ 0.5)− np√npq

≤ Z ≤ (b+ 0.5)− np√npq

)

P (a ≤ X < b) ≈ P (a− 0.5 ≤ Y ≤ b− 0.5) = P

((a− 0.5)− np√npq

≤ Z ≤ (b− 0.5)− np√npq

)

P (a < X < b) ≈ P (a+ 0.5 ≤ Y ≤ b− 0.5) = P

((a+ 0.5)− np√npq

≤ Z ≤ (b− 0.5)− np√npq

)

Ejemplo 3.21

Una empresa se dedica a la fabricación de bombas de turbina. La probabilidad de que una bomba pase todoslos controles de calidad establecidos es 0.7. Si se fabrican 50 bombas, calcula la probabilidad de que superenlos controles de calidad exactamente 38 bombas.Solución: Sea X=número de bombas que pasan todos los controles de calidad. Tenemos que X ∼ B(50, 0.7),es decir X sigue una distribución bonomial con n = 50 y p = 0.7. Por tanto, segúnlas fórmulas (3.1)-(3.2) tendríamos que calcular

P (X = 38) =

(5038

)0.738 0.312 =

50!

38! 12!0.738 0.312

lo que es muy costoso e incómodo.Como n = 50, np = 50×0.7 = 35 ≥ 5 y nq = n(1−p) = 50×0.3 = 15 ≥ 5, podemos aproximar la distribuciónbinomial por una Normal de media µ = np = 35 y desviación típica σ =

√np(1− p) =

√10.5, es decir:

llamando a Y ∼ N(35,√

10.5), tenemos

P (X = 38) ≈ P (37.5 ≤ Y ≤ 38.5) = P

(37.5− 35√

10.5≤ Z ≤ 38.5− 35√

10.5

)= P (0.77 ≤ Z ≤ 1.08)

= P (Z ≤ 1.08)− P (Z ≤ 0.77)

= 0.8599− 0.7794 = 0.0805

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 23: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 23

Ejemplo 3.22

Un profesor decide hacer un examen en forma de test con un cuestionario de 100 preguntas. Cada preguntava acompañada de 5 respuestas, de las cuales una sola es correcta. El profesor está interesado en averiguarla probabilidad de que un alumno, que responde eligiendo al azar una de 5 respuestas, obtenga entre 10 y 20respuestas correctas.Solución: Sea X=«número de respuestas correctas». Se trata de una variable que sigue una distribuciónbinomial con n = 100 y p = 1/5 = 0.2, es decir X ∼ B(100, 0.2).Como n = 100, np = 100 × 0.2 = 20 ≥ 5 y nq = n(1 − p) = 100 × 0.8 = 80 ≥ 5, podemos aproximarla distribución binomial por una Normal de media µ = np = 20 y desviación típica σ =

√np(1− p) =√

20× 0.8 =√

16 = 4, es decir por Y ∼ N(20, 4):

P (10 ≤ X ≤ 20) ≈ P (9.5 ≤ Y ≤ 20.5) = P

(9.5− 20

4≤ Z ≤ 20.5− 20

4

)= P (−2.625 ≤ Z ≤ 0.125)

= P (Z ≤ 0.125)− P (Z ≤ −2.625)

= 0.5478− 0.0044 = 0.5434

3.6.4 La distribución t de Student

La distribución t de Student5 forma parte de distribuciones continuas que no tienen una aplicación práctica enla vida real, es decir no sirven para modelar ningún fenómeno de los que nos rodean en nuestra vida, se usaen los cálculos y en los procedimientos de la estadística y propiamente en los relacionados con la InferenciaEstadística que se considerará en los temas siguientes.La función de densidad de la distribución t de Student tiene una expresión matemática complicada. Estadistribución depende de un parámetro, n, llamado grados de libertad de la distribución. Su media es µ = 0y su desviación típica es σ =

√n/(n− 2), n > 2 (indefinida para otros valores de n). Vamos a denotar T ∼ tn

para decir que una variable aleatoria, T , sigue una destitución t de Student con n grados de libertad.La función de densidad es simétrica respecto de la media, es de forma parecida a la Normal aunque más aplastaday se acerca a N(0, 1) cuando n→ +∞ (véase la Figura 3.9).

Figura 3.9Distribución t de Student con distintos grados de libertad

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

n = 1

n = 3

n = 5

n = 100

Normal Estándar

Existen tablas de la misma que permiten calcular la función de distribución, la siguiente es un ejemplo.5Fue descubierta por William Sealy Gosset (1908). Gosset trabajaba en la Guiness, empresa que prohibía a sus empleados

la publicación de artículos científicos a raíz de una difusión previa de secretos industriales, publicó la nueva distribución con elseudónimo de Student, marca de la pluma con la que trabajaba.

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 24: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 24

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 25: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

3. Probabilidad y variables aleatorias 25

Estas tablas se usan de manera diferente que la Tabla 3.1 de la distribución normal estándar. Para cada valorde los grados de libertad k (primera columna) y de probabilidad (primera fila), en el interior de la tabla se dael valor a tal que a la izquierda de a queda un área total de P (T ≤ a).

Ejemplo 3.23

Para distintos valores de los grados de libertad, usando las tablas t de Student calcular los siguientes valores:

a) Con n = 25, calcular t tal que P (T ≤ t) = 0.95

b) Con n = 25, calcular t tal que P (−t ≤ T ≤ t) = 0.9

c) Con n = 15, calcular t tal que P (T ≤ t) = 0.05

d) Con n = 16, calcular t tal que P (T ≤ −t) = 0.05

e) Con n = 9, calcular P (T ≤ 0.25)

Solución:Apartado a): Buscamos en la tabla de t de Student la fila correspondiente a k = 25 y la columna correspon-diente al valor 0.95 de la primera fila, la intersección de esta fila y columna se encuentra t = 1.7081, que es elvalor que queríamos calcular.

Apartado b): Tenemos

0.9 = P (−t ≤ T ≤ t) = P (T ≤ t)− P (T ≤ −t) = P (T ≤ t)− P (T ≥ t)= P (T ≤ t)− (1− P (T ≤ t)) = 2P (T ≤ t)− 1

de donde

P (T ≤ t) =1.9

2= 0.95

Buscamos en la tabla de t de Student la fila correspondiente a k = 25 y la columna correspondiente al valor0.95 de la primera fila, la intersección de esta fila y columna se encuentra t = 1.7081, que es el valor quequeríamos calcular.

Apartado c): Se observa que el valor 0.05 no se encuentra en la primera fila, usando las propiedades de laprobabilidad, podremos escribir:

P (T ≥ t) = 1− P (T ≤ t) = 1− 0.05 = 0.95

Por otra parte, P (T ≥ t) = P (T ≤ −t), luego P (T ≤ −t) = 0.95, de donde buscando la fila para k = 15 y lacolumna que corresponde al valor 0.95 de la primera fila, obtenemos

−t = 1.7531 ⇒ t = −1.7531

Apartado d): Tenemos 0.05 = P (T ≤ −t) = P (T ≥ t) = 1 − P (T ≤ t), luego P (T ≤ t) = 1 − 0.05 = 0.95.Por tanto, t = 1.7459.

Apartado e): Hay que calcular ahora la probabilidad P (T ≤ 0.25) con n = 9. Buscamos en la fila corres-pondiente a k = 9 el valor 0.25. Se observa que no hay ninguno, 0.25 está entre los 0.1293 (corresponde a laprobabilidad 0.55) y 0.2610 (corresponde a la probabilidad 0.6). Como son valores alejados uno del otro, lo quese hace es construir una recta que interpola los valores (0.1293, 0.55) y (0.2610, 0.6) y tomar como probabilidadla ordenada correspondiente a x = 0.25. Más concretamente,

y = 0.55 +0.6− 0.55

0.2610− 0.1293(x− 0.1293) ⇒ y = 0.55 + 0.3796(x− 0.1293)

⇒ y = 0.55 + 0.3796(0.25− 0.1293) = 0.5958 ⇒ P (T ≤ 0.25) = 0.5958

Matemática Aplicada y Estadística Dpto. EDAN - Univ. de Sevilla

Page 26: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

Bibliografía

[1] A. Martín Andrés, J.D. Luna del Castillo, Bioestadística para las Ciencias de la Salud, Ediciones Norma-Capitel, Madrid, 2004.

[2] B. Pateiro López, ESTADÍSTICA ingeniería química USC,

http://eio.usc.es/pub/pateiro/files/IQ0809Pateiro.pdf

[3] J. Susan Milton, Estadística para Biología y Ciencias de la Salud, MCGRAW-HILL, 2001.

26

Page 27: Probabilidad y variables aleatorias - personal.us.espersonal.us.es/doubova/mae/Tema3MAE.pdf · 3 Versión: 9 de octubre de 2017 Probabilidad y variables aleatorias 3.1 Introducción

Índice de Tema 3

3. Probabilidad y variables aleatorias 13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2. Conceptos previos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33.4. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63.5. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3.5.1. Distribución de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73.5.2. Esperanza, varianza y desviación típica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.5.3. Experimentos de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.5.4. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.6. Variables aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.6.1. Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.6.2. La distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.6.3. Aproximación de la distribución binomial por la distribución Normal . . . . . . . . . . . . 213.6.4. La distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Bibliografía 25

27