30
Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO

Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

  • Upload
    others

  • View
    9

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

Introducción a la teoríade la probabilidad

M I G U E L Á N G E L G A R C Í A Á L V A R E Z

SEGUNDO CURSO

El volumen que el lector tiene en sus manos integratodo el material que forma parte del programa

de un segundo curso de probabilidad que se ofreceen varias universidades. Al igual que en el Primer curso

de esta obra, se pretende aquí presentar una introduccióna la formulación moderna de la teoría de la probabilidad.

Este Segundo curso está dividido en tres grandes partes:en la primera se realiza el estudio de las distribuciones

de vectores aleatorios; en la segunda se tratanlos teoremas límite, y en la tercera se exponen

temas sobre la historia de la teoría de probabilidades.Precisamente sobre este tema, en ambos volúmenes se incluye gran parte de la investigación que el autor

ha realizado sobre la historia de la teoríade la probabilidad, incorporada en la presentación de

los diferentes temas. De esta forma, la exposición se hacede tal manera que la teoría no sea asimilada como

algo estático, sino en permanente evolución,como corresponde a la realidad.

Intr

odu

cció

n a

la

teor

ía d

e la

pro

bab

ilid

ad

G

AR

CÍA

ÁL

VA

RE

Z

C I E N C I A Y T E C N O L O G Í A

M I G U E L Á N G E L

G A R C Í A Á L V A R E Z

cursó la licenciatura en matemáticas

en la Facultad de Ciencias de la UNAM.

Realizó sus estudios de posgrado, en teoría de

los procesos estocásticos, en la Universidad

de Estrasburgo, bajo la dirección del doctor

Paul André Meyer. Actualmente es profesor

titular del Departamento de Matemáticas

de la UNAM.

ww

w.fo

ndod

ecul

tura

econ

omic

a.co

m

Reimpresión / Rústica con solapas/ Refine 16.5 cm x 23 cm / 432 pp / Papel Cultural 75 grs./ lomo 2.1 cm/ Tamaño final del documento +rebases= 63.1 cm x 27 cm /CUO A-01 / GUARDAS PANTONE 327 U

1934 - 2009

FONDODE CULTURAECONÓMICA

García_de la probabilidad_ForroRust_T2 26/09/2008 12:25 Page 1

Page 2: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

M I G U E L Á N G E L

G A R C Í A Á L V A R E Z

cursó la licenciatura en matemáticas

en la Facultad de Ciencias de la UNAM.

Realizó sus estudios de posgrado, en teoría de

los procesos estocásticos, en la Universidad

de Estrasburgo, bajo la dirección del doctor

Paul André Meyer. Actualmente es profesor

titular del Departamento de Matemáticas

de la UNAM.

Page 3: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen
Page 4: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

Sección de Obras de Ciencia y Tecnología

INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDADSegundo curso

Page 5: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

Comité de Selección

Dr. Antonio Alonso Dr. Francisco Bolívar Zapata Dr. Javier Bracho Dr. Juan Luis Cifuentes Dra. Rosalinda Contreras Dr. Jorge Flores Valdés Dr. Juan Ramón de la Fuente Dr. Leopoldo García-Colín Scherer Dr. Adolfo Guzmán Arenas Dr. Gonzalo Halffter Dr. Jaime Martuscelli Dra. Isaura Meza Dr. José Luis Morán López Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. José Antonio de la Peña Dr. Ruy Pérez Tamayo Dr. Julio Rubio Oca Dr. José Sarukhán Dr. Guillermo Soberón Dr. Elías Trabulse

Coordinadora

María del Carmen Farías R.

Page 6: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

MIGUEL ÁNGEL GARCÍA ÁLVAREZ

INTRODUCCIÓN A LA TEORÍADE LA PROBABILIDAD

••Segundo curso

García_Probabilidad II_preliminares.indd 5García_Probabilidad II_preliminares.indd 5 9/26/08 3:50:59 PM9/26/08 3:50:59 PM

FONDO DE CULTURA ECONÓMICA

Page 7: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

Primera edición, 2005Primera reimpresión, 2008

García Álvarez, Miguel ÁngelIntroducción a la teoría de la probabilidad. Segundo

curso / Miguel Ángel García Álvarez. — México : FCE, 2005

426 p. : il. ; 23 × 17 cm — (Colec. Obras de Ciencia y Tecnología)

ISBN 978-968-16-7515-8 (segundo curso)978-968-16-7578-3 (obra completa)

1. Probabilidad, teoría de 2. Matemáticas I. Ser. II. t.

LC QA273.2 Dewey 519.2 G 532i

Comentarios y sugerencias: laciencia@fondodeculturaeconomica.comwww.fondodeculturaeconomica.comTel. (55)5227-4672 Fax (55)5227-4694

Empresa certifi cada ISO 9001: 2000

D. R. © 2005, Fondo de Cultura EconómicaCarretera Picacho-Ajusco, 227, 14738 México, D. F.

Se prohíbe la reproducción total o parcial de esta obra—incluido el diseño tipográfi co y de portada—,sea cual fuere el medio, electrónico o mecánico,sin el consentimiento por escrito del editor.

ISBN 978-968-16-7515-8 (Segundo curso)ISBN 978-968-16-7578-3 (obra completa)

Impreso en México • Printed in Mexico

ISBN 978-607-16-3303-3 (PDF)

Page 8: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

ÍNDICE GENERAL

Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Primera Parte

Vectores aleatorios[]

I. Distribuciones conjuntas . . . . . . . . . . . . . . . . . . 21I.1 Funciones de distribución conjuntas . . . . . . . . . . . 21I.2 Funciones de densidad conjuntas . . . . . . . . . . . . . 29I.3 Funciones de densidad marginales . . . . . . . . . . . . 39I.4 Distribuciones conjuntas de variables aleatorias indepen-

dientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43I.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 50

II. Distribuciones de funciones de vectores aleatorios 57II.1 Distribuciones de funciones de vectores aleatorios dis-

cretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57II.2 Distribuciones de funciones de vectores aleatorios con-

tinuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60II.3 Distribuciones conjuntas de funciones de vectores alea-

torios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72II.4 Estadísticos de orden . . . . . . . . . . . . . . . . . . . 83II.5 Esperanza de funciones de vectores aleatorios . . . . . . 88

II.5.1 Coeficiente de correlación y matriz de cova-rianzas . . . . . . . . . . . . . . . . . . . . . . . 90

II.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 94

III. Distribución normal multivariada . . . . . . . . . . . . 111III.1 Distribución normal bivariada . . . . . . . . . . . . . . . 111

7

Page 9: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

8 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

III.2 Un poco de cálculo matricial . . . . . . . . . . . . . . . 120III.2.1 Valores y vectores propios de matrices simé-

tricas . . . . . . . . . . . . . . . . . . . . . . . . 136III.3 Distribución normal multivariada . . . . . . . . . . . . . 151III.4 Distribuciones muestrales . . . . . . . . . . . . . . . . . 165III.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 169

IV. Esperanzas condicionales . . . . . . . . . . . . . . . . . . 177IV.1 Generalización de la definición de probabilidad condi-

cional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177IV.2 Esperanzas condicionales en el caso discreto . . . . . . . 179IV.3 Definición general de la esperanza condicional . . . . . . 184IV.4 Esperanzas condicionales en el caso absolutamente con-

tinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193IV.5 Distribuciones condicionales . . . . . . . . . . . . . . . . 200IV.6 Regla general de la probabilidad total . . . . . . . . . . 212IV.7 Distribuciones condicionales en el caso mixto . . . . . . 223IV.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 236

Segunda Parte

Convergencia[]

V. Teoremas límite . . . . . . . . . . . . . . . . . . . . . . . . 253V.1 Diferentes tipos de convergencia . . . . . . . . . . . . . 254V.2 Relación entre modos de convergencia . . . . . . . . . . 261V.3 Lema de Borel-Cantelli y convergencia casi segura . . . 264V.4 Funciones generadoras y convergencia en distribución . 266V.5 Ley débil de los grandes números . . . . . . . . . . . . . 269

V.5.1 Interpretación de la esperanza . . . . . . . . . . 275V.6 Ley fuerte de los grandes números . . . . . . . . . . . . 282V.7 Teorema de Poisson . . . . . . . . . . . . . . . . . . . . 292V.8 Teorema del límite central . . . . . . . . . . . . . . . . . 294V.9 Convergencia de series aleatorias . . . . . . . . . . . . . 299

V.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 301

Page 10: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

ÍNDICE GENERAL 9

Tercera Parte

Historia[]

VI. Surgimiento del cálculo de probabilidades . . . . . . 307VI.1 Algunos resultados particulares . . . . . . . . . . . . . . 309VI.2 El Trabajo de Girolamo Cardano . . . . . . . . . . . . . 311VI.3 El trabajo de Pascal-Fermat-Huygens . . . . . . . . . . 314

VI.3.1 Problema de la división de apuestas . . . . . . . 315VI.3.2 Problemas con dados . . . . . . . . . . . . . . . 325VI.3.3 Ubicación del trabajo dePascal-Fermat-Huygens 333

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334

VII. Surgimiento de la teoría de la probabilidad moderna 337VII.1 El cálculo de probabilidades clásico . . . . . . . . . . . . 341VII.2 Las probabilidades numerables de Émile Borel . . . . . 348

VII.2.1 Teorema de Borel sobre los números normales . 359VII.3 Surgimiento de la teoría de la medida . . . . . . . . . . 360

VII.3.1 La integral de Cauchy . . . . . . . . . . . . . . 361VII.3.2 La integral de Riemann . . . . . . . . . . . . . 363VII.3.3 De la teoría de integración a la teoría del contenido 365VII.3.4 Teoría de la medida de Borel . . . . . . . . . . 368VII.3.5 Teoría de la medida de Lebesgue . . . . . . . . 371

VII.4 Identificación de funciones de probabilidad con medidas 374VII.5 Construcción de medidas en espacios de dimensión in-

finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380VII.5.1 El modelo de Kolmogorov . . . . . . . . . . . . 382

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386

Respuestas a los ejercicios . . . . . . . . . . . . . . . . . . . . 397Capítulo I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397Capítulo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400Capítulo III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410Capítulo IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413Capítulo V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419

Tabla de la distribución normal estándar . . . . . . . . . . 421Índice de términos . . . . . . . . . . . . . . . . . . . . . . . . . . 423

Page 11: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen
Page 12: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

PRÓLOGO

Hemos oído más de una vez la opinión de que una cienciadebe hallarse edificada sobre conceptos fundamentales, cla-ros y precisamente definidos. En realidad, ninguna ciencia,ni aún la más exacta, comienza por tales definiciones. Elverdadero principio de la actividad científica consiste másbien en la descripción de fenómenos, que luego son agru-pados, ordenados y relacionados entre sí.

Ya en esta descripción se hace inevitable aplicar al ma-terial determinadas ideas abstractas extraídas de diversossectores y, desde luego, no únicamente de la observacióndel nuevo conjunto de fenómenos descritos. . . Sólo despuésde una más profunda investigación del campo de fenóme-nos de que se trate resulta posible precisar más sus con-ceptos fundamentales científicos y modificarlos progresiva-mente, de manera a extender en gran medida su esfera deaplicación, haciéndolos así irrebatibles. Éste podrá ser elmomento de concretarlos en definiciones. Pero el progre-so del conocimiento no tolera tampoco la inalterabilidadde las definiciones. Como nos lo evidencia el ejemplo dela física, también los “conceptos fundamentales” fijados endefiniciones experimentan una perpetua modificación delcontenido.

Sigmund Freud

Uno de los conceptos centrales de la teoría de la probabilidad es el de va-riable aleatoria, el cual, en un sentido, generaliza al de evento pues un eventoA puede verse como variable aleatoria considerando su función indicadoraIA. Asociadas a un evento, tenemos dos probabilidades, la del evento y la desu complemento. En cambio, asociada a una variable aleatoria X, tenemosuna familia de eventos, todos aquéllos generados por X, a saber, los eventosde la forma [X ∈ B], en donde B es un subconjunto del conjunto en dondela variable aleatoria toma sus valores.

11

Page 13: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

12 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

Dada una variable aleatoria de interés en un determinado problema, elprimer objetivo consiste en encontrar la distribución de la variable aleatoria,es decir, el conjunto de probabilidades de los eventos generados por ella. Enel caso de las variables aleatorias con valores reales, la distribución de unavariable aleatoria X queda determinada por su función de distribución FX .

Dicho de otra manera, la función de distribución contiene toda la informaciónprobabilística de la correspondiente variable aleatoria, de manera que estafunción adquiere una importancia básica.

La función de distribución FX de una variable aleatoria es siempre unafunción monótona no decreciente, de manera que admite una descomposiciónen una parte de saltos y una parte continua.

Cuando la parte continua de FX es cero, se dice que la variable aleatoriaes discreta y en ese caso FX queda determinada por la función de densidadfX de la variable aleatoria, la cual se define, en este caso, mediante la relaciónfX(x) = P [X = x]. De esta forma, en el caso discreto, el cálculo de cualquierprobabilidad se reduce a una suma finita o a una serie, siendo entonces estosconceptos la herramienta matemática que se utiliza para estudiar a la variablealeatoria.

Cuando la parte de saltos de FX es cero, se dice que la variable aleatoriaes continua. En ese caso, es posible que FX sea no sólo una función continuasino también absolutamente continua, es decir que exista una función fX

tal que FX(x) =∫ x−∞ fX(y)dy, así que también en este caso la función de

distribución queda determinada por una función de densidad.De esta forma, en el caso absolutamente continuo, el cálculo de cualquier

probabilidad se reduce a una integral, siendo entonces la teoría de integraciónen una variable la herramienta matemática que se utiliza para estudiar a lavariable aleatoria.

No siempre existe una función de densidad asociada a una variable alea-toria, pero la función de distribución siempre existe. En general, una fun-ción de distribución representa una medida sobre los conjuntos borelianos,a saber, la medida que comienza por asignar a cada intervalo de la for-ma (a, b] la medida FX(b) − FX(a), y que se extiende después a todoslos borelianos. De esta forma, en general, la herramienta que se requierepara el estudio de una variable aleatoria es la teoría de la medida en larecta real.

Es muy frecuente que en un problema de probabilidad estemos interesa-dos no en una sola variable aleatoria real, sino en una colección finita de

Page 14: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

PRÓLOGO 13

ellas. Esta colección puede verse como un vector aleatorio pues el conjuntode valores que toma una familia de n variables aleatorias es una n-ada denúmeros reales, es decir, un vector en Rn.

Dado un vector aleatorio de interés en un determinado problema, el pri-mer objetivo consiste en encontrar la distribución de ese vector aleatorio, esdecir, el conjunto de probabilidades de los eventos generados por las va-riables aleatorias que forman el vector, a saber, los eventos de la forma[(X1, . . . , Xn) ∈ B], en donde X1, . . . , Xn son las variables aleatorias quecomponen el vector aleatorio y B es un conjunto boreliano de Rn.

Al igual que en el caso de una sola variable aleatoria, la distribución deun vector aleatorio queda determinada por una función, llamada la funciónde distribución conjunta de la familia de variables aleatorias que componenal vector. Esta función contiene toda la información probabilística del vectoraleatorio.

También en el caso vectorial, la función de distribución conjunta puedeser una función de saltos o una función absolutamente continua, en cuyo casoqueda determinada por una función de densidad. La herramienta matemáticaque se utiliza en estos casos es la teoría de series múltiples, en el caso discreto,y la teoría de integrales múltiples, en el caso absolutamente continuo.

No siempre existe una función de densidad asociada a un vector aleatorio,pero la función de distribución conjunta siempre existe. En general, unafunción de distribución conjunta de n variables aleatorias representa unamedida sobre los conjuntos borelianos de Rn, de manera que, en general, laherramienta que se requiere para el estudio de un vector aleatorio es la teoríade la medida en Rn.

Un problema de especial interés consiste en determinar el comportamien-to en el límite de determinadas funciones definidas mediante familias finitasde variables aleatorias. En este contexto se obtienen los teoremas fundamen-tales de la teoría de la probabilidad, los llamados teoremas límite, entre losque se encuentran la ley débil de los grandes números, la ley fuerte de losgrandes números y el teorema del límite central.

Es también frecuente que en un problema de probabilidad estemos inte-resados no en una colección finita de variables aleatorias reales sino en unainfinidad de ellas. En ese caso el tratamiento matemático se complica un po-co pues un conjunto de posibles valores de esa familia infinita no puede verseya como un elemento de un espacio de dimensión finita, a saber, Rn paraalguna n ∈ N, sino como una función definida sobre el conjunto de índices

Page 15: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

14 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

de la colección infinita de variables aleatorias. Por ejemplo, si tenemos unavariable aleatoria Xt para cada número real no negativo t, entonces un con-junto de posibles valores de la familia (Xt)t≥0 se puede representar medianteuna función f : [0,∞) → R, en donde f(t) es el valor que toma la variablealeatoria Xt.

Dada una colección infinita (Xγ)γ∈Γ de variables aleatorias reales, el pri-mer objetivo consiste en encontrar la distribución de esa familia, es decir, elconjunto de probabilidades de los eventos generados por las variables aleato-rias que la componen, a saber, los eventos de la forma

[(Xγ1

, . . . , Xγn

)∈ B

],

en donde Xγ1, . . . , Xγn

son elementos de la familia y B es un conjunto bo-reliano de Rn. El problema aquí es que ahora la colección Xγ1

, . . . , Xγnno

es fija.En este caso, no hay una función de distribución que determine la distri-

bución de la familia infinita de variables aleatorias. Lo que se hace es buscaruna medida sobre el conjunto de los posibles valores que toma la familiacompleta, es decir, sobre el conjunto de funciones f : Γ → R.

El estudio de la función de distribución de una sola variable aleatoria esun tema que usualmente se desarrolla en un primer curso de probabilidad.Éste se encuentra desarrollado, por tanto, en el Primer curso de esta obra.

El estudio de las funciones de distribución conjuntas y, en general, delos vectores aleatorios, incluyendo los teoremas límite, es un tema que usual-mente se desarrolla en un segundo curso de probabilidad. Estos temas son elobjeto de estudio de este Segundo curso.

El estudio de las familias infinitas de variables aleatorias es un tema quecorresponde a la teoría de procesos estocásticos, la cual actualmente es defundamental importancia en la teoría de la probabilidad y sus aplicaciones.

El volumen que el lector tiene en sus manos integra todo el material queforma parte del programa de un segundo curso de probabilidad que se ofreceen varias universidades.

Al igual que en el Primer curso de esta obra, se pretende aquí presentaruna introducción a la formulación moderna de la teoría de la probabilidad,intentando motivar heurísticamente los conceptos, ubicar el origen de ellos yexponer los resultados con el mayor rigor posible.

Este Segundo curso está dividido en tres grandes partes; en la primera serealiza el estudio de las distribuciones de vectores aleatorios, en la segunda setratan los teoremas límite y en la tercera se exponen temas sobre la historiade la teoría de la probabilidad.

Page 16: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

PRÓLOGO 15

A su vez, la primera parte se divide en cuatro capítulos: en el primero,distribuciones conjuntas, se introduce el concepto de función de distribuciónconjunta de una familia finita de variables aleatorias; en particular, se tra-tan los casos discreto y absolutamente continuo, en los cuales existe unafunción de densidad conjunta. Finalmente se estudia la independencia de va-riables aleatorias, la cual se caracteriza utilizando la función de distribuciónconjunta y la densidad conjunta, cuando existe. En el segundo, distribucio-nes de funciones de vectores aleatorios, se trata el problema consistente enencontrar la distribución de sumas, cocientes, productos y, en general, decualquier función de una pareja de variables aleatorias; se estudia tambiénel problema consistente en encontrar la distribución conjunta de variablesaleatorias definidas como funciones de n variables aleatorias con distribu-ción conjunta conocida; además, se estudian los estadísticos de orden de unafamilia finita de variables aleatorias absolutamente continuas, independien-tes e idénticamente distribuidas; finalmente, se tratan problemas relativos alcálculo de esperanzas de funciones de una familia finita de variables aleato-rias y se introducen los conceptos de correlación y covarianza. En el tercercapítulo, distribución normal multivariada, se estudian las transformacioneslineales invertibles de vectores aleatorios formados por variables aleatoriasindependientes, todas ellas con distribución normal estándar, obteniendo deesta forma lo que se llama la distribución normal multivariada; en parti-cular, se aplican estas ideas para demostrar algunos resultados útiles en laestadística. En el cuarto capítulo, esperanzas condicionales, se introduce unconcepto de especial importancia en la teoría de la probabilidad moderna, elde esperanza condicional de una variable aleatoria conocido el valor de otravariable aleatoria; se consideran también las distribuciones condicionales deuna variable aleatoria dada otra, tanto en el caso en que las dos son discretaso absolutamente continuas, como en aquél en el cual una es discreta y otraabsolutamente continua.

La segunda parte consta de un sólo capítulo: teoremas límite. Se comien-za este capítulo estudiando la convergencia de variables aleatorias, introdu-ciendo tres diferentes tipos de convergencia — convergencia en probabilidad,convergencia casi segura y convergencia en distribución — y se estudia larelación que hay entre estos modos de convergencia. Se continúa con el estu-dio de los teoremas límite, demostrando algunos de los teoremas fundamen-tales de la teoría de la probabilidad: las leyes débil y fuerte de los grandes

Page 17: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

16 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

números y el teorema del límite central; además, se trata el problema de laconvergencia de series aleatorias.

Finalmente, la tercera parte se divide en dos capítulos: en el primero,“Surgimiento del cálculo de probabilidades”, se analiza principalmente el tra-bajo realizado, en la teoría de la probabilidad, por Blaise Pascal, Pierre deFermat y Christiaan Huygens, quienes dieron las bases para el desarrollo deun cálculo de probabilidades como disciplina matemática independiente. Enel segundo capítulo, “Surgimiento de la teoría de la probabilidad moderna”,se analiza el proceso que condujo a la formulación axiomática de la teoría dela probabilidad, dada por Andrey Nikolaevich Kolmogorov en el año 1933.

Miguel A. García ÁlvarezMarzo,

Departamento de MatemáticasFacultad de Ciencias, unam

México, D.F., e-mail: [email protected]

Page 18: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

NOTACIÓN

A ∪B Unión de los conjuntos A y B

A ∩B Intersección de los conjuntos A y B⋃nk=1 Ak Unión de los conjuntos A1, . . . , An⋂nk=1 Ak Intersección de los conjuntos A1, . . . , An

Ac Complemento del conjunto A

A×B Producto cartesiano de los conjuntos A y B

A ⊂ B El conjunto A está contenido en el conjunto B

A ⊃ B El conjunto A contiene al conjunto B

∅ Conjunto vacío

N Conjunto de los números naturales

Z Conjunto de los números enteros

R Conjunto de los números reales

R R ∪ −∞,∞

n, . . . ,m Conjunto de números enteros entre n y m inclusive

n, n + 1 . . . Conjunto de números enteros mayores o iguales a n

(a, b) Intervalo abierto x ∈ R |a < x < b

[a, b] Intervalo cerrado x ∈ R |a ≤ x ≤ b

(a, b] Intervalo semiabierto x ∈ R |a < x ≤ b

17

Page 19: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

18 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

[a, b) Intervalo semiabierto x ∈ R |a ≤ x < b

x · y Producto punto de los vectores x y y

‖x‖ Norma del vector x

|x| Valor absoluto del número real x

[[x]] Mayor entero menor o igual a x

z Conjugado del número complejo z

mın(a, b) Mínimo entre a y b

max(a, b) Máximo entre a y b

x+ max(x, 0)

x− max(−x, 0)∑nk=1 xk Suma de los números x1, . . . , xn∏nk=1 xk Producto de los números x1, . . . , xn

lnx Logaritmo natural de x(nk

)Combinaciones de n elementos tomados de k en k

g f Composición de las funciones f y g

f : A 7→ B función definida sobre el conjunto A,

con valores en el conjunto B

x α x tiende al valor α

Page 20: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

Primera Parte

Vectores aleatorios

Page 21: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen
Page 22: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

I. DISTRIBUCIONES CONJUNTAS

Una partícula puede tener una posición o puede tener unavelocidad, pero en sentido estricto no puede tener las dos. . .Cuanto más aclaramos el secreto de la posición, más pro-fundamente se esconde el secreto de la velocidad. . . Pode-mos distribuir como queramos la incertidumbre, pero nun-ca podremos eliminarla.

Werner Heisenberg

Lo que hace que la Naturaleza entrañe contenido probabi-lístico no es nuestro desconocimiento del mecanismo inter-no, de las complicaciones internas. La probabilidad pareceser de algún modo intrínseca. . . Un filósofo dijo una vez:“Para que la ciencia exista, es necesario que las mismas con-diciones produzcan siempre los mismos resultados”. Puesbien, no los producen.

Richard Phillips Feynman

I.1 Funciones de distribución conjuntas

En todo este volumen se asume que se tiene un espacio de probabilidad(Ω,=, P ) correspondiente a un determinado experimento aleatorio.

Recordemos además que, dadas las variables aleatorias X : Ω 7→ R, X1 :Ω 7→ R, . . ., Xn : Ω 7→ R, y los subconjuntos de R, B,B1, . . . , Bn, denotamospor [X ∈ B] al conjunto ω ∈ Ω : X(ω) ∈ B y por [X1 ∈ B1, . . . , Xn ∈ Bn]a la intersección de los conjuntos ω ∈ Ω : Xk(ω) ∈ Bk, para k ∈ 1, . . . , n.También, si A ⊂ Rn, denotamos por [(X1, . . . , Xn) ∈ A] al conjunto

ω ∈ Ω : (X1(ω), . . . , Xn(ω)) ∈ A.

Toda la información probabilística relativa a una variable aleatoria X

está contenida en su función de distribución pues, disponiendo de esta última,

21

Page 23: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

22 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

se puede obtener la probabilidad de cualquier evento cuya ocurrencia o noocurrencia dependa del valor que tome X. Dos variables aleatorias puedenser distintas, vistas como funciones definidas sobre el espacio muestral Ω,pero ser idénticas en cuanto a su distribución y entonces, desde el punto devista probabilístico, nos dan exactamente la misma información y pueden serentonces utilizadas indistintamente para el mismo propósito.

Por ejemplo, consideremos el experimento aleatorio consistente en elegiral azar un número real en el intervalo (0, 1) y definamos X como el númeroque se selecciona. El espacio muestral de este experimento es el mismo in-tervalo (0, 1). Definamos ahora una nueva variable aleatoria Y mediante lafórmula Y = 1 −X. Vistas como funciones definidas sobre el espacio mues-tral, X y Y son diferentes pues por un lado se tiene X(x) = x, mientras quepor el otro Y (x) = 1− x.

Ahora bien, como la elección se realiza al azar, X tiene distribución uni-forme en el intervalo (0, 1) y se puede ver inmediatamente que la distribuciónde Y también es uniforme en el intervalo (0, 1). Por tal motivo, desde el pun-to de vista probabilístico, X y Y tienen el mismo comportamiento y puedenser utilizadas indistintamente con el mismo propósito. Por ejemplo, en unproblema se simulación, para generar n números que puedan considerarsecomo provenientes de una variable aleatoria con distribución exponencial deparámetro λ = 1, se pueden generar n números aleatorios x1, . . . , xn cuyadistribución sea uniforme en el intervalo (0, 1) y definir, para k ∈ 1, . . . , n,yk = − lnxk. Los números y1, . . . , yn resuelven entonces el problema plan-teado. Pero definiendo zk = − ln(1− xk), los números z1, . . . , zn también loresuelven.

Cuando en un determinado problema son varias las variables aleatoriasde interés, la colección de las correspondientes funciones de distribución nosda la información probabilística completa de cada una de las variables alea-torias por separado. Sin embargo, esta colección no nos da la informacióncompleta de las variables aleatorias vistas como una familia pues falta la in-formación correspondiente a la posible relación que puede existir entre ellas.Los siguientes 2 ejemplos ilustran este punto.

Ejemplo I.1. Consideremos el experimento aleatorio consistente en selec-cionar al azar un punto en el interior del cuadrado de vértices A(0, 0),B(1, 0), C(1, 1) y D(0, 1). Definamos entonces las variables aleatorias Xy Y como la abscisa y ordenada, respectivamente, del punto seleccionado.

Page 24: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

DISTRIBUCIONES CONJUNTAS 23

00.10.20.30.40.50.60.70.80.91

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1x

Figura I.1

Recordemos que en un experimento de este tipo, la probabilidad de queel punto seleccionado esté contenido en un subconjunto A de R2 es igual alcociente del área de A ∩ C entre el área de C, en donde C representa laregión en la cual se selecciona el punto. Con base en esto, las funciones dedistribución de X y Y pueden obtenerse fácilmente, llegándose al siguienteresultado:

FX(x) =

0 si x ≤ 0x si 0 < x < 11 si x ≥ 1

FY (y) =

0 si y ≤ 0y si 0 < y < 11 si y ≥ 1

Ejemplo I.2. Consideremos ahora el experimento aleatorio consistente enseleccionar al azar un punto sobre la diagonal de pendiente 1 del cuadradode vértices A(0, 0), B(1, 0), C(1, 1) y D(0, 1). Definamos, como antes, lasvariables aleatorias X y Y como la abscisa y ordenada, respectivamente, delpunto seleccionado (figura I.2).

Recordemos que ahora, la probabilidad de que el punto seleccionado estécontenido en un subconjunto A de R2 es igual al cociente de la longitud deA∩D entre la longitud de D, en donde D representa la región en la cual seselecciona el punto. Con base en esto, las funciones de distribución de X y Ypueden, nuevamente, obtenerse fácilmente, llegándose al siguiente resultado:

Page 25: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

24 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

00.10.20.30.40.50.60.70.80.91

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1x

Figura I.2

FX(x) =

0 si x ≤ 0x si 0 < x < 11 si x ≥ 1

FY (y) =

0 si y ≤ 0y si 0 < y < 11 si y ≥ 1 N

Como puede verse, en ambos problemas se obtienen las mismas funcionesde distribución para las variables aleatorias X y Y. Sin embargo, es evidenteque la relación entre X y Y es distinta en los dos problemas. En el ejemploI.2, conociendo el valor de X se obtiene inmediatamente el de Y pues Y = X;en cambio, en el ejemplo I.1, el conocimiento de X no nos da informaciónsobre el valor de Y pues en cualquier caso éste puede ser cualquier númeroentre 0 y 1.

En el caso de una familia de n variables aleatorias, el papel central, quejuega la función de distribución cuando se trata de una sola variable aleatoria,no lo tiene la colección de las n funciones de distribución correspondientes,sino lo que se llama la función de distribución conjunta, concepto que sedefine a continuación:

Definición I.3 (Función de distribución conjunta) Sean X1, . . . , Xn n varia-bles aleatorias. La función FX1,...,Xn

: Rn 7→ [0, 1], definida por:

FX1,...,Xn(x1, . . . , xn) = P [X1 ≤ x1, . . . , Xn ≤ xn]

es llamada la función de distribución conjunta de X1, . . . , Xn.

Page 26: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

DISTRIBUCIONES CONJUNTAS 25

Para ilustrar esta definición, encontremos la función de distribución con-junta de X y Y en cada uno de los dos ejemplos mencionados previamente.

Ejemplo I.4. En el ejemplo I.1, si 0 < x < 1 y 0 < y < 1, entoncesFX,Y (x, y) = P [X ≤ x, Y ≤ y] es igual al área de la región sombreada de lafigura siguiente:

0

0.2

0.4

0.6

0.8

1

0.2 0.4 0.6 0.8 1x

Figura I.3

De manera que se obtiene, FX,Y (x, y) = xy.Considerando los diferentes casos, se obtiene:

FX,Y (x, y) =

0 si x ≤ 0 o y ≤ 0xy si 0 < x < 1, 0 < y < 1x si 0 < x < 1, y ≥ 1y si 0 < y < 1, x ≥ 11 si x ≥ 1, y ≥ 1

En el ejemplo I.2, si 0 < x < 1 y 0 < y < 1, entonces FX,Y (x, y) =P [X ≤ x, Y ≤ y] es igual al cociente de la longitud de la región marcada ennegrita de la figura siguiente, entre la longitud de la diagonal del cuadrado(figura I.4).

De manera que se obtiene, FX,Y (x, y) = x.Considerando los diferentes casos, se obtiene:

FX,Y (x, y) =

0 si x ≤ 0 o y ≤ 0x si 0 < x < 1, y ≥ xy si 0 < y < 1, y < x1 si x ≥ 1, y ≥ 1

Page 27: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

26 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

0

0.2

0.4

0.6

0.8

1

0.2 0.4 0.6 0.8 1x

Figura I.4

Como puede verse, las funciones de distribución conjuntas resultan di-ferentes. La distinta relación que hay entre X y Y en los dos problemasno queda reflejada en las distribuciones de X y Y por separado, pero sí semanifiesta en las distribuciones conjuntas. N

La función de distribución conjunta de 2 variables aleatorias nos da lainformación probabilística de la pareja de variables aleatorias vista comoun todo, pero, además, de acuerdo con la siguiente proposición, nos da lainformación probabilística de cada variable aleatoria por separado, cuyasdistribuciones son conocidas como distribuciones marginales.

Proposición I.5. Sean X y Y dos variables aleatorias cualesquiera y seaFX,Y su función de distribución, entonces:

i. lımx ∞ FX,Y (x, y) = FY (y), para cualquier y ∈ R.

ii. lımy ∞ FX,Y (x, y) = FX(x), para cualquier x ∈ R.

DemostraciónSea y ∈ R y (xn) una sucesión monótona creciente de números reales tal

que lımn ∞ xn = ∞. Entonces, la sucesión de eventos [X ≤ xn, Y ≤ y] esmonótona no decreciente y [Y ≤ y] =

⋃∞n=1 [X ≤ xn, Y ≤ y], por lo tanto:

FY (y) = P [Y ≤ y] = lımn ∞ P [X ≤ xn, Y ≤ y] = lımn ∞ FX,Y (xn, y)

La otra relación se demuestra de manera similar.

Page 28: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

DISTRIBUCIONES CONJUNTAS 27

El resultado se puede extender al caso de n variables aleatorias, al igualque algunas propiedades que tiene la función de distribución de una sola va-riable aleatoria. Estas propiedades, cuya demostración se deja como ejercicio,se enuncian en la siguiente proposición:

Proposición I.6. Sean X1, . . . , Xn n variables aleatorias y sea FX1,...,Xn sufunción de distribución conjunta, entonces, para cada

(x1, . . . , xj−1, xj+1, . . . , xn) ∈ Rn−1,

se tiene:

a) la función x 7→ FX1,...,Xn(x1, . . . , xj−1, x, xj+1, . . . , xn) es no decrecien-te y continua por la derecha.

b) lımx ∞ FX1,...,Xn(x1, . . . , xj−1, x, xj+1, . . . , xn)

= FX1,,...,Xj−1,Xj+1,...,Xn(x1, . . . , xj−1, xj+1, . . . , xn)

c) lımx −∞ FX1,...,Xn(x1, . . . , xj−1, x, xj+1, . . . , xn) = 0

Las condiciones arriba mencionadas no son suficientes para que una fun-ción F sea una función de distribución. En efecto, consideremos, por ejemplo,la siguiente función:

F (x, y) =

0 si x < 0 o y < 0x + y si x + y < 1, x ≥ 0, y ≥ 01 si x + y ≥ 1, x ≥ 0, y ≥ 0

Esta función tiene las propiedades siguientes:

i. Para cada y ∈ R, la función x 7→ F (x, y) es no decreciente y continuapor la derecha y lımx −∞ F (x, y) = 0.

ii. Para cada x ∈ R, la función y 7→ F (x, y) es no decreciente y continuapor la derecha y lımy −∞ F (x, y) = 0.

iii. Las funciones G : R 7→ [0, 1] y H : R 7→ [0, 1], definidas por G(y) =lımx ∞ F (x, y) y H(x) = lımy ∞ F (x, y), respectivamente, son fun-ciones de distribución en una variable.

Sin embargo, F no es una función de distribución conjunta de algunapareja de variables aleatorias X, Y . En efecto, si lo fuera, se tendría:

Page 29: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

28 INTRODUCCIÓN A LA TEORÍA DE LA PROBABILIDAD

P [X ≤ x] = lımy ∞

FX,Y (x, y) =

0 si x < 01 si x ≥ 0

P [Y ≤ y] = lımx ∞

FX,Y (x, y) =

0 si y < 01 si y ≥ 0

Así que, P [X = 0] = P [Y = 0] = 1.Por lo tanto, se tendría P [X = 0, Y = 0] = 1.Pero, P [X = 0, Y = 0] ≤ F (0, 0) = 0, lo cual es una contradicción.En realidad, una función de distribución representa una medida. En el

caso de una sola variable se trataría de una medida sobre subconjuntos de nú-meros reales. En el caso de la función de distribución de dos variables aleato-rias X y Y se trataría de una medida sobre subconjuntos de R2. En ese caso,dicha medida comenzaría asignando el valor FX,Y (x, y) = P [X ≤ x, Y ≤ y]al rectángulo infinito (−∞, x]× (−∞, y]. De manera más general, si x1 ≤ x2

y y1 ≤ y2 y C es el rectángulo (x1, x2]× ( y1, y2], entonces:

P [(X, Y ) ∈ C] = FX,Y (x2, y2)− FX,Y (x1, y2)− FX,Y (x2, y1) + FX,Y (x1, y1)

Así que ese valor sería entonces la medida asignada al rectángulo C.Obsérvese que, en particular, la cantidad:

FX,Y (x2, y2)− FX,Y (x1, y2)− FX,Y (x2, y1) + FX,Y (x1, y1)

es no negativa cualquiera que sea la función de distribución FX,Y .Se puede demostrar que basta con que se cumpla esta condición adicional

para que una función de dos variables represente la distribución conjunta dedos variables aleatorias. Es decir, se tiene el siguiente resultado:

Proposición I.7. Una función F : R2 7→ R representa la función de distri-bución de una pareja de variables aleatorias X, Y si y sólo si se cumplen lassiguientes condiciones:

i. Para cada y ∈ R, la función x 7→ F (x, y) es no decreciente y continuapor la derecha y lımx −∞ F (x, y) = 0.

ii. Para cada x ∈ R, la función y 7→ F (x, y) es no decreciente y continuapor la derecha y lımy −∞ F (x, y) = 0.

iii. Las funciones G : R 7→ [0, 1] y H : R 7→ [0, 1], definidas por G(y) =lımx ∞ F (x, y) y H(x) = lımy ∞ F (x, y), respectivamente, son fun-ciones de distribución en una variable.

Page 30: Introducción a la teoría GARCÍA ÁLVAREZ de la probabilidad · 2016. 8. 8. · Introducción a la teoría de la probabilidad MIGUEL ÁNGEL GARCÍA ÁLVAREZ SEGUNDO CURSO El volumen

DISTRIBUCIONES CONJUNTAS 29

iv. Si x1 ≤ x2 y y1 ≤ y2 entonces F (x2, y2) − F (x1, y2) − F (x2, y1) +F (x1, y1) ≥ 0.

Obsérvese que en el ejemplo considerado arriba se tiene:

F (1, 1)− F (0, 1)− F (1, 0) + F (0, 0) = −1

Es decir, si F fuera la función de distribución de una pareja de variablesaleatoria X, Y y C es el cuadrado 0 < x ≤ 1, 0 < y ≤ 1, entonces se tendríaP [(X, Y ) ∈ C] = −1, lo cual es una contradicción.

De manera general, la función de distribución conjunta, de n variablesaleatorias, representa una medida sobre Rn, y la familia de variables aleato-rias X1, . . . , Xn puede verse como la función de Ω en Rn que asigna a cadaω ∈ Ω el vector (X1(ω), . . . , Xn(ω)); de esta forma, podemos decir que lasvariables aleatorias forman un vector aleatorio (X1, . . . , Xn).

I.2 Funciones de densidad conjuntas

Cuando se estudia la distribución de una variable aleatoria por separado, haydos casos en los cuales ésta queda determinada por una función de densidad.Nos referimos al caso discreto y al absolutamente continuo. Esta situaciónpuede extenderse al caso de una familia de variables aleatorias, lo cual sedesarrolla a continuación. Para claridad en la exposición, primero se tratael caso de una familia formada por dos variables aleatorias y después seenuncian los resultados para el caso general.

Definición I.8 (Vector aleatorio discreto bidimensional) Se dice que la pare-ja de variables aleatorias X, Y forma un vector aleatorio discreto si existeuna colección finita o infinita numerable de vectores (x1, y1), (x2, y2), . . .

tales que:

i. P [X = xm, Y = ym] > 0 para cualquier m

ii.∑

m P [X = xm, Y = ym] = 1

En este caso, la función fX,Y : R2 7→ [0, 1] definida por fX,Y (x, y) =P [X = x, Y = y] es llamada la función de densidad conjunta del vector(X, Y ).