Cap6v1.2

Embed Size (px)

Citation preview

Captulo 6EsperanzaMatematica6.1. EsperanzaMatematicadeVariablesAleatoriasDiscretas.Recordemos que una variable aleatoriaXes discreta, si existe una sucesion (xn)n1de n umeros realestales quen=1P(X = xn) = 1.Comenzaremos por denir la nocion de valor esperado para variables aleatorias discretas.Denicion6.1SeaXunavariablealeatoriadiscretaconlanotacionanterior,yllamemospn=P(X=xn), n = 1, 2, . . . . Diremos que existe el valor esperado, la media o la esperanza matematica deXsi la serien=1|xn|pn(6.1)es convergente. En ese caso, el valor esperado se denota E(X) y se dene mediante la serieE(X) =n=1xnpn. (6.2)Ejemplo6.1SeaXelresultadodelanzarundado,entoncesXtomavalores {1, 2, 3, 4, 5, 6}conprobabilidaduniformeen este conjunto. Por lo tantoE(X) =6i=1i16=216= 3.5Observamos que en este caso el valor esperado no es un valor posible de la variable aleatoria.146 CAPITULO 6. ESPERANZA MATEMATICA6.1.1. PropiedadesLa esperanza matematica de una variable discreta tiene las siguientes propiedades.Propiedad1. SiX 0 y existe E(X), entonces E(X) 0.Es obvio que siX 0, los valoresxn que guran en la suma (6.1) son no-negativos, y si dicha serie esconvergente, la suma tambien sera no-negativa.Propiedad2. SiXes una variable aleatoria acotada entonces existe E(X).Decir que la variable aleatoriaXes acotada es decir que existe una constanteCtal que|xn| C para todon,y, por lo tanto,Nn=1|xn|pn CNn=1pn C.Esdecirquelassumasparcialesdelaserie(6.1)resultanestaracotadasporlaconstanteC.Ahorabien, recordemos que para una serie de terminos no-negativos es el caso de la serie (6.1) es necesarioy suciente para que converja que sus sumas parciales esten acotadas. Como las de (6.1) lo estan, estaserie es convergente y el valor esperado deXexiste.Observacion6.1Una primera observacion es que si una variable aleatoria toma solamente un n umeronitodevalores,entoncessuesperanzamatematicaestabiendenida,yaque(6.1)sereduceaunasuma nita.Por otra parte, no siempre existe el valor esperado de una variable aleatoria. Por ejemplo, consideremosla variable aleatoriaXtal quexn = 2ny pn = P(X = 2n) =12n, n 1.Es claro quen=1pn = 1.Setienequexnpn=1, paratodonyporlotanto, laserie(6.1)esdivergente, demodoqueestavariable aleatoria no tiene esperanza matematica.Enalgunostextosel lectorencontraraque, encasoscomoel deesteejemplo, enel cual lavariablealeatoria X es no-negativa y la serie (6.1) diverge, se conviene en denir E(X) = +en lugar de hacercomo hemos optado, esto es, decir que no existe la esperanza.Se debe hacer especial atencion, sin embargo, en que si la variable no es no-negativa (o, en general, designo constante), no hay esa opcion convencional. Por ejemplo, si modicamos el ejemplo consideradoy tomamos la variable aleatoriaYtal queP(Y= 2n) =12n+1P(Y= 2n) =12n+1n 1,entonces, nuevamente (6.1) diverge y no existe E(Y ).Propiedad3. SeaA un evento y 1Ala variable aleatoria denida por:1A() =

1 si A0 si/ A6.1. ESPERANZA MATEMATICA DE VARIABLES ALEATORIAS DISCRETAS. 147EntoncesE(1A) = P(A).Es claro que 1Aes discreta, ya que toma solamente dos valores yE(1A) = 1 P(1A = 1) + 0 P(1A = 0) = P(A).Propiedad4. Seag : R R una funcion y consideremos la nueva variable aleatoria (discreta)Y= g(X).Entonces, si existe la esperanza matematica deY , esta esE(Y ) =n=1g(xn)pn. (6.3)Demostracion. Llamemos {ym} a los valores deY , entoncesE(Y ) =mymP(Y= ym). (6.4)Por otra parte el evento {Y= ym} es igual a{X = xnpara alg unxntal queg(xn) = ym},puestoquedecirqueY tomaelvalorymequivaleadecirqueXtomaunvalorcuyaimagenporlafunciong esym. Por lo tantoP(Y= ym) ={n:g(xn)=ym}pndondeel conjuntodelosvaloresdensobrelosquesesumaesel conjuntodelosvalorestalesqueg(xn) = ym. Sustituyendo en (6.4)E(Y ) =mym{n:g(xn)=ym}pn =m{n:g(xn)=ym}g(xn)pny ahora, un instante de reexion mostrara al lector que la suma doble que aparece en la ultima igualdades, simplemente, la suma sobre todos los valores den, ya que cadan aparece una y solo una vez all.En resumenE(Y ) =ng(xn)pncomo armamos en el enunciado de la propiedad 4. Observacion6.2La ventaja que tiene la formula (6.3), es que nos permite calcular E(Y ) sin necesidaddecalcularpreviamentelafunciondeprobabilidaddelavariablealeatoriaY , bastandonosconlafuncion de probabilidad deX.Propiedad5. Si existe E(X) entonces | E(X)| E(|X|).Demostracion. De acuerdo a la propiedad 4 (tomandog(x) = |x|), se tieneE(|X|) =n|xn|pn |nxnpn| = | E(X)|Observe que la desigualdad entre las sumas de las series, se deduce simplemente de queNn=1|xn|pn |Nn=1xnpn|envirtuddeladesigualdadtriangularentren umerosreales. Pasandoal lmitecuandoN , seobtiene la desigualdad analoga entre las sumas de las series.148 CAPITULO 6. ESPERANZA MATEMATICAPropiedad6. Si es una constante y E(X) existe, entonces tambien existe E(X) yE(X) = E(X).La demostracion es sencilla y queda a cargo del lector.Propiedad 7. SiXeYson variables aleatorias que tienen valor esperado, entonces tambien existe elvalor esperado deX +Yy se tieneE(X +Y ) = E(X) + E(Y ).Demostracion. Para demostrar esta propiedad utilizamos la notacion anteriormente introducida:rnm = P(X = xn, Y= ym), pn = P(X = xn), qm = P(Y= ym),paran, m = 1, 2, . . . ({rnm} es la funcion de probabilidad conjunta deXeYy {pn}, {qm} las respec-tivas funciones de probabilidad marginales).SeaZ = X +Yy {zk} el conjunto de valores posibles deZ. Para ver que la variable aleatoriaZtienevalor esperado, tenemos que probar quek|zk|P(Z = zk) < .Procediendo de manera parecida a lo que hicimos para demostrar la propiedad 4k|zk|P(Z = zk) =k|zk|P(X +Y= zk)=k|zk|{(n,m):xn+ym=zk}rnmdonde en la ultima suma hay que entender que la suma interior se efect ua sobre todas las parejas dendices (n, m) tales quexn +ym = zk. La ultima expresion es:k{(n,m):xn+ym=zk}|xn +ym|rnm =n,m|xn +ym|rnm n,m(|xn| +|ym|)rnm=n|xn|mrnm +m|ym|nrnm=n|xn|pn +m|ym|qm< ,ya que, por un lado,mrnm = pn, n = 1, 2, . . . ;nrnm = qm, m = 1, 2, . . .y por otro, las dos seriesn|xn|pn;m|ym|qmson convergentes, dado que existen E(X) y E(Y ).Esto prueba que existe E(Z). Si ahora repetimos el calculo anterior sin los valores absolutos, resultaE(Z) =kzkP(Z = zk) =nxnpn +mymqm = E(X) + E(Y ),que es la propiedad que queramos probar. 6.2. MOMENTOS DE ORDEN SUPERIOR. MOMENTOS CENTRADOS. 149Propiedad8. SiX Yy existen E(X) y E(Y ), entonces E(X) E(Y ).Demostracion. Para probar esta propiedad, recurrimos a las propiedades 1, 6 y 7. TenemosE(Y ) E(X) = E(Y X) 0, ya queY X 0.Propiedad9.Si XeY sonvariablesaleatoriasindependientesconvaloresperado,entoncesexisteE(XY ) yE(XY ) = E(X) E(Y ). (6.5)Demostracion. Procedemosdemaneraanaloga, nuevamente, aloquehicimosparalapropiedad7,teniendo en cuenta ademas que la independencia deXeYimplica quernm = P(X = xn, Y= ym) = P(X = xn)P(Y= ym) = pnqm,y por lo tanto, si llamamos ahora {wk} a los valores deXYk|wk|P(XY= wk) =k{(n,m):xnym=wk}|wk|rnm=k{(n,m):xnym=wk}|xnym|pnqm=n,m|xn||ym|pnqm =n|xn|pnm|ym|qm< lo cual muestra que existe E(XY ).El mismo calculo, quitando los valores absolutos, permite obtener la relacion (6.5). 6.2. MomentosdeOrdenSuperior.MomentosCentrados.Denicion6.2SeaXuna variable aleatoria discreta,P(X = xn) = pn,npn = 1ym un n umero positivo. Sin|xn|mpn< ,se dene elmomentodeordenmdeXmedianteE(Xm) =nxmn pn.(Ver la propiedad 4, cong(x) = xm).Se dene tambien elmomentocentradodeordenmdeXparam 2 mediantem = E((X E(X))m) =n(xnE(X))mpn.(Ver la propiedad 4, cong(x) = (x E(X))m. En la denicion se sobrentiende que existe la esperanza de lavariable aleatoriaX).Se acostumbra denominarvarianza (Var(X)) al momento centrado de orden 2 cuando existe es decirVar(X) = E((X E(X))2) (6.6)150 CAPITULO 6. ESPERANZA MATEMATICAydesviaciontpicaoestandar deXa (Var(X))1/2.Tambien se dene lacovarianza de dos variables aleatorias medianteCov(X, Y ) = E[(X E(X))(Y E(Y ))], (6.7)siempre que la esperanza que gura en el segundo miembro este bien denida, y el coeciente de correlaciondeXeYpor(X, Y ) =Cov(X, Y )

Var(X) Var(Y ), (6.8)siempre que el segundo miembro tenga sentido.Finalmente, se dice que X e Yno estan correlacionadas, son no-correlacionadas o incorreladas si Cov(X, Y ) =0.6.2.1. PropiedadesVeamos a continuacion algunas propiedades de estos momentos.Propiedad1. Sia es una constante yXuna variable aleatoria que tiene varianza, entoncesVar(X) = Var(X +a)yVar(aX) = a2Var(X).La demostracion resulta de aplicar la denicion y queda como ejercicio para el lector.Propiedad2. Var(X) = E(X2) (E(X))2.Demostracion. Observar simplemente queVar(X) = E[(X E(X))2] = E[X22 E(X)X + (E(X))2]= E(X2) 2 E(X) E(X) + (E(X))2= E(X2) (E(X))2.Propiedad3.(DesigualdaddeCauchy-Schwarz)| Cov(X, Y )|

Var(X) Var(Y ).Demostracion. Para demostrar esta desigualdad, consideremos la funcionf: R R denida porf(x) = E[(U xV )2],dondeU= X E(X) yV= Y E(Y ). Usando las propiedades de la esperanza matematicaf(x) = E[U22xUV+x2V2] = E(U2) 2xE(UV ) +x2E(V2)de modo quefes un polinomio de segundo grado, y comof(x) 0 para todox Rporque (U xV )2 0 para todox R, se deduce que el discriminante de este polinomio es menor oigual que cero (ya que, de no ser as, habra valores dex R dondef(x) sera negativa). Es decir que(2 E(UV ))24 E(V2) E(U2) 0 (E(UV ))2 E(U2) E(V2).Tomando en cuenta quienes son U y Vy las deniciones de varianza y covarianza, resulta la desigualdadque queramos probar. 6.2. MOMENTOS DE ORDEN SUPERIOR. MOMENTOS CENTRADOS. 151Propiedad 4. Sean X e Ydos variables aleatorias tales que esta denido el coeciente de correlacion.Entonces1 (X, Y ) 1 (6.9)Demostracion. Es una consecuencia sencilla de la propiedad anterior.Propiedad5. Si Var(X) = 0 entonces existe una constantec tal queP(X = c) = 1.(EstapropiedaddequeP(X=c)=1seenunciaavecesdiciendoqueXesunavariablealeatoriacasiseguramente igual a la constantec).Demostracion. Para probar esta propiedad, recordemos queXes una variable aleatoria discreta. (Elresultado tambien sera cierto en general, como ocurre con casi todas las propiedades que hemos estu-diado, pero eso lo veremos mas adelante).Entonces la variable aleatoriaY= (X E(X))2tambien es discreta y toma valores mayores o igualesa cero, digamos {ym}. Nuestra hipotesis es queE(Y ) = 0.Seaqm = P(Y= ym). Si hubiera alg unym0> 0 tal quepm0> 0, se tendra queE(Y ) =mympm ym0pm0> 0contradiciendo la hipotesis. Por lo tanto no hay un tal ym0, y si ym> 0 necesariamentepm= 0. EnconsecuenciaP(Y> 0) ={m:ym>0}pm = 0,de donde se deduce queP(Y= 0) = P(Y 0) P(Y> 0) = 1 0 = 1.Pero {Y= 0} es el mismo evento que {X = E(X)}, de modo queP(X = E(X)) = 1,y la propiedad se cumple, tomandoc = E(X). Observacion6.3Es obvio que el recproco de esta propiedad es cierto, ya que siP(X = c) = 1 entonces E(X) = cyVar(X) = E((X c)2) = 0,puesto queP(X c = 0) = P(X = c) = 1.Propiedad6. SeanX1, X2, . . . , Xnvariables aleatorias independientes, cada una de las cuales tienevarianza, entonces la suma tambien tiene varianza yVar(X1 +X2 + +Xn) = Var(X1) + Var(X2) + + Var(Xn). (6.10)152 CAPITULO 6. ESPERANZA MATEMATICADemostracion. Basta probar la igualdad (6.10) para n = 2. Para n > 2 se sigue por induccion completa,y queda como ejercicio.Seaentoncesn=2ypongamosY1=X1 E(X1), Y2=X2 E(X2).ComoX1, X2sonvariablesaleatorias independientes, tambien lo sonY1, Y2y, en consecuencia, por la propiedad 9 de la seccion6.1.1E(Y1Y2) = E(Y1) E(Y2) = 0Se deduce queVar(X1 +X2) = E[(X1 +X2E(X1 +X2))2] = E[(Y1 +Y2)2]= E[Y21+Y21+ 2Y1Y2] = E(Y21 ) + E(Y22 ) + 2 E(Y1Y2)= E(Y21 ) + E(Y22 ) = E[(X1E(X1))2] + E[(Y2E(Y2))2]= Var(X1) + Var(X2)que es lo que queramos probar.Propiedad 7. Sea X una variable aleatoria y supongamos que existe su momento de orden m. Entoncestambien existe su momento de ordenk, para cualquierk, que satisfaga 0 k < m.Demostracion. Para probar que existe el momento de ordenk hay que ver quen|xn|kpn< , dondepn = P(X = xn),npn = 1.Pero tenemos la desigualdad, valida para todo n umerox R,|x|k 1 +|x|m. (6.11)En efecto, si |x| 1 la desigualdad es cierta ya que, en este caso, el primer miembro es menor o igualque 1 y el segundo es mayor o igual que 1. Por otra parte, si |x| > 1, es claro que|x|k< |x|m< 1 +|x|my tambien se verica (6.11). En resumen,n|xn|kpn n(1 +|xn|m)pn = 1 +n|xn|mpn< .

Propiedad8. SeanXeYvariables aleatorias con covarianza Cov(X, Y ), entoncesVar(X +Y ) = Var(X) + Var(Y ) + 2 Cov(X, Y ).Propiedad9. SeanXeYvariables aleatorias con covarianza Cov(X, Y ), entoncesCov(X +Y ) = E(XY ) E(X) E(Y ).Las demostraciones quedan como ejercicio.6.3. EJEMPLOS Y APLICACIONES. 1536.3. EjemplosyAplicaciones.1. DistribucionBinomial.RecordemosqueladistribucionbinomialesladistribuciondelavariableSnque representa el n umero de veces que ocurre un cierto evento A en n observaciones independientes delmismo. Por ejemplo, el n umero de veces que extraemos un objeto defectuoso de una cierta poblacionde objetos fabricados en una lnea de produccion, cuando la extraccion se hace al azar y con reposicion.Denimos las variables aleatoriasXi =

1 si en lai-esima observacion ocurreA,0 si en lai-esima observacion no ocurreA.que admitimos que son independientes en nuestro modelo. EntoncesSn = X1 +X2 + +Xn.Si denotamosp = P(A), entoncesP(Xi = 1) = p i = 1, 2, . . .yE(Xi) = 1 P(Xi = 1) + 0 P(Xi = 0) = pSe deduce queE(Sn) = E

ni=1Xi

=ni=1E(Xi) = np.Ademas, en virtud de queX1, X2, . . . , Xnson variables aleatorias independientesVar(Sn) = Var

ni=1Xi

=ni=1Var(Xi)yVar(Xi) = E(X2i ) (E(Xi))2= p p2= p(1 p),ya queX2i= Xipuesto queXi = 0 o 1. Reemplazando en la igualdad anterior, resultaVar(Sn) = np(1 p)Tambien podemos calcular E(Sn) y Var(Sn) directamente, ya que conocemos la funcion de probabilidaddeSn, que es binomialb(n, p), es decir queP(Sn = k) =

nk

pk(1 p)nk, k = 0, 1, 2, . . . , nPor lo tanto, aplicando la denicion de esperanza matematica en forma directa,E(Sn) =nk=0kP(Sn = k) =nk=0k

nk

pk(1 p)nk= npnk=1(n 1)!(n k)!(k 1)!pk1(1 p)nk= npn1j=0

n 1j

pj(1 p)n1j= np.154 CAPITULO 6. ESPERANZA MATEMATICAObservamos que la ultima suma es igual a 1 ya que no es otra cosa que la suma de todas las proba-bilidades (j = 0, 1, . . . , n 1) correspondientes a una distribucion binomial con (n 1) observaciones.O, tambien, es el desarrollo de Newton del binomio (p + 1 p)n1= 1.ConuncalculoparecidotambienreencontramoselresultadoquehemosobtenidoparaVar(Sn);ob-servemos primero queVar(Sn) = E(S2n) (E(Sn))2= E(Sn(Sn1)) + E(Sn) (E(Sn))2y entoncesE(Sn(Sn1)) =nk=0k(k 1)P(Sn = k)=nk=2k(k 1)

nk

pk(1 p)nk= n(n 1)p2nk=2(n 2)!(n k)!(k 2)!pk2(1 p)nk= n(n 1)p2n2j=0

n 2j

pj(1 p)n2j= n(n 1)p2.La ultimasumanuevamentevale1,porunargumentoanalogoalyaempleado.Reemplazandoenlaigualdad anteriorVar(Sn) = n(n 1)p2+np (np)2= np(1 p).2. DistribuciondePoisson. RecordemosquelavariablealeatoriaXtienedistribuciondePoissonconparametro > 0 siP(X = k) =kk! ek = 0, 1, 2, . . .EntoncesE(X) =k=0kP(X = k) =k=0kkk! e= ek=1k1(k 1)!= ej=0jj!= ee= ,donde hemos empleado el desarrollo de Taylor de la funcion exponenciale=j=0jj! . Por lo tantoE(X) = .AdemasE(X(X 1)) =k=0k(k 1)kk! e= 2ek=2k2(k 2)!= 2ej=0jj!= 2y en consecuenciaVar(X) = E(X2) (E(X))2= E(X(X 1)) + E(X) (E(X))2= 2+ 2= .6.3. EJEMPLOS Y APLICACIONES. 155Es decirVar(X) = .3. DistribucionGeometrica. SeaXuna variable aleatoria con funcion de probabilidadP(X = n) = p(1 p)n1n = 1, 2, . . .con 0 < p < 1. EntoncesE(X) =n=1nP(X = n) =n=1np(1 p)n1. (6.12)Para calcular esta suma, recordemos que sin=0cnznesunaseriedepotenciasyRessuradiodeconvergencia(locual signicaquesi |z| R la serie no converge), si denotamos porf(z) la suma de laserie para |z| < R:f(z) =n=0cnzn(|z| < R),entoncesfes derivable yf

(z) =n=0ncnzn1(|z| < R).Lo cual signica que, para |z| < R, podemos calcular la derivada de la funcionf(z) como si fuera unasuma nita, es decir, sumando las derivadas de cada uno de los terminos.Apliquemos este resultado a la serie de potenciasn=0zn.Primero, se verica que el radio de convergencia de esta serie es igual a 1. Esto es directo: si |z|> 1entonces |z|n, es decir que el termino general no tiende a cero y la serie no converge, y si |z| < 1,la suma parcial de ordenNesNn=0zn= 1 +z +z2+ +zN=1 zN+11 zN11 zes decir que la serie converge cuando |z| < 1 y su suma es11z, o sean=0zn=11 z|z| < 1.Derivando termino a termino como hemos indicado anteriormente, se tiene1(1 z)2=n=0nzn1=n=1nzn1|z| < 1.Volviendoahoraalproblemaqueestabamosconsiderando,reemplazandozpor1 penlaecuacion(6.12) resultaE(X) = pn=1n(1 p)n1= p1(1 (1 p))2=1p.156 CAPITULO 6. ESPERANZA MATEMATICAPara calcular la varianza de esta distribucion comenzamos por la relacionVar(X) = E(X(X 1)) + E(X) (E(X))2, (6.13)y calculamosE(X(X 1)) =n=1n(n 1)P(X = n) =n=1n(n 1)p(1 p)n1= p(1 p)n=2n(n 1)(1 p)n2.Ahorabien, paracalcular f

(z)procedemoscomoantes, derivandoterminoaterminolaseriequedenef

(z). Es decir, que para |z| < 1,11 z=n=0zn1(1 z)2=n=1nzn12(1 z)3=n=2n(n 1)zn2.En consecuencia, reemplazandoz por 1 p, resultaE(X(X 1)) = p(1 p)2(1 (1 p))3=2(1 p)p2y volviendo a (6.13)Var(X) =2(1 p)p2+ 1p

1p

2=1 pp2.4. Muestreode poblaciones nitas. Seconsideraunapoblaciondivididaenr grupos dos adosdisjuntos(llamadosestratos)cuyasproporcionesrespectivasconrelacionaltotaldelosmiembrosde la poblacion sonq1, q2, . . . , qr. Se extrae unamuestra de tama non de la poblacion, al azar y conreposicion.a. Calcular el valor esperado del n umero de estratos no representados en la muestra.b. Hacer el calculo efectivo de dicho valor esperado, en los siguientes casos numericos, suponiendo quetodos los estratos son del mismo tama no:i)r = n = 5.ii)r = n = 100.a. Consideremos las variables aleatoriasX1, X2, . . . , Xrdenidas porXi =

1 si el estratoi no esta representado en la muestra,0 si el estratoi esta representado en la muestra.Entonces, el n umero de estratos no representados en la muestra es, evidentemente,X1 +X2 + +Xry su esperanza matematicaE(X1 +X2 + +Xr) =ri=1E(Xi) =ri=1P(Xi = 1)ya queE(Xi) = 1 P(Xi = 1) + 0 P(X = 0).6.3. EJEMPLOS Y APLICACIONES. 157Ahora bien, cuanto valeP(Xi = 1)? El evento {Xi = 1} sucede cuando eli-esimo estrato no esta re-presentado en la muestra, es decir, que ninguno de losn individuos seleccionados pertenece al estratoi. En otros terminos{Xi = 1} ={1erindividuo no pertenece al estratoi} {2oindividuo no pertenece al estratoi} {n-esimo individuo no pertenece al estratoi}.Como el muestreo es con reposicion, losn eventos que guran en esta interseccion son independientesy, en consecuencia, la probabilidad de su interseccion es igual al producto de sus probabilidades:P(Xi = 1) =nj=1P(j-esimo individuo no pertenece al estratoi).Ademas,P(j-esimo individuo no pertenece al estratoi) = 1 P(j-esimo individuo pertenece al estratoi)yesta ultimaprobabilidadesqi, esdecir, laproporciondeindividuosquecontieneel estratoiconrelacion al total. Reemplazando obtenemosP(Xi = 1) = (1 qi)nyE(X1 +X2 + +Xr) =ri=1(1 qi)n.b. Que todos los estratos son de igual tama no implica queq1 = q2 = = qry comori=1qi = 1,se deduce queqi =1r(i = 1, 2, . . . , r).La esperanza matematica del n umero de estratos no representados en la muestra resulta serr

1 1r

n.Si r = n = 5, esto es 5

45

5 1.64, mientras que si r = n = 100 el resultado es 100

1 1100

100 36.6.Es util ver comoencontramos unvalor aproximadoparaestaexpresion. UsandolaformuladeTaylor paralog(1 x)log(1 x) = x x22x33 . . . (|x| < 1)yentonces,si |x| < 1(1 x)1x= e1xlog(1x)= e1x(xx22x33... )= e1x2x23...que es aproximadamente igual a e1cuando x es peque no. Con x = 1/100 se tiene que la esperanza matematicaesaproximadamente100e1,oseaqueesperamosencontrarunaproporcion1/edeestratosnorepresentadosenunamuestraden = rindividuos.Observequeestoesciertosin = ressucientementegrande. 158 CAPITULO 6. ESPERANZA MATEMATICA5. Selanzandosdadossimetricosindependientes.SeanX1, X2losresultadosobtenidosencadaunoeY= max{X1,X2}.a. Hallar la probabilidad conjunta deX1eY .b. Calcular E(X1), E(Y ), Var(X1), Var(Y ) y Cov(X1, Y ).a. Usemos la notacionrij= P(X1 = i,Y= j) parai, j = 1, 2, 3, 4, 5, 6. Es claro que sii > jentoncesrij = 0 porqueY X1. Sii < j, entoncesrij = P(X1 = i,X2 = j) = P(X1 = i)P(X2 = j) =

16

2,mientras que parai = jtenemosrii = P(X1 = i,X2 i) = P(X1 = i)P(X2 i) =16i6.Resumiendorij =

136, i < j,i36, i = j,0, i > j.b.E(X1) =16(1 + 2 + 3 + 4 + 5 + 6) =216,Var(X1) = E(X21) (E(X1))2=16(1 + 22+ 32+ 42+ 52+ 62)

216

2=3512.Para calcular E(Y ) y Var(Y ), observemos queP(Y= i) =2i 136(i = 1, 2, 3, 4, 5, 6)lo cual puede calcularse directamente o usando la parte (a) de este ejercicio. Por lo tantoE(Y ) = 1 136 + 2 336 + 3 536 + 4 736 + 5 936 + 61136=16136Var(Y ) = E(Y2) (E(Y ))2= 1 136 + 22336 + 32536 + 42736 + 52936 + 621136

136

2=7365(36)2.FinalmenteCov(X1, Y ) = E[(X1E(X1))(Y E(Y ))] = E(X1Y ) E(X1) E(Y ).E(X1Y ) se calcula utilizando la probabilidad conjunta que encontramos en la partea.E(X1Y ) =6i,j=1ijrij =i 0,0 six 0.EntoncesE(X) =

+xfX(x) dx =

+0xexdx.Integrando por partesE(X) =

exx

+0+

+0exdx=

+0exdx =1es decir E(X) = 1/.2. DistribucionNormal. SiXtiene distribucion normal con parametros (, 2), su densidad esfX(x) =12exp{12(x )22} x R.Se verica facilmente que

+|x| fX(x) dx < ,y efectuando el cambio de variablesu = (x )/, resultaE(X) =

+x12exp{12(x )22}dx=

+(u +)12eu2/2du=2

+ueu2/2du +

+12eu2/2du.La integral en el primer termino vale cero, dado que la funcion ueu2/2es impar y tiene integral nita.En cuanto a la integral en el segundo termino, vale 1, ya que no es sino la integral sobre toda la rectade la densidad normal con parametros (0, 1). Resumiendo E(X) = .6.5. CambiodeVariables.MomentosdeOrdenSuperior.Seaf(x) la densidad de la variable aleatoriaXyg : R Runa funcion con alguna regularidad. Consideremos la variable aleatoriaY= g(X).Entonces, el valor esperado deYse puede calcular mediante la formulaE(Y ) =

Rg(x)f(x)dx (6.18)6.5. CAMBIO DE VARIABLES. MOMENTOS DE ORDEN SUPERIOR. 163siempre que la integral de la derecha sea absolutamente convergente, es decir que

R|g(x)|f(x)dx < Un caso particular merece una mencion aparte. Sig : R R es la funciong(x) = xk,entoncesE(g(X)) = E(Xk)se denomina elmomentodeordenkdelavariablealeatoriaX, que es nito si y solo siE(|X|k) < .SiXtiene densidadfXy si

+|x|kfX(x)dx < ,entonces la formula (6.18) se traduce enE(Xk) =

+xkfX(x) dx.Al igual que en el caso discreto denimos elmomentocentradodeordenm deXparam 2 mediantem = E((X E(X))m) =

+(x E(X))mfX(x) dx,suponiendo que la integral exista.Las deniciones de varianza, desviacion tpica, covarianza y correlacion son iguales a las del caso discreto.Observacion6.6Laspropiedadesquedemostramosparalosmomentosdeordensuperiorenlaseccion6.2.1parael casodiscretotambiensonciertasparael casocontinuoya unconmayorgeneralidad. Paraalgunas propiedades las demostraciones no requieren modicacion, como en el caso de las propiedades 1, 2y 6, pero en otros es necesario dar demostraciones distintas, que no incluiremos.Ejemplos.1. DistribucionUniforme. Ya vimos que siXtiene distribucion uniforme en (a, b), entoncesE(X) =a +b2.CalculemosVar(X) = E[(X E(X))2] =

+

x a +b2

2fX(x)dx=1b a

ba

x a +b2

2dx =1b a13

x a +b2

3

x=bx=a=13(b a)

b a2

3

a b2

3=(b a)212164 CAPITULO 6. ESPERANZA MATEMATICA2. Distribucion Exponencial. Calculemos los momentos de orden k (k 1 entero) de una variable aleatoriaXcon distribucion exponencial con parametro ( > 0).Recurriendo a la forma de la densidad respectiva, e integrando por partesE(Xk) =

+0xkexdx = exxk

0+k

0xk1exdxde donde obtenemosE(Xk) =k E(Xk1).Procediendo de manera inductiva se deduce de aqu queE(Xk) =kk 1 1 E(X0) =k!k3. DistribucionNormal. SeaXunavariablealeatoriacondistribucionnormal deparametros(0, 1), esdecir que su densidad es(x) =12ex2/2parax R.Calculemos el momento de ordenk(k 1 entero) deX. Es claro que estos momentos son nitos, yaque una acotacion sencilla (que dejamos como ejercicio) muestra que

+|x|k12ex2/2dx < .Sabemos queE(Xk) =

+xk12ex2/2dx. (6.19)Sik es impar, como el integrando resulta ser una funcion impar, la integral vale cero y E(Xk) = 0.Si k es un n umero par, digamos k = 2p, p entero positivo, integrando por partes en el segundo miembrode (6.19) se obtieneE(X2p) =12x2p1ex2/2

++ (2p 1)

+x2p2ex2/2dx

= (2p 1)

+12x2p2ex2/2dx,y por lo tantoE(X2p) = (2p 1) E(X2p2).Aplicando ahora un procedimiento inductivo, se tieneE(X2p) = (2p 1)(2p 3) 3 E(X) =(2p)!2pp!(6.20)UnavariantesencillaeselcalculodelmomentodeordenkdelavariablealeatoriaX ,dondeXtiene distribucion normal con parametros (, 2). En este casoE((X )k) =

+(x )k12exp{(x )222}dx.Haciendo el cambio de variablest = (x )/, resultadx = dt yE((X )k) =

+(t)k12et2/2dt = k

+tk12et2/2dt6.6. DOS FORMULAS PARA EL CALCULO DE VALORES ESPERADOS. 165y la integral de la derecha es la que venimos de calcular. Por lo tantok impar E((X )k) = 0k = 2p par E((X )2p) = 2p(2p)!2pp!En especial, sik = 2 tenemos Var(X) = E((X )2) = 2.6.6. DosFormulasparaelCalculodeValoresEsperados.En primer lugar, seaXuna variable aleatoria discreta, cuyos valores son enteros positivos:P(X = n) = pnn = 0, 1, . . . ,n=0pn = 1.Denotamosqn = P(X> n) =k=n+1pk, n = 0, 1, . . .entoncesE(X) =n=0qn, (6.21)donde se debe entender que si E(X) = + la serie diverge. Para probar (6.21) observamos queNn=1npn = (p1 + +pN) + (p2 + +pN) + + (pN1 +pN) +pN=N1n=0qnNqN(6.22)Esto ya muestra que si E(X) = +, caso en el cual el primer miembro tiende a + cuandoN ,entoncesn=0qn = +,ya queNn=1npn N1n=0qn.Si, por el contrario, E(X) < , es decir, si la seriennpnes convergente, debe cumplirse queNqN 0 cuandoN ,porque0 NqN= Nn=N+1pn n=N+1npn 0 cuandoN ,166 CAPITULO 6. ESPERANZA MATEMATICAdadoqueel ultimomiembrodeestacadenadedesigualdadeseslacoladeunaserieconvergente. Peroentonces, pasando al lmite en (6.22) cuandoN , se obtiene (6.21).La segunda formula que veremos, de la cual en realidad (6.21) es un caso particular, es la siguiente: SeaXuna variable aleatoria no-negativa yFXsu funcion de distribucion. EntoncesE(X) =

+0(1 FX(x)) dx. (6.23)Hay que entender que en la formula (6.23),

+0(1 FX(x)) dxse dene como integral impropia, es decir,

+0(1 FX(x)) dx =limA

A0(1 FX(x)) dx,y tambien que si E(X) = +, la integral en el segundo miembro de (6.36) es divergente, y en este sentido,tambien vale la igualdad. El lector interesado puede encontrar la demostracion de (6.23) en el apendice deeste captulo.6.7. Ejemplos.1. DistribucionGeometrica. SeaXunavariablealeatoriacondistribuciongeometricadeparametrop,0 < p < 1, es decir queP(X = n) = p(1 p)n1, n = 1, 2, . . .CalcularE(X) mediante aplicacion de la formula (6.34).Sabemosque Xesel tiempoquetardaenocurrirel primerexitoenunasucesiondepruebasdeBernoulli conparametrop. Porlotanto, el suceso {X>n}correspondeaqueenlasprimeras nexperiencias, el evento que estamos observando no ocurre. Esto implica queqn = P(X> n) = (1 p)ny entoncesE(X) =n=0(1 p)n=11 (1 p)=1pdonde hemos usado la suma de una serie geometrica de razon 1 p. 2. DistribucionNormal. SeaXunavariablealeatoriacondistribucionnormal deparametros(0, 2).Calcular E(|X|) y Var(|X|).Hagamos la transformacionY= X/, entoncesYes normal tpica yE(|X|) = E(|Y |) Var(|X|) = 2Var(|Y |)y nos basta considerar el caso deY . TenemosE(|Y |) =

+|x| fY (x) dx =

+|x|12ex2/2dx=22

+0xex2/2dx=

2

ex2/2

+0=

2.6.7. EJEMPLOS. 167Por otro ladoVar(|Y |) = E(|Y |2) (E(|Y |))2, E(|Y |2) = Var(Y ) = 1.(ya hemos visto que si una variable aleatoria tiene distribucion normal de parametros (, 2), entoncessu varianza es2. Por lo tanto la varianza deYes igual a 1). ReemplazandoVar(|Y |) = 1 2,y volviendo al principioE(|X|) =

2, Var(|Y |) = 2(1 2).

3. Calcular el valor esperado y la varianza de la variable aleatoriaZ = X21 +X22 + +X2n,dondeX1, . . . , Xnsonvariablesaleatoriasindependientescadaunadelascualestienedistribucionnormal de parametros (0, 1).Nota.LadistribuciondeZsedenominadistribucionji-cuadradoconngradosdelibertadysedenota2n.El calculo del valor esperado es sencillo:E(Z) = E(X21 +X22 + +X2n) = E(X21) + E(X22) + + E(X2n)y como E(X2i ) es la varianza deXi, es claro que E(Xi) = 1 para todoi = 1, . . . , n. Por lo tantoE(Z) = n.Encuantoalavarianza, comoX1, . . . , Xnsonvariables aleatorias independientes, sededucequetambienX21, . . . , X2nson variables independientes, y por lo tantoVar(Z) =ni=1Var(X2i ).Comotodaslas Xitienenigual distribuciondeprobabilidad, todoslosterminosdeestasumasoniguales. AdemasVar(X21) = E(X41) (E(X21))2=4!222! 1 = 2donde hemos aplicado la formula (6.20) para calcular E(X41). ResumiendoVar(Z) = 2n.

4. SeanX1, X2, . . . , Xnnobservacionesindependientescondistribucionuniformeenelintervalo(0, 1).Ordenandoestasvariablesenformacreciente, obtenemoslosllamados estadsticos deordendelasobservacionesX1, X2, . . . , Xn:X(1) X(2) X(n).a. Calcular E(X(n)) y Var(X(n)).b. Calcular, en general, E(X(k)) y Var(X(k)).168 CAPITULO 6. ESPERANZA MATEMATICAa. La distribucion deX(n)esta dada porP(X(n) x) = xnsi 0 x 1,ya que{X(n) [0, x]} = ni=1{Xi x}y los eventos que aparecen en esta interseccion son independientes. Por lo tanto,FX(n)(x) =

0 six < 0xnsi 0 x 11 six > 1yX(n)tiene densidadfX(n)(x) =

0 six/ (0, 1)nxn1si 0 < x < 1y calculamosE(X(n)) =

+xfX(n)(x)dx =

10xnxn1dx =nn + 1E(X2(n)) =

10x2nxn1dx =nn + 2Var(X(n)) = E(X2(n)) (E(X(n)))2=nn + 2

nn + 1

2=n(n + 2)(n + 1)2b. En general, la densidad deX(k)esta dada porfX(k)(x) =

n

n1k1

xk1(1 x)nk, si 0 < x < 1,0, six/ (0, 1).EntoncesE(X(k)) =

10xn

n 1k 1

xk1(1 x)nkdx,E(X2(k)) =

10x2n

n 1k 1

xk1(1 x)nkdx.Si introducimos la notacionB(k, l) =

10xk(1 x)ldx dondek, l = 0, 1, 2 . . .E(X(k)) y E(X2(n)) se escriben comoE(X(k)) = n

n 1k 1

B(k, n k),E(X2(n)) = n

n 1k 1

B(k + 1, n k),y nuestro problema se reduce a calcularB(k, l), lo cual hacemos a continuacion. Primero observemosqueB(k, l) = B(l, k)6.7. EJEMPLOS. 169haciendoel cambiodevariablesy=1 xenlaintegral (6.39). CalculamosB(k, l)integrandoporpartes. Seal 1:B(k, l) =

10xk(1 x)ldx=1k + 1xk+1(1 x)l

10+lk + 1

10xk+1(1 x)l1dx=lk + 1B(k + 1, l 1).Esta formula de recurrencia, aplicada reiteradamente nos daB(k, l) =lk + 1B(k + 1, l 1) =l(l 1)(k + 1)(k + 2)B(k + 2, l 2)=l(l 1) 1(k + 1) (k +l)B(k +l, 0)=l! k!(k +l)!1k +l + 1ya queB(k +l, 0) = 1/(k +l + 1). Resumiendo,B(k, l) =l! k!(k +l + 1)!y reemplazando en las formulas para E(X(k)) y E(X2(n)) obtenemosE(X(k)) =n!(k 1)!(n k)!k!(n k)!(n + 1)!=kn + 1,E(X2(n)) =n!(k 1)!(n k)!(k + 1)!(n k)!(n + 2)!=k(k + 1)(n + 1)(n + 2),Var((X(k)) =k(k + 1)(n + 1)(n + 2) k2(n + 1)2=k(n k + 1)(n + 2)(n + 1)2.

5. SeaXuna variable aleatoria con distribucion de Cauchy de densidad:f(x) =1(1 +x2), x R.Demostrar que no existe E(X) pero que, sin embargolima

aaxf(x) dx = 0.Para ver que la esperanza matematica deXno existe, mostraremos que la integral

|x| f(x) dxes divergente. Efectivamente1

aa|x|1 +x2dx =2

a0x1 +x2dx=2

12 log(1 +x2)

a0=1 log(1 +a2)+ cuandoa .170 CAPITULO 6. ESPERANZA MATEMATICASin embargo, es obvio que1

aax1 +x2dx = 0ya que el integrando es una funcion impar, y por lo tanto,lima1

aax1 +x2dx = 0.

6. SeanXeYdos variables aleatorias, Var(X) = 0, Var(Y ) = 0 y sea su coeciente de correlacion =Cov(X, Y )

Var(X) Var(Y )Probar que si = 1 o = 1, entonces existen dos constantesm yn tales queP(Y= mX +n) = 1.Recordemoscomoprobamosque 1 1(Propiedad4,seccion6.1.1).Consideramoslafuncionf(x) = E((V xU)2), dondeU= X E(X) yV= Y E(Y ). Desarrollando el cuadradof(x) = E(V2) 2xE(UV ) +x2E(U2)= Var(Y ) 2xCov(X, Y ) +x2Var(X).El discriminante de este polinomio de segundo grado es positivo (observar que el grado del polinomioes 2 ya que hemos supuesto que Var(X) = 0). Por otra parte, este polinomio tiene discriminante4(Cov(X, Y ))24 Var(X) Var(Y ) = 0ya que = 1 o = 1. Esto quiere decir que ese polinomio tiene una raz real doble, que llamaremosm. O sea quef(m) = 0, es decirE((V mU)2) = 0.Pero(V mU)2esunavariablealeatoriano-negativa, cuyaesperanzaesnulayporlotanto(verpropiedad 5, seccion 6.2.1 y la observacion 6.6 de la seccion 6.5)P((V mU)2= 0) = 1 P(V mU= 0) = 1ya que {V mU= 0} y {(V mU)2= 0} son el mismo evento. ReemplazandoVporY E(Y ) yUporX E(X), resultaP(Y E(Y ) m(X E(X)) = 0) = 1y eligiendon = E(Y ) mE(X), se obtiene el resultado. Observacion6.7El n umero, que sabemos que esta comprendido entre 1 y 1, es una medida deladependencialinealentrelasvariablesaleatoriasXeY .Loquediceesteejercicioesquesi = 1o= 1, entonces laprobabilidaddequeel par aleatorio(X, Y ) caigaenlarectadeecuaciony = mx + n es igual a 1, o, lo que es lo mismo, que la probabilidad de que caiga fuera de dicha rectaes igual a cero.Cuando = 1 o = 1, la pendiente m de la recta en cuestion es la raz doble de la ecuacion f(x) = 0,es decir quem =Cov(X, Y )Var(X).Demodoque,si = 1, Cov(X, Y )> 0ylapendienteespositivaysi = 1,Cov(X, Y )< 0ymresulta negativo.6.7. EJEMPLOS. 1717. Un pasajero llega al terminal de autobuses en el instante T, que es una variable aleatoria con distribu-cionuniformeentrelas11ylas12horas.Deacuerdoconelhorario,estaprevistoquedelterminalpartanunautob usalas11yotroalas12, peroestossalenconretardosaleatoriosXeY respec-tivamente, teniendocadaunadeestasdosvariablesaleatoriasdistribucionuniformeenel intervalo(0, 1/2 hora).Si ambos autobuses le sirven al pasajero y las variables aleatoriasT, X, Yson independientes, cuales el valor esperado del tiempo que el pasajero permanecera en el terminal?LlamemosZal tiempo que debe esperar el pasajero. SeaA el evento {11 T 11 : 30}, es decir elpasajero llega entre las 11 y las 11 y 30 yBel evento {T 11 X}, es decir, llega antes de que elprimer autobus salga. Entonces Si ocurrenA yB, el tiempo de espera esZ = X (T 11) (ver gura 6.2).............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................X Z 11 T 11:30 12Figura 6.2: Si ocurreA y no ocurreB,Z = 12 T +Y(ver gura 6.3)............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................X 12 T YZ 11 T 11:30 12Figura 6.3: Si no ocurreA entoncesZ = 12 T +Y (ver gura 6.4)............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................X 12 T YZ 11 T 11:30 12Figura 6.4:En resumen,enA B, Z = X (T 11),en (A B)c, Z = 12 T +Y,lo que es lo mismo queZ = (X (T 11))1AB + (12 T +Y )1(AB)cy si observamos que1(AB)c = 1 1AB172 CAPITULO 6. ESPERANZA MATEMATICAobtenemos queZ = (X (T 11))1AB + (12 T +Y )(1 1(AB))= (12 T +Y ) + (X T + 11 12 +T Y )1AB= (12 T +Y ) + (X Y 1)1AB.Por lo tantoE(Z) = 12 E(T) + E(Y ) + E((X Y 1)1AB).Es claro queE(T) = 11.5 E(Y ) = 0.25.Para calcular el ultimo termino, observamos que la densidad conjunta de las variables aleatoriasT, XeYesfT,X,Y (t, x, y) =

4 si 11 t 12; 0 x 0.5; 0 y 0.50 en cualquier otro caso.Esto resulta inmediatamente de queT, XeYson independientes y de que tienen densidad uniforme,la primera en (11, 12) y en (0, 0.5) las otras dos.Por lo tanto, teniendo en cuenta la denicion de las eventosA yB,E((X Y 1)1AB) =

11,511dt

0,5t11dx

0,50(x y 1)4 dy = 1148Reemplazando se obtieneE(Z) =2548horas.

Ejercicios1. Un jugador lanza dos monedas. Si ambas caen aguila, gana $10, si solo hay un aguila, gana $2, mientrasque si no hay ningu n aguila pierde $12. Determine el valor esperado de la ganancia para un lanzamientode las dos monedas.2. En una lotera se venden 1,000,000 de boletos de $10 cada uno. Hay un primer premio de $3,000,000,10premiosde$200,000, 100premiosde$2,000, 1,000premiosde$100y10,000boletosrecibenunreembolso del costo del boleto. Halle el valor esperado de la ganancia neta por boleto.3. Extraemos al azar cartas de un juego de barajas con reposicion hasta obtener un as y sea X el n umerode cartas extradas. Halle E(X) y Var(X).4. Lanzamos una moneda repetidamente hasta obtener dos aguilas o dos soles, lo que ocurra primero. SeaXel n umero de lanzamientos de la moneda. Halle el valor esperado y la varianza deX.5. Sea Xuna variable aleatoria con distribucion de Poisson de parametro . Halle el valor esperado de lavariableY= eX.6. Sean X, Yvariables aleatorias cada una de las cuales toma unicamente dos valores distintos. DemuestrequeXeYson independientes si y solo si E(XY ) = E(X) E(Y ).7. Lanzamos dos dados, si el lanzamiento es undoble (dos caras iguales) los dados se vuelven a lanzar yas hasta que las dos caras que se obtienen sean distintas. Sea Xel n umero de lanzamientos necesariospara que esto ocurra. Halle el valor esperado y la varianza deX. Halle tambien el valor esperado y lavarianza de 2X6.7. EJEMPLOS. 1738. En una bolsa hay cinco boletos que corresponden a un premio de $1,000 y cuatro premios de $20. Cincopersonassacan,sucesivamente,unboletoalazaryseaXielpremioquelecorrespondealai-esimapersona en sacar un boleto. Calcule E(X1) y Var(X1), (b) E(X3) y Var(X5), (c) E(X1 + + X5) yVar(X1 + +X5).9. Una caja contiene 5 bolas numeradas del 1 al 5. Se extraen 200 bolas con reposicion y sea Xi el n umeroenlai-esimabolaextrada, Y lasumadelos200n umerosobtenidosyZel promediodelos200n umeros. Halle (a) E(X) y Var(X), (b) E(Y ) y Var(Y ), (c) E(Z) y Var(Z).10. Lanzamos un par de dados, sea X1 el n umero que aparece en el primero y X2 el del segundo. DenimosY=X1 + X2, Z=XY . Halle (a) E(X1), (b) E(X22), (c) E(Y ), (d) E(Z), (e) E(Y Z), (f) E(Y2), (g)E(Z2).11. En un concurso hay cinco cajas identicas cerradas. En una de ellas hay $100,000, otra contiene $10,000,una tercera $1,000, la cuarta $100 y la ultima tiene un signo de ALTO. El concursante escoge una cajay gana el contenido. Este proceso se repite hasta que salga el signo de ALTO, momento en el cual elconcurso termina. Halle el valor esperado de la cantidad que gana el concursante.12. Unamaquinaproduceobjetosquesondefectuososconprobabilidad0.01ycuandoestoocurre, lamaquina sedetiene yes ajustada. Halleel valor promediodel n umero deobjetosbuenos producidosentre dos objetos defectuosos.13. Calcule media y varianza para las distribuciones de los ejercicios 1, 2, 4, 5, 7, 8, 9, 10, 11, 18 y 19 delCaptulo 4.14. Sea X una variable aleatoria con E(X) = 2, Var(X) = 1, E(X4) = 34. Calcular media y varianza paralas siguientes variables aleatorias:U= 2X + 1, V= X2, Z = X2+ 2.15. Las variables X, Yson independientes y E(X) = 3,E(X4) = 100,E(Y ) = 4,E(Y4) = 500,Var(X) =0.5, Var(Y ) = 2. Calcular la media y varianza para las variablesU= 3X 2YyV= X2Y2.16. Suponga queX, Ytienen igual media e igual varianza y ademas son independientes. Demuestre queE((X Y )2) = 2 Var(X).17. Suponga queX, Ytienen igual varianza. Demuestre queE((X +Y )(X Y )) = E(X +Y ) E(X Y ).18. Suponga queX, Yson independientes y ambas tienen media 3 y varianza 1. Halle la media y varianzadeX +YyXY .19. Demuestre queVar(X +Y ) + Var(X Y ) = 2 Var(X) + 2 Var(Y ).20. SeaXuna variable con valor esperado nito E(X). Demuestre que(EX)2 E(X2)21. Sean X1, . . . , Xn variables aleatorias independientes identicamente distribuidas con media y varianza2. Denimos la media muestral porX = n1nk=1Xk. Demuestre queCov(X, XkX) = 0, 1 k n.174 CAPITULO 6. ESPERANZA MATEMATICA22. Se considera el siguiente juego de azar entre dos jugadores. El primero elige un puntoXal azar en elintervalo (0, 2) mientras que el segundo elige un punto Yen el intervalo (1, 3), tambien con distribucionuniforme. Suponemos queXeYson variables aleatorias independientes. Entonces SiX< Y , el primer jugador pagaa(Y X) unidades al segundo. SiX Y , el segundo jugador pagab(X Y ) unidades al primero,dondea yb son constantes positivas.a. Hallar la relacionb/a para que el juego sea equitativo (esto signica que la esperanza matematicade la ganancia de cada jugador es igual a cero).b.Conlarelacionb/acalculadaenlaparteanterior,calcularlavarianzadelagananciadelprimerjugador.23. SeanX, Y variables aleatorias independientes, ambas con distribucion de Bernoulli con probabilidadde exito 1/2. Demuestre queX +Yy |X +Y | son dependientes pero no estan correlacionadas.24. SeaXunavariablealeatoriacondistribuciongeometricadeparametropyMunn umeroenteropositivo. Calcular la esperanza matematica de la variable aleatoriaY= min{X, M}.25. (a) Se lanza una moneda balanceada repetidamente. Seala variable aleatoria que indica el n umerodevecesseguidasqueocurrelomismoqueenelprimerlanzamiento.(Porejemplo,si AesaguilaySessol, conlasucesionderesultados AAASSAS . . . setiene=3mientrasqueconlasucesionSSSSSASAS . . . se tiene = 5). Calcular E() y Var().(b)Rehacerelcalculodelaparte(a)suponiendoque,enlugardeunamonedaperfecta,sedisponede una moneda tal que la probabilidad de aguila en un lanzamiento es igual ap. Que ocurre sip = 0op = 1?26. (a) Una ciudad esta dividida en cuatro zonas, con n umero respectivo de habitantesH1, H2, H3yH4.Supongamosqueel promediom=(H1 + H2 + H3 + H4)/4dehabitantesdelaszonas, esde1000personas y sea2=144i=1(xim)2.Seeligenal azarenunmuestreosinreposiciondosdelascuatrozonasysecuentael n umerodehabitantes obtenidos en cada una de ellas, que denominamosX1yX2. Mostrar queE(X1 +X2) = 2000Var(X1 +X2) =432(b) Generalizar al caso en el cual, en lugar de cuatro, la ciudad esta dividida en n zonas, y en lugar deseleccionar al azar dos de ellas, se seleccionanr. Se obtieneE(X1 +X2 + +Xr) = mr,dondem es el promedio del n umero de habitantes de las zonas, yVar(X1 +X2 + +Xr) =r(n r)n 12.27. Se escribenn cartas y sus respectivos sobres, y se ensobran las cartas al azar, de modo que la proba-bilidad de cualquiera de las posibles permutaciones de las cartas, es la misma. Calcular la esperanza yla varianza del n umero de cartas que se ensobran correctamente.6.7. EJEMPLOS. 175Sugerencia.EscribirY comoY=

ni=1 Xi,dondeXi=

1 silai-esimacartavaeneli-esimosobre,0 encasocontrario.28. En una bolsa hay n tarjetas numeradas de 1 a n. Se extraen las tarjetas sucesivamente con reposicion.(a) Cual es el valor esperado del n umero de extracciones hasta repetir el primer n umero? (b) Cuales el valor esperado del n umero de extracciones hasta que ocurra la primera repeticion?29. Se considera un conjunto den personas. Calcular el valor esperado del n umero de das del a no en quecumplen a nos exactamentek de ellos. Suponga que el a no tiene 365 das, que todas las distribucionesposibles son igualmente probables y quen k.30. Una persona con n llaves trata de abrir una puerta probando las llaves sucesiva e independientemente.Calcule la esperanza y la varianza del n umero de intentos requeridos hasta encontrar la llave correcta,suponiendo que esta es una sola, en las dos situaciones siguientes.(a)Silaselecciondelasllavesesconreposicion,esdecir,queunallaveinserviblenoesquitadadellote, una vez probada. (b) Si la seleccion es sin reposicion.31. Unsistemapermiteestablecercomunicacionesdeacuerdoaldiagrama6.1.CadabloquerectangulardemoraunaunidaddetiempoyTeslavariablealeatoriaqueindicael tiempoquesedemoraenestablecer una comunicacion buena.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .................................................................................................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. ................................................................................................................................................................................................................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .................................................................................................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......................................................................... . . . . . . . . . . . . . . .......................................................................................... . . . . . . . . . . . . . . .......................................................................................... . . . . . . . . . . . . . . .......................................................................................... . . . . . . . . . . . . . . ......................................................................................... . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............................................................................................................................................................................... . ....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................Comienzointento de establecercomunicaciontieneexito?es buena lacomunicacion?nnosinocorrige lacomunicacionsiDiagrama 6.1Se supone que los intentos para establecer comunicacion son independientes y que la probabilidad deexito en cada uno es p. Una vez establecida, la comunicacion puede ser buena o mala, y la probabilidadde que sea buena es b. Si es mala, en una operacion mas se corrige y deviene buena. Calcular la funcionde probabilidad deTy su esperanza matematica.176 CAPITULO 6. ESPERANZA MATEMATICA32. Se lanza un dado n veces. Sea Xi el n umero de veces que se obtiene el resultado i. Calcular la covarianzadeX1yX6.33. En un estanque en el que originalmente hayn peces, se pesca sucesivamente por medio de redes, queretiran n1, n2, . . . , donde nk denota el n umero (aleatorio) de peces extrados la k-esima vez. Suponiendoque la probabilidad de que cada pez sea capturado esp, calcular la esperanza matematica del n umerode peces extrados en lan-esima ocasion.34. Una bolsa contiene bolas numeradas de 1 aN. SeaXel mayor n umero obtenido enn extracciones alazar y con reposicion, donden es un n umero jo.(a) Hallar la distribucion de probabilidad deX.(b) Calcular E(X) y probar que siNes grande, E(X) es aproximadamente igual aN/(n + 1).(c) Hallar E(X2) y deducir una expresion asintotica para Var(X) cuandoN .35. Calcular E(X3) dondeXtiene distribucion binomial con parametros (n, p).36. SeaX, Yvariables aleatorias discretas con funcion de probabilidadpij =11 + 2n(n + 1), para |i j| n, |i +j| n.Demuestre queXeYson independientes y que Cov(X, Y ) = 0.37. Sea X, Y variables independientes e identicamente distribuidas condistribucionnormalN(, 2).HallemediayvarianzadelavariableZ=max(X, Y ). (Ayuda: si x, y sonn umeros reales demuestreque2 max(x, y) = |x y| + x + y).38. SeaXuna variable con distribucion N(, 2). Halle media y varianza de |X c| cuando (a)c es unaconstante dada, (b) = = c = 1, (c) = = 1, c = 2.39. Calcule media y varianza para las distribuciones de los ejercicios 21, 22, 24, 25, 26, 29 y 30 del Captulo4.40. Enel ejercicio31del captulo4vimosquedeacuerdoalaleydeMaxwell, lavelocidadvdeunamolecula de gas de masam a temperatura absolutaTes una variable aleatoria con densidadfv(x) =413x2ex2/k2parax> 0con = (2kT/m)1/2ykeslaconstantedeBoltzman.Hallemediayvarianzade(a)lavelocidadv de la molecula, (b) la energa cineticaE = mv2/2 de la molecula.41. SeaXunavariablealeatoriacondistribucionuniformeen(2,2). CalcularE(Y )cuando(a)Y =senX. (b)Y= cos X (c)Y= 3X2+ 2 (d)Y= 1/|X|En el ultimo caso, para cuales valoresde se tiene que E(Y ) < ?42. Calcular la esperanza y la varianza de las distribuciones cuyas densidades se indican a continuacion:(a)f(x) =

2x si 0 < x < 1,0 en otro caso.(b)f(x) =

|x| six < 1,0 en otro caso.43. SeaXuna variable con distribucion exponencial. (a) HalleP(sen X> 1/2), (b) E(Xn) paran 1.44. La duracionTde cierto tipo de llamadas telefonicas satisface la relacionP(T> t) = aet+ (1 a)et, t 0,donde 0 a 1, > 0, > 0 son constantes. halle media y varianza paraT.6.7. EJEMPLOS. 17745. El tiempodevidadeciertocomponenteelectronicotienedistribucionexponencial conparametro=0.01. Calculeel tiempodevidapromedio. Si el aparatohadurado50horas, cual esel valoresperado del tiempo de vida que le queda?46. Escogemosnpuntosalazaren[0, 1]condistribucionuniforme.Seamn=min{X1, . . . , Xn}, Mn=max{X1, . . . , Xn},Rn = Mnmn. Halle el valor esperado de estas tres variables aleatorias.47. La proporcion detiempoque unamaquina trabajadurante unasemanade 40horasesunavariablealeatoria con densidadf(x) = 2x para 0 x 1. Halle E(X) y Var(X). La ganancia semanalYparaesta maquina esta dada porY= 200X 60; determine E(Y ) y Var(Y ).48. SeaXunavariablealeatoriacondensidadf(x) =Cxa1exa, x 0.HalleelvalordeCycalculeE(X) y Var(X).49. SeaXuna variable aleatoria con densidadf(x) = 6x(1 x) para 0 < x < 1. Compruebe quefes unadensidad y obtenga media y varianza para esta distribucion.50. Para ciertas muestras de minerales la proporcion de impurezas por muestra X es una variable aleatoriacondensidaddadapor f(x) =1.5x2+ xpara0 x 1. El valorenpesosdecadamuestraesY= 5 0.5X. Encuentre el valor esperado y la varianza deY51. SeaXuna variable aleatoria con densidadf(x) = | sen(x)|/4 para 0 x 2. Calcule E(X).52. Laproporciondetiempopordaenquetodaslascajasregistradorasestanocupadasalasalidadecierto supermercado es una variable aleatoria X con una densidad f(x) = Cx2(1x)4para 0 x 1.Determine el valor deCy E(X).53. DistribuciondePareto La distribucion de Pareto con parametrosryA,r> 0, A> 0, es aquellaque tiene la densidadf(x) =

rArxr+1six A,0 six < A.(a) Calcular la esperanza y la varianza de esta distribucion de probabilidad.(b) Calcular y gracar la funcionQ(y) = F( +y) F( y)paray 0 donde es la esperanza y2la varianza halladas en a, yFes la funcion de distribucionde probabilidad de Pareto, en el casoA = 1, r = 3.54. DistribucionBeta SeaXuna variable aleatoria con densidadf(x) = Cxa1(1 x)b1, 0 x 1.Halle el valor deCy calcule E(X) y Var(X).55. En un proceso de manufactura se ensamblan cuantro componente sucesivamente de longitudes X1, X2, X3yX4, respectivamente con E(X1) = 20, E(X2) = 30, E(X3) = 40, E(X4) = 60 y Var(Xj) = 4 paraj =1, 2, 3, 4. Hallelamediayvarianzaparalalongitudtotal L=X1 + X2 + X3 + X4(a)si laslongitudes de los componentes no estan correlacionadas, (b) si(Xj, Xk) = 0.2 para 1 j< k 4.56. DistribuciondeRayleigh Una variable tiene distribucion de Rayleigh si su densidad esf(x) =2xex2/parax > 0. Calcule E(X), Var(X) y obtenga la densidad deY= X2.178 CAPITULO 6. ESPERANZA MATEMATICA57. Distribucion de Laplace Una variable Xtiene distribucion de Laplace si su densidad esta dada porf(x) =12 exp

|x |

, x R,para ciertas constantes y> 0. Halle media y varianza para una variable con esta distribucion.58. El tiempo de vida de ciertos focos tiene distribucion de Rayleigh con funcion de distribucionF(x) = 1 exp

x2300

, parax > 0.Hallar la densidad de la variable aleatoriaY= X2y su valor esperado.59. SeaXunavariablealeatoriacontercermomentonitoE(|X|3) < ). Denimosel coecientedeasimetra deX,(X) por(X) =E(X )33donde = E(X) y2= Var(X).(a) Demuestre que para cualquier variableXse tiene que(X) =E(X3) 3E(X2) + 233Halle(X) siXtiene distribucion(b) Bernoulli con parametrop.(c) Poisson con parametro.(d) Geometrica con parametrop.(e) Demuestre que si X1, . . . , Xnson variables aleatorias independientes e identicamente distribuidasentonces(X1 + +Xn) =(X1)n.(f) Halle(X) siXtiene distribucion binomial.60. Sea {pn}ladistribuciondeprobabilidaddelavariablealeatoriaX, concentradaenlosenterosno-negativos, es decir queP(X = n) = pn, n = 0, 1, 2 . . .n=0pn = 1Se dene la funcion generatriz de la distribucion denida por {pn} medianteg(z) =n=0pnzn= E(zX). (6.24)(a) Probar que la serie (6.40) converge, por lo menos, cuando |z| 1, es decir que su radio de conver-gencia es mayor o igual que 1.(b) Observar que la funciong(z) determina unvocamente las probabilidades {pn}.(c) Calcular la funcion generatriz de la distribucion binomial con parametrosn yp.(d) Calcular la funcion generatriz de la distribucion geometrica.(e) Calcular la funcion generatriz de la distribucion de Poisson de parametro.6.7. EJEMPLOS. 179(f) Probar queE(X) = g

(1), E(X(X 1)) = g

(1), . . .E(X(X 1) . . . (X k + 1)) = g(k)(1).bajo la hipotesis de que las esperanzas que all guran son nitas. Que ocurre si las esperanzas soninnitas?(g)SeaglafunciongeneratrizdelavariablealeatoriaXyhlafunciongeneratrizdelavariablealeatoriaY . Probarquesi XeY sonindependientes, entoncesg(z)h(z)eslafunciongeneratrizdeX +Y .(h)Utilizandofuncionesgeneratrices, mostrarqueX1, X2, . . . , Xnsonvariablesaleatoriasindepen-dientes, cadaunacondistribuciondePoisson, conparametros respectivos 1, 2, . . . , n, entoncesX1 +X2 + +Xntambien tiene distribucion de Poisson y su parametro es1 +2 + +n.(i)Hallarladistribuciondeprobabilidadde X1 + X2 + + Xndondelas Xi, i =1, . . . , msonvariables aleatorias independientes, cada una con distribucion binomial, y los parametros respectivosson (ni, p), i = 1, . . . , m.180 CAPITULO 6. ESPERANZA MATEMATICAApendice6.7.1. DeniciondelValorEsperadoenelCasoGeneral.Hasta el momento hemos denido y calculado elvaloresperado oesperanzamatematica de una variablealeatoria, solamenteenel casoenel queladistribuciondeprobabilidaddelamismaesdiscreta. Acon-tinuacionnosproponemoshacerlomismoenel casogeneral, esdecir, paravariablesnonecesariamentediscretas. El estudio del tema requiere una extension bastante mayor de la que estamos en condiciones deasignarle aqu. A un as, el lector que no este especialmente interesado, en una primera instancia, en contarcon una fundamentacion sobre el tema, puede pasar directamente a la seccion 6.5 en la cual se estudia el casodelasvariablesaleatoriasquetienendensidad,yadoptarlaformula(6.21)comounadenicion.Asmis-mo,enunaprimerainstancia,puedesaltarlasdemostracionesdelaspropiedadesbasicasdelaesperanzamatem atica en el caso general, que estan marcadas con una estrella

.Comocriteriogeneral, lamaneradedenir laesperanzamatematicaysus propiedades, consisteenaproximar una variable aleatoria cualquiera por variables discretas, y utilizar la denicion y propiedades dela esperanza para estas ultimas, que ya conocemos de nuestro estudio anterior. Este proceso de aproximaciontiene algunas dicultades, que aparecen en las secciones mencionadas, marcadas tambien con una estrella

.Sea X una variable aleatoria no negativa. Para cada n umero natural n, n = 1, 2, . . . denimos la variablealeatoria aproximanteXnmedianteXn() =k2nsik2n X()