25
1 UNIVERSIDAD DE SONORA DEPARTAMENTO DE INVESTIGACIÓN EN FÍSICA INGENIERÍA EN TECNOLOGÍA ELECTRÓNICA TEORÍA DE LA PROBABILIDAD Y PROCESOS ESTOCÁSTICOS NOTAS COMPLEMENTARIAS AL CURSO: SISTEMAS DE COMUNICACIONES II RESPONSABLE: DRA. MILKA DEL CARMEN ACOSTA ENRÍQUEZ COLABORADORES: DRA. MARIA ELENA ZAYAS SAUCEDO DR. SANTOS JESÚS CASTILLO EDITADO POR: COMITÉ EDITORIAL DEL DEPARTAMENTO DE INVESTIGACIÓN EN FÍSICA HERMOSILLO, SONORA AGOSTO DE 2012

Teoria de La Probabilidad y Procesos Estocasticos

Embed Size (px)

DESCRIPTION

Sistemas de ComunicaciónElectrónica

Citation preview

Page 1: Teoria de La Probabilidad y Procesos Estocasticos

1

UNIVERSIDAD DE SONORA DEPARTAMENTO DE INVESTIGACIÓN EN FÍSICA

INGENIERÍA EN TECNOLOGÍA ELECTRÓNICA

TEORÍA DE LA PROBABILIDAD Y PROCESOS

ESTOCÁSTICOS

NOTAS COMPLEMENTARIAS AL CURSO:

SISTEMAS DE COMUNICACIONES II

RESPONSABLE: DRA. MILKA DEL CARMEN ACOSTA ENRÍQUEZ

COLABORADORES: DRA. MARIA ELENA ZAYAS SAUCEDO

DR. SANTOS JESÚS CASTILLO

EDITADO POR: COMITÉ EDITORIAL DEL DEPARTAMENTO DE INVESTIGACIÓN

EN FÍSICA

HERMOSILLO, SONORA AGOSTO DE 2012

Page 2: Teoria de La Probabilidad y Procesos Estocasticos

i

Contenido TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS ............................... 1

1. INTRODUCCIÓN ....................................................................................................... 1

2. PROBABILIDAD........................................................................................................ 1

2.1. Asignación de probabilidades a sucesos............................................................... 2

3. VARIABLES ALEATORIAS ..................................................................................... 3

4. DISTRIBUCIÓN DE PROBABILIDADES Y FUNCIÓN DE DENSIDAD DE

PROBABILIDAD............................................................................................................... 4

4.1. Esperanza matemática .......................................................................................... 6

5. DISTRIBUCIONES DE INTERES............................................................................. 7

5.1. Variables Aleatorias Discretas ............................................................................. 7

5.2. Variables aleatorias continuas .............................................................................. 9

6. FUNCIÓN DE UNA VARIABLE ALEATORIA .................................................... 11

6.1. Esperanza matemática ........................................................................................ 13

7. VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS .................. 15

7.1. Variables discretas .............................................................................................. 15

7.2. Variables continuas ............................................................................................ 17

7.3. Funciones de variables aleatorias ....................................................................... 19

8. PROBABILIDADES CONDICIONALES ............................................................... 19

9. TEOREMA DE LA PROBABILIDAD TOTAL ...................................................... 21

10. CONCLUSIONES. ................................................................................................ 23

11. BIBLIOGRAFÍA. .................................................................................................. 23

Page 3: Teoria de La Probabilidad y Procesos Estocasticos

1

TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS

1. INTRODUCCIÓN

La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares

matemáticos sobre los que se asienta el análisis de sistemas de comunicaciones digitales.

En estas notas se presentan nociones básicas de probabilidad y procesos aleatorios. Se

revisan los conceptos de variable aleatoria y procesos estocásticos, así como sus

propiedades, en particular aquellas de interés en comunicaciones digitales.

2. PROBABILIDAD

El concepto de probabilidad está ligado a realización (física o mental) de un experimento

“aleatorio”, entendiéndose por tal un experimento cuyo resultado es desconocido (es decir,

no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el

resultado puede ser cualquier número entre 1 y 6, pero es a priori impredecible ni siquiera

por el lanzador.

La probabilidad es una medida de la incertidumbre que, para un observador, tiene el

resultado de un experimento, y es, por tanto, una medida subjetiva. Así, por ejemplo, el

contenido de un mensaje enviado a través de un canal de comunicaciones digitales es

completamente desconocido por el receptor antes de iniciarse la comunicación, pero no por

el transmisor, que puede predecirlo con exactitud en la medida que “conoce” el mensaje

transmitido.

El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos

dados y sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible. Sin

embargo, también sabemos que el 7 es un resultado más “esperable” que el 2. Lo sabemos

por naturaleza del experimento o por información estadística.

La probabilidad es esencialmente, una medida de incertidumbre sobre el resultado del

experimento, y por lo tanto, dependiente de la cantidad de información disponible por el

observador en cada momento. Para acercarnos a una definición más formal, se precisan

varios elementos:

Espacio muestral, , que es el conjunto de todos los resultados posibles de un

experimento aleatorio.

Conjunto de sucesos, = {S, S }.

Suceso es cualquier subconjunto de 1. Ejemplos de sucesos en el ejemplo de los

dados son que la suma sea: 2, un número impar, un número menor que 8, etc. En

total hay 211 posibles sucesos.

Page 4: Teoria de La Probabilidad y Procesos Estocasticos

2

Definimos ahora una medida de probabilidad Pr como toda una función que, aplicada sobre

cualquier suceso S , devuelve un número real Pr{S} que verifica las siguientes

propiedades

1. 0 Pr {S}1

2. Pr {}=0

3. Pr {}=1

4. Dado un conjunto finito (o infinito numerable) de sucesos Si disjuntos (Si Sj =

), se verifica {⋃ } ∑ { }

2.1. Asignación de probabilidades a sucesos

Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces, y

que el resultado de cada experimento es independiente de los demás. Diremos que una

probabilidad Pr es un buen modelo de incertidumbre para dicho experimento en la medida

en que sea capaz de predecir con exactitud la frecuencia con la que se repiten los diferentes

sucesos del experimento.

Es decir, Pr es una buena medida de incertidumbre sobre el resultado del experimento si

dado cualquier suceso S , tras N repeticiones del experimento, denominado Ns al

número de veces que se produce algún resultado que está en S, el cociente Ns/N converge a

P{S} cuando N tiende a infinito.

Ejemplo 1.1

Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un

número entero entre 1 y 6. ¿Cómo asignar probabilidades al suceso “5”? La física del

problema sugiere que, siendo un dado no cargado esencialmente simétrico, no hay razón

para pensar que uno de los resultados tenga mayores oportunidades de producirse que el

otro. Esta afirmación nos invita a hacer la asignación Pr {1} = Pr {2} =… = Pr {6} = 1/6. En

apoyo de esta asignación está el hecho de que ha resultado ser razonablemente acertada con

otros muchos dados anteriormente. Si, además, tenemos la oportunidad de ensayar el

lanzamiento de este dado cierto número N de veces, podremos comprobar si,

efectivamente, la frecuencia de “5” o de cualquier otro resultado se parece a 1/6. Si es así,

podemos confiar en la bondad de esta asignación. Pero, en todo caso, piénsese que ninguna

de estas evidencias es definitiva a favor del modelo equiprobable frente a todos los

posibles.

Page 5: Teoria de La Probabilidad y Procesos Estocasticos

3

Ejemplo 1.2

La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado

permite calcular un valor de probabilidad para cualquier otro suceso. Así, por ejemplo,

suponiendo que la probabilidad de cada posible resultado es 1/6, la probabilidad de que se

obtenga un número par será

{{ } { } { }} { } { } { }

3. VARIABLES ALEATORIAS

Estrictamente hablando, variable aleatoria es toda aplicación de en la recta real, que

asigna a cada posible resultado un número. Dado el resultado , la variable aleatoria X

tomara un valor . En la práctica, la notación suele simplificarse y, de forma

general escribiremos X, omitiendo el argumento.

Mediante el uso de variables aleatorias, el espacio muestral original se proyecta sobre un

subconjunto de la recta real, que llamaremos espacio muestral imagen.

Ejemplo 2.1

Un transmisor envía una secuencia de dígitos binarios (ceros y unos), { [ ]

}, a un receptor distante a través de un canal de comunicaciones digitales. A consecuencia

de imperfecciones del canal, la secuencia de dígitos binarios detectada en recepción,

{ [ ] }, es posiblemente diferente a la transmitida.

Para evaluar el rendimiento de la comunicación, considere el experimento consistente en

comparar las secuencias transmitida y recibida y determinar cuál de los resultados

siguientes se ha producido: “Hay errores de transmisión”, o bien “No hay errores

de transmisión”. Puede definirse la variable aleatoria Z dada por y =1. De

este modo, { } es la probabilidad de que se haya producido algún error en la

transmisión. Si llamamos ’ al espacio muestral imagen ( es decir, { }

), podemos distinguir entre:

Variables aleatorias discretas: ’ es discreto (es decir, finito o infinito numerable).

Variables aleatorias continuas: ’ es continuo, o contiene algún subconjunto

continuo.

La diferencia entre variables discretas y continuas es sustancial. Como hemos visto

anteriormente, si el espacio muestral imagen es finito o infinito numerable, para

caracterizar la variable aleatoria en términos probabilísticos es suficiente con asignar un

valor de probabilidad a cada posible resultado (que, de acuerdo con la definición anterior,

Page 6: Teoria de La Probabilidad y Procesos Estocasticos

4

es también un suceso); respetando las propiedades 1 a 3, y calcular las probabilidades de los

demás sucesos aplicando la propiedad 4. Lo último es posible porque puede construirse

cualquier suceso mediante la unión contable de sucesos atómicos (esto es, sucesos

formados por un solo resultado posible). Sin embargo, si ’ es continuo, aquellos sucesos

que contengan un conjunto infinito y no numerable de resultados posibles no pueden

construirse como unión contable de sucesos atómicos; por lo tanto, no es posible calcular su

probabilidad a partir de las probabilidades de los sucesos atómicos. Además, la mayoría de

los sucesos atómicos tienen probabilidad nula.

Cuando ’ es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los

sucesos de la forma { }. La función que devuelve la probabilidad de este suceso para

cada valor de X se denomina función de distribución acumulada o, simplemente, función de

distribución

{ }

La función de distribución tiene las siguientes propiedades, que se deducen directamente de

su definición:

1.

2.

3.

4. es una función monótona creciente si .

4. DISTRIBUCIÓN DE PROBABILIDADES Y FUNCIÓN DE

DENSIDAD DE PROBABILIDAD

Dada una variable aleatoria discreta X, se define su distribución de probabilidades (o

simplemente distribución), que llamaremos , como aquella que, para cada posible

valor x de X, devuelve su probabilidad. Así, por ejemplo,

{ }

Obviamente, si X puede tomar los valores { } resulta

Probabilidad y distribución de probabilidades son esencialmente lo mismo, aunque la

primera se aplica a sucesos y la segunda a números. Si la variable es discreta, conociendo

su distribución puede calcularse la probabilidad de cualquier caso. Por el contrario, si la

variable aleatoria es continua, la distribución de probabilidades no resulta útil, y suele

Page 7: Teoria de La Probabilidad y Procesos Estocasticos

5

recurrirse a la función de distribución acumulada o bien a su derivada, que se conoce como

función de densidad de probabilidad (abreviadamente, FDP).

Las siguientes propiedades son una consecuencia inmediata de esta definición, y de las

propiedades de la función de distribución enunciadas anteriormente:

1.

2. ∫

3. ∫

Además, la densidad de probabilidad define completamente una variable aleatoria, en el

sentido de que permite calcular la probabilidad de cualquier suceso. Por ejemplo, la

probabilidad del suceso { } se puede calcular teniendo en cuenta que el conjunto

{ } admite la partición

{ } { } { }

Luego, en virtud de la propiedad 4,

{ } { } { }

Y, por tanto

{ } ∫

De forma general, la probabilidad del suceso { } se puede calcular como

{ } ∫

La propiedad (3.9) puede ayudarnos a interpretar la función partiendo de la

definición de derivada,

{ }

La expresión final explica la denominación de “densidad de probabilidad” para .

Resumiendo, las variables aleatorias discretas pueden caracterizarse mediante su

distribución de probabilidades, y las continuas mediante su función de densidad de

probabilidad. Para completar el paralelismo entre variables discretas y continuas, puede

Page 8: Teoria de La Probabilidad y Procesos Estocasticos

6

definirse la función de probabilidad acumulada (o de distribución) de una variable discreta,

dada por { } ∑ La función de distribución cumple

, donde es el máximo valor posible de X (estrictamente hablando, el

valor supremo).

Asimismo, las probabilidades pueden expresarse a partir de la función de distribución.

Suponiendo , puede escribirse .

4.1. Esperanza matemática

La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral

{ } se define como

{ } ∑

La esperanza matemática también tiene una interpretación de frecuencia. Supongamos, por

ejemplo, que se observan N realizaciones de la variable aleatoria X; el

promedio de todas ellas será

Agrupando los sumandos iguales, resulta

Siendo el numero de sumandos iguales a . Dado que el cociente Ni/N se aproxima a

a medida que aumenta N, el promedio se aproxima a la media.

La esperanza matemática puede aplicarse a cualquier función de X,

{ } ∑

Existiendo algunos casos particulares de especial interés:

Valor cuadrático medio: { }

Varianza: {

} { }

Momento de orden : { }

Momento central de orden : { }

Page 9: Teoria de La Probabilidad y Procesos Estocasticos

7

De modo análogo se escribe la esperanza matemática de una variable aleatoria continua:

{ } ∫

Y, en general,

{ } ∫

Los casos particulares definidos anteriormente también son de aplicación a variables

continuas.

5. DISTRIBUCIONES DE INTERES

5.1. Variables Aleatorias Discretas

Bernoulli. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene

solamente dos elementos: { }, con probabilidades

Habitualmente, y , en cuyo caso la distribución de probabilidades admite una

representación más compacta:

La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como

una variable de Bernoulli dada por

X(“se ha producido S”) = 1

X(“no se ha producido S”) = 0

Así, por ejemplo, esta variable aleatoria resulta útil en comunicaciones para analizar

sucesos del tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene

errores”.

Binomial. Supongamos que cierto experimento aleatorio se repite n veces (independientes),

y desea evaluarse el número de veces que se produce cierto suceso S de probabilidad

{ } . Considerando la variable aleatoria X que toma el valor k si el suceso S se ha

producido k veces, puede demostrarse que, en tal caso, X es una variable aleatoria de

espacio muestral { }, con distribución de probabilidades

Page 10: Teoria de La Probabilidad y Procesos Estocasticos

8

( )

(

)

Su media es . Las distribuciones de esta forma se denominan binomiales.

Geométrica. El espacio muestral de la distribución geométrica es el conjunto de todos los

enteros no negativos. La distribución de probabilidades viene dada por:

Donde y es un parámetro de la distribución.

La distribución geométrica surge, por ejemplo, cuando se desea evaluar la primera vez que

se produce un suceso S de probabilidad p es una sucesión infinita de realizaciones

independientes de cierto experimento aleatorio. Su valor medio (que es el tiempo medido

de aparición del suceso) puede calcularse como:

{ } ∑

Sabiendo que

, podemos escribir

{ }

=

(

)

(

)

La distribución geométrica es útil en comunicaciones digitales para estimar el tiempo

medido transcurrido antes de producirse un error en una transmisión digital.

Poisson. La variable aleatoria de Poisson también toma valores enteros no negativos, y su

función de probabilidad se define como

don de

Su medida y su varianza coinciden con .

Page 11: Teoria de La Probabilidad y Procesos Estocasticos

9

5.2. Variables aleatorias continuas

Uniforme. Una variable continua X se denomina uniforme si su función de densidad de

probabilidad tiene la forma

{

Su media es

{ }

Y su varianza

{ }

(

)

Gaussiana. Una variable continua X se dice gausiana o normal si su función de densidad

de probabilidad tiene la forma

Su media coincide con el valor del parámetro µ y su varianza con .

La distribución gaussiana es un buen modelo para muchos procesos aleatorios presentes en

la naturaleza. En particular, es un buen modelo del ruido en numerosos dispositivos

eléctricos y electrónicos, y en sistemas de comunicaciones digitales.

La variable gaussiana de media cero y varianza unidad se conoce como una variable normal

unitaria. La probabilidad de que supere un valor x se calcula como

{ } ∫

√ ∫

La integral en la ecuación anterior no tiene solución analítica, sin embargo se dispone de la

solución en forma de una función tabulada, conocida por función de Q, que se define como

Page 12: Teoria de La Probabilidad y Procesos Estocasticos

10

√ ∫

Una alternativa al uso de tablas o aproximaciones numéricas de la función Q consiste en el

establecimiento de cotas superiores e inferiores de la misma. Las cotas superiores más

utilizadas son

Y una inferior es

√ (

)

Weibull. Una variable Weibull de parámetros y se caracteriza por una función

de densidad de probabilidad

,

Que es la derivada de una función de distribución de expresión más sencilla:

,

En el caso y √ , la FDP en la ecuación se simplifica en una distribución

conocida como Rayleigh

,

Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos

variables gaussianas: si y son gausianas independientes de media cero y varianza ,

la variable dada por √

sigue una distribución Rayleigh con .

Variables de este tipo las encontramos con frecuencia en ciertos detectores en

comunicación digitales.

Lognormal. La función densidad de probabilidad lognormal de parámetros y se define

por

,

Page 13: Teoria de La Probabilidad y Procesos Estocasticos

11

Gamma. La variable aleatoria de tipo gamma de parámetros b y se define por

,

Donde ∫

es la función de Gamma.

Hay dos casos particulares de especial interés:

Distribución exponencial. Es la distribución Gamma de parámetro ,

resultando:

,

La distribución exponencial se utiliza frecuentemente para el modelado de la duración

media de paquetes de datos.

Distribución Chi-cuadrado . Se dice que una variable aleatoria tiene una

distribución con grados de libertad si se ajusta a una distribución Gamma con

los parámetros y . En este caso, la FDP en la ecuación de Gamma

antes mencionada se reduce a

(

)

, con

También podemos definir una variable aleatoria tipo con grados de libertad

como la suma de los cuadrados de variables aleatorias normales unitarias

independientes: sean variables aleatorias gausianas de media nula y

varianza unidad independientes entre sí; si definimos la variable aleatoria como

, esta posee una distribución con grados de libertad. A

partir de aquí podemos también definir la distribución , que sería la que posee la

variable √ . Note que la distribución con dos grados de libertad es

un caso particular de una distribución de Rayleigh.

6. FUNCIÓN DE UNA VARIABLE ALEATORIA

Cualquier transformación sobre una variable aleatoria es, a su vez, otra variable aleatoria,

se puede caracterizar por su función de probabilidad o de densidad de probabilidad, según

se trate de una variable discreta o continua, respectivamente.

Si es una variable discreta de espacio muestral { } es otra

variable aleatoria de dominio { } . Además, si la

transformación es invertible, resulta

{ } { }

Page 14: Teoria de La Probabilidad y Procesos Estocasticos

12

Si la transformación no es uno a uno (porque para uno o mas se verifica que

con ), se comprueba fácilmente que

|

El análisis en el caso continuo es algo más complejo. Sea una variable aleatoria continua

e . Entonces, puede escribirse

{ } { }

Supongamos, en primer lugar, que es una función estrictamente creciente. En tal caso,

puede definirse la función inversa , y la ecuación anterior se reescriben

como

{ }

Por el contrario, si es estrictamente decreciente, un razonamiento análogo conduce a

{ } { }

Derivando las dos ecuaciones inmediatas anteriores, según se trate de una función creciente

o decreciente, resulta

|

|

Ejemplo 5.1

Si es una variable aleatoria gausiana de media y varianza , la variable tiene

una distribución

|

|

,

Y por tanto, es una variable lognormal.

Sabiendo que, para .

|

| |

|

La ecuación |

| puede reescribirse como

Page 15: Teoria de La Probabilidad y Procesos Estocasticos

13

|

|

Esta expresión puede generalizarse para funciones con tramos crecientes y decrecientes,

de modo análogo al caso discreto: la fdp resulta de la suma

∑ |

|

|

Ejemplo 5.2

Considere la variable aleatoria con FDP y la variable aleatoria . La

función tiene como derivada

y un tramo decreciente y un tramo

creciente . En el tramo decreciente la función inversa es √ , y en el

tramo creciente es √ . Aplicando la ecuación:

∑ |

|

|

Es posible obtener:

Si es una variable aleatoria gaussiana de media y varianza ,

√ (

)

6.1. Esperanza matemática

De acuerdo con la definición de esperanza matemática, la media de puede

calcularse por dos procedimientos: como esperanza matemática de .

{ } ∫

Page 16: Teoria de La Probabilidad y Procesos Estocasticos

14

O bien como esperanza matemática de .

{ } ∫

Cabe preguntarse si ambos procedimientos conducen al mismo resultado. Para simplificar,

supondremos que es una función estrictamente creciente. Llamando a su

inversa, y haciendo el cambio de variable , la integral inmediata anterior puede

escribirse como

{ } ∫ (

)

Sabiendo que

(

)

Resulta

{ } ∫

Por último, en virtud de |

| y teniendo en cuenta que, si es

estrictamente creciente, su inversa también lo es, de modo que ( )

( )|

| , resulta

{ } { }

Por tanto, el valor medio es independiente de la variable que se utilice para su cálculo. Esta

propiedad es válida para cualquier función , no necesariamente creciente.

Un caso particular de interés es aquel en el que la relación entre las variables es lineal.

Supongamos, por ejemplo, que la variable aleatoria continua tiene media y varianza

, y se define la variable , siendo y constantes conocidas. De acuerdo con

la ecuación inmediata anterior, la media de es

{ } { } ∫ ∫

Page 17: Teoria de La Probabilidad y Procesos Estocasticos

15

Y su varianza

{ } { } {

}

7. VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS

Considere el experimento consistente en lanzar dos dados y observar el resultado. Si

estamos interesados en el valor que toma cada dado, el “resultado” es la combinación de los

resultados de cada dado, y su probabilidad puede medirse recurriendo a la probabilidad de

la ocurrencia simultanea de dos dados específicos. Por ejemplo, si es el resultado de

lanzar el dado 1 y es el resultado de lanzar el dado 2, podemos calcular las

probabilidades de la configuración “ ”, “ ” como { } . De

forma general, podemos definir la función de probabilidad conjunta que, para

cada posible valor de y , devuelve la probabilidad del suceso “ ” y “ ”.

7.1. Variables discretas

De forma general, dada una colección de variables aleatorias { } de

espacios muestrales , respectivamente, se define la función de probabilidad

conjunta de las variables en como aquella función que devuelve, para cada configuración

posible de valores de las variables, su probabilidad de ocurrencia simultánea. De forma

general, denotaremos esta función como . Asimismo, puede

construirse el vector aleatorio

[

]

En cuyo caso la función de probabilidad conjunta admite la representación .

A partir de esta definición, no es difícil demostrar que la función de probabilidad asociada a

un subconjunto de las variables en se puede obtener a partir de la probabilidad conjunta,

mediante suma sobre todos los valores posibles de las otras variables. Esta operación suele

denominarse marginación. Así, por ejemplo,

O

∑ ∑ ∑

Page 18: Teoria de La Probabilidad y Procesos Estocasticos

16

La media de un vector aleatorio tiene una definición similar al de una variable escalar

{ } ∑

Podemos observar que la media es un vector cuya componente i-ésima, , viene dada por

∑ ∑ { }

Es decir, { } es un vector de componentes { }.

De modo similar al caso escalar, el operador esperanza matemática puede aplicarse a

cualquier función de . En particular, se define la matriz de covarianzas de como

{ } ∑

Donde el superíndice denota como vector transpuesto. Se comprueba que la componente

de tiene la forma

( ) {( ) (

)}

∑∑( )(

) ( )

Y se denomina covarianza cruzada o, simplemente, covarianza, de las variables y .

Resulta inmediato comprobar que coincide con la varianza de .

La matriz de covarianzas tiene dos propiedades importantes, que se deducen directamente

de su definición, las propiedades son las siguientes:

1. Es simétrica:

2. Es semidefinida positiva, dado que, para todo , se verifica que

{ }

{ }

{ }

Como consecuencia de estas propiedades, todos los autovalores de son no-negativos.

Además, existe una base ortonormal de autovectores { }, con

y , de modo que se puede factorizar como

Page 19: Teoria de La Probabilidad y Procesos Estocasticos

17

Donde | | es una matriz ortogonal formada por los

autovectores, y es una matriz diagonal tal que es el autovalor correspondiente al

autovector .

7.2. Variables continuas

La función de distribución conjunta de las variables { }, se define y la

función de densidad de probabilidad conjunta se define como

{ }

Y la función de densidad de probabilidad conjunta se define como

Cuando , las definiciones anteriores se reducen a las ya conocidas para el caso

escalar. Puede interpretarse la función de densidad de probabilidad como un valor

proporcional a la probabilidad de que las componentes del vector aleatorio caigan dentro de

los intervalos [ ] [

].

{

}

Partiendo de la FDP conjunta de , se puede calcular la función de distribución conjunta

Asimismo, de forma general, la probabilidad de que una variable aleatoria caiga dentro de

una región se puede calcular como

{ } ∫

Para el caso continuo:

Page 20: Teoria de La Probabilidad y Procesos Estocasticos

18

Asimismo, se define la media de un vector aleatorio como

{ } ∫

Que es un vector de componentes { }.

La matriz de covarianzas se define por

{ } ∫

Sus componentes son las covarianzas de las componentes de ,

( ) {( )( )}

Y conserva las mismas propiedades que la matriz de covarianzas de un conjunto de

variables discretas.

Variable gausiana multidimensional. Una función de densidad de probabilidad conjunta

de especial interés en comunicaciones es la gausiana N-dimensional, dada por

Donde es la media, C es la matriz de covarianzas y su determinante.

Variables comple jas. Cualquier variable aleatoria compleja puede

considerarse un conjunto de dos variables aleatorias reales, y , de modo que, para todo

.

En particular, en virtud de la ecuación de una variable gaussiana multidimensional, la

densidad de probabilidad de una variable gaussiana compleja de media nula y matriz de

covarianzas

(

)

Se puede expresar como

(

)

Page 21: Teoria de La Probabilidad y Procesos Estocasticos

19

7.3. Funciones de variables aleatorias

Dado un vector aleatorio , y un conjunto de N funciones de en

{ } , puede obtenerse otro vector aleatorio , tal que

. Si es invertible y denota la componente i-ésima

de la función inversa de , el vector se construye a partir de { } de modo

similar al vector .

Si es un variable discreta, { } { } se generaliza de

modo inmediato

Si es continua con FDP conjunta , puede demostrarse que

| |

Siendo la matriz Jacobiana de la transformación , dada por

(

)

Y su determinante.

Ejemplo 6.1

Sea un vector aleatorio e , siendo una matriz cuadrada invertible y

un vector constante. La matriz Jacobiana de la transformación es y la

FDP de se puede calcular aplicando directamente la expresión | | .

| |

8. PROBABILIDADES CONDICIONALES

Hemos dicho que la probabilidad es una medida de la incertidumbre acerca del resultado de

un experimento, y por tanto es subjetiva, en la medida en que depende de la información

disponible por el observador que pueda tener alguna relación con el mismo. Por tanto, si el

observador recibe nueva información, la “cantidad de incertidumbre” puede cambiar.

Page 22: Teoria de La Probabilidad y Procesos Estocasticos

20

Se precisa, por tanto, alguna medida de la probabilidad de cierto suceso condicionada por

el conocimiento sobre la ocurrencia de otro suceso . Matemáticamente, esto se escribe

{ | } y se define como

{ | } { }

{ }

Cabe preguntarse si esta definición matemática expresa efectivamente lo que se desea

medir. Supongamos que, tras realizar un numero (suficientemente grande) de veces el

experimento aleatorio asociado a los sucesos y se producen ocurrencias de y

ocurrencias simultaneas de y . Si las probabilidades de los sucesos son consistentes

con las observaciones, debe ser buena la aproximación { | } (es decir, la

probabilidad debe aproximarse a la proporción de veces que se ha observado entre todas

las observaciones en las que ha sucedido ).

{ | } { }

{ }

{ } { | } { } { | } { }

Esta expresión puede generalizarse para la intersección de sucesos con la denominada

regla de la cadena de la probabilidad condicional, de la forma siguiente:

{ } { } { | } { | }

Del mismo modo que hemos definido la función de probabilidad de una variable aleatoria a

partir de las probabilidades de los sucesos atómicos (sucesos constituidos por un solo

resultado posible), se define la función de probabilidad condicional de dado (o mejor,

de dado ) como

| |

Que, para cada valor de y de , devuelve la probabilidad condicionada correspondiente.

Asimismo, se define la función de densidad de probabilidad condicional de la variable

continua dada la variable continua

| |

Ejemplo 7.1

Un ejemplo de probabilidades condicionales utilizado en transmisión digital es el modelo

de Canal binario simétrico, como se muestra en la figura 7.1. Este modelo define las

Page 23: Teoria de La Probabilidad y Procesos Estocasticos

21

probabilidades con las que ocurren los “0” y los “1” a la salida de un canal de

comunicaciones, supuesto conocido el valor de los bits a su entrada. De esta forma se

definen las variables aleatorias asociadas al bit transmitido y recibido,

respectivamente, relacionada a través de las siguientes probabilidades

{ | }

{ | }

{ | }

{ | }

Se observa que la probabilidad de que el canal produzca un error es , independientemente

del valor del bit transmitido, y de ahí el apelativo “simétrico”.

Figura 7.1: Modelo de canal binario simétrico. El transmisor envía un bit S=0 o 1 a través del canal. El

receptor observa un bit R= 0 o 1, que, con probabilidad , difiere de .

9. TEOREMA DE LA PROBABILIDAD TOTAL

El teorema de la probabilidad total permite calcular las probabilidades de cualquier suceso

como suma de probabilidades condicionadas a los sucesos de una partición de cierto

espacio muestral.

El teorema afirma que, si es un suceso y { } una partición del

espacio de sucesos, de modo que , y ⋃ ,

{ } ∑ { | } { }

La demostración es sencilla: por definición de probabilidad condicional,

∑ { | } { } ∑ { }

Dado que los sucesos { } son disjuntos, puede aplicarse la relación siguiente:

Transmisor Canal Receptor S R

Page 24: Teoria de La Probabilidad y Procesos Estocasticos

22

{⋃

} ∑

{ }

De modo que:

∑ { }

{⋃

} { ⋃

} { } { }

El teorema de la probabilidad total tiene algunas extensiones inmediatas de interés:

Si los sucesos son realizaciones de las variables aleatorias X e Y de espacios

muestrales { } y { } , respectivamente, la

distribución de probabilidades de X se puede calcular como

∑ | ( | ) ( )

Si la variable X es continua e Y discreta con espacio muestral { },

podemos aplicar el teorema sobre los sucesos de la forma { }, obteniéndose

∑ | ( | ) ( )

Y, derivando respecto de ,

∑ | ( | ) ( )

Si la variable X es discreta e Y continua, la suma anterior debe reemplazarse por

una integral sobre todo su dominio

∫ | |

Por último, si X e Y son continuas

Page 25: Teoria de La Probabilidad y Procesos Estocasticos

23

∫ | |

Ejemplo 8.1

Consideremos el canal binario simétrico descrito por las probabilidades condicionales en el

ejemplo 7.1. Si la probabilidad de transmitir un “1” es y la de transmitir un “0” es ,

las probabilidades de recibir un “0” y un “1” son

{ } { | } { } { | } { }

{ } { | } { } { | } { }

Obviamente, en este caso también podía haberse calculado { } como { }.

10. CONCLUSIONES.

En estas notas se revisaron las principales definiciones de probabilidad y procesos

estocásticos aplicados a sistemas de comunicaciones electrónicas digitales para el curso de

Sistemas de Comunicaciones II de la Ingeniería en Tecnología Electrónica.

11. BIBLIOGRAFÍA.

[1] LATHI B. P. & DING ZHI. Modern Digital and Analog Communication Systems.

Editorial Oxford University Press. 2009. [2] PROAKIS JOHN G. Fundamentals Communication Systems. Editorial Prentice

Hall. 2004. [3] HERRERA PEREZ ENRIQUE. Comunicaciones II: comunicación digital y ruido;

una introducción a la teoría de la comunicación digital y el ruido. Editorial Limusa,

Grupo Noriega Editores. 2008.