View
224
Download
1
Embed Size (px)
DESCRIPTION
Sistemas de ComunicaciónElectrónica
1
UNIVERSIDAD DE SONORA DEPARTAMENTO DE INVESTIGACIÓN EN FÍSICA
INGENIERÍA EN TECNOLOGÍA ELECTRÓNICA
TEORÍA DE LA PROBABILIDAD Y PROCESOS
ESTOCÁSTICOS
NOTAS COMPLEMENTARIAS AL CURSO:
SISTEMAS DE COMUNICACIONES II
RESPONSABLE: DRA. MILKA DEL CARMEN ACOSTA ENRÍQUEZ
COLABORADORES: DRA. MARIA ELENA ZAYAS SAUCEDO
DR. SANTOS JESÚS CASTILLO
EDITADO POR: COMITÉ EDITORIAL DEL DEPARTAMENTO DE INVESTIGACIÓN
EN FÍSICA
HERMOSILLO, SONORA AGOSTO DE 2012
i
Contenido TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS ............................... 1
1. INTRODUCCIÓN ....................................................................................................... 1
2. PROBABILIDAD........................................................................................................ 1
2.1. Asignación de probabilidades a sucesos............................................................... 2
3. VARIABLES ALEATORIAS ..................................................................................... 3
4. DISTRIBUCIÓN DE PROBABILIDADES Y FUNCIÓN DE DENSIDAD DE
PROBABILIDAD............................................................................................................... 4
4.1. Esperanza matemática .......................................................................................... 6
5. DISTRIBUCIONES DE INTERES............................................................................. 7
5.1. Variables Aleatorias Discretas ............................................................................. 7
5.2. Variables aleatorias continuas .............................................................................. 9
6. FUNCIÓN DE UNA VARIABLE ALEATORIA .................................................... 11
6.1. Esperanza matemática ........................................................................................ 13
7. VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS .................. 15
7.1. Variables discretas .............................................................................................. 15
7.2. Variables continuas ............................................................................................ 17
7.3. Funciones de variables aleatorias ....................................................................... 19
8. PROBABILIDADES CONDICIONALES ............................................................... 19
9. TEOREMA DE LA PROBABILIDAD TOTAL ...................................................... 21
10. CONCLUSIONES. ................................................................................................ 23
11. BIBLIOGRAFÍA. .................................................................................................. 23
1
TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS
1. INTRODUCCIÓN
La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares
matemáticos sobre los que se asienta el análisis de sistemas de comunicaciones digitales.
En estas notas se presentan nociones básicas de probabilidad y procesos aleatorios. Se
revisan los conceptos de variable aleatoria y procesos estocásticos, así como sus
propiedades, en particular aquellas de interés en comunicaciones digitales.
2. PROBABILIDAD
El concepto de probabilidad está ligado a realización (física o mental) de un experimento
“aleatorio”, entendiéndose por tal un experimento cuyo resultado es desconocido (es decir,
no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el
resultado puede ser cualquier número entre 1 y 6, pero es a priori impredecible ni siquiera
por el lanzador.
La probabilidad es una medida de la incertidumbre que, para un observador, tiene el
resultado de un experimento, y es, por tanto, una medida subjetiva. Así, por ejemplo, el
contenido de un mensaje enviado a través de un canal de comunicaciones digitales es
completamente desconocido por el receptor antes de iniciarse la comunicación, pero no por
el transmisor, que puede predecirlo con exactitud en la medida que “conoce” el mensaje
transmitido.
El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos
dados y sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible. Sin
embargo, también sabemos que el 7 es un resultado más “esperable” que el 2. Lo sabemos
por naturaleza del experimento o por información estadística.
La probabilidad es esencialmente, una medida de incertidumbre sobre el resultado del
experimento, y por lo tanto, dependiente de la cantidad de información disponible por el
observador en cada momento. Para acercarnos a una definición más formal, se precisan
varios elementos:
Espacio muestral, , que es el conjunto de todos los resultados posibles de un
experimento aleatorio.
Conjunto de sucesos, = {S, S }.
Suceso es cualquier subconjunto de 1. Ejemplos de sucesos en el ejemplo de los
dados son que la suma sea: 2, un número impar, un número menor que 8, etc. En
total hay 211 posibles sucesos.
2
Definimos ahora una medida de probabilidad Pr como toda una función que, aplicada sobre
cualquier suceso S , devuelve un número real Pr{S} que verifica las siguientes
propiedades
1. 0 Pr {S}1
2. Pr {}=0
3. Pr {}=1
4. Dado un conjunto finito (o infinito numerable) de sucesos Si disjuntos (Si Sj =
), se verifica {⋃ } ∑ { }
2.1. Asignación de probabilidades a sucesos
Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces, y
que el resultado de cada experimento es independiente de los demás. Diremos que una
probabilidad Pr es un buen modelo de incertidumbre para dicho experimento en la medida
en que sea capaz de predecir con exactitud la frecuencia con la que se repiten los diferentes
sucesos del experimento.
Es decir, Pr es una buena medida de incertidumbre sobre el resultado del experimento si
dado cualquier suceso S , tras N repeticiones del experimento, denominado Ns al
número de veces que se produce algún resultado que está en S, el cociente Ns/N converge a
P{S} cuando N tiende a infinito.
Ejemplo 1.1
Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un
número entero entre 1 y 6. ¿Cómo asignar probabilidades al suceso “5”? La física del
problema sugiere que, siendo un dado no cargado esencialmente simétrico, no hay razón
para pensar que uno de los resultados tenga mayores oportunidades de producirse que el
otro. Esta afirmación nos invita a hacer la asignación Pr {1} = Pr {2} =… = Pr {6} = 1/6. En
apoyo de esta asignación está el hecho de que ha resultado ser razonablemente acertada con
otros muchos dados anteriormente. Si, además, tenemos la oportunidad de ensayar el
lanzamiento de este dado cierto número N de veces, podremos comprobar si,
efectivamente, la frecuencia de “5” o de cualquier otro resultado se parece a 1/6. Si es así,
podemos confiar en la bondad de esta asignación. Pero, en todo caso, piénsese que ninguna
de estas evidencias es definitiva a favor del modelo equiprobable frente a todos los
posibles.
3
Ejemplo 1.2
La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado
permite calcular un valor de probabilidad para cualquier otro suceso. Así, por ejemplo,
suponiendo que la probabilidad de cada posible resultado es 1/6, la probabilidad de que se
obtenga un número par será
{{ } { } { }} { } { } { }
3. VARIABLES ALEATORIAS
Estrictamente hablando, variable aleatoria es toda aplicación de en la recta real, que
asigna a cada posible resultado un número. Dado el resultado , la variable aleatoria X
tomara un valor . En la práctica, la notación suele simplificarse y, de forma
general escribiremos X, omitiendo el argumento.
Mediante el uso de variables aleatorias, el espacio muestral original se proyecta sobre un
subconjunto de la recta real, que llamaremos espacio muestral imagen.
Ejemplo 2.1
Un transmisor envía una secuencia de dígitos binarios (ceros y unos), { [ ]
}, a un receptor distante a través de un canal de comunicaciones digitales. A consecuencia
de imperfecciones del canal, la secuencia de dígitos binarios detectada en recepción,
{ [ ] }, es posiblemente diferente a la transmitida.
Para evaluar el rendimiento de la comunicación, considere el experimento consistente en
comparar las secuencias transmitida y recibida y determinar cuál de los resultados
siguientes se ha producido: “Hay errores de transmisión”, o bien “No hay errores
de transmisión”. Puede definirse la variable aleatoria Z dada por y =1. De
este modo, { } es la probabilidad de que se haya producido algún error en la
transmisión. Si llamamos ’ al espacio muestral imagen ( es decir, { }
), podemos distinguir entre:
Variables aleatorias discretas: ’ es discreto (es decir, finito o infinito numerable).
Variables aleatorias continuas: ’ es continuo, o contiene algún subconjunto
continuo.
La diferencia entre variables discretas y continuas es sustancial. Como hemos visto
anteriormente, si el espacio muestral imagen es finito o infinito numerable, para
caracterizar la variable aleatoria en términos probabilísticos es suficiente con asignar un
valor de probabilidad a cada posible resultado (que, de acuerdo con la definición anterior,
4
es también un suceso); respetando las propiedades 1 a 3, y calcular las probabilidades de los
demás sucesos aplicando la propiedad 4. Lo último es posible porque puede construirse
cualquier suceso mediante la unión contable de sucesos atómicos (esto es, sucesos
formados por un solo resultado posible). Sin embargo, si ’ es continuo, aquellos sucesos
que contengan un conjunto infinito y no numerable de resultados posibles no pueden
construirse como unión contable de sucesos atómicos; por lo tanto, no es posible calcular su
probabilidad a partir de las probabilidades de los sucesos atómicos. Además, la mayoría de
los sucesos atómicos tienen probabilidad nula.
Cuando ’ es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los
sucesos de la forma { }. La función que devuelve la probabilidad de este suceso para
cada valor de X se denomina función de distribución acumulada o, simplemente, función de
distribución
{ }
La función de distribución tiene las siguientes propiedades, que se deducen directamente de
su definición:
1.
2.
3.
4. es una función monótona creciente si .
4. DISTRIBUCIÓN DE PROBABILIDADES Y FUNCIÓN DE
DENSIDAD DE PROBABILIDAD
Dada una variable aleatoria discreta X, se define su distribución de probabilidades (o
simplemente distribución), que llamaremos , como aquella que, para cada posible
valor x de X, devuelve su probabilidad. Así, por ejemplo,
{ }
Obviamente, si X puede tomar los valores { } resulta
∑
Probabilidad y distribución de probabilidades son esencialmente lo mismo, aunque la
primera se aplica a sucesos y la segunda a números. Si la variable es discreta, conociendo
su distribución puede calcularse la probabilidad de cualquier caso. Por el contrario, si la
variable aleatoria es continua, la distribución de probabilidades no resulta útil, y suele
5
recurrirse a la función de distribución acumulada o bien a su derivada, que se conoce como
función de densidad de probabilidad (abreviadamente, FDP).
Las siguientes propiedades son una consecuencia inmediata de esta definición, y de las
propiedades de la función de distribución enunciadas anteriormente:
1.
2. ∫
3. ∫
Además, la densidad de probabilidad define completamente una variable aleatoria, en el
sentido de que permite calcular la probabilidad de cualquier suceso. Por ejemplo, la
probabilidad del suceso { } se puede calcular teniendo en cuenta que el conjunto
{ } admite la partición
{ } { } { }
Luego, en virtud de la propiedad 4,
{ } { } { }
Y, por tanto
{ } ∫
De forma general, la probabilidad del suceso { } se puede calcular como
{ } ∫
La propiedad (3.9) puede ayudarnos a interpretar la función partiendo de la
definición de derivada,
{ }
La expresión final explica la denominación de “densidad de probabilidad” para .
Resumiendo, las variables aleatorias discretas pueden caracterizarse mediante su
distribución de probabilidades, y las continuas mediante su función de densidad de
probabilidad. Para completar el paralelismo entre variables discretas y continuas, puede
6
definirse la función de probabilidad acumulada (o de distribución) de una variable discreta,
dada por { } ∑ La función de distribución cumple
, donde es el máximo valor posible de X (estrictamente hablando, el
valor supremo).
Asimismo, las probabilidades pueden expresarse a partir de la función de distribución.
Suponiendo , puede escribirse .
4.1. Esperanza matemática
La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral
{ } se define como
{ } ∑
La esperanza matemática también tiene una interpretación de frecuencia. Supongamos, por
ejemplo, que se observan N realizaciones de la variable aleatoria X; el
promedio de todas ellas será
∑
Agrupando los sumandos iguales, resulta
∑
Siendo el numero de sumandos iguales a . Dado que el cociente Ni/N se aproxima a
a medida que aumenta N, el promedio se aproxima a la media.
La esperanza matemática puede aplicarse a cualquier función de X,
{ } ∑
Existiendo algunos casos particulares de especial interés:
Valor cuadrático medio: { }
Varianza: {
} { }
Momento de orden : { }
Momento central de orden : { }
7
De modo análogo se escribe la esperanza matemática de una variable aleatoria continua:
{ } ∫
Y, en general,
{ } ∫
Los casos particulares definidos anteriormente también son de aplicación a variables
continuas.
5. DISTRIBUCIONES DE INTERES
5.1. Variables Aleatorias Discretas
Bernoulli. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene
solamente dos elementos: { }, con probabilidades
Habitualmente, y , en cuyo caso la distribución de probabilidades admite una
representación más compacta:
La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como
una variable de Bernoulli dada por
X(“se ha producido S”) = 1
X(“no se ha producido S”) = 0
Así, por ejemplo, esta variable aleatoria resulta útil en comunicaciones para analizar
sucesos del tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene
errores”.
Binomial. Supongamos que cierto experimento aleatorio se repite n veces (independientes),
y desea evaluarse el número de veces que se produce cierto suceso S de probabilidad
{ } . Considerando la variable aleatoria X que toma el valor k si el suceso S se ha
producido k veces, puede demostrarse que, en tal caso, X es una variable aleatoria de
espacio muestral { }, con distribución de probabilidades
8
( )
(
)
Su media es . Las distribuciones de esta forma se denominan binomiales.
Geométrica. El espacio muestral de la distribución geométrica es el conjunto de todos los
enteros no negativos. La distribución de probabilidades viene dada por:
Donde y es un parámetro de la distribución.
La distribución geométrica surge, por ejemplo, cuando se desea evaluar la primera vez que
se produce un suceso S de probabilidad p es una sucesión infinita de realizaciones
independientes de cierto experimento aleatorio. Su valor medio (que es el tiempo medido
de aparición del suceso) puede calcularse como:
{ } ∑
∑
Sabiendo que
, podemos escribir
{ }
∑
=
(
)
(
)
La distribución geométrica es útil en comunicaciones digitales para estimar el tiempo
medido transcurrido antes de producirse un error en una transmisión digital.
Poisson. La variable aleatoria de Poisson también toma valores enteros no negativos, y su
función de probabilidad se define como
don de
Su medida y su varianza coinciden con .
9
5.2. Variables aleatorias continuas
Uniforme. Una variable continua X se denomina uniforme si su función de densidad de
probabilidad tiene la forma
{
Su media es
{ }
∫
Y su varianza
{ }
∫
(
)
Gaussiana. Una variable continua X se dice gausiana o normal si su función de densidad
de probabilidad tiene la forma
√
Su media coincide con el valor del parámetro µ y su varianza con .
La distribución gaussiana es un buen modelo para muchos procesos aleatorios presentes en
la naturaleza. En particular, es un buen modelo del ruido en numerosos dispositivos
eléctricos y electrónicos, y en sistemas de comunicaciones digitales.
La variable gaussiana de media cero y varianza unidad se conoce como una variable normal
unitaria. La probabilidad de que supere un valor x se calcula como
{ } ∫
√ ∫
La integral en la ecuación anterior no tiene solución analítica, sin embargo se dispone de la
solución en forma de una función tabulada, conocida por función de Q, que se define como
10
√ ∫
Una alternativa al uso de tablas o aproximaciones numéricas de la función Q consiste en el
establecimiento de cotas superiores e inferiores de la misma. Las cotas superiores más
utilizadas son
√
Y una inferior es
√ (
)
Weibull. Una variable Weibull de parámetros y se caracteriza por una función
de densidad de probabilidad
,
Que es la derivada de una función de distribución de expresión más sencilla:
,
En el caso y √ , la FDP en la ecuación se simplifica en una distribución
conocida como Rayleigh
,
Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos
variables gaussianas: si y son gausianas independientes de media cero y varianza ,
la variable dada por √
sigue una distribución Rayleigh con .
Variables de este tipo las encontramos con frecuencia en ciertos detectores en
comunicación digitales.
Lognormal. La función densidad de probabilidad lognormal de parámetros y se define
por
√
,
11
Gamma. La variable aleatoria de tipo gamma de parámetros b y se define por
,
Donde ∫
es la función de Gamma.
Hay dos casos particulares de especial interés:
Distribución exponencial. Es la distribución Gamma de parámetro ,
resultando:
,
La distribución exponencial se utiliza frecuentemente para el modelado de la duración
media de paquetes de datos.
Distribución Chi-cuadrado . Se dice que una variable aleatoria tiene una
distribución con grados de libertad si se ajusta a una distribución Gamma con
los parámetros y . En este caso, la FDP en la ecuación de Gamma
antes mencionada se reduce a
(
)
, con
También podemos definir una variable aleatoria tipo con grados de libertad
como la suma de los cuadrados de variables aleatorias normales unitarias
independientes: sean variables aleatorias gausianas de media nula y
varianza unidad independientes entre sí; si definimos la variable aleatoria como
, esta posee una distribución con grados de libertad. A
partir de aquí podemos también definir la distribución , que sería la que posee la
variable √ . Note que la distribución con dos grados de libertad es
un caso particular de una distribución de Rayleigh.
6. FUNCIÓN DE UNA VARIABLE ALEATORIA
Cualquier transformación sobre una variable aleatoria es, a su vez, otra variable aleatoria,
se puede caracterizar por su función de probabilidad o de densidad de probabilidad, según
se trate de una variable discreta o continua, respectivamente.
Si es una variable discreta de espacio muestral { } es otra
variable aleatoria de dominio { } . Además, si la
transformación es invertible, resulta
{ } { }
12
Si la transformación no es uno a uno (porque para uno o mas se verifica que
con ), se comprueba fácilmente que
∑
|
El análisis en el caso continuo es algo más complejo. Sea una variable aleatoria continua
e . Entonces, puede escribirse
{ } { }
Supongamos, en primer lugar, que es una función estrictamente creciente. En tal caso,
puede definirse la función inversa , y la ecuación anterior se reescriben
como
{ }
Por el contrario, si es estrictamente decreciente, un razonamiento análogo conduce a
{ } { }
Derivando las dos ecuaciones inmediatas anteriores, según se trate de una función creciente
o decreciente, resulta
|
|
Ejemplo 5.1
Si es una variable aleatoria gausiana de media y varianza , la variable tiene
una distribución
|
|
√
,
Y por tanto, es una variable lognormal.
Sabiendo que, para .
|
| |
|
La ecuación |
| puede reescribirse como
13
|
|
Esta expresión puede generalizarse para funciones con tramos crecientes y decrecientes,
de modo análogo al caso discreto: la fdp resulta de la suma
∑ |
|
|
Ejemplo 5.2
Considere la variable aleatoria con FDP y la variable aleatoria . La
función tiene como derivada
y un tramo decreciente y un tramo
creciente . En el tramo decreciente la función inversa es √ , y en el
tramo creciente es √ . Aplicando la ecuación:
∑ |
|
|
Es posible obtener:
√
√
√
√
Si es una variable aleatoria gaussiana de media y varianza ,
√ (
√
√
)
6.1. Esperanza matemática
De acuerdo con la definición de esperanza matemática, la media de puede
calcularse por dos procedimientos: como esperanza matemática de .
{ } ∫
14
O bien como esperanza matemática de .
{ } ∫
Cabe preguntarse si ambos procedimientos conducen al mismo resultado. Para simplificar,
supondremos que es una función estrictamente creciente. Llamando a su
inversa, y haciendo el cambio de variable , la integral inmediata anterior puede
escribirse como
{ } ∫ (
)
Sabiendo que
(
)
Resulta
{ } ∫
Por último, en virtud de |
| y teniendo en cuenta que, si es
estrictamente creciente, su inversa también lo es, de modo que ( )
( )|
| , resulta
{ } { }
Por tanto, el valor medio es independiente de la variable que se utilice para su cálculo. Esta
propiedad es válida para cualquier función , no necesariamente creciente.
Un caso particular de interés es aquel en el que la relación entre las variables es lineal.
Supongamos, por ejemplo, que la variable aleatoria continua tiene media y varianza
, y se define la variable , siendo y constantes conocidas. De acuerdo con
la ecuación inmediata anterior, la media de es
{ } { } ∫ ∫
15
Y su varianza
{ } { } {
}
7. VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS
Considere el experimento consistente en lanzar dos dados y observar el resultado. Si
estamos interesados en el valor que toma cada dado, el “resultado” es la combinación de los
resultados de cada dado, y su probabilidad puede medirse recurriendo a la probabilidad de
la ocurrencia simultanea de dos dados específicos. Por ejemplo, si es el resultado de
lanzar el dado 1 y es el resultado de lanzar el dado 2, podemos calcular las
probabilidades de la configuración “ ”, “ ” como { } . De
forma general, podemos definir la función de probabilidad conjunta que, para
cada posible valor de y , devuelve la probabilidad del suceso “ ” y “ ”.
7.1. Variables discretas
De forma general, dada una colección de variables aleatorias { } de
espacios muestrales , respectivamente, se define la función de probabilidad
conjunta de las variables en como aquella función que devuelve, para cada configuración
posible de valores de las variables, su probabilidad de ocurrencia simultánea. De forma
general, denotaremos esta función como . Asimismo, puede
construirse el vector aleatorio
[
]
En cuyo caso la función de probabilidad conjunta admite la representación .
A partir de esta definición, no es difícil demostrar que la función de probabilidad asociada a
un subconjunto de las variables en se puede obtener a partir de la probabilidad conjunta,
mediante suma sobre todos los valores posibles de las otras variables. Esta operación suele
denominarse marginación. Así, por ejemplo,
∑
O
∑
∑ ∑ ∑
16
La media de un vector aleatorio tiene una definición similar al de una variable escalar
{ } ∑
∑
Podemos observar que la media es un vector cuya componente i-ésima, , viene dada por
∑
∑ ∑ { }
Es decir, { } es un vector de componentes { }.
De modo similar al caso escalar, el operador esperanza matemática puede aplicarse a
cualquier función de . En particular, se define la matriz de covarianzas de como
{ } ∑
∑
Donde el superíndice denota como vector transpuesto. Se comprueba que la componente
de tiene la forma
( ) {( ) (
)}
∑∑( )(
) ( )
Y se denomina covarianza cruzada o, simplemente, covarianza, de las variables y .
Resulta inmediato comprobar que coincide con la varianza de .
La matriz de covarianzas tiene dos propiedades importantes, que se deducen directamente
de su definición, las propiedades son las siguientes:
1. Es simétrica:
2. Es semidefinida positiva, dado que, para todo , se verifica que
{ }
{ }
{ }
Como consecuencia de estas propiedades, todos los autovalores de son no-negativos.
Además, existe una base ortonormal de autovectores { }, con
y , de modo que se puede factorizar como
17
Donde | | es una matriz ortogonal formada por los
autovectores, y es una matriz diagonal tal que es el autovalor correspondiente al
autovector .
7.2. Variables continuas
La función de distribución conjunta de las variables { }, se define y la
función de densidad de probabilidad conjunta se define como
{ }
Y la función de densidad de probabilidad conjunta se define como
Cuando , las definiciones anteriores se reducen a las ya conocidas para el caso
escalar. Puede interpretarse la función de densidad de probabilidad como un valor
proporcional a la probabilidad de que las componentes del vector aleatorio caigan dentro de
los intervalos [ ] [
].
{
}
Partiendo de la FDP conjunta de , se puede calcular la función de distribución conjunta
∫
∫
Asimismo, de forma general, la probabilidad de que una variable aleatoria caiga dentro de
una región se puede calcular como
{ } ∫
Para el caso continuo:
∫
18
Asimismo, se define la media de un vector aleatorio como
{ } ∫
Que es un vector de componentes { }.
La matriz de covarianzas se define por
{ } ∫
Sus componentes son las covarianzas de las componentes de ,
( ) {( )( )}
Y conserva las mismas propiedades que la matriz de covarianzas de un conjunto de
variables discretas.
Variable gausiana multidimensional. Una función de densidad de probabilidad conjunta
de especial interés en comunicaciones es la gausiana N-dimensional, dada por
√
Donde es la media, C es la matriz de covarianzas y su determinante.
Variables comple jas. Cualquier variable aleatoria compleja puede
considerarse un conjunto de dos variables aleatorias reales, y , de modo que, para todo
.
En particular, en virtud de la ecuación de una variable gaussiana multidimensional, la
densidad de probabilidad de una variable gaussiana compleja de media nula y matriz de
covarianzas
(
)
Se puede expresar como
√
(
)
19
7.3. Funciones de variables aleatorias
Dado un vector aleatorio , y un conjunto de N funciones de en
{ } , puede obtenerse otro vector aleatorio , tal que
. Si es invertible y denota la componente i-ésima
de la función inversa de , el vector se construye a partir de { } de modo
similar al vector .
Si es un variable discreta, { } { } se generaliza de
modo inmediato
Si es continua con FDP conjunta , puede demostrarse que
| |
Siendo la matriz Jacobiana de la transformación , dada por
(
)
Y su determinante.
Ejemplo 6.1
Sea un vector aleatorio e , siendo una matriz cuadrada invertible y
un vector constante. La matriz Jacobiana de la transformación es y la
FDP de se puede calcular aplicando directamente la expresión | | .
| |
8. PROBABILIDADES CONDICIONALES
Hemos dicho que la probabilidad es una medida de la incertidumbre acerca del resultado de
un experimento, y por tanto es subjetiva, en la medida en que depende de la información
disponible por el observador que pueda tener alguna relación con el mismo. Por tanto, si el
observador recibe nueva información, la “cantidad de incertidumbre” puede cambiar.
20
Se precisa, por tanto, alguna medida de la probabilidad de cierto suceso condicionada por
el conocimiento sobre la ocurrencia de otro suceso . Matemáticamente, esto se escribe
{ | } y se define como
{ | } { }
{ }
Cabe preguntarse si esta definición matemática expresa efectivamente lo que se desea
medir. Supongamos que, tras realizar un numero (suficientemente grande) de veces el
experimento aleatorio asociado a los sucesos y se producen ocurrencias de y
ocurrencias simultaneas de y . Si las probabilidades de los sucesos son consistentes
con las observaciones, debe ser buena la aproximación { | } (es decir, la
probabilidad debe aproximarse a la proporción de veces que se ha observado entre todas
las observaciones en las que ha sucedido ).
{ | } { }
{ }
{ } { | } { } { | } { }
Esta expresión puede generalizarse para la intersección de sucesos con la denominada
regla de la cadena de la probabilidad condicional, de la forma siguiente:
{ } { } { | } { | }
Del mismo modo que hemos definido la función de probabilidad de una variable aleatoria a
partir de las probabilidades de los sucesos atómicos (sucesos constituidos por un solo
resultado posible), se define la función de probabilidad condicional de dado (o mejor,
de dado ) como
| |
Que, para cada valor de y de , devuelve la probabilidad condicionada correspondiente.
Asimismo, se define la función de densidad de probabilidad condicional de la variable
continua dada la variable continua
| |
Ejemplo 7.1
Un ejemplo de probabilidades condicionales utilizado en transmisión digital es el modelo
de Canal binario simétrico, como se muestra en la figura 7.1. Este modelo define las
21
probabilidades con las que ocurren los “0” y los “1” a la salida de un canal de
comunicaciones, supuesto conocido el valor de los bits a su entrada. De esta forma se
definen las variables aleatorias asociadas al bit transmitido y recibido,
respectivamente, relacionada a través de las siguientes probabilidades
{ | }
{ | }
{ | }
{ | }
Se observa que la probabilidad de que el canal produzca un error es , independientemente
del valor del bit transmitido, y de ahí el apelativo “simétrico”.
Figura 7.1: Modelo de canal binario simétrico. El transmisor envía un bit S=0 o 1 a través del canal. El
receptor observa un bit R= 0 o 1, que, con probabilidad , difiere de .
9. TEOREMA DE LA PROBABILIDAD TOTAL
El teorema de la probabilidad total permite calcular las probabilidades de cualquier suceso
como suma de probabilidades condicionadas a los sucesos de una partición de cierto
espacio muestral.
El teorema afirma que, si es un suceso y { } una partición del
espacio de sucesos, de modo que , y ⋃ ,
{ } ∑ { | } { }
La demostración es sencilla: por definición de probabilidad condicional,
∑ { | } { } ∑ { }
Dado que los sucesos { } son disjuntos, puede aplicarse la relación siguiente:
Transmisor Canal Receptor S R
22
{⋃
} ∑
{ }
De modo que:
∑ { }
{⋃
} { ⋃
} { } { }
El teorema de la probabilidad total tiene algunas extensiones inmediatas de interés:
Si los sucesos son realizaciones de las variables aleatorias X e Y de espacios
muestrales { } y { } , respectivamente, la
distribución de probabilidades de X se puede calcular como
∑ | ( | ) ( )
Si la variable X es continua e Y discreta con espacio muestral { },
podemos aplicar el teorema sobre los sucesos de la forma { }, obteniéndose
∑ | ( | ) ( )
Y, derivando respecto de ,
∑ | ( | ) ( )
Si la variable X es discreta e Y continua, la suma anterior debe reemplazarse por
una integral sobre todo su dominio
∫ | |
Por último, si X e Y son continuas
23
∫ | |
Ejemplo 8.1
Consideremos el canal binario simétrico descrito por las probabilidades condicionales en el
ejemplo 7.1. Si la probabilidad de transmitir un “1” es y la de transmitir un “0” es ,
las probabilidades de recibir un “0” y un “1” son
{ } { | } { } { | } { }
{ } { | } { } { | } { }
Obviamente, en este caso también podía haberse calculado { } como { }.
10. CONCLUSIONES.
En estas notas se revisaron las principales definiciones de probabilidad y procesos
estocásticos aplicados a sistemas de comunicaciones electrónicas digitales para el curso de
Sistemas de Comunicaciones II de la Ingeniería en Tecnología Electrónica.
11. BIBLIOGRAFÍA.
[1] LATHI B. P. & DING ZHI. Modern Digital and Analog Communication Systems.
Editorial Oxford University Press. 2009. [2] PROAKIS JOHN G. Fundamentals Communication Systems. Editorial Prentice
Hall. 2004. [3] HERRERA PEREZ ENRIQUE. Comunicaciones II: comunicación digital y ruido;
una introducción a la teoría de la comunicación digital y el ruido. Editorial Limusa,
Grupo Noriega Editores. 2008.