Download pdf - Senales aleatorias

Transcript
Page 1: Senales aleatorias

1

2009

Introducción y Revisión de

Conceptos Básicos Objetivos:

establecer la necesidad del estudio de sistemas físicos desde el punto de vista estocástico; brindar una revisión de algunos temas ya vistos en asignaturas previas;

1.1 INTRODUCCION

En los sistemas eléctricos y electrónicos, en general, se utilizan señales de tensión y de

corriente, tanto para recolectar, procesar y transmitir información, como para controlar y pro-veer energía a diversos dispositivos. Estas señales son funciones del tiempo y pueden ser cla-sificadas en dos grandes categorías: determinísticas y aleatorias.

Una señal determinística puede ser definida como una que atraviesa una trayectoria predeterminada en el tiempo y en el espacio; esto es así pues las fluctuaciones de una señal determinística pueden ser completamente descriptas mediante una función del tiempo y cual-quier valor que pueda asumir la señal es predecible a partir de la descripción funcional de la misma y de su historia.

Por el contrario, una señal aleatoria tiene fluctuaciones impredecibles; es decir, no es posible formular una ecuación que permita conocer el valor futuro exacto de la señal a partir de su historia. Muchos tipos de señales son, al menos parcialmente, aleatorias; tal el caso de una señal de voz o el ruido presente en un canal.

El concepto de aleatoriedad está íntimamente ligado a los conceptos de información y ruido. De hecho, mucho del trabajo sobre el procesamiento de señales aleatorias está relacio-nado con la extracción de información a partir de observaciones ruidosas. Si una señal tiene capacidad de transportar información, debe poseer cierto grado de aleatoriedad pues una señal predecible no transporta información. Luego, la parte aleatoria de una señal es: ruido, infor-mación, o una combinación de ambos. Usualmente, se clasifican como señales aleatorias a las formas de onda que contienen información, mientras que se denomina ruido a la parte no deseada de la señal y que interfiere en nuestro intento de extraer información.

A modo de ejemplo, considérense las formas de onda presentes en un sistema típico de transmisión de datos, en que cierto número de terminales intercambian información binaria mediante un enlace ruidoso con un servidor (figura 1.1).

En este sistema, una interfase en cada nodo convierte los datos binarios a transmitir en una forma de onda eléctrica de forma tal que los dígitos binarios son convertidos en pulsos de T segundos de duración y de una amplitud ± A.

La forma de onda recibida en el otro extremo del enlace es una versión distorsionada y con ruido de la forma de onda original, en la que el ruido refleja las perturbaciones eléctricas o interferencias presentes en el sistema. A partir de esta forma de onda distorsionada, el recep-tor intenta extraer la información binaria transmitida, en un proceso que, ocasionalmente, puede dar lugar a errores.

Cuando se observa el conjunto o ensamble de formas de onda recibidas (mostradas en la figura 1.1), es evidente el carácter aleatorio de las mismas; así, si dirigimos nuestra aten-ción sobre cualquiera de las formas de onda miembros del ensamble, digamos yi(t), en cierto intervalo temporal [t1, t2], vemos que es imposible deducir, a partir de lo observado, cual será el valor de la onda en cualquier otro punto fuera del intervalo. Más aún, el conocimiento de cualquier forma de onda miembro del ensamble, tal como yi(t), no nos permite en absoluto conocer los valores que asumirá otra función miembro como yj(t). En estas condiciones, cabe preguntarse:

Page 2: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 2 de 21

• ¿Cómo afecta el ruido al desempeño de tal sistema? (en términos de habilidad del re-ceptor para recuperar correctamente los datos transmitidos).

• ¿Cómo podemos establecer un modelo para el ensamble considerado? • ¿Cuáles son las propiedades espectrales del ensamble mostrado en la figura 1.1?

Figura 1.1: Ejemplo de proceso aleatorio y secuencia aleatoria Para responder a esas preguntas, se debe poder describir, o caracterizar, al conjunto de

formas de onda, para lo cual utilizaremos un modelo denominado proceso aleatorio. En efecto, aun cuando una señal aleatoria no es predecible, frecuentemente exhibe un

conjunto de características estadísticas bien definidas, tal como un máximo, un mínimo, valor medio, mediana, varianza y densidad espectral de potencia. Así, un conjunto de formas de onda provenientes de un sistema dado, constituye un proceso aleatorio que puede describirse a partir de sus propiedades de conjunto en términos de momentos o, en forma más completa, en términos de modelos probabilísticos para los cuales pueden establecerse todos sus estadís-ticos.

Frecuentemente, a las funciones aleatorias dependientes del tiempo se las denomina señales estocásticas. El término proceso estocástico es ampliamente utilizado para describir procesos aleatorios que generan señales secuenciales: ejemplos de este tipo de señales inclu-yen la voz, la música, las imágenes, canales variantes en el tiempo, video y ruido. En la ter-minología de procesamiento de señales, un proceso estocástico es un modelo probabilístico de cierta clase de señales aleatorias; por ejemplo: procesos Gaussianos, procesos de Markov, de Poisson, etc.; sin embargo, para fines prácticos, puede ser suficiente una descripción en térmi-nos de algunos estadísticos simples tales como la media, la función de autocorrelación y den-sidad espectral de potencia. Tales descripciones (o modelos) son utilizados para desarrollar algoritmos de procesamiento de señales que permitan recuperar la información presente en observaciones físicas. Ejemplos típicos de este tipo de trabajo lo constituyen la recuperación de información que arriba por un canal de comunicaciones ruidoso, la estimación de la ten-dencia de variación de la carga instantánea en un sistema eléctrico de potencia, la estimación de la ubicación de un avión a partir de los datos entregados por un radar, la estimación de una variable de estado en un sistema de control sobre la base de mediciones ruidosas, etc.

Page 3: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 3 de 21

El ejemplo clásico de proceso aleatorio es el denominado movimiento Browniano de partículas en un fluido: en el, las partículas en el seno de un fluido se mueven aleatoriamente debido al bombardeo de partículas de fluido a que están sometidas. El movimiento aleatorio de cada partícula es una realización del proceso estocástico y el movimiento de todas las par-tículas en el fluido forma el ensamble o el espacio de realizaciones del proceso.

Otro ejemplo de señal estocástica es el ruido que puede escucharse en un receptor AM cuando no está sintonizada ninguna emisora. Si reemplazamos el altavoz con un osciloscopio, la señal de tensión visualizada, en función del tiempo, tendrá características irregulares no periódicas y cuyos valores no son predecibles. También son señales aleatorias las fluctuacio-nes instantáneas de carga en un sistema eléctrico de potencia, la salida de un micrófono cuan-do alguien está hablando frente a él, etc.

En los próximos apartados, se define con cierta formalidad lo dicho y, luego de esta introducción, lo que sigue en el capítulo es una revisión de algunos conceptos básicos de pro-babilidad y variables aleatorias ya estudiados.

1.2 SEÑALES ESTOCASTICAS

Como ya se ha dicho, podemos dividir las señales en dos grupos: aquellas que presen-tan un comportamiento fijo y aquellas que varían aleatoriamente (figura 1.2).

SEÑAL DETERMINÍSTICA

SEÑAL ALEATORIA

Figura 1.2: Ejemplo de señales determinísticas (sinusoide) y estocásticas (la señal mostrada resulta de

adicionar ruido a la sinusoide) A diferencia de las señales determinísticas, las señales aleatorias no pueden ser carac-

terizadas mediante expresiones matemáticas o reglas fijas que permitan establecer unívoca-mente que valor asumirán en un momento dado; entonces en estos casos se trata de establecer propiedades que satisfagan un conjunto de señales en lugar de analizar las señales individual-mente. Se hace uso entonces, tal como ya se ha dicho, de las herramientas de probabilidad y estadística para analizar su comportamiento.

Proceso aleatorio.

Al estudiar probabilidad, se asoció un punto de muestra con cada resultado de un ex-

perimento y a la colección de todos los puntos de muestra se la denominó espacio muestral del experimento. Luego, a cada punto de muestra en el espacio muestral se le asignó un núme-ro real X de acuerdo con alguna regla, y una probabilidad de ocurrencia P[X(x)], en lo que constituye la definición de variable aleatoria.

Un proceso aleatorio es una extensión del concepto de variable aleatoria. En el caso de un proceso aleatorio, a cada punto de muestra, que distinguiremos con la notación λ, le corresponde una forma de onda que es función del tiempo t, de acuerdo con alguna regla

Page 4: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 4 de 21

x(t,λ). Por lo tanto, el espacio muestral tendrá asociada una cierta colección de formas de onda y cada una de ellas corresponde a un punto de muestra λ. Esta colección de formas de onda se conoce con el nombre de conjunto aleatorio o ensamble y cada forma de onda individual co-mo función de muestra o realización. El sistema de probabilidades, que comprende el espacio de las muestras, el conjunto aleatorio (o conjunto de realizaciones) y las funciones de probabi-lidad asociadas, constituyen el proceso aleatorio o, más precisamente, proceso estocástico.

A modo de síntesis de todo lo expresado, podemos definir un proceso aleatorio de la siguiente forma:

Un Proceso Aleatorio es una familia o ensamble de señales que corresponden a cada posible resultado de la medición de cierta señal. Cada señal de este en-samble es denominada realización o función muestra del proceso. En la figura 1.3 se muestra un conjunto aleatorio de señales producido por el ruido en

un sistema eléctrico. Este conjunto se puede obtener repitiendo las observaciones en el mismo sistema, u observando simultáneamente los resultados o señales de varios sistemas idénticos.

Figura 1.3: Representación de un proceso estocástico, en que se explicita la dependencia del tiempo y de las realizaciones del proceso.

Notación.

Un proceso estocástico, tal como se ha definido, puede ser denotado como X(t,λ), en la

que t representa al tiempo y λ representa a un resultado de cierto experimento aleatorio en el espacio muestral. Asociado a cada resultado específico, digamos λi, existe una función miem-bro del ensamble xi(t). Cada función miembro o realización del proceso es una función deter-minística del tiempo (aún cuando no pueda ser expresada en forma analítica cerrada).

Para un valor específico del tiempo, digamos t = t1, X(t1,λ) representa una colección de los valores numéricos que asumen las funciones miembros del ensamble para t = t1. El valor concreto dependerá de los resultados del experimento aleatorio y sus formas de onda asocia-das; es decir, X(t1,λ) es una variable aleatoria y las funciones de distribución de probabilidad asociadas dependerán de las probabilidades de los resultados del experimento aleatorio aso-ciado.

Cuando tanto t como λ están fijos en valores tales como t = t1 y λ = λ2, X(t1,λ2) represen-ta el valor numérico de la función ‘2’ del ensamble en el tiempo t1; es decir: X(t1,λ2) = x2(t1).

De acuerdo a la notación establecida en los párrafos precedentes, resulta clara la forma en que X(t,λ) representa al proceso aleatorio; sin embargo, la notación usual para los procesos aleatorios introduce un factor de confusión al omitir λ y representar al proceso aleatorio sim-plemente con X(t), cuyo significado es una colección de formas de onda (o ensamble) que

Page 5: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 5 de 21

ocurren con una cierta medida de probabilidad. En este contexto, una función de muestra (o realización) individual se representará simplemente con x(t). En lo que resta de la asignatura se utilizará esta última notación por ser la utilizada en prácticamente la totalidad de la biblio-grafía sobre el tema.

Clasificación.

Los procesos estocásticos se clasifican de acuerdo a las características del tiempo t y

de los estados X(t); así, en muchos textos se utiliza la nomenclatura indicada en la tabla 1.1 para diferenciar los diferentes tipos de procesos estocásticos.

t X(t) continuo discreto

continuo proceso aleatorio continuo

secuencia aleatoria continua

discreto proceso aleatorio discreto

secuencia aleatoria discreta

Tabla 1.1: Clasificación de procesos aleatorios

Otros atributos utilizados para clasificar los procesos aleatorios se relacionan con la

dependencia temporal de la estructura probabilística de X(t), lo que los identifica como esta-cionarios o no estacionarios, tal como se verá más adelante en este capítulo. También se toma en consideración si son valuados reales o valuados complejos, predecibles o impredecibles, etc.

Definición Formal.

Sea S el espacio muestral de un experimento aleatorio y sea t una variable que puede

tomar valores en el conjunto (la línea real). Un proceso aleatorio valuado real X(t), con es, entonces, una función mensurable sobre

1R⊂ΓΓ∈t S×Γ que mapea S×Γ sobre R1. En caso que

el conjunto sea la unión de uno o más intervalos sobre la línea real, entonces X(t) será un proceso aleatorio; en cambio, si Γ es un subconjunto de enteros, entonces X(t) es una secuen-cia aleatoria.

Γ

Un proceso aleatorio valuado real X(t) queda descrito por sus funciones de distribución de orden n-simo:

[ ]nntXtXtX xtXxtXPxxxFn

≤≤= )(,,)(),,,( 11121)(,),(),( 21LLK Γ∈∀ nttn ,, y 1 K (1.1)

Estas funciones satisfacen todos los requerimientos de las funciones de distribución de

probabilidad conjuntas. Nótese que, si consiste en número finito de puntos, digamos , la secuencia

aleatoria quedará completamente descripta por la función de distribución conjunta del vector aleatorio n-dimensional en que T denota al vector transpuesto.

Γ nttt ,,, 21 K

[ TntXtXtX )(,),(),( 21 L ]

1.3 PROCESOS ALEATORIOS: METODOS DE DESCRIPCION

En general, decimos que un proceso aleatorio puede ser descrito en términos de un ex-perimento aleatorio y su mapeo asociado; dado que tal descripción es una extensión natural del concepto de variables aleatorias, existen diversos métodos que pueden ser utilizados, tanto para caracterizar los procesos aleatorios, como para el diseño de sistemas que procesan este tipo de señales para diversas aplicaciones. Así, consideraremos:

Page 6: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 6 de 21

Descripción Analítica utilizando Variables Aleatorias. En ciertas ocasiones, es posible utilizar las formas analíticas de descripción utilizadas

en lo determinístico para expresar procesos aleatorios con una o más variables aleatorias. A modo de ejemplo, se puede considerar el caso de cierta emisora que transmite un “tono” del tipo x(t) = 100 cos (108t) a un gran número de receptores aleatoriamente distribuidos en un área metropolitana. La amplitud y fase de la forma de onda recibida por el i-esimo receptor depen-de de su distancia al emisor, resultando un conjunto de formas de onda del tipo de las mostra-das en la figura 1.4. Dado que existe un gran número de receptores aleatoriamente distribui-dos, podemos modelar la distancia como una variable aleatoria; por otra parte, dado que la atenuación y fase de la señal son ambas funciones de la distancia, también son variables alea-torias. Así, puede representarse el ensamble de formas de onda recibidas como un proceso aleatorio Y(t) de la forma:

Y(t) = A cos(108t + θ)

en la que A y θ son variables aleatorias representativas de la amplitud y la fase de las formas de onda recibidas. A partir de los supuestos considerados, parece razonable asumir distribu-ciones uniformes, tanto para A como para θ.

Este tipo de representación de procesos aleatorios en términos de una o más variables aleatorias cuya ley de probabilidad es conocida, es utilizado en diversas aplicaciones relacio-nadas con sistemas de comunicaciones.

Figura 1.4: Proceso aleatorio sinusoidal, en que tanto la fase como la amplitud de cada realización son aleatorias

En el ejemplo anterior, sin embargo, el tratamiento se simplifica pues no se considera

la presencia de ruido ni la transmisión de información. Los métodos de descripción más gene-rales son, entonces, los que se mencionan a continuación.

Distribuciones Conjuntas.

Dado que se ha definido un proceso aleatorio como un conjunto indexado de formas

de onda que a su vez son funciones del tiempo, el proceso puede ser descrito mediante fun-ciones de distribución de probabilidad conjunta. Así, para cierto proceso aleatorio X(t), se ob-tendría una descripción que requiere el conocimiento de, al menos, una función de distribu-

Page 7: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 7 de 21

ción de orden n-simo tal como se ha definido mediante la (1.1), para cada valor de n que se deba establecer. Sin embargo, para aplicaciones de telecomunicaciones, sería suficiente el conocimiento de las funciones de distribución de primer y segundo orden (n = 1 y n = 2 res-pectivamente. La función de distribución de primer orden, de forma:

[ ]111 )()( xtXPxF ≤=

describe la distribución de amplitud instantánea del proceso, mientras que la de segundo or-den, de forma:

[ ]221121)(),( )(,)(),(21

xtXxtXPxxF tXtX ≤≤=

permite conocer algunas características de la estructura de la señal en el dominio del tiempo y, consecuentemente, su contenido espectral.

Figura 1.5: funciones de distribución de probabilidad asociadas a t1 y t2

Destaquemos que, si bien las funciones de distribución conjunta de un proceso pueden

ser eventualmente obtenidas a partir de una descripción del experimento aleatorio y su mapeo, no existen técnicas que permitan construir alguna de las funciones miembro del proceso a partir de las funciones de distribución conjunta. Dos procesos diferentes pueden tener la mis-ma distribución conjunta de orden n sin que exista correspondencia uno a uno entre las fun-ciones miembro de los procesos. Valores Medios.

Al igual que el caso de variables aleatorias, los procesos aleatorios pueden ser descrip-

tos en términos de valores medios o esperados. Como ya se mencionó en el apartado anterior, en muchas aplicaciones solo resultan de interés ciertos valores medios derivados de distribu-ciones de primer o segundo orden de X(t). Estos valores medios se definen de la siguiente ma-nera:

Media: La media de X(t) es el valor esperado de la variable aleatoria X(t).

{ } )(ˆ)( tXEtX =μ (1.2)

Así, la media del proceso aleatorio es el promedio de los valores del todas las funciones miembros del ensamble en el tiempo t.

Autocorrelación: La autocorrelación de X(t), denotada por RXX(t1,t2), es el valor esperado del producto X*(t1) X(t2).

{ } )()(ˆ),( 21*

21 tXtXEttRXX = (1.3)

Page 8: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 8 de 21

en la que ‘*’ denota “conjugado”.

Autocovarianza: La autocovarianza de X(t) se define como:

)()(),(ˆ),( 21*

2121 ttttRttC XXXXXX μμ−= (1.4)

La función de autocovarianza es la varianza de la variable aleatoria X(t1) ),( 11 ttCXX

Coeficiente de correlación: El coeficiente de correlación de X(t) se define como:

),(),(),(

ˆ),(2211

2121 ttCttC

ttCttrXXXX

XXXX = (1.5)

Para t1 ≠ t2, los segundos momentos: RXX(t1,t2), y describen par-cialmente la estructura del proceso aleatorio en el dominio del tiempo. Veremos luego el uso de estas funciones para establecer las propiedades espectrales de X(t).

),( 21 ttCXX ),( 21 ttrXX

Estas definiciones, con un cambio adecuado de argumentos, se aplican al caso de se-cuencias aleatorias.

1.4 ESTACIONARIEDAD

Hasta ahora, apenas se ha hecho uso de la dimensión temporal del proceso aleatorio X(t); sin embargo, como se ha dicho, un proceso aleatorio (u estocástico) es una función del tiempo. En efecto, mientras que en el caso de una variable aleatoria se observa su valor sin tener en cuenta el instante en que la lectura tiene lugar, un proceso aleatorio queda constituido por la observación de la evolución temporal de formas de onda. Veremos algunas propiedades útiles a partir de este hecho.

Al estudiar señales y sistemas, se han establecido los conceptos de sistema invariante en el tiempo y de análisis en estado estacionario, los cuales involucran ciertas propiedades útiles para el análisis del comportamiento de los sistemas. En la descripción de procesos alea-torios, la estacionariedad juega un rol similar al describir la invariancia en el tiempo de cier-tas propiedades.

Si bien las funciones miembro de un proceso aleatorio pueden, individualmente, fluc-tuar en función del tiempo, ciertas propiedades de conjunto tales como la media del proceso pueden permanecer constantes en el tiempo. En términos generales, se puede decir que un proceso aleatorio es estacionario si sus funciones de distribución o ciertos valores esperados permanecen invariantes respecto a una traslación del eje del tiempo.

Se definen varios grados de estacionariedad, desde la estacionariedad en sentido es-tricto hasta la forma menos restrictiva, denominada estacionariedad en sentido amplio (o dé-bil). Si bien se definen, además, otros tipos de estacionariedad, a lo largo de la asignatura se hará uso principalmente de las formas de estacionariedad mencionadas. Estacionariedad en Sentido Estricto.

Se dice que un proceso aleatorio X(t) es estacionario en el tiempo o estacionario en

sentido estricto (abreviado como SSS por “Strict-Sense Stationarity”) si todas las funciones de distribución que definen el proceso son invariantes ante una traslación en el tiempo. Es decir que:

LLL 1,2,y )(con ,,,,,,, 2121 =ℜ⊂ΓΓ∈+++∀ ktttttt kk τττ

[ ] [ ]kkkk xtXxtXxtXPxtXxtXxtXP ≤+≤+≤+=≤≤≤ )(,,)(,)()(,,)(,)( 22112211 τττ LL (1.6)

Page 9: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 9 de 21

Si esta definición es válida para todas las funciones de distribución de orden k-ésimo, con k = 1,···, N pero no necesariamente para k > N, se dice que el proceso es estacionario de orden k.

A partir de la ecuación (1.6) se ve que, para un proceso SSS resulta:

[ ] [ ]xtXPxtXP ≤+=≤ )()( τ (1.7)

para todo τ; en consecuencia, la distribución de primer orden es independiente de t. Dado que esto describe la distribución de la amplitud instantánea, se cumple que para un proceso SSS es:

{ } constante )( == xtXE μ (1.8)

De la misma forma, se ve que:

[ ] [ ]22112211 )(,)()(,)( xtXxtXPxtXxtXP ≤+≤+=≤≤ ττ (1.9)

para todo τ, lo que implica que la distribución de segundo orden es, estrictamente, una función de la diferencia de tiempos t1 – t2. Como consecuencia de lo visto, dado que la (1.9) establece la relación entre X(t1) y X(t2), se concluye que la función de autocorrelación será una función de la diferencia de tiempos t1 – t2. La función de autocorrelación de un proceso SSS se denota como RXX(t2 – t1) y se define como:

{ } )()()( 1221* ttRtXtXE XX −= (1.10)

Se debe, en este punto, dejar sentado que un proceso aleatorio con media constante y

función de autocorrelación que depende únicamente de la diferencia de tiempos t1 – t2 no ne-cesariamente es estacionario en sentido estricto. Estacionariedad en Sentido Débil.

Dadas las dificultades prácticas que se pueden presentar al pretender establecer la

(1.6), se puede definir una forma menos restrictiva de estacionariedad a partir del conocimien-to de la media y de la función de autocorrelación, de la siguiente forma: se dice que un proce-so aleatorio X(t) es estacionario en sentido amplio o débilmente estacionario (WSS por “Wi-de-Sense Stationarity”) si su media es constante y su función de autocorrelación depende úni-camente de la diferencia de tiempos; es decir:

{ } xtXE μ=)( (1.11a)

{ } )()()(* ττ XXRtXtXE =+ (1.11b) Es fácil mostrar, de acuerdo a lo visto, que SSS implica WSS, aunque, en general, no

así a la inversa. Uno de los pocos casos en que WSS implica SSS es el proceso aleatorio Gaus-siano.

Otras Formas de Estacionariedad.

Se dice que cierto proceso aleatorio X(t) es asintóticamente estacionario si la distri-bución de )(,),(),( 21 τττ +++ ntXtXtX L no depende de τ cuando τ es grande.

Un proceso X(t) es estacionario en un intervalo si la ecuación (1.6) es válida para to-do τ tal que τττ +++ kttt ,,, 21 L permanezcan en un intervalo que sea un subconjunto de Γ.

Se dice que un proceso X(t) posee incrementos estacionarios si sus incrementos )()()( tXtXtY −+= τ forman un proceso estacionario para cada τ. Los procesos de Poisson y

Wiener son ejemplos de procesos con incrementos estacionarios.

Page 10: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 10 de 21

Finalmente, se dice que un proceso es ciclo estacionario o periódicamente estacio-nario si es estacionario cuando el origen es desplazado en múltiplos enteros de cierta constan-te T0 (que es el período del proceso).

Procesos No Estacionarios.

De acuerdo a lo visto, un proceso aleatorio X(t) es no estacionario si las distribucio-

nes que lo definen varían con el tiempo. Muchos procesos estocásticos, tales como señales de video o audio, datos meteorológicos, señales biomédicas, etc. son no estacionarios pues son generados por sistemas cuyo entorno y parámetros varían en el tiempo. Por ejemplo, la señal de voz constituye un proceso no estacionario generado por un sistema articulador que es va-riante en el tiempo; tanto la intensidad como la composición espectral de la señal varían con el tiempo, a veces abruptamente. Este tipo de procesos no estacionarios suele ser modelado mediante combinaciones de procesos aleatorios estacionarios, tal como se muestra en la figura 1.6. En la figura 1.6.a se muestra un proceso no estacionario modelado como la salida de un sistema variante en el tiempo cuyos parámetros son controlados por un proceso estacionario. En la figura 1.6.b, un proceso no estacionario es modelado mediante un a cadena finita de estados invariantes en el tiempo, cada uno de esos estados posee funciones de distribución de probabilidad diferentes.

+

excitación de estado

Modelo de Estado(estacionario)

Modelo de señalvariante en el tiempo

ruido

S1

S3S2

(a) (b)

Figura 1.6: Modelos para procesos no estacionarios: (a) un proceso estacionario da valores a los parámetros de un proceso continuamente variante en el tiempo. (b) un modelo de estados finitos;

cada estado posee diferentes distribuciones

1.5 AUTOCORRELACION DE PROCESOS WSS REALES Al considerar procesos aleatorios estacionarios, la función de autocorrelación RXX(τ)

permite conocer la tasa de cambio en función del tiempo que se puede esperar de un proceso aleatorio. En efecto, si la función de autocorrelación decae rápidamente a cero, significa que se puede esperar que el proceso cambie rápidamente en el tiempo; por el contrario, si la fun-ción de autocorrelación decae lentamente, el proceso presentará cambios lentos en el tiempo. Además, si la función de autocorrelación posee componentes periódicas, el proceso subyacen-te también las poseerá. De aquí puede concluirse, correctamente, que la función de autocorre-lación contiene información sobre el contenido de frecuencias esperado del proceso aleatorio. El principal tema a considerar en este apartado, es la relación entre la función de autocorrela-ción y el contenido de frecuencias de un proceso aleatorio. En todo lo que se diga, se conside-ra que los procesos aleatorios mencionados son valuados reales. Sin embargo, los conceptos pueden ser extendidos a procesos aleatorios valuados complejos.

Page 11: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 11 de 21

Propiedades de la Función de Autocorrelación de procesos WSS.

La función de autocorrelación de un proceso aleatorio WSS valuado real se define como:

{ })()()( ττ += tXtXERXX Discutiremos brevemente ciertas propiedades generales que son comunes a todas las

funciones de autocorrelación de procesos aleatorios estacionarios. 1. Si se considera que X(t) es una tensión a través de una resistencia de 1 Ω, el valor

medio de X2(t) es la potencia media disipada en dicha resistencia por X(t):

{ }0)0( Media Potencia )(2

≥==

XXRtXE (1.12)

2. RXX(τ) es una función par de τ: RXX(τ) = RXX(-τ) (1.13)

3. RXX(τ) está acotada por RXX(0): |RXX(τ)| ≤ RXX(0)

4. Si X(t) contiene componentes periódicas, entonces RXX(τ) también contendrá com-

ponentes periódicas.

5. Si RXX(T0) = RXX(0) para cierto T0 ≠ 0, entonces RXX es periódica con período T0.

6. Si CRXX =∞→

)(Lím ττ

, entonces C = μ2X

7. Si RXX(0) < ∞ y RXX(τ) es continuo en τ = 0, entonces lo será para todo τ. Las propiedades 2 a 7 establecen que no cualquier función arbitraria puede ser una

función de autocorrelación.

1.6 DENSIDAD ESPECTRAL DE POTENCIA

Hasta aquí, todo lo dicho acerca de los procesos aleatorios ha sido en el dominio del tiempo. Es decir, hemos caracterizado los procesos en términos de valores esperados y hemos utilizado funciones tales como la autocorrelación, autocovarianza y correlación cruzada sin considerar sus propiedades espectrales.

En este punto, se llevará a cabo una caracterización espectral de los procesos estocásti-cos en el dominio de Fourier; es decir, en el dominio de la frecuencia. Como es sabido, el do-minio de las transformadas hace que ciertas operaciones, en particular la de filtrado, sean más intuitivas que en dominio temporal original. El motivo es que la convolución es una operación de cierta complejidad, mientras que equivalente en el dominio transformado es un simple pro-ducto entre transformadas. Así, en el caso de un filtro, si efectuamos el producto entre la transformada de Fourier (TF) de la señal de entrada y la TF de la respuesta impulsiva del fil-tro, podemos conocer, directamente, qué extensión espectral tendrá la señal de salida del fil-tro.

Para poder hacer uso de esta herramienta, debemos relacionar la teoría de los procesos estocásticos con la teoría de los sistemas lineales. Una manera inmediata de hacerlo sería lle-var a cabo el siguiente razonamiento: dado que los procesos aleatorios son una colección de funciones temporales, podríamos limitarnos a calcular las TFs de las infinitas posibles realiza-ciones del mismo (suponiendo que estas existan) y así tendríamos la caracterización del pro-ceso en el dominio espectral. Este razonamiento es correcto, aunque poco práctico; el motivo es obvio, nos obligaría a trabajar con una colección de funciones transformadas. Sería mucho

Page 12: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 12 de 21

más útil poder definir una única función espectral que caracterizase conjuntamente a todas las posibles realizaciones del proceso. En cierta manera, sería algo equivalente a un espectro promedio del proceso. Con esa función, a la que denominaremos densidad espectral de poten-cia del proceso, podríamos ver, por ejemplo, si el discurso de un locutor puede pasar sin dis-torsión a través de un determinado sistema lineal (un amplificador) con independencia de lo que el locutor diga en concreto, haciendo uso de las características globales de la voz de dicho locutor.

Establecimiento de la Densidad Espectral de Potencia

Las propiedades espectrales de una señal determinística x(t) quedan contenidas en su

transformada de Fourier X(ω), la que se define como:

∫∞

∞−

−= dtetxX tjωω )()( (1.14)

La función X(ω), a veces denominada simplemente espectro de x(t), tiene unidades de volt por hertz cuando x(t) tiene unidades de volts y describe el modo en que se distribuye una señal de tensión con la frecuencia. La TF puede, consecuentemente, ser considerada como la densidad espectral de tensión de x(t). Dado que en la descripción dada por X(ω) está presente tanto la amplitud como la fase de x(t), si conocemos X(ω) podemos recuperar x(t) mediante la transformada inversa de Fourier, definida como:

∫∞

∞−= ωω

πω deXtx tj)(

21)(

Ahora bien, si intentamos aplicar la (1.14) a un proceso estocástico, nos enfrentaremos

inmediatamente a diversos problemas. El primero de ellos es que no se puede garantizar la convergencia de la integral, y por lo tanto la existencia de X(ω), para todas las realizaciones del proceso. Así, en principio, no podemos hacer uso de las TF para obtener las características espectrales de los procesos aleatorios a menos que podamos asegurar, de alguna forma, que la integral de Fourier converge.

A tal fin consideremos, en principio, cierto proceso aleatorio X(t) a partir del cual defi-nimos otro proceso XT(t) el cual coincidirá con el primero en una parte del eje temporal y será nulo en el resto; es decir:

⎪⎩

⎪⎨⎧

>

≤=

Tt

TttXtXT 0

)()(

Consideraremos que el proceso así definido, dado que T es finito, satisface:

∫−∞<

T

TT dttX )(

con lo que podemos afirmar que la TF del proceso XT(t) (es decir, la de cada una de las realiza-ciones xT(t) de dicho proceso) existe y está dada por:

dtetxdtetxX tjT

T

tjT

TTT

ωωω −

− ∫∫ == )()()( (1.15)

Si consideramos que X(t) es un proceso real e interpretamos a x(t) como una tensión a bornes de una impedancia de 1 Ω o como una corriente a través de la misma impedancia, la energía contenida en el intervalo (-T, T) es:

dttxdttxTET

T

T

TT ∫∫ −−

== )()()( 22

No debe perderse de vista que, dado que el proceso estocástico es una colección de va-riables aleatorias, la energía así definida es una función de variable aleatoria y, por lo tanto

Page 13: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 13 de 21

una variable aleatoria. Dado que xT(t) es transformable, en virtud del teorema de Parseval para señales continuas, podemos escribir:

∫∫∞

∞−−== ωω

πdXdttxTE T

T

T

22 )(21)()(

Si dividimos esta expresión por la longitud del intervalo considerado, obtenemos la potencia promedio contenida en x(t) en el intervalo considerado; es decir:

∫∫∞

∞−−== ω

ωπ

dT

Xdttx

TTP TT

T 2)(

21)(

21)(

22 (1.16)

En este punto, podemos ver que el integrando del último término de (1.16) es una den-sidad espectral de potencia pues su integración da por resultado una potencia. Sin embargo, no es la función buscada por varias razones. Una es que la (1.16) no representa la potencia de toda la realización; para que lo sea, resta el paso de considerar T arbitrariamente grande. Otra es que (1.16) es solo la potencia de una función miembro y no representa la del proceso.

En síntesis, para obtener la función de densidad espectral de potencia debemos tomar el límite de T → ∞ y considerar los valores esperados a fin de obtener la expresión buscada, es decir:

[ ] [ ]ω

ωπ

dT

XEdttXE

TP T

T

T

TTXX ∫∫∞

∞− ∞→−∞→==

2)(

lim21)(

21lim

22 (1.17)

La expresión (1.17) establece dos hechos importantes; en primer término, la potencia promedio PXX en un proceso aleatorio X(t) está dada por el promedio temporal de su segundo momento, es decir:

[ ] [ ]T

T

TTXX tXEdttXET

P )()(21lim 22 == ∫−∞→

en caso que el proceso sea WSS, resulta que E[X2(t)]= ; es decir, una constante y PXX= . En segundo término, PXX puede ser obtenida a partir de una integración en el dominio de la frecuencia; en efecto, si definimos la Densidad Espectral de Potencia para el proceso aleato-rio como:

2Xμ 2

[ ]T

XES T

TXX 2)(

lim)(2ω

ω∞→

= (1.18)

la integral en cuestión es:

∫∞

∞−= ωω

πdSP XXXX )(

21

En síntesis, se denomina a SXX(ω) Densidad Espectral de Potencia del proceso X(t) pues es una función que, integrada en el eje de las frecuencias proporciona la potencia media desarrollada por el proceso sobre una resistencia normalizada de 1 Ω. Por lo tanto, mide como se reparte la potencia media del proceso en cada una de las frecuencias que contribuyen a la formación del mismo.

Relación entre Función de Densidad Espectral de Potencia y función de Autocorrelación

Si utilizamos la (1.15), definición de XT(ω), para introducirla en la (1.18) que define la

densidad espectral de potencia, tenemos:

[ ] )()(21lim

)()(21lim)(

2121

2211

21

21

∫∫

∫∫

−∞→

−∞→ ⎥⎦⎤

⎢⎣⎡=

T

T

tjtjT

TT

T

T

tjT

T

tj

TXX

dtdteetXtXET

dtetXdtetXT

ES

ωω

ωωω

Page 14: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 14 de 21

La esperanza indicada en el integrando se identifica como la función de autocorrela-ción de X(t), de modo que resulta:

),(21lim)( 21

)(21

12∫∫ −

−−

−∞→=

T

T

ttjXX

T

TTXX dtdtettRT

S ωω (1.19)

Si introducimos ahora un cambio de variables de la forma:

t = t1 dt = dt1

τ = t2 – t1 = t2 – t dτ = dt2 la expresión dada por (1.19) se transforma en:

),(21lim)( ∫∫ −

−−

−−∞→+=

T

T

jXX

tT

tTTXX dedtttRT

S ττω ωτ

Si a continuación tomamos límite con respecto a la integral en τ, podemos intercam-biar las operaciones de límite e integración para tener:

),(21lim)( ττω ωτ dedtttRT

S jT

TXXTXX

−∞

∞− −∞→∫ ∫ ⎭⎬⎫

⎩⎨⎧ +=

Así, la cantidad encerrada entre llaves se reconoce como el promedio temporal de la función de autocorrelación del proceso, resultando:

),()( T ττω ωτ dettRS jXXXX

−∞

∞−∫ +=

Esta última expresión muestra que la función de densidad espectral de potencia y el promedio temporal de la función de autocorrelación del proceso forman un par en el campo de las TF.

En el caso en que X(t) es, al menos, WSS, se verifica que )(),( ττ XXTXX RttR =+ con lo que se obtiene:

∫∞

∞−

−= ττω ωτ deRS jXXXX )()( = F [RXX(τ)] (1.20a)

y

∫∞

∞−= ωω

πτ ωτ deSR j

XXXX )(21)( = F -1 [SXX(ω)] (1.20b)

Las expresiones (1.20a) y (1.20b) son conocidas como relaciones de Wiener – Khin-chine y forman el nexo básico entre las descripciones en el dominio del tiempo (funciones de autocorrelación) y en el dominio de la frecuencia (espectro de potencia). A partir de lo visto, es evidente que el conocimiento del espectro de potencia de un proceso permite la recupera-ción completa de la función de autocorrelación cuando X(t) es, al menos, WSS. En caso de procesos no estacionarios, solo pueden recuperarse promedios temporales.

Propiedades de la función de densidad espectral de potencia

1.- SXX(ω) es una función real. Nótese que, de acuerdo a la (1.18), se calcula a partir de la es-

peranza de un módulo al cuadrado de un número complejo; por lo tanto, es una esperanza de una magnitud real y, en consecuencia, real.

2.- ωω ∀≥ 0)(XXS . En efecto, siendo la esperanza de una magnitud no negativa, no puede ser negativa.

3.- Si el proceso X(t) es real y estacionario, SXX(ω) = SXX(-ω), es decir, es una función par. Esto es debido a que es igual a la TF de RXX(τ), función que, según se ha visto, es real y par si el proceso X(t) es real y estacionario. Si el proceso X(t) fuese complejo, SXX(ω) sería una fun-ción hermítica, puesto que también lo sería la autocorrelación RXX(τ).

Page 15: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 15 de 21

4.- Habida cuenta de la relación entre el valor cuadrático medio de un proceso estocástico WSS y su función de autocorrelación, se verifica que:

[ ]∫∞

∞−=== )()0()(

21 2 tXERdSP XXXX ωωπ

5.- Si X(t) tiene componentes periódicas, entonces SXX(ω) tendrá impulsos. 6.- Si X(t) es, al menos, WSS, la función de densidad espectral de potencia y la función de

autocorrelación forman un par de TF de la forma:

∫∞

∞−

−= ττω ωτ deRS jXXXX )()( y ∫

∞−= ωω

πτ ωτ deSR j

XXXX )(21)(

Ejemplo:

Hallar la función de densidad espectral de potencia del proceso aleatorio:

X(t) = 10 cos(2000πt + θ) en el que θ es una variable aleatoria con una función de distribución de probabilidad uniforme en el intervalo [-π, π]

Solución:

RXX(t1,t2) = E[X(t1)X(t2)] = E[10 cos(2000πt1 + θ) 10 cos(2000πt2 + θ)] haciendo: t1 = t y t2 = t + τ es:

[ ]

[ ]

[ ]

)2000cos(50 )(

)220004000cos(50)2000cos(50

)220004000cos()2000cos(2

10

)20002000cos(10)2000cos(10),(2

πττ

θπτππτ

θπτππτ

θπτπθπτ

=

+++=⎭⎬⎫

⎩⎨⎧

+++=

+++=+

XX

XX

R

tE

tE

ttEttR

La función de autocorrelación resultante se muestra en la figura 1.7. La función de densidad espectral de potencia buscada se obtiene por simple transformación, haciendo:

SXX(f)= F [RXX(τ)] = 50[½ δ (f - 1000) + ½ δ (f + 1000)] = 25[δ (f - 1000) + δ (f + 1000)]

Figura 1.7: Función de autocorrelación del ejemplo

Page 16: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 16 de 21

la función de densidad espectral de potencia del proceso, que se muestra en la figura 1.8, posee dos componentes discretas en el dominio de las frecuencias en f = ± 1000 Hz. Nótese, que:

∫∞

∞−== dffSR XXXX )(

210)0(

2

Puede verificarse que si consideramos X(t) = 10 sen(2000πt + θ); se obtiene la misma función de densidad espectral de potencia, lo cual ilustra que la función de densidad espectral de potencia no contiene ninguna información de la fase del proceso original.

Figura 1.8: Función de densidad Espectral de Potencia del ejemplo A continuación, brindaremos una serie de definiciones que serán de utilidad en capítu-

los posteriores. Procesos pasabajos y pasabanda.

Se dice que un proceso aleatorio es pasabajos, con ancho de banda B, si su función de

densidad espectral de potencia (psd por sus iniciales en ingles) es cero cuando |f | > B. Por otra parte, se dice que un proceso aleatorio es pasabanda si su psd es cero fuera de la banda defi-nida por:

22BffBf cc +≤≤−

Usualmente, se conoce a fc como frecuencia central y a B como ancho de banda del

proceso. En la figura 1.9 se muestran ejemplos de espectros pasabajos y pasabanda. Nótese que se utilizan tanto valores de frecuencia positivos como negativos y que la psd se muestra a ambos lados de f = 0. Tal caracterización espectral se denomina psd bilateral.

Figura 1.9: Ejemplos de Densidades Espectrales de Potencia

Page 17: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 17 de 21

Cálculos de Potencia y Ancho de Banda. Tal como ya se ha expresado en la propiedad 4, el área bajo la psd representa la poten-

cia total en X(t). La potencia en una banda finita de frecuencias f1 a f2 estará dada por el área bajo la psd entre –f2 y -f1 más el área entre f1 y f2; así, para X(t) real:

[ ] ∫=2

1

)(2, 21

f

fXXX dfSffP ω

La demostración de esta expresión se deja para el próximo capítulo; sin embargo, la

figura 1.10 muestra que, al menos, es razonable. El factor 2 aparece en la ecuación al conside-rar una función de densidad espectral de potencia bilateral y SXX(ω) es una función par.

Figura 1.10: Cálculos de Potencia Ciertos procesos presentan funciones de densidad espectral de potencia con valores no

nulos para cualquier valor no nulo de ω; en estos casos, se utilizan algunos indicadores como medida de la dispersión de la densidad espectral de potencia en el dominio de la frecuencia. Una medida usual es, para estos casos el ancho de banda efectivo (o ancho de banda equiva-lente) Beff, el que se define, para procesos aleatorios de media nula con densidad espectral de potencia continua, como (ver figura 1.11):

[ ])(max

)(

21

fS

dSB

XX

XX

eff

∫∞

∞−=

ωω

Figura 1.11: Definición de Ancho de Banda equivalente para un proceso pasabajos

El ancho de banda efectivo se relaciona con una medida de la dispersión de la función de autocorrelación denominada tiempo de correlación τc:

)0(

)(

XX

XX

c R

dR∫∞

∞−=ττ

τ

Si SXX(ω) es continuo y tiene un máximo en f = 0, puede demostrarse que:

Page 18: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 18 de 21

ceffB

τ21

=

Otras medidas de dispersión del espectro incluyen, entre otras, al ancho de banda

RMS, definido como la “desviación standard” de la SXX(ω):

∫∫

∞−

∞−=ωω

ωωω

dS

dSW

XX

XX

RMS

)(

)(2

2

1.7 ERGODICIDAD En el análisis y diseño de sistemas que procesan señales aleatorias, frecuentemente se

asume que se posee conocimiento previo de cantidades tales como medias, funciones de auto-correlación y densidad espectral de potencia de los procesos estocásticos involucrados. En muchas aplicaciones, sin embargo, tal conocimiento previo no existe y, para que la teoría de procesos aleatorios sea útil, debemos ser capaces de estimar los valores mencionados a partir de datos disponibles.

Desde un punto de vista práctico, resulta muy atractiva la idea de poder hacer esti-maciones a partir de datos registrados de una realización del proceso aleatorio. En efecto; si se desea estimar la media μX(t) del proceso aleatorio X(t), el procedimiento usual es observar los valores de X(t) a través de cierto número de realizaciones y calcular la media de los mis-mos para usar este valor como una estimación de la media del ensamble μX(t) ya que, como sabemos, la media está definida como un promedio de todo el ensamble. En cambio, si úni-camente se tiene acceso a una única realización del proceso, digamos x(t), se puede obtener un promedio temporal de la forma:

dttxT

txT

TT)(1)(

2/

2/∫−= (1.21)

el que sería deseable poder usar como estimación de la media del proceso μX(t). Nótese que, dada una realización del proceso, su media temporal

Ttx )( es una constante, mientras que si consideramos el conjunto de valores tomados de todas las realizaciones posibles, E{X(t)} es una variable aleatoria de la cual el valor obtenido en (1.21) puede ser un valor particular. Ahora bien, si el proceso subyacente es WSS, μX(t) es una constante (es decir, independiente de t) y la bondad de la estimación obtenida mediante la (1.21), dependerá de la forma en que la esperanza de la media temporal tienda a μX(t) y la varianza de la media temporal tienda a cero cuando T → ∞. Así, si:

{ } XTTtXE μ=

∞→)(Lim y { } 0)(varLim =

∞→ TTtX

podemos concluir que la media temporal converge a la media del ensamble. En general, las media temporal y las medias del proceso aleatorio no son iguales, excepto en una clase muy especial de procesos, llamados ergódicos.

El problema de determinar las propiedades de un proceso aleatorio a partir de una única función miembro del proceso de duración finita, pertenece a la Estadística y será tratado más adelante. En lo que sigue, se verán las condiciones bajo las cuales los promedios tempo-rales igualan las medias de proceso. Centraremos la atención en la media y las funciones de autocorrelación y densidad espectral de potencia de procesos estocásticos estacionarios.

Page 19: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 19 de 21

Definición de Ergodicidad.

Se llama ergódico a un proceso aleatorio estacionario X(t) si sus propiedades de con-junto igualan a las homólogas temporales. Esto significa que cualquier media del proceso X(t) puede ser obtenida a partir de una función miembro cualquiera de X(t). En la mayor parte de las aplicaciones, solo estamos interesados en ciertas propiedades de conjunto tales como me-dia y función de autocorrelación, de modo que solo suele definirse la ergodicidad respecto a estas propiedades. Al presentar estas definiciones, se consideran promedios temporales en intervalos finitos (-T/2, T/2) y las condiciones bajo las cuales la varianza de los promedios temporales tiende a cero cuando T → ∞.

Debe consignarse que la ergodicidad es una condición más restrictiva aún que la es-tacionariedad y que no todos los procesos estacionarios son ergódicos. Más aun, usualmente la ergodicidad se define en relación con uno o más momentos específicos y el hecho que un proceso sea ergódico con relación a determinada media del proceso, no implica que lo sea respecto a otra. Ergodicidad de la Media. Se dice que un proceso X(t) es ergódico en la media si se verifica que:

XTXT

μμ =∞→

L.i.m.

en la que L.i.m. indica convergencia en el sentido medio cuadrático, el cual requiere que:

{ } XTXTE μμ =

∞→Lim y { } 0varLim =

∞→ TXTμ

Ahora bien, el valor esperado de TXμ para un valor finito de T está dado por:

{ } { } X

T

TX

T

T

T

TTX dt

TdttXE

TdttXE

TE μμμ ===

⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧

= ∫∫∫−−−

2

2

2

2

2

2

1)(1)(1

mientras que la varianza de TXμ puede ser obtenida a partir de la expresión general de la

varianza para una media temporal, la cual se demuestra que es:

{ } τττ

μ dCTT XX

T

TTX )( 11var ∫

⎥⎦

⎤⎢⎣

⎡−=

Si la varianza dada por la ecuación precedente tiende a cero, entonces X(t) es ergódica en la media. Nótese, que { }

TXE μ , para procesos WSS, es siempre igual a μX; luego, un proce-so X(t) es ergódico en la media si:

0)( 11lim =⎥

⎤⎢⎣

⎡−∫

−∞→

τττ

dCTT XX

T

TT (1.22)

Si bien la (1.22) establece la condición para la ergodicidad en la media de X(t), no es de mucha utilidad práctica; en efecto, a fin de utilizar la (1.22), debemos tener conocimiento de la CXX(τ). Sin embargo, la (1.22) puede ser de utilidad en aquellos casos en que se posee un conocimiento parcial de CXX(τ); por ejemplo, si se sabe que |CXX(τ)| decrece exponencialmente para valores grandes de |τ |, podemos considerar que la (1.22) se satisface y, por lo tanto, el proceso es ergódico en la media.

Page 20: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 20 de 21

Ergodicidad de la Función de Autocorrelación. Se dice que un proceso X(t) es ergódico en la función de autocorrelación si se verifica que:

)()(L.i.m. αα XXTXXT

RR =∞→

Puede demostrarse que:

{ } )()( αα XXTXX RRE = y que:

{ } τττ

α dCTT

R ZZ

T

TTXX )( 11)(var ∫

⎥⎦

⎤⎢⎣

⎡−= (1.23)

en la que Z(t) = X(t)X(t+α). Como en el caso de la media temporal, el valor esperado de la función de autocorrela-ción temporal iguala a la del proceso independientemente del período T considerado. Por otra parte, si el lado derecho de la (1.23) tiende a cero a medida que T → ∞, entonces la función de autocorrelación temporal iguala a la del proceso. En consecuencia, para cualquier α dado,

)()(L.i.m. αα XXTXXT

RR =∞→

si

{ }[ ] 0)(()( 11lim

2 =−+⎥⎦

⎤⎢⎣

⎡−∫

−∞→

ταττ

dRtZtZETT XX

T

TT

siendo Z(t) = X(t)X(t+α). Nótese, que para verificar la ergodicidad de la función de autocorrelación es necesario el conocimiento de momentos de cuarto orden del proceso. Ergodicidad de la Función de Densidad Espectral de Potencia. La densidad espectral de potencia de un proceso aleatorio WSS juega un rol muy im-portante en el análisis y diseño de sistemas de procesamiento de señales; por lo tanto, la de-terminación de las características espectrales de los procesos aleatorios a partir de datos expe-rimentales es un problema corriente de la ingeniería. La densidad espectral de potencia puede ser estimada a partir de tomar la TF de la fun-ción de autocorrelación temporal. Un método más rápido de estimación involucra a la media temporal; en efecto, se puede hacer:

22

2

)2exp()(1)( ∫−

−=T

TTXX dtftjtX

TfS π

que recibe el nombre de periodograma del proceso. Nótese que la integral representa la trans-formada finita de Fourier; el módulo de la TF elevada al cuadrado representa la función de densidad espectral de energía (teorema de Parseval) y 1/T es el factor de conversión para pa-sar del espectro de energía al de potencia. Desafortunadamente, esta densidad espectral de potencia temporal no converge a la función homóloga del proceso cuando T → ∞. Por otra parte, tal como se mostrará en el últi-mo capitulo, cuando:

{ } )()(Lim fSfSE XXTXXT=

∞→

la varianza de TXX fS )( no tiende a cero cuando T → ∞. El problema de la estimación de

funciones de densidad de potencia se verá en el capítulo 7; entre tanto, apuntaremos aquí que

Page 21: Senales aleatorias

Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 1 – Pág. 21 de 21

en este caso, la sustitución directa de la función temporal TXX fS )( por la del proceso

es incorrecta. )( fS XX

Otras Formas de Ergodicidad. Se han definido varias formas de ergodicidad además de las ya estudiadas; mencione-mos, entre ellas, las siguientes:

Procesos Débilmente Ergódicos. Se dice que un proceso aleatorio es Débilmente Ergódico (WSE) si es ergódico en la media y en la función de autocorrelación.

Procesos con Distribución Ergódica. Se dice que un proceso aleatorio es de Distribución Ergódica si las funciones de distribución temporales estimadas son iguales a las funciones de distribución apropiadas del ensamble.

Verificación de Ergodicidad.

Las condiciones de ergodicidad, tal como han podido definirse, son de uso limitado en aplicaciones prácticas dado que su verificación requiere el conocimiento previo de paráme-tros que, usualmente, no están disponibles. Excepto en ciertos casos simples, usualmente es muy dificultoso establecer cuando cierto proceso estocástico cumple las condiciones de ergo-dicidad para determinado parámetro en particular. En la práctica, se está forzado a considerar el origen físico del proceso aleatorio para extraer conclusiones sobre ergodicidad.

Para que un proceso sea ergódico, cada una de las funciones miembro del ensamble debe permitir deducir que el proceso subyacente genera señales ergódicas, aún cuando lo que se observa es una simple señal temporal. Por ejemplo; si consideramos las funciones miem-bros de una forma de onda binaria aleatoria, el carácter aleatorio y ergódico es evidente en cada una de ellas y es razonable pensar que el proceso sea, en algún sentido, ergódico. Por el contrario, si observamos una realización de un proceso que presenta un valor aproximadamen-te constante en el tiempo, no podemos intuir nada acerca de cómo lucirá otra realización del mismo proceso (un promedio temporal de tal señal no aporta nada acerca de, por ejemplo, la media del proceso). En síntesis, una justificación intuitiva acerca de la ergodicidad de un pro-ceso, reside en decidir si una función miembro luce como una “verdadera señal ergódica” cuyas variaciones en el tiempo pueda considerarse que representan una variante típica de las del ensamble. Bibliografía. Papoulis, A.; Probability, Random Variables and Stochastic Process. 3rd Ed. (1991) McGraw-Hill. Shanimugan, K. & Breipohl, A.; Random Signal: Detection, Estimation and Data Analysis. (1988) John Willey & Sons Ltd. Vaseghi, Saced V.; Advanced Digital Processing and Noise Reduction 2nd Ed. (2000) John Willey & Sons Ltd. Briceño Márquez, J.; Principios de las Comunicaciones. 3ra Ed. (2005) Publicaciones ULA