Author
edison-segovia
View
223
Download
0
Embed Size (px)
7/22/2019 procesos estocasticos discretos
1/13
DEPARTAMENTO DE ELCTRICA Y ELECTRNICA
CARRERA DE INGENIERA ELECTRNICA
ASIGNATURA: PROCESOS ESTOCASTICOS
NRC:
EXPOSICION:
Procesos Estocsticos Discretos
INTEGRANTES
Ballagn Dayana
Crdenas AndreaSegovia Edison
Tamayo Santiago
16/Diciembre/2013
7/22/2019 procesos estocasticos discretos
2/13
INDICE
7/22/2019 procesos estocasticos discretos
3/13
1. TEMA:Procesos Estocsticos en tiempo discreto
2. OBJETIVOS:General:
Determinar en qu consisten los procesos Estocsticos en tiempo discreto
Especficos:
Reconocer un proceso estocstico en tiempo discreto
Obtener habilidades para la resolver ejercicios
Determinar las aplicaciones ligadas a sistemas de comunicacin
3. MARCO TEORICO3.1. Procesos estocsticosSe denomina proceso estocstico a toda variable que evoluciona a lo largo del tiempo de
forma total o parcialmente aleatoria.
Por ejemplo, el nmero de personas que espera ante una ventanilla de un banco en un instante
t de tiempo; el precio de las acciones de una empresa a lo largo de un ao; el nmero de
parados en el sector de Hostelera a lo largo de un ao
La primera idea bsica es identificar un proceso estocstico con una sucesin de v.a. {Xn, n N} donde el subndice indica el instante de tiempo (o espacio) correspondiente.
Esta idea inicial se puede generalizar fcilmente, permitiendo que los instantes de tiempo en
los que se definen las v.a.sean continuos.
3.1.1 Definicin (Proceso Estocstico)
Un proceso estocstico es una coleccin o familia de variables aleatorias {Xt, con t T},ordenadas segn el subndice t que en general se suele identificar con el tiempo.
Por tanto para cada instante t tendremos una variable aleatoria distinta representada por Xt,
con lo que un proceso estocstico puede interpretarse como una sucesin de variables
aleatorias cuyas caractersticas pueden variar a lo largo del tiempo. Por ejemplo, si
observamos solo unos pocos valores de t, tendramos una imagen similar a la de la figura
siguiente:
7/22/2019 procesos estocasticos discretos
4/13
Ilustracin 1 Grafica de un Proceso estocstico
En la que se representa para cada t la funcin de densidad correspondiente a Xt. Aunque en la
figura se han representado unas funciones de densidad variables, un proceso estocstico no
tiene por qu presentar esas diferencias en la funcin de densidad a lo largo del tiempo.
A los posibles valores que puede tomar la variable aleatoria se le denominaran estados, por lo
que se puede tener un espacio de estados discreto y un espacio de estados contino.
3.1.2. Clasificacin de Procesos Estocsticos
Dependiendo de cmo sea el conjunto de subndices T y el tipo de variable aleatoria dado por
Xt se puede establecer la siguiente clasificacin de los procesos estocsticos:
Si el conjunto T es continuo, diremos que Xt es un proceso estocstico de parmetrocontinuo.
S por el contrario T es discreto, diremos que nos encontramos frente a un proceso
estocstico de parmetro discreto. Si para cada instante t la variable aleatoria Xt es de tipo continuo, diremos que el
proceso estocstico es de estado continuo.
Si para cada instante t la variable aleatoria Xt es de tipo discreto, diremos que el
proceso estocstico es de estado discreto.
Ilustracin 2 clasificacin de los procesos estocsticos
Una cadena es un proceso estocstico en el cual el tiempo se mueve en forma discreta y la
variable aleatoria solo toma valores discretos en el espacio de estados. Un Proceso de Saltos
Puros es un proceso estocstico en el cual los cambios de estados ocurren en forma aislada yaleatoria pero la variable aleatoria solo toma valores discretos en el espacio de estados. En un
7/22/2019 procesos estocasticos discretos
5/13
Proceso Continuo los cambios de estado se producen en cualquier instante y hacia cualquier
estado de un espacio continuo de estados.
Como un ejemple de una Cadena, considere una maquina dentro de una fbrica. Los posibles
estados para la maquina son que est operando o que este fuera de funcionamiento y la
verificacin de esta caracterstica se realizara al principio de cada da de trabajo.
Ilustracin 3 grafica de estados en tiempo discreto
Para el caso de los Procesos de Saltos Puros se puede considerar como un ejemplo una sealtelegrfica. Solo hay dos posibles estados (1 y -1) pero la oportunidad de cambio de estado se
da en cualquier instante en el tiempo, es decir, el instante del cambio de estado es aleatorio.
La siguiente figura muestra una seal telegrfica.
Ilustracin 4 grafica de estados de v.a. discreta
Como un ejemplo de un Proceso Continuo se puede mencionar la seal de voz vista en la
pantalla de un osciloscopio. Esta seal acstica es transformada en una seal elctricaanalgica que puede tomar cualquier calor en un intervalo continuo de estados.
7/22/2019 procesos estocasticos discretos
6/13
Ilustracin 5 Grafica de un proceso continuo en el tiempo
3.2. PROCESOS DE ESTADO DISCRETO
En el caso de procesos estocsticos con espacio de estados discreto, una secuencia de
variables que indique el valor del proceso en instantes sucesivos suele representarse de la
siguiente manera:
en la que cada variable Xi, i = 0, ..., n, tiene una distribucin de probabilidades que, en
general, es distinta de las otras variables aunque podran tener caractersticas comunes.
El principal inters del estudio a realizar en el caso discreto es el clculo de probabilidades de
ocupacin de cada estado a partir de las probabilidades de cambio de estado. Si en el instante
n1 se est en el estado xn1, con qu probabilidad se estar en el estado xn en el instante
siguiente n?. Esta probabilidad de denotar como:
A este tipo de probabilidad condicionada se le denomina probabilidad de transicin o de
cambio de estado. A las probabilidades del tipo P (Xn = xn) se les denomina probabilidades
de ocupacin de estado.
Otro tipo de probabilidad de inters es la de ocupar un cierto estado en un instante n, dado que
en todos los instantes anteriores, desde n = 0 hasta n1, se conoce en qu estados estuvo el
proceso. Esto se puede escribir como:
7/22/2019 procesos estocasticos discretos
7/13
Ntese que esta probabilidad depende de toda la historia pasada del proceso, mientras que la
probabilidad de transicin depende nicamente del estado actual que ocupe el proceso.
Propiedad de Markov: Se dice que un proceso cumple la propiedad de Markov cuando toda la
historia pasada del proceso se puede resumir en la posicin actual que ocupa el proceso para
poder calcular la probabilidad de cambiar a otro estado, es decir, se cumple la propiedad
siguiente:
Aquellas Cadenas que cumplen la propiedad de Markov se llaman Cadenas de Markov.
Otra manera de denotar a las probabilidades de transicin es de la forma siguiente:
Una propiedad interesante que puede tener una Cadena es que los valores no dependendel valor de n. Es decir, las probabilidades de cambiar de estado son las mismas en cualquier
instante. Esta propiedad indica que las probabilidades de transmisin son estacionarias
3.2.1. CADENAS DE MARKOV
Las distribuciones discretas son en las que la solucin tiene un nmero determinado de
valores.
Discreto es aquel en el que las variables de estado cambian instantneamente en puntos
distintos en el tiempo. Se rigen por ecuaciones lgicas que expresan condiciones para que un
evento ocurra. La simulacin discreta, consiste en seguir los cambios en el estado del sistema
resultando de cada uno de los eventos que se realizan. Por regla general este tipo de la
simulacin se realiza siguiendo la secuencia de ocurrencia de eventos, es decir avanzamos el
tiempo de la simulacin al tiempo de la ocurrencia del siguiente evento.
En los sistemas discretos, el flujo es tratado como un cierto nmero de enteros.
Ejemplos:
El lanzamiento de una moneda al aire puede salir sol o cara, o si se lanza un dado podemosobtener un nmero del 1 al 6, si nace un bebe puede ser nio o nia, etc.
3.2.2. FUNCIONES DE MOMENTOLas llamadas funciones de momento, obtenidas a partir de los momentos de las variables
involucradas en un proceso estocstico, juegan un papel muy importante a la hora de conocer
su comportamiento y en las aplicaciones del mismo. Las ms relevantes son las siguientes:
Funcin media.-Se define como
7/22/2019 procesos estocasticos discretos
8/13
Para su obtencin tendremos en cuenta el tipo de variables que conforman el proceso. En el
caso discreto,
Funcin de auto correlacin.- Se define a partir del momento conjunto de dosvariables aso-ciadas a dos tiempos cualesquiera, t1 y t2,
Para el caso discreto se obtiene mediante
Funcin de auto covarianza.- Se define a partir del momento central conjunto de dos
variables asociadas a dos tiempos cualesquiera, t1 y t2,
con sus correspondientes versiones discreta y continua. Se deduce fcilmente la siguiente
relacin entre R (t1, t2) y R (t1, t2),
El caso particular t1 = t2 = t recibe el nombre de funcin varianza, (t) = C (t , t). Por ltimo,la funcin de correlacin se obtiene mediante
4. APLICACIONESLos procesos estocsticos discretos estn estrechamente relacionados a las cadenas de Markov
en tiempo discreto las cuales se clasifican en sistemas y para ello se consideran las
transiciones de estado en instantes de tiempo determinado o indefinido que conducen a definir
los sistemas como de tiempo discreto o continuo.
Las seales de reloj de los sistemas digitales son una aplicacin de las cadenas de Markov en
tiempo discreto.
4.1. Aplicacin en los sistemas de comunicaciones:
7/22/2019 procesos estocasticos discretos
9/13
Consideremos un sistema de comunicaciones que transmite dgitos 0 y 1. Cada dgito debe
pasar por varias fases, en cada una de las cuales hay una probabilidad p de que el dgito que
entra coincida con el que sale. Las fases son independientes entre s.
4.2. Aplicacin al estudio de la movilidad geogrfica.La aplicacin de la cadena de Markov en la movilidad geogrfica es un tema muy extenso y
debido a que estamos tratando los procesos estocsticos orientados a la ingeniera electrnica
solamente daremos un resumen del tema.
La movilidad social es un fenmeno multidisciplinar y de marcadas connotaciones
sociolgicas, cuyo conocimiento ha creado una enorme expectacin en el campo de la
investigacin.
La formulacin ms divulgada de cadenas de Markov discretas es aquella que se apoya sobretres hiptesis fundamentales: la dependencia markoviana de orden 1, la homogeneidad de la
poblacin y la homogeneidad temporal. La dependencia markoviana de orden 1 supone que la
posicin del sistema en un instante depende solamente de su posicin en un instante de tiempo
anterior y, adems, que el tiempo de ocupacin en la localizacin actual, al igual que
cualquier otra variable, posee un efecto nulo en la probabilidad de transicin a otro estado.
5. CONCLUSIONES
Se comprob que los procesos estocsticos discretos estn estrechamente relacionados
con la cadena de Markov.
Las probabilidades de transicin entre estado estn descritas por una cadena de
Markov.
El clculo de las funciones de momentos se realizan mediante una sumatoria debido a
que los valores no son continuos en el tiempo.
6. RECOMENDACIONES
Para la realizacin de ejercicios tomar en cuenta la distribucin inicial.
7/22/2019 procesos estocasticos discretos
10/13
Antes de empezar la resolucin de un ejercicio identificar qu tipo de proceso
estocstico es el que se est utilizando.
En el clculo de las funciones de momentos solo existen si la correspondiente serie es
finita.
7. BIBLIOGRAFIA
Procesos estocasticos discretos. Extrado el 13 de diciembre del 2013 desde
http://www.dmae.upct.es/~mcruiz/Telem06/Teoria/apuntes_procesos.pdf
Clasificacion de los procesos estocasticos. Extrado desde pgina web el 15 de
diciembre del 2013 desdehttp://pendientedemigracion.ucm.es/info/jmas/mon/27.pdf
Referencias textuales del proyecto. Extrado el 15 de diciembre del 2013 desdehttp://www.comunidadelectronicos.com/proyectos/proyectos.htm
Cadenas de Markov. Extrado el 14 de diceimbre del 2013 desde
http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema2pe.pdf
8. ANEXOS8.1. EJERCICIOS
8.2. Un individuo posee 2 paraguas los cuales emplea para ir de su casa al trabajo yviceversa (llevando uno a la vez). Si est en su casa u oficina, al comienzo o final del
da y est lloviendo toma un paraguas, si lo hay para ir de su casa a la oficina y
viceversa. Asuma que independiente si llueve al comienzo o final del da la
probabilidad p varia de (0
7/22/2019 procesos estocasticos discretos
11/13
P(0,0)Representa la probabilidad de que un da el individuo no tenga paraguas en su casa (por
tanto los 2 paraguas estn en la oficina) y que al inicio del da siguiente siga en la misma
situacin. Los escenarios que permiten esta situacin son que llueva en la maana (con
probabilidad p) y que no llueva en la tarde (con probabilidad 1-p). Adicionalmente si no
llueve en la maana (con probabilidad 1-p) y no llueve en la tarde (con probabilidad 1-p)
el individuo al inicio del da siguiente no tendr paraguas en la casa. En consecuencia se
puede notar que para este caso lo relevante es que no llueva en la tarde (sin importar si
llueve o no en la maana) para que de esta forma el individuo no se lleve un paragua
desde la oficina a la casa.
P(2,2)
Que considera la probabilidad de tener los 2 paraguas en la casa al inicio de un da (y por
tanto ninguno en la oficina) y al inicio del da siguiente tambin tener 2 paraguas en la
casa. Para ello se debe cumplir alguno de los siguientes escenarios: que llueva en la
maana y en la tarde, que no llueva ni en la maana ni en la tarde o que no llueva en la
maana pero si llueva en la tarde.
Una vez identificadas todas las probabilidades de transicin en una etapa entre estados,
stas se pueden resumen en la matriz de probabilidades de transicin (conocida tambin
como matriz P). Notar que la suma de las probabilidades de cada una de las filas de la
matriz es (y debe ser) un 100%.
La informacin anterior se puede representar a travs de un grafo donde cada nodo
representa un estado y las flechas muestran si es posible pasar de un estado a otro al cabo
de una etapa y cul es la probabilidad asociada en dicho caso:
7/22/2019 procesos estocasticos discretos
12/13
Adicionalmente se puede identificar (si se cuenta con dicha informacin) la distribucin
inicialde estados que permite identificar cul es la probabilidad que al inicio de la
planificacin el proceso se encuentre en alguno de los n estados posibles. En este ejemplo
sabemos que se comienza con 2 paraguas en la casa:
8.3. Suponga que en un juego existen 2 jugadores, cada uno de los cuales disponeinicialmente de 2 monedas. En cada jugada se gana una moneda con probabilidad
o se pierde una moneda con probabilidad . El juego termina cuando un jugador
tiene 4 monedas o se queda con ninguna. Modele como una Cadena de Markov la
situacin descrita.
Desarrollo:
El primer caso consiste en identificar la variable aleatoria la cul debe representar el
problema planteado, en este caso la evolucin del juego al cabo de cada etapa o jugada.Se define la variable aleatoria en tiempo discreto Xn: Cantidad de monedas que tiene uno
de los jugadores (digamos el jugador A) al cabo de la ensima jugada.
Luego se debe identificar los posibles valores o estados que puede tomar esta variable
aleatoria para una etapa n cualquiera. Sabemos que el jugador A comienza el juego con 2
monedas y el juego termina cuando pierde todo (y por tanto el jugador B gana) o cuando
gana todo (y por tanto el jugador B pierde). En consecuencia, los valores posibles para
Xn son {0, 1, 2, 3,4}.
A continuacin se debe determinar las probabilidades de transicin (en una etapa).
Por ejemplo, si actualmente el jugador A tiene 2 monedas, la probabilidad que tenga 3
monedas al cabo de una jugada es (probabilidad de ganar) y la probabilidad de que
tenga 1 moneda es (probabilidad de perder). De esta forma se identifican las distintas
combinaciones o probabilidades de que comenzando en un estado "i" se pueda pasar a un
estado "j" al cabo de una etapa. Notar que si el jugador A tiene 0 monedas la probabilidad
que contine en ese estado es 1 (o 100%) dado que no tiene monedas para seguir jugando.
De la misma forma si el jugador A tiene 4 monedas el jugador B tiene 0 y por tanto la
probabilidad de que el jugador A se mantenga en ese estado es de 1 (o 100%).
Las probabilidades de transicin en una etapa se pueden representar haciendo uso de un
grafo o en forma resumida a travs de la matriz de transicin de probabilidades.
http://www.gestiondeoperaciones.net/wp-content/uploads/2013/09/distribucion-inicial-f0-cad.gifhttp://www.gestiondeoperaciones.net/wp-content/uploads/2013/09/distribucion-inicial-f0-cad.gif7/22/2019 procesos estocasticos discretos
13/13
Cabe destacar que la suma de las probabilidades para cada fila en la matriz de transicin
P es de un 100%.
Podemos responder preguntas adicionales como por ejemplo Cul es la probabilidad deque el jugador A tenga 2 monedas al cabo de 2 jugadas?
Haciendo uso del grafo y dado que actualmente el jugador A tiene 2 monedas, se busca
identificar las combinaciones que permitan a este jugador mantener esta cantidad de
monedas al cabo de 2 etapas. Esto se logra ganando la prxima jugada (con probabilidad
) y perdiendo la jugada que sigue (con probabilidad ). Tambin se llega al mismo
resultado perdiendo la prxima jugada pero luego ganando en la jugada que sigue. Por
tanto la probabilidad de tener 2 monedas al cabo de 2 etapas es:
P(X2=2/X0=2) = * + * = .