Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
“Modellierung” WS 2014/15
Wahrscheinlichkeits-Modelleund stochastische Prozesse
(mit Folien von Prof. H. Schutze)
Prof. Norbert Fuhr
1 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeits-Modelle
Zufalls-Experiment
Ein Zufalls-Experiment ist ein Vorgang, der ein genauabzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist.
Beispiele:
Wurfel
Regnet es morgen in Duisburg?
Klickt der Benutzer auf das erste Antwortdokument vonGoogle?
Wie lange schaut der Benutzer auf das angezeigte Dokument?
2 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Aspekte von Zufallsexperimenten
Uns interessierende Aspekte von Zufallsexperimenten:
1 Die moglichen Ergebnisse (Beobachtungen)1,. . . ,6, ja/nein
2 Die moglichen FragestellungenGerade Zahl? Weniger als 10s?
3 die zugehorigen WahrscheinlichkeitenP(gerade) = 0, 5
3 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Der Merkmalsraum Ω
Merkmalsraum Ω
Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge,Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω ∈ Ω.
Ω gibt die moglichen Ausgange (Ergebnisse) desZufalls-Experiments an
Wir betrachten hier nur den Fall, dass der Merkmalsraum endlichoder zumindest abzahlbar ist.
Beispiele fur Merkmalsraume
Wurfel: Ω = 1, 2, 3, 4, 5, 6Regen: Ω = ja,neinZeit: Ω = 1, 2, . . . , 300(Betrachte angefangene Sekunden, bei mehr als 300s machtder Benutzer Pause)
4 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Ereignisse und ihre Verknupfung
Ereignisse, Ereignis-System
Ein Ereignis A ist eine Teilmenge von Ω.
”Das Ereignis A tritt ein“, falls ein Merkmal ω mit ω ∈ A
beobachtet wird.
Die Menge aller betrachteten Ereignisse nennen wir dasEreignis-System A
Beispiele fur Ereignisse:
Wurfel: Gerade Augenzahl: A = 2, 4, 6Zeit: Benutzer schaut max. 5s auf das DokumentA = 1, 2, 3, 4, 5
5 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Spezielle Ereignisse
A = ∅ : A ist ein unmogliches Ereignis, weil ω ∈ ∅ nie eintritt
A = Ω : Das Ereignis Ω tritt immer ein
A = ω fur ω ∈ Ω: ω nennt man ein Elementarereignis
Beachte den Unterschied zwischen dem Merkmal ω (Element vonΩ) und dem Ereignis ω (Teilmenge von Ω)
6 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Zusammengesetzte Ereignisse
Zusammengesetzte Ereignisse
Haufig betrachtet man zusammengesetzte Ereignisse, die alsMengenoperationen von anderen Ereignissen ausgedruckt werdenkonnen
Beispiele fur zusammengesetzte Ereignisse:
Wurfelzahl > 3 oder gerade AugenzahlA = 4, 5, 6, B = 2, 4, 6 A ∪ B = 2, 4, 5, 6Benutzer schaut mindestens 2s und hochstens 5s auf dasDokumentA = 2, 3 . . . , 300, B = 1, 2, 3, 4, 5 A ∩ B = 2, 3, 4, 5
7 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Verknupfung von Ereignissen
Verknupfung von Ereignissen
A oder B oder beide treten ein = ω ∈ A ∪ BA und B treten (beide) ein = ω ∈ A ∩ BA und B treten nie gleichzeitig ein = A ∩ B = ∅A tritt nicht ein = ω ∈ Ac ⇔ ω /∈ AA tritt ein, aber B tritt nicht ein = ω ∈ A\B = A ∩ Bc = ABc
mindestens ein Ai tritt ein = ω ∈⋃
i Ai = A1 ∪ A2 ∪ · · ·alle Ai treten ein = ω ∈
⋂i Ai = A1 ∩ A2 ∩ · · ·
Anmerkungen:
Statt A ∩ B = ∅ sagt man auch”A und B sind disjunkt“
Ac bezeichnet die Komplementarmenge zu A, also Ac = Ω\AAB ist eine in der Stochastik ubliche Kurznotation fur A ∩ B
8 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
σ-Algebra
Abgeschlossenes Mengensystem
Als σ-Algebra bezeichnet man ein Mengensystem A mitA ⊆ P(Ω), das die folgenden Bedingungen erfullt:
1 Ω ∈ A2 A ∈ A =⇒ Ac ∈ A3 A1,A2, . . . ∈ A =⇒
⋃n∈N An ∈ A
Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist.
Beispiel:Ω = 1, 2, 3, 4A = 1, 2, 3, 4, 1, 2, 3, 4, ∅
9 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beschreibbarkeit
Beispiel:X Zufallsvariable fur Wurfelergebnis gerade/ungeradeG = gerade Augenzahl beim WurfelnG = ω ∈ Ω : X (ω) = geradeΩ = 1, 2, 3, 4, 5, 6 Ω′ = gerade, ungeradeA′ = gerade G = X ∈ A′
X ∈ A′ durch X beschreibbar
Ist X eine Abbildung Ω→ Ω′ und A′ ⊂ Ω′, dann definiert man
X ∈ A′ := ω ∈ Ω : X (ω) ∈ A′
Eine Teilmenge von Ω der Form X ∈ A′ heißt durch Xbeschreibbar.
10 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Zufallsvariable
Zufallsvariable (ZV)
Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ωmit Ereignissystem A in eine Bildmenge Ω′ mit Ereignissystem A′ .Gilt A 6= P(Ω) und ist A′ das Ereignissystem in Ω′, dann wird fureine ZV X : Ω→ Ω′ gefordert
X ∈ A′ ∈ A fur alle A′ ∈ A′
Anmerkungen
Fur Zufallsvariable verwendet man meist GroßbuchstabenX ,Y ,Z ,U,V ,W
Fur Ereignisse verwenden wir A,B,C , . . .
Beispiele:A = X > 3, B = X = 2 ∪ X = 4 ∪ X = 6
11 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Gesetz der großen Zahlen
Empirisches Gesetz hn(A)→ P(A)
Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungenwiederholt mit Beobachtungswerten x1, x2, . . . , xn, dann
”konvergieren“ die relativen Haufigkeiten
hn(A) :=1
n· (Anzahl der xi mit xi ∈ A)
fur n→∞ gegen einen Grenzwert.
12 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Gesetz der großen ZahlenBeispiel: Wurfeln einer bestimmten Augenzahl
”Law-of-large-number“ von Jorg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike
3.0-2.5-2.0-1.0 uber Wikimedia Commons
13 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Eigenschaften der Wahrscheinlichkeit
1 P(A) ≥ 0
2 P(A) ≤ 1
3 P(Ω) = 1
4 P(∅) = 0
5 P(A1 + A2) = P(A1) + P(A2)
6 P(A1 + · · ·+ An) = P(A1) + · · ·+ P(An)
7 P(A1 + A2 + · · · ) = P(A1) + P(A2) + · · ·
14 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeits-Maß
Wahrscheinlichkeits-Maß P : A → REine Abbildung P : A → R, wobei A eine σ-Algebra uber Ω ist,heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn diefolgenden drei Bedingungen erfullt sind:
(1) P(A) ≥ 0 fur alle A ∈ A (Nichtnegativitat)(2) P(Ω) = 1 (Normiertheit)(3) P(
∑∞i=1 Ai ) =
∑∞i=1 P(Ai ) (σ-Additivitat)
Anmerkung:
Die Schreibweise∑∞
i=1 Ai soll immer die Voraussetzung”Alle
Ai sind paarweise disjunkt “ implizit voraussetzen.
15 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Schreibweise fur Ereignisse
Vereinfachte Schreibweise fur Ereignisse
P(X ∈ A′) := P(X ∈ A′)
Beispiele:Munze: P(X =Kopf)=P(X =Zahl) = 0, 5Wurfel: P(W = 6) = 1
6
16 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeitsraum
Wahrscheinlichkeitsraum (Ω,A,P)
Das Tripel aus Merkmalsraum Ω, Ereignissystem A undEreignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum)oder Wahrscheinlichkeitsmodell (W-Modell)
17 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Bernoulli-Experiment
Bernoulli-Experiment
Ein Zufallsexperiment mit zwei moglichen Ausgangen heißtBernoulli-Experiment.Merkmalsraum: Ω = 0, 1Man bezeichnet ω = 1 als Erfolg und ω = 0 als MisserfolgΩ = 0, 1, A = P(Ω)P(1) = p P(0) = 1− p, 0 ≤ p ≤ 1p bezeichnet man als Parameter der Bernoulli-Verteilung
Beispiel:Munzwurf
18 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Laplace-Experimen
Laplace-Experiment
Ein Zufallsexperiment mit endlich vielen und gleichwertigenAusgangen heißt Laplace-Experiment.Ω = 1, 2, . . . ,N.Aus P(1) = P(2) = · · · = P(N) folgt P(1) = 1/N.
Fur beliebige Ereignisse A gilt wegen A =∑
ω∈Aω:
P(A) =|A||Ω|
=Anzahl der (fur A) gunstigen Falle
Anzahl der moglichen Falle
19 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiele fur Laplace-Experimente
Wurfel:
P(W = 6) = 1/6
P(W = gerade) = 3/6
Roulette:
P(X = 13) = 1/37
P(X = gerade) = 18/37
20 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Bedingte Wahrscheinlichkeiten
Elementare bedingte Wahrscheinlichkeit
Seien A, B Ereignisse in Ω und sei P(B) > 0.
Dann heißt P(A|B) =P(AB)
P(B)
die bedingte Wahrscheinlichkeit von A unter der Bedingung B
Ferner gilt P(AB) = P(B) · P(A|B)
Beispiel: WurfelA = 2, 4, 6, B = 4, 5, 6
P(A|B) =P(AB)
P(B)=|4, 6|/6
|4, 5, 6|/6
21 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Verkettungsregel
Verkettungsregel
Fur drei Ereignisse A, B, C gilt analog die Formel
P(ABC ) = P(A) · P(B|A) · P(C |AB)
Beispiel: RouletteA = Z gerade, B =Z > 24, C = Z schwarz
P(ABC ) = P(Z gerade) · P(Z> 24|Z gerade) ·P(Z schwarz|Z > 24, Z gerade)
22 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit
Ist (Bi , i ∈ I ) eine abzahlbare Zerlegung von Ωd.h. es gilt Ω =
∑i∈I Bi , dann gilt
P(A) =∑i∈I
P(ABi ) =∑i∈I
P(Bi ) · P(A|Bi )
Beispiel: (Roulette)
P(X gerade) =36∑i=0
P(X = i ∩ X gerade)
=36∑i=0
P(X = i)P(X gerade|X = i)
=1
37· 18
23 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Totale WahrscheinlichkeitBeispiel 2
Beispiel (Roulette)
P(X gerade) =3∑
i=1
P(X ∈ i .Dutzend ∩ X gerade)
=3∑
i=1
P(X ∈ i .Dutzend)P(X gerade|X ∈ i .Dutzend)
= 3 · 12
37· 1
2
24 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Stochastische Unabhangigkei
Stochastische Unabhangigkeit
Zwei Ereignisse heißen stochastisch unabhangig wenn gilt
P(AB) = P(A) · P(B)
Beispiel: Zwei WurfelP(6er Pasch) = P(W1 = 6) · P(W2 = 6)
Stochastische Unabhangigkeit von n Ereignissen
Die Ereignisse A1,A2, . . . ,An heißen stochastisch unabhangig,wenn fur alle endlichen TeilmengenAi1 ,Ai2 , . . .Aik von diesenEreignissen die Produktformel gilt:
P(Ai1 ,Ai2 , . . .Aik ) = P(Ai1) · P(Ai2) · · ·P(Aik )
25 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiel: Statistische SprachmodelleDeutsche Wortschatz-Datenbank
26 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiel: Statistisches Sprachmodell
wi log2(P(W = wi )) wj log2(P(W = wj))
Dieser −5 Manche −9Text −9 Informatiker −13ist −2 sind −3einfach −6 Nerds −16
P(Dieser Text ist einfach) ==P(dieser)·P(Text)·P(ist)·P(einfach) = 2−5 ·2−9 ·2−2 ·2−6 = 2−22
P(Manche Informatiker sind Nerds) == 2−9 · 2−13 · 2−3 · 2−16 = 2−41
27 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Modelle fur stochastische Prozesse
Stochastischer Prozess
Fur einen stochastischen Prozess benotigt man:
W-Modell (Ω,A,P)
Bildbereich Ω′
Zeitbereich T
Zufallsvariable Xt : Ω→ Ω′
gibt den Zustand zum Zeitpunkt t
Dann heißt Xt := (Xt , t ∈ T ) ein stochastischer Prozess.
Ω = auf,zu
28 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Modellierung stochastischer Prozesse
29 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Markov-Kopplung
Markov-Kopplung
Hangen bei einem mehrstufigen Versuch dieUbergangswahrscheinlichkeiten nicht von der vollen Vorgeschichteab, sondern nur vom letzten beobachteten Wert, so spricht manvon Markov-Kopplung.Die Folge der Beobachtungen bildet dann einen Markov-Prozess,im diskreten Fall auch Markov-Kette genannt.
30 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel: Sprachmodell als Markov-Kopplung
Hans programmiert.Paul begrußt Lisa.Uwe trinkt ein kuhles Pils.Das schnelle Auto uberholt den schweren LKW.
Anmerkungen
Annahme einer Markov-Kopplung ist starke VereinfachungWeitere Aspekte von Syntax (+Semantik) unberucksichtigtDer grune Auto isst SpinatSolche Modelle eignen sich primar zur Analyse von Texten(und weniger zur Generierung) 31 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Markov-Kette
Markov-Kette
Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folgeder Beobachtungen X0,X1,X2, . . . in einem unendlichstufigenVersuch mit Markov-Kopplung und abzahlbarer Zustandsmenge I .Die Zustandsvariablen Xn : Ω→ I beschreiben also den Zustanddes Systems zu den Zeitpunkten n = 0, 1, 2, . . ..
32 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Homogene Markov-Kette (HMK)
Homogene Markov-Kette
Eine Markov-Kette Xn heißt homogen, falls dieUbergangswahrscheinlichkeiten f n−1
n (i , j) = P(Xn = j |Xn−1 = i)fur alle Zeitpunkte gleich sind. In diesem Fall schreibt manpij := f n−1
n (i , j).
33 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel zu homogener Markov-Kette
34 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Ubergangsmatrix
Ubergangsmatrix
Die Matrix P := (pij , i , j ∈ I ) heißt Ubergangsmatrix (U-Matrix).Die Zeilensumme ist stets =1.
(pij) =
0, 7 0, 3 00, 2 0, 5 0, 30, 1 0, 4 0, 5
35 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Ubergangsgraph
Ubergangsgraph
Ein Ubergangsgraph einer HMK besteht aus
Knoten: alle moglichen Zustanden des Graphen
gerichtete Kanten: mit positiver Wahrscheinlichkeit moglicheUbergange
an der Kante von i nach j wird jeweils der Wert pij notiert.
36 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel zu Ubergangsgraph
37 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Startpunkt
Zur Beschreibung des Ablaufs einer Markov-Kette benotigt manneben der U-Matrix noch
entweder einen festen Startpunkt i0 ∈ I
oder eine Startverteilung, namlich eine Z-DichteP(X0 = i), i ∈ I
Dann ist die Wahrscheinlichkeit fur jede endliche Zustandsfolgefestgelegt durch
P(X0 = i0, . . . ,Xn = in) = P(X0 = i0) · pi0i1 · · · pin−1in
P(X0 = 0,X1 = 1,X2 = 2,X3 = 1,X4 = 0) = 1 · p01 · p12 · p21 · p10
38 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Pfad
Pfad der Markov-Kette
Ein einzelner Verlauf einer Markov-Kette fur eine festen Wert ω,also (X0(ω),X1(ω), . . .) heißt ein Pfad der Markov-Kette.
BeispielHans trinkt ein kuhles PilsPfad:Start – SNomen – Verb – OArtikel – OAdjektiv – ONomen – EndeP(Pfad) = 1 · 0, 5 · 1 · 0, 5 · 0, 3 · 1 · 1 = 0, 075
39 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Rechenregeln fur eine MK
Rechenregeln fur eine MK
Fur ein homogene Markov-Kette mit U-Matrix (pij)i ,j∈I undStartverteilung P(X0 = i), i ∈ I ) gilt
P(X0 = i0, . . . ,Xn = in) = P(X0 = i0) · pi0i1 · · · pin−1in
P(Xn = j) =∑i∈I
P(Xn−1 = i) · pij bzw. ~pn = ~pn−1P
n-Schritt-Ubergangsmatrix
Fur eine HMK (Xn) ist die Matrix P(n) = (p(n)ij ) mit
(p(n)ij ) := P(Xm+n = j |Xm = i) unabhangig von m und heißt
n-Schritt-Ubergangsmatrix
40 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel zur Berechnungder W-Verteilung im Folgezustand
P =
0, 7 0, 3 00, 2 0, 5 0, 30, 1 0, 4 0, 5
Sei ~pn−1 = (0,5, 0,3, 0,2)
~pn = ~pn−1P = (0,5, 0,3, 0,2) · P= (0,5 · 0,7 + 0,3 · 0,2 + 0,2 · 0,1, 0,5 · 0,3 + 0,3 · 0,5 + 0,2 · 0,4,
0,5 · 0 + 0,3 · 0,3 + 0,2 · 0,5)
= (0,35 + 0,06 + 0,02, 0,15 + 0,15 + 0,08, 0 + 0,09 + 0,1)
= (0,43, 0,38, 0,19)
41 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
irreduzibel
Zerlegung in Klassen, irreduzibel
Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt:zwei Zustande i und j gehoren zur selben Klasse, wenn
i = j oder
Zustand j ausgehend von i in endlich vielen Schritten mitpositiver Wahrscheinlichkeit erreicht werden kann (i j)und umgekehrt i von j aus erreichbar ist (j i).
Jeder Zustand i ∈ I gehort zu genau einer Klasse k . Eine HMKheißt irreduzibel, falls alle Zustande zur selben Klasse gehoren
Einfaches Beispiel einer reduziblen HMK: (1− α α
0 1
)42 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
aperiodisch
Periode, aperiodisch
Klasse K heißt periodisch mit Periode d , wenn es d (≥ 2)disjunkte Teilmengen in K gibt, die der Reihe nach in dSchritten durchlaufen werden.
Eine HMK heißt aperiodisch, wenn es keine periodische Klassegibt.
Einfaches Beispiel einer periodischen HMK: (0 11 0
)
43 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Gleichgewicht
Markov-Kette im Gleichgewicht
Eine homogene Markov-Kette (Xn) ist im Gleichgewicht, wenn furalle Zustande i ∈ I die Wahrscheinlichkeiten P(Xn=i) unabhangigvom Zeitpunkt n sind.Man setzt dann πi := P(Xn=i) bzw. ~π := ~pn und bezeichnet dieZ-Dichte ~π = (πi , i ∈ I ) als Gleichgewichtsverteilung (GGV) derHMK (Xn)
44 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Berechnung der Gleichgewichtsverteilung (GGV)
Berechnung der Gleichgewichtsverteilung
Die HMK (X0,X1, . . .) mit U-Matrix (pij , i , j ∈ I ) sei imGleichgewicht, d.h. es gelte P(Xn = i) = πi bzw. ~pn = ~π fur allen = 0, 1, 2 . . . und i ∈ I . Wegen
P(Xn = j) =∑
i∈I P(Xn−1 = i) · pij
gelten dann fur alle Werte πi , i ∈ I die folgenden beidenGleichgewichtsbedingungen:
πj =∑i∈I
πipij fur alle j ∈ I bzw. ~π = ~πP
πj ≥ 0 fur alle j ∈ I und∑j∈I
πj = 1
45 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Berechnung der GleichgewichtsverteilungBeispiel
(pij) =
0, 7 0, 3 00, 2 0, 5 0, 30, 1 0, 4 0, 5
Gleichgewichtsbedingungen
π0 = 0, 7π0 + 0, 2π1 +0, 1π2
π1 = 0, 3π0 + 0, 5π1 +0, 4π2
π2 = 0, 3π1 +0, 5π2
und π0 + π1 + π2 = 1
π0 =13
37≈ 0, 35 π1 =
15
37≈ 0, 41 π2 =
9
37≈ 0, 24
46 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Eigenvektor der Ubergangsmatrix
Definition Eigenvektor einer Matrix
Betrachtet man die durch die Matrix A definierte Abbildung, so istein Eigenvektor ein Vektor dessen Richtung durch diese Abbildungnicht verandert wird, d.h. es gilt
λ~πT = A~πT mit λ ∈ R (Rechtseigenvektor) und analog
λ~π = ~πA mit λ ∈ R (Linkseigenvektor).
Fur den Vektor der GGV gilt:
~π = ~πP mit∑j∈I
πj = 1
π ist daher ein Linkseigenvektor der U-Matrix P47 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Grenzwertsatz fur homogene Markov-Ketten
Grenzwertsatz fur homogene Markov-Ketten
Ist die HMK(Xn) mit U-Matrix (pij , i , j ∈ I ) irreduzibel undaperiodisch, dann konvergiert (fur alle i ∈ I ) P(Xn = i) unabhangigvon der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.Dabei sind
a) entweder alle πi = 0, und es gibt keine GGV zu (pij),
b) oder es sind alle πi > 0, und (πi , i ∈ I ) ist die einzige GGV zu(pij),
Fall a) kommt nur bei unendlicher Zustandmenge vor.
48 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Unendlicher Zustandsmenge ohne GGVBeispiel: uberlastete Warteschlange
49 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Alternative Methode zu Berechnung der GGVBasierend auf dem Grenzwertsatz
Ist die HMK(Xn) mit U-Matrix (pij , i , j ∈ I ) irreduzibel undaperiodisch, dann konvergiert (fur alle i ∈ I ) P(Xn = i) unabhangigvon der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.
Sei ~x der Vektor mit xi = P(Xn = i) fur alle i ∈ I
Beginne mit beliebiger Startverteilung ~x
Berechne Verteilung im nachsten Zustand als ~xP.
Nach zwei Schritten sind wir bei ~xP2.
Nach k Schritten sind wir bei ~xPk .
Algorithmus: multipliziere ~x mit steigenden Potenzen von P,bis Konvergenz erreicht ist
Ergebnis ist unabhangig vom Startvektor
50 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Potenzmethode zur Berechnung der GGV
Verfahren mit steigenden Potenzen von P wirdPotenzmethode genannt (engl. power method)
Berechne die GGV der folgenden Markov-Kette:
51 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel zur Berechnung der GGVStartvektor
~x = (0.25, 0.75)
x1 x2
Pt(d1) Pt(d2)
p11 = 0.25 p12 = 0.75p21 = 0.25 p22 = 0.75
t0 0.25 0.75 0.25 0.75t1 0.25 0.75 (Konvergenz)
Pt(d1) = Pt−1(d1) ∗ p11 + Pt−1(d2) ∗ p21
Pt(d2) = Pt−1(d1) ∗ p12 + Pt−1(d2) ∗ p22
GGV: ~π = (π1, π2) = (0.25, 0.75)
52 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Beispiel zur Berechnung der GGVFester Startzustand
x1 x2
Pt(d1) Pt(d2)
p11 = 0.25 p12 = 0.75p21 = 0.25 p22 = 0.75
t0 1.00 0.00 0.25 0.75t1 0.25 0.75 0.25 0.75t2 0.25 0.75 (Konvergenz)
Pt(d1) = Pt−1(d1) ∗ p11 + Pt−1(d2) ∗ p21
Pt(d2) = Pt−1(d1) ∗ p12 + Pt−1(d2) ∗ p22
GGV: ~π = (π1, π2) = (0.25, 0.75)
53 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Potenzmethode: Beispiel 2
Bestimme die GGV fur folgende Markov-Kette:
54 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Berechnung der GGV: Potenzmethode
x1 x2
Pt(d1) Pt(d2)
p11 = 0.1 p12 = 0.9p21 = 0.3 p22 = 0.7
t0 0 1 0.3 0.7 = ~xPt1 0.3 0.7 0.24 0.76 = ~xP2
t2 0.24 0.76 0.252 0.748 = ~xP3
t3 0.252 0.748 0.2496 0.7504 = ~xP4
. . . . . .t∞ 0.25 0.75 0.25 0.75 = ~xP∞
GGV: ~π = (π1, π2) = (0.25, 0.75)
Pt(d1) = Pt−1(d1) ∗ p11 + Pt−1(d2) ∗ p21
Pt(d2) = Pt−1(d1) ∗ p12 + Pt−1(d2) ∗ p22
55 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Potenzmethode fur das Telefon-Beispiel
0, 7 0, 3 00, 2 0, 5 0, 30, 1 0, 4 0, 5
x0 x1 x2
~xP 1,00 0,00 0,00~xP2 0,70 0,30 0,00~xP3 0,55 0,36 0,09~xP4 0,47 0,38 0,15~xP5 0,42 0,39 0,19~xP6 0,39 0,40 0,21~xP7 0,37 0,40 0,23~xP8 0,36 0,40 0,23~xP9 0,36 0,40 0,24~xP10 0,36 0,40 0,24~xP11 0,35 0,40 0,24~xP12 0,35 0,41 0,24~xP13 0,35 0,41 0,24
56 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Anwendung der GGV beim Web-Retrieval
PageRank
versucht, Web-Seiten gemaß ihrer Popularitat zu gewichten
Popularitat hangt ab von der Zitationshaufigkeit (eingehendeWeb-Links)
und von der Popularitat der referenzierenden Seiten
57 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
PageRankPageRank
d0 0.05d1 0.04d2 0.11d3 0.25d4 0.21d5 0.04d6 0.31
58 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Begrundung der PageRank-Methode
Random Surfer
Grundlage von PageRank
klickt sich durch das Web, wobei er zufallig auf einen derausgehenden Links einer Seite klickt(Gleichverteilung uber die ausgehenden Links)
Teleportation: gibt es keine ausgehenden Links, geht er aufeine zufallige andere Web-Seite
Auch auf einer Seite mit ausgehende Links geht er mit 10%Wahrscheinlichkeit auf eine zufallige andere Seite
59 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
PageRankPageRank
d0 0.05d1 0.04d2 0.11d3 0.25d4 0.21d5 0.04d6 0.31
60 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Ubergangsmatrix ohne Teleportation
d0 d1 d2 d3 d4 d5 d6
d0 0.00 0.00 1.00 0.00 0.00 0.00 0.00d1 0.00 0.50 0.50 0.00 0.00 0.00 0.00d2 0.33 0.00 0.33 0.33 0.00 0.00 0.00d3 0.00 0.00 0.00 0.50 0.50 0.00 0.00d4 0.00 0.00 0.00 0.00 0.00 0.00 1.00d5 0.00 0.00 0.00 0.00 0.00 0.50 0.50d6 0.00 0.00 0.00 0.33 0.33 0.00 0.33
61 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Ubergangsmatrix mit Teleportation
d0 d1 d2 d3 d4 d5 d6
d0 0.02 0.02 0.88 0.02 0.02 0.02 0.02d1 0.02 0.45 0.45 0.02 0.02 0.02 0.02d2 0.31 0.02 0.31 0.31 0.02 0.02 0.02d3 0.02 0.02 0.02 0.45 0.45 0.02 0.02d4 0.02 0.02 0.02 0.02 0.02 0.02 0.88d5 0.02 0.02 0.02 0.02 0.02 0.45 0.45d6 0.02 0.02 0.02 0.31 0.31 0.02 0.31
62 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle fur stochastische Prozesse
Anwendung der Potenzmethode ~xPk
~x ~xP1 ~xP2 ~xP3 ~xP4 ~xP5 ~xP6 ~xP7 ~xP8 ~xP9 ~xP10 ~xP11 ~xP12 ~xP13
d0 0.14 0.06 0.09 0.07 0.07 0.06 0.06 0.06 0.06 0.05 0.05 0.05 0.05 0.05d1 0.14 0.08 0.06 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04d2 0.14 0.25 0.18 0.17 0.15 0.14 0.13 0.12 0.12 0.12 0.12 0.11 0.11 0.11d3 0.14 0.16 0.23 0.24 0.24 0.24 0.24 0.25 0.25 0.25 0.25 0.25 0.25 0.25d4 0.14 0.12 0.16 0.19 0.19 0.20 0.21 0.21 0.21 0.21 0.21 0.21 0.21 0.21d5 0.14 0.08 0.06 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04 0.04d6 0.14 0.25 0.23 0.25 0.27 0.28 0.29 0.29 0.30 0.30 0.30 0.30 0.31 0.31
63 / 63