Zurückblättern Weiterblättern Übergeordnetes Thema Sachgebiet Hauptinhaltsverzeichnis Stichwortverzeichnis Hilfeseiten        

Markoffsche Ketten, Übergangswahrscheinlichkeiten

Hängt bei einer stochastischen Kette die Wahrscheinlichkeit eines Ereignisses nur vom Zustand zum Zeitpunkt ab, so spricht man von einer MARKOFFschen Kette , d.h., es gilt
 
    (16.109)

Es seien eine MARKOFFsche Kette sowie die zwei Zeitpunkte und gegeben. Die bedingten Wahrscheinlichkeiten
(16.110)

heißen Übergangswahrscheinlichkeiten . Die Übergangswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit der Zustand bei in den Zustand bei übergeht.
Ist der Zustandsraum einer MARKOFFschen Kette endlich, d.h. , so lassen sich die Übergangswahrscheinlichkeiten zwischen den Zuständen zum Zeitpunkt und in einer quadratischen Matrix , der sogenannten Übergangsmatrix , darstellen:
(16.111)

Die Zeitpunkte und müssen nicht aufeinanderfolgende Zeitpunkte sein.