Markov-Prozess
Übersicht
zuletzt besuchte Definitionen...
Ausführliche Definition im Online-Lexikon
stochastischer Prozess (Xt)0≤t<∞ mit abzählbarem Zustandsraum E, also mit abzählbar vielen möglichen Werten der Xt,bei dem für alle n und alle t > s > sn > .. > s0 bez. der bedingten Wahrscheinlichkeiten gilt:
mit j, i, i0, ..., in E. Die bedingte Wahrscheinlichkeit P{Xt = j|Xs = i} heißt Übergangswahrscheinlichkeit (Wahrscheinlichkeit, dass der Prozess zum Zeitpunkt t den Zustand j hat, wenn er zum Zeitpunkt s den Zustand i einnahm).
Ist der Zustandsraum endlich, so wird der Markov-Prozess endlich genannt.
Bedeutung: Die „Markov-Eigenschaft” eines stochastischen Prozesses beschreibt, dass die Wahrscheinlichkeit des Übergangs von einem Zustand in den nächstfolgenden von der weiteren „Vorgeschichte” nicht abhängt.
Zur Zeit keine Literaturhinweise/ Weblinks der Autoren verfügbar.