Markov-proses

in Wikipedia, die vrye ensiklopedie
Spring na: navigasie, soek

In waarskynlikheidsleer is ‘n Markovproses ‘n stogastiese proses wat soos volg gekarakteriseer word: Die toestand c_k op tydstip k is een van ‘n eindige aantal in die reeks \{1,\ldots,M\}. Onder die aanname dat die proses slegs van tyd 0 tot tyd N loop en dat die aanvangs- en eindtoestande bekend is, word die toestandopeenvolging dan voorgestel deur ‘n eindige vektor C=(c_0,...,c_N).

Laat P(c_k | c_0,c_1 ,...,c_{(k-1)}) die waarskynlikheid (kans dat dit sal gebeur) van die toestand ck op tyd k bepaal deur alle toestande tot tyd k − 1 aandui. Veronderstel ‘n proses sodanig dat c_k slegs van die vorige toestand c_{k-1} afhang en onafhanklik is van alle vorige toestande. Die proses sou bekend staan as ‘n eerste-orde Markovproses. Dit beteken dat die waarskynlikheid om in ‘n toestand ck te verkeer op tyd k, gegee alle toestande tot tyd k − 1 slegs van die vorige toestand afhang, d.w.s. ck−1 op tyd k − 1:

P(c_k|c_0,c_1,\ldots,c_{k-1})=P(c_k|c_{k-1}).\,

Vir ‘n nde-orde Markovproses,

P(c_k|c_0,c_1,\ldots,c_{k-1})=P(c_k|c_{k-n},\ldots,c_{k-1}).\,

In die algemeen, vir die Viterbialgoritme, word aangeneem dat die onderliggende proses ‘n Markovproses is met die volgende eienskappe:

  • eindige-toestand, dit beteken die getal M is eindig.
  • diskrete-tyd, dit beteken dat oorgang van een toestand na ‘n volgende dieselfde tydeenheid neem.
  • waargeneem in geheuelose ruis, dit beteken dat die opeenvolging van waarnemings waarskynlikheidsgewys slegs afhang van die vorige opeenvolging oorgange.

Kyk ook[wysig]

Verwysings[wysig]