Markov-proses

in Wikipedia, die vrye ensiklopedie

In waarskynlikheidsleer is 'n Markovproses 'n stogastiese proses wat soos volg gekarakteriseer word: Die toestand op tydstip is een van 'n eindige aantal in die reeks . Onder die aanname dat die proses slegs van tyd 0 tot tyd N loop en dat die aanvangs- en eindtoestande bekend is, word die toestandopeenvolging dan voorgestel deur 'n eindige vektor .

Laat die waarskynlikheid (kans dat dit sal gebeur) van die toestand ck op tyd k bepaal deur alle toestande tot tyd k − 1 aandui. Veronderstel 'n proses sodanig dat slegs van die vorige toestand afhang en onafhanklik is van alle vorige toestande. Die proses sou bekend staan as 'n eerste-orde Markovproses. Dit beteken dat die waarskynlikheid om in 'n toestand ck te verkeer op tyd k, gegee alle toestande tot tyd k − 1 slegs van die vorige toestand afhang, d.w.s. ck−1 op tyd k − 1:

Vir 'n nde-orde Markovproses,

In die algemeen, vir die Viterbi-algoritme, word aangeneem dat die onderliggende proses 'n Markovproses is met die volgende eienskappe:

  • eindige-toestand, dit beteken die getal M is eindig.
  • diskrete-tyd, dit beteken dat oorgang van een toestand na 'n volgende dieselfde tydeenheid neem.
  • waargeneem in geheuelose ruis, dit beteken dat die opeenvolging van waarnemings waarskynlikheidsgewys slegs afhang van die vorige opeenvolging oorgange.

Kyk ook[wysig | wysig bron]

Verwysings[wysig | wysig bron]