Gaan na inhoud

Markov-eienskap

in Wikipedia, die vrye ensiklopedie
'n Enkele realisering van 'n driedimensionale Brownbeweging vir tye 0 ≤ t ≤ 2. Brownbeweging beskik oor die Markov-eienskap, aangesien die snelheid van die deeltjie nie afhang van die vorige snelhede nie.

In waarskynlikheidsteorie en statistiek, verwys die term Markov-eienskap na die geheuelose eienskap van 'n stogastiese proses. Dit is vernoem na die Russiese wiskundige Andrei Markov.[1]

'n Stogastiese proses beskik oor die Markov-eienskap as die voorwaardelike waarskynlikheidsverdeling van toekomstige toestande van die proses (d.w.s. voorwaardelik wat die verlede sowel as huidige waardes betref) slegs afhang van die huidige toestand, en nié van die reeks gebeure wat dit voorafgegaan het nie. 'n Proses met hierdie eienskap word 'n Markov-proses genoem. Die term sterk Markov-eienskap is soortgelyk aan die Markov-eienskap, behalwe dat die betekenis van "huidige" gedefinieer word in terme van 'n ewekansige veranderlike, 'n sogenaamde stoptyd. Die terme "Markov-eienskap" en "sterk Markov-eienskap" is albei al aangewend met betrekking tot 'n spesifieke "geheuelose" eienskap van die eksponensiële verspreiding.[2]

Die term Markov-aanname word gebruik by die beskrywing van 'n model waar die Markov-eienskap as geldig aanvaar word, soos by 'n verborge Markovmodel.

'n Ewekansige Markovveld[3] brei hierdie eienskap uit na twee of meer dimensies of na ewekansige veranderlikes wat vir 'n aaneengeskakelde (Engels: interconnected) netwerk van items gedefinieer word. 'n Voorbeeld van 'n model van só 'n veld is die Isingmodel.

'n Stogastiese proses in diskrete tyd wat die Markov-eienskap bevredig, staan bekend as 'n Markovketting.

Inleiding

[wysig | wysig bron]

'n Stogastiese proses beskik oor die Markov-eienskap as die voorwaardelike waarskynlikheidsverdeling van toekomstige toestande van die proses (met verlede sowel as huidige waardes voorwaardelik) net van die huidige toestand afhang; dit is, gegewe die huidige, is die toekoms onafhanklik van die verlede. 'n Proses met hierdie eienskap word Markoviaans, of 'n Markovproses genoem. Die mees bekende Markovproses is 'n Markovketting. Brownbeweging is 'n ander baie bekende Markovproses.

Kyk ook

[wysig | wysig bron]

Verwysings

[wysig | wysig bron]
  1. Markov, A.A. (1954). Teorie van Algoritmes. [Vertaal deur Jacques J. Schorr-Kon en PST personeel] Moskou-afdruk, Akademie van Wetenskappe van die USSR, 1954 [Jerusalem, Israelse Program vir Wetenskaplike Vertalings, 1961; beskikbaar van Kantoor vir Tegniese Dienste, VSA Departement van Handel, Toegevoeg tot Russiese Vertaling van Werke van die Wiskundige Instituut, Akademie van Wetenskappe van die USSR, v. 42. Oorspronklike titel: Teoriya algorifmov. [QA248.M2943 Dartmouth College-biblioteek. V.S.A. Dept. van Handel, Kantoor vir Tegniese Dienste, OTS-nommer 60-51085.]
  2. Feller, W. (1971) Introduction to Probability Theory and Its Applications, Deel II (2de uitgawe), Wiley. ISBN 0-471-25709-5 (bladsye 9 en 20)
  3. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4