Verborge Markovmodel

in Wikipedia, die vrye ensiklopedie
Spring na: navigasie, soek

'n Verborge Markovmodel (VMM) (Engels: Hidden Markov model (HMM)) is 'n statistiese model waar daar aangeneem word dat die stelsel wat gemodelleer word 'n Markovproses met onbekende parameters is, en die uitdaging is om die verborge parameters, uit waarneembare parameter gegrond op aannames te bepaal, gegrond op die aannames. Die modelparameters wat onttrek word kan gebruik word om verdere analise te doen in byvoorbeeld patroonherkenningtoepassings.

In 'n gewone Markovmodel, is die toestand direk sigbaar aan die waarnemer en is die toestand oorgangswaarskynlikhede die enigste parameters. 'n Verborge Markovmodel voeg uitsette by: elke toestand het 'n waarskynlikheidverspreiding oor die moontlike uitset tekens. Daarom dui die opeenvolging van tekens wat deur 'n VMM gegenereer word nie direk die opeenvolging van toestand aan nie.

Toestandoorgange in 'n verborge Markovmodel[wysig]

Markovmodel Voorbeeld.
- x — Toestande van die Markovmodel
- a — Oorgangswaarskynlikhede
- b — Uitsetwaarksynlikhede
- y — Waarneembare uitsette


Evolusie van 'n Markovmodel[wysig]

Die voorafgaande diagram beklemtoon die toestandoorgange van 'n verborge Markovmodel. Die is ook nutig om die evolusie van die model oor tyd aan te dui, met die toestande op verskillende tye t1 en t2 verteenwoordig deur verskillende veranderlikes, x(t1) en x(t2).

Temporale evolusie van 'n verborge Markovmodel

In hierdie diagram, word aangeneem dat die tydgleuwe (x(t), y(t)) uitbrei tot vorige en opvolgende tye soos nodig. Tipies is die vroegste gleuf op tyd t=0 of tyd t=1.

Gebruik van Markovmodelle[wysig]

Daar is 3 canonical probleme om op te los met betrekkings tot VMMs:

  • Gegee die modelparameters, bereken die waarskynlikheid van 'n besondere uiste opeenvolging. Opgelos deur die forward algorithm.
  • Gegee die modelparameters, vind die mees waarskynlike opeenvolging van (verborge) toestande wat 'n gegewe uitsetopeenvolging kon genereer het. Opgelos deur die Viterbi algoritme.
  • Gegee 'n uiset opeenvolging, vind die mees waarskynlike stel toestandoorgange en uitsetwaarskynlikhede. Opgelos met die Baum-Welch algoritme.

'n Konkrete voorbeeld[wysig]

Neem aan jy het 'n vriend wat ver weg bly en met wie jy elke dag praat oor wat elkeen van julle die dag gedoen het. Jou vriend het net drie dinge wat hom interesseer: in die park wandel, winkels toe gaan en sy woonstel skoonmaak. Die keuse van wat om te doen word uitsluitlik bepaal deur die weer op 'n gegewe dag. Jy het geen besliste inligting oor die weer waar jou vriend woon nie, maar jy is bekend met die algemene tendense. Gegrond op wat hy jou vertel hy elke dag doen, probeer jy raai hoe die weer moes gewees het.

Jy glo dat die weer as 'n diskrete Markovketting optree. Daar is twee toestande, "Reën" en "Mooiweer", maar jy kan dit nie direk waarneem nie, met ander woorde, dit is van jou verborge. Elke dag is daar 'n sekere waarskynlikheid dat jou vriend een van die volgende aktiwiteite gaan uitvoer, afhangende van die weer: "wandel", "inkopies", of "skoonmaak". Aangesien jou vriend jou vertel van sy aktiwiteite, is hierdie waarnemings. Die hele stelsel is die van 'n verborge Markovmodel (VMM). Jy ken die algemene weerpatrone in die omgewing en jy weet wat jou vriend gemiddeld doen. Met ander woorde, die parameters van die VMM is bekend. Om die waarheid te sê jy kan dit in Pythonprogrammeertaal neerskryf:

toestande = ('Reën', 'Mooiweer')

waarnemings = ('wandel', 'inkopies', 'skoonmaak')

begin_waarskynlikheid = {'Reën': 0.6, 'Mooiweer': 0.4}

oorgang_waarskynlikheid = {
   'Reën' : {'Reën': 0.7, 'Mooiweer': 0.3},
   'Mooiweer' : {'Reën': 0.4, 'Mooiweer': 0.6},
   }

uitsending_waarskynlikhede = {
   'Reën' : {'wandel': 0.1, 'inkopies': 0.4, 'skoonmaak': 0.5},
   'Mooiweer' : {'wandel': 0.6, 'inkopies': 0.3, 'skoonmaak': 0.1},
   }

In hierdie fragment verwys begin_waarskynlikheid na jou onsekerheid oor die toestand waarin die VMM is wanneer jou vriend jou die eerste keer skakel (al wat jy weet dat dit op die gemiddeld geneig is om te reën). Die spesifieke waarskynlikheidsverspreiding wat hier gebruik word is nie die ekwilibrium verspreiding nie, wat (gegee die oorgangswaarskynlikhede) eintlik ongeveer {'Reën': 0.571, 'Mooiweer': 0.429} is. Die oorgang_waarskynlikheid verwys na die verandering in die weer in die onderliggende Markovketting. In die voorbeeld is daar slegs 'n 30% kans dat dit môre mooiweer sal wees as dit vandag reën. Die uitsending_waarskynlikhede dui aan hoe waarskynlik dit is dat jou vriend 'n sekere aktiwiteit elke dag uit sal voer. As dit reën is daar 'n 50% kans dat hy sy woonstel sal skoonmaak; as dit mooiweer is, is daar 'n 60% kans dat hy uit sal gaan vir 'n wandeling.

Hierdie voorbeeld word verder uitgebrei op die Viterbi algoritme bladsy.

Toepassings van verborge Markovmodelle[wysig]

Kyk ook[wysig]

Verwysings[wysig]

Eksterne skakels[wysig]