Monte Carlo Markovska veriga
V statistiki metode Monte Carlo Markovske verige (angleško Monte Carlo Markov Chain, MCMC) sestavljajo razred algoritmov za vzorčenje iz verjetnostne porazdelitve. Z grajenjem Markovske verige, ki ima za želeno porazdelitev svojo ravnotežnostno porazdelitev, lahko pridobimo vzorec želene porazdelitve z zapisovanjem stanj z verige. Več korakov kot vključimo, bližje bo porazdelitev vzorca dejanski želeni porazdelitvi. Za grajenje verige obstajajo različni algoritmi, npr. Metropolis–Hastings algoritem.
Domene aplikacije
[uredi | uredi kodo]MCMC metode večinoma uporabljamo za računanje številčnih približkov večdimenzijskih integralov, npr. v Bayesianski statistiki, računski fiziki,[1] računski biologiji[2] in računski lingvistiki.[3][4]
V Bayesianski statistiki je nedaven razvoj MCMC metod omogočil računanje velikih hierarhičnih modelov, ki zahtevajo integracije čez stotine ali tisoče neznanih parametrov.[5]
V vzorčenju redkih dogodkov se uporabljajo za ustvarjanje vzorcev, ki postopoma naselijo redko območje napake.[navedi vir]
Splošna razlaga
[uredi | uredi kodo]Metode MCMC ustvarjajo vzorce z neprekinjene naključne spremenljivke z verjetnostno gostoto proporcionalno znani funkciji. Te vzorce lahko uporabljamo za ovrednotenje integrala te spremenljivke kot pričakovno vrednost ali varianco.
V praksi se razvije skupina verig, začenši od zbirke točk, ki so naključno izbrane in dovolj narazen druga od druge. Te verige so stohastični procesi »walkerjev«, ki se premikajo naključno glede na algoritem, ki išče točke z razmeroma visokim prispevkom integralu, da se premakne v naslednje točke in jim dodeli višjo verjetnost.
Random walk Monte Carlo metode so vrsta naključne simulacije ali Monte Carlo metode. Za razliko od naključnih vzorcev integranda, ki so v običajni Monte Carlo integraciji statistično neodvisni, so tisti v MCMC avtokorelirani. Korelacije vzorcev vpeljejo potrebo po uporabi centralnega limitnega teorema Markovskee verige pri ocenjevanju napak sredinskih vrednosti.
Ti algoritmi tvorijo Markovske verige na ta način, da imajo ravnotežno porazdelitev, ki je proporcionalna dani funkciji.
Zmanjševanje korelacije
[uredi | uredi kodo]Čeprav so bile MCMC metode ustvarjene za boljše naslavljanje večdimenzionalnih težav v primerjavi z generičnimi Monte Carlo algoritmi, se, ko število dimenzij zraste, tudi pri teh pojavi prekletstvo dimenzionalnosti: regije večje verjetnosti se raztegnejo in izgubijo v rastoči prostornini prostora, ki malo prispeva k integralu. En način za reševanje te težave bi bilo lahko krajšanje korakov walkerja, tako da ne poskuša neprestano zapustiti regijo največje verjetnosti. Toda na ta način bi bil proces visoko avtokoreliran in drag (tj. veliko korakov bi bilo potrebno za natančen rezultat). Bolj sofisticirane metode, kot je Hamiltonov Monte Carlo in Wang in Landau algoritem uporabljajo različne načine za zmanjševanje te avtokorelacije, hkrati pa uspevajo z obdržanjem procesa v regijah, ki dajo višji prispek k integralu. Ti algoritmi se običajno zanašajo na bolj zapleteno teorijo in jih je težje izvesti, vendar običajno konvergirajo hitreje.
Primeri
[uredi | uredi kodo]Random walk
[uredi | uredi kodo]- Metropolis–Hastings algoritem: ta metoda ustvari Markovsko verigo s predlagano gostoto za nove korake in metodo za zavrnitve nekaterih predlaganih premikov. To je pravzaprav splošen okvir, ki vključuje kot posebne primere čisto prve in preprostejše MCMC (Metropolis algoritem) in veliko več najnovejših alternativ, naštetih spodaj.
- Gibbsovo vzorčenje: ko je ciljna porazdelitev večdimenzionalna, Gibbsov algoritem vzorčenja[6] posodobi vsako koordinato s svoje polne pogojne porazdelitve pri danih drugih koordinatah. Gibbsovo vzorčenje lahko obravnavamo kot posebni primer Metropolis-Hastings algoritma s stopnjo sprejemanja enakomerno enako 1. Ko črpanje iz polnih pogojnih porazdelitev ni jasno so uporabljena druga vzorčenja.[7][8] Gibbsovo vzorčenje je priljubljeno deloma zato, ker ne zahteva nobenega »tuninga«. Struktura algoritma Gibbsovega vzorčenja močno spominja strukturo povečanja koordinat variacijskega sklepanja, saj oba algoritma uporabljata polne pogojne porazdelitve v postopku posodabljanja.[9]
- Metropolis-prilagojen Langevinov algoritem in druge metode, ki se zanašajo na naklon (in mogoče druge odvode) logaritemske ciljne gostote, da predlagajo korake, ki za katere je bolj verjetno, da bodo v smeri višje gostote verjetnosti.[10]
- Psevdo-marginalni Metropolis Hastings: ta metoda nadomešča vrednotenje gostote ciljne porazdelitve z nepristransko oceno in je uporabna, ko ciljna gostota in na voljo na analitičen način, npr. modeli z latentnimi spremenljivkami.
- Vzorčenje z rezinami: ta metoda je odvisna od načela, da je možno vzorčiti s porazdelitve z enakomernim vzorčenjem z regije pod grafom funkcije gostote. Izmenjuje enakomerno vzorčenje v navpični smeri z enakomernim vzorčenjem z vodoravne »rezine«, ki jo opredeljuje trenutna navpična pozicija.
Sklici
[uredi | uredi kodo]- ↑ Kasim, M.F.; Bott, A.F.A.; Tzeferacos, P.; Lamb, D.Q.; Gregori, G.; Vinko, S.M. (september 2019). »Retrieving fields from proton radiography without source profiles«. Physical Review E. 100 (3): 033208. arXiv:1905.12934. Bibcode:2019PhRvE.100c3208K. doi:10.1103/PhysRevE.100.033208. PMID 31639953. S2CID 170078861.
{{navedi časopis}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - ↑ Gupta, Ankur; Rawlings, James B. (april 2014). »Comparison of Parameter Estimation Methods in Stochastic Chemical Kinetic Models: Examples in Systems Biology«. AIChE Journal. 60 (4): 1253–1268. doi:10.1002/aic.14409. PMC 4946376. PMID 27429455.
{{navedi časopis}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - ↑ See Gill 2008.
- ↑ See Robert & Casella 2004.
- ↑ Banerjee, Sudipto; Carlin, Bradley P.; Gelfand, Alan P. (12. september 2014). Hierarchical Modeling and Analysis for Spatial Data (Second izd.). CRC Press. str. xix. ISBN 978-1-4398-1917-3.
- ↑ Geman, Stuart; Geman, Donald (november 1984). »Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images«. IEEE Transactions on Pattern Analysis and Machine Intelligence. PAMI-6 (6): 721–741. doi:10.1109/TPAMI.1984.4767596. ISSN 0162-8828. PMID 22499653.
{{navedi časopis}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - ↑ Gilks, W. R.; Wild, P. (1. januar 1992). »Adaptive Rejection Sampling for Gibbs Sampling«. Journal of the Royal Statistical Society. Series C (Applied Statistics). 41 (2): 337–348. doi:10.2307/2347565. JSTOR 2347565.
- ↑ Gilks, W. R.; Best, N. G.; Tan, K. K. C. (1. januar 1995). »Adaptive Rejection Metropolis Sampling within Gibbs Sampling«. Journal of the Royal Statistical Society. Series C (Applied Statistics). 44 (4): 455–472. doi:10.2307/2986138. JSTOR 2986138.
- ↑ Lee, Se Yoon (2021). »Gibbs sampler and coordinate ascent variational inference: A set-theoretical review«. Communications in Statistics - Theory and Methods. 51 (6): 1–21. arXiv:2008.01006. doi:10.1080/03610926.2021.1921214. S2CID 220935477.
- ↑ See Stramer 1999.
Viri
[uredi | uredi kodo]- Christophe Andrieu, Nando De Freitas, Arnaud Doucet and Michael I. Jordan An Introduction to MCMC for Machine Learning, 2003
- Asmussen, Søren; Glynn, Peter W. (2007). Stochastic Simulation: Algorithms and Analysis. Stochastic Modelling and Applied Probability. Zv. 57. Springer.
- Atzberger, P. »An Introduction to Monte-Carlo Methods« (PDF).
- Berg, Bernd A. (2004). Markov Chain Monte Carlo Simulations and Their Statistical Analysis. World Scientific.
- Bolstad, William M. (2010). Understanding Computational Bayesian Statistics. Wiley. ISBN 978-0-470-04609-8.
- Casella, George; George, Edward I. (1992). »Explaining the Gibbs sampler«. The American Statistician. 46 (3): 167–174. CiteSeerX 10.1.1.554.3993. doi:10.2307/2685208. JSTOR 2685208.
- Gelfand, A.E.; Smith, A.F.M. (1990). »Sampling-Based Approaches to Calculating Marginal Densities«. Journal of the American Statistical Association. 85 (410): 398–409. CiteSeerX 10.1.1.512.2330. doi:10.1080/01621459.1990.10476213.
- Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Rubin, Donald B. (1995). Bayesian Data Analysis (1. izd.). Chapman and Hall. (See Chapter 11.)
- Geman, S.; Geman, D. (1984). »Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images«. IEEE Transactions on Pattern Analysis and Machine Intelligence. 6 (6): 721–741. doi:10.1109/TPAMI.1984.4767596. PMID 22499653. S2CID 5837272.
- Gilks, W.R.; Richardson, S.; Spiegelhalter, D.J. (1996). Markov Chain Monte Carlo in Practice. Chapman and Hall/CRC.
- Gill, Jeff (2008). Bayesian methods: a social and behavioral sciences approach (2. izd.). Chapman and Hall/CRC. ISBN 978-1-58488-562-7.
- Green, P.J. (1995). »Reversible-jump Markov chain Monte Carlo computation and Bayesian model determination«. Biometrika. 82 (4): 711–732. CiteSeerX 10.1.1.407.8942. doi:10.1093/biomet/82.4.711.
- Neal, Radford M. (2003). »Slice Sampling«. Annals of Statistics. 31 (3): 705–767. doi:10.1214/aos/1056562461. JSTOR 3448413.
- Neal, Radford M. (1993). »Probabilistic Inference Using Markov Chain Monte Carlo Methods«.
- Robert, Christian P.; Casella, G. (2004). Monte Carlo Statistical Methods (2. izd.). Springer. ISBN 978-0-387-21239-5.
- Rubinstein, R.Y.; Kroese, D.P. (2007). Simulation and the Monte Carlo Method (2. izd.). Wiley. ISBN 978-0-470-17794-5.
- Smith, R.L. (1984). »Efficient Monte Carlo Procedures for Generating Points Uniformly Distributed Over Bounded Regions«. Operations Research. 32 (6): 1296–1308. doi:10.1287/opre.32.6.1296. hdl:2027.42/7681.
- Spall, J.C. (april 2003). »Estimation via Markov Chain Monte Carlo«. IEEE Control Systems Magazine. 23 (2): 34–45. doi:10.1109/mcs.2003.1188770.
{{navedi časopis}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - Stramer, O.; Tweedie, R. (1999). »Langevin-Type Models II: Self-Targeting Candidates for MCMC Algorithms«. Methodology and Computing in Applied Probability. 1 (3): 307–328. doi:10.1023/A:1010090512027. S2CID 1512689.
Nadaljnje branje
[uredi | uredi kodo]- Diaconis, Persi (april 2009). »The Markov chain Monte Carlo revolution« (PDF). Bull. Amer. Math. Soc. 46 (2): 179–205. doi:10.1090/s0273-0979-08-01238-x. S 0273-0979(08)01238-X.
{{navedi časopis}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - Press, W.H.; Teukolsky, S.A.; Vetterling, W.T.; Flannery, B.P. (2007), »Section 15.8. Markov Chain Monte Carlo«, Numerical Recipes: The Art of Scientific Computing (3. izd.), Cambridge University Press, ISBN 978-0-521-88068-8, arhivirano iz prvotnega spletišča dne 11. avgusta 2011, pridobljeno 21. julija 2023
- Richey, Matthew (Maj 2010). »The Evolution of Markov Chain Monte Carlo Methods« (PDF). The American Mathematical Monthly. 117 (5): 383–413. CiteSeerX 10.1.1.295.4478. doi:10.4169/000298910x485923. S2CID 13630404.