User:SonnaGab/ավազարկղ



Մաթեմատիկայում, Monte Carlo ինտեգրացիան թվային ինտեգրացիա է,որը օգտագործում է պատահական թվեր. Այսինքն, Monte Carlo ինտեգրման մեթոդները ալգորիթմների համար որոշակի ինտեգրալների մոտավոր գնահատումն է, սովորաբար մի քանի multidimensional: Սովորական ալգորիթմները գնահատում են ներառելով հերթական grid. Monte Carlo մեթոդները, սակայն, պատահականորեն ընտրում են կետերը, որով ներառվածը գնահատվում է:

Պաշտոնապես, ինչպես գնահատել D դաշտը, նախ ընտրեք այն պարզ դաշտ  E-ն,որի տարածքը հեշտությամբ հաշվարկվում եւ որը պարունակում է D: Այժմ պատահական հաջորդականությամբ ընկնում է E-ին մոտ: Որոշ կոտորակներ ընկնում են D-ին մոտ:  D դաշտը գնահատվում է, ապա այս մասն բազմապատկվում է E դաշտի կողմից:

Ավանդական Monte Carlo ալգորիթմը տարածում է գնահատման միավորը uniformly ինտեգրման տարածաշրջանում: Հարմարվող ալգորիթմները, ինչպիսիք են  VEGAS  և MISER  օգտագործում են կարեւորն նմուշառում և stratified նմուշառում տեխնիկայի ավելի լավ արդյունք ստանալու համար:

Պարզ Monte Carlo ինտեգրացիա ալգորիթմը
Պարզ Monte Carlo ինտեգրման ալգորիթմը հաշվարկում է multidimensional որոշակի անբաժան նախահաշիվը, որը այս ձևով է,


 * $$I = \int_{a_1}^{b_1}dx_1\int_{a_2}^{b_2}dx_2\dots\int_{a_n}^{b_n}dx_n \,

f(x_1, x_2, \dots, x_n) \equiv \int_{V}f(\bar{\mathbf{x}}) \, d\bar{\mathbf{x}}$$

where $$\bar{\mathbf{x}}=\{x_1,\dots,x_n\}$$ and the hypercube $$V$$ is the region of integration,
 * $$\{ \bar{\mathbf{x}} ; a_1\le x_1\le b_1, a_2\le x_2\le b_2,\dots, a_n\le x_n\le b_n\}$$.

Բայց ստորեւ մենք պետք է օգտագործենք $$V$$ մատնանշելով այս տարածաշրջանի չափումը:

Իսկ ալգորիթմի նմուշների միավորները միասնական են ինտեգրման տարածաշրջանից գնահատելով այն ամբողջական և  իր սխալը. Ենթադրենք, որ նմուշ ունի չափ $$N$$ եւ այդ նմուշի միավորները մատնանշվում են \bar{\mathbf{x}}_1, \dots,  \bar{\mathbf{x}}_N  կողմից : Այնուհետեւ ինտեգրալի նախահաշիվը  տրվում է


 * $$ I \approx Q_N \equiv V\frac{1}{N} \sum_{i=1}^N f(\bar{\mathbf{x}}_i) = V \langle f \rangle $$,

Որտեղ $$\langle f \rangle$$ նշանակում է integrand-ի  նմուշ. $$ I = \lim_{N \to \infty} Q_N $$ հետեւում է այն փաստը, որ  $$ \{ \bar{\mathbf{x}}_1, \bar{\mathbf{x}}_2, \bar{\mathbf{x}}_3, \ldots \} $$  ինտեգրման  շրջանի equidistributed հաջորդականությունը  (անտեսելով իրականացման հարցեր, ինչպիսիք են  pseudorandom գեներատորների շարքը եւ սահմանափակ ճշգրտության  լողացող կետը).

Integrand-ի sample variance  կարելի է գնահատել, օգտագործելով
 * $$ \mathrm{Var}(f)\equiv\sigma_N^2 = \frac{1}{N-1} \sum_{i=1}^N (f(\bar{\mathbf{x}}_i) - \langle f \rangle)^2, $$

Որտեղ օգտագործվում է $$N-1$$ $$N$$-ի փոխարեն,  որպեսզի ստանան unbiased estimate of the variance:

Քանի որ հետեւյալ ուժի մեջ է ցանկացած անկախ փոփոխականների stochastic $$Y_i$$,
 * $$\mathrm{Var}\left(\sum_{i=1}^N Y_i\right)=\sum_{i=1}^N \mathrm{Var}(Y_i)$$,

եւ քանի որ, որպես մշտական $$ a $$ ունի հետեւյալ գույքը,
 * $$\mathrm{Var}(a f) = a^2 \mathrm{Var}(f)$$,

Ապա ինտեգրալի գնահատականների փոփոխությունը
 * $$ \mathrm{Var}(Q_N) = \frac{V^2}{N^2} \sum_{i=1}^N \mathrm{Var}(f)  =V^2 \frac{\mathrm{Var}(f)}{N} = V^2\frac{\sigma_N^2}{N}$$.

Քանի դեռ հաջորդականությանը $$ \{ \sigma_1^2, \sigma_2^2, \sigma_3^2, \ldots \} $$սահմանափակ է, այդ փոփոխությունը նվազեցնում է asymptotically մինչեւ զրո, ինչպես  $$\frac{1}{N}$$. Սխալ նախահաշիվը,
 * $$\delta Q_N\approx\sqrt{\mathrm{Var}(Q_N)}=V\frac{\sigma_N}{\sqrt{N}},$$

Նվազում են, ինչպես $$1/\sqrt{N}$$. պատահական զբոսանք ծանոթ օրենքը տարածվում է: նվազեցնում է սխալը  10 գործոնից  100- ապատիկի չափով թվի աճ:

Վերը արտահայտությունն ապահովում է վիճակագրական գնահատական սխալի մասին. Արդյունքում, այս հաշվարկը սխալ չէ, խիստ սխալ է կարված; տարածաշրջանի պատահական ընտրանքը չի կարող բացահայտել բոլոր կարեւոր հատկանիշները, որոնք գործում են, ինչի արդյունքում է թերագնահատում է այդ սխալը:

Recursive stratified sampling
Recursive stratified նմուշառումը մեկ տարածական ընդհանրացում է հարմարվող քառակուսու բազմակողմ ինտեգրալի հետ. Յուրաքանչյուր ռեկուրսի քայլ ամբողջական է եւ սխալ է գնահատվում օգտագործելով պարզ Monte Carlo ալգորիթմը. Եթե նախահաշիվի սխալը ավելի մեծ է, քան պահանջվող ճշգրտության ինտեգրումը, ծավալը բաժանվում է ենթահաշիվների ծավալների եւ այդ ընթացակարգը կիրառվում է վերադարձում ենթահաշիվների ծավալներով.

Սովորական ' երկուի բաժանարար ' ռազմավարությունը չի աշխատում բազմամյա հարթություններում, քանի որ ենթահաշիվներից մի շանիսի ծավալները աճում են, շատ արագ ուղին չկորցնելով: Մեկ գնահատականների փոխարեն, որոնց ստորաբաժանումը բերում է ամենաշատ շահաբաժինները եւ միայն այս հարթության ստորաբաժանումի ծավալի երկայնքով:

Ահա տիպիկ ալգորիթմ recursive stratified sampling-ի համար:

Sample $$N$$ random points; Estimate the average and the error; If the error is acceptable : Return the average and the error; Else : For each dimension : Subdivide the volume in two along the dimension; Estimate the sub-averages in the two sub-volumes; Pick the dimension with the largest sub-average; Subdivide the volume in two along this dimension; Dispatch two recursive calls to each of the sub-volumes; Estimate the grand average and grand variance; Return the grand average and grand variance;

Շերտադասվել նմուշառումի ալգորիթմի խտանյութերը  ստուգում է կետերը  մարզերում,  որտեղ գործառույթի անհամաձայնությունը խոշորագույնն  է, այդպիսով նվազեցնելով մեծ վեճ ու դարձնելով առավել արդյունավետ նմուշառում, ինչպես  լուսաբանվում է:

Լուսաբանելու համար կետերը գեներացվել են հետևյալ կերպ JavaScript-1.8 implementation վերը նշված ալգորիթմի իրականացումը,

Այսօր հայտնի ԱԳԱՀ ռեժիմը իրականացնում է նմանատիպ մի ալգորիթմ:

ԱԳԱՀ Monte Carlo
Press և Farrar ագահ ալգորիթմը  հիմնված է recursive stratified sampling-ի վրա: Այս տեխնիկայի նպատակն է նվազեցնել ընդհանուր ինտեգրացիոն սխալը` կենտրոնացնելով ինտեգրացիոն միավորը ամենաբարձր շեղման մարզերում:

stratified sampling-ի գաղափարը սկսվում է դիտարկվել, որ երկու a և b  շրջաններում, ինչպես նաեւ  Monte Carlo-ում ինտեգրալի հաշվարկները $$E_a(f)$$ and $$E_b(f)$$ և գժտությունը $$\sigma_a^2(f)$$ and $$\sigma_b^2(f)$$, իսկ գժտությունը $$Var(f)$$ համակցված գնահատականներով $$E(f) = (1/2) (E_a(f) + E_b(f))$$ տրված է,


 * $$\mathrm{Var}(f) = (\sigma_a^2(f) / 4 N_a) + (\sigma_b^2(f) / 4 N_b)$$

Կարելի է ցույց տալ, որ վեճը նվազագույնի  է հասցվել բաշխման կետերի կողմից, օրինակ,


 * $$N_a / (N_a + N_b) = \sigma_a / (\sigma_a + \sigma_b)$$

Hence the smallest error estimate is obtained by allocating sample points in proportion to the standard deviation of the function in each sub-region.

The MISER algorithm proceeds by bisecting the integration region along one coordinate axis to give two sub-regions at each step. The direction is chosen by examining all d possible bisections and selecting the one which will minimize the combined variance of the two sub-regions. The variance in the sub-regions is estimated by sampling with a fraction of the total number of points available to the current step. The same procedure is then repeated recursively for each of the two half-spaces from the best bisection. The remaining sample points are allocated to the sub-regions using the formula for N_a and N_b. This recursive allocation of integration points continues down to a user-specified depth where each sub-region is integrated using a plain Monte Carlo estimate. These individual values and their error estimates are then combined upwards to give an overall result and an estimate of its error.

This routines uses the MISER Monte Carlo algorithm to integrate the function f over the dim-dimensional hypercubic region defined by the lower and upper limits in the arrays xl and xu, each of size dim. The integration uses a fixed number of function calls, and obtains random sampling points using the random number generator r. A previously allocated workspace s must be supplied. The result of the integration is returned in result, with an estimated absolute error abserr.

Ուրվագծված պարամետրեր
ԱԳԱՀ ալգորիթմը ունի մի քանի ուրագծված պարամետրեր:

estimate_frac
Այս պարամետրը սահմանում է կոտորակ, որը ներկայումս առկա մի շարք զանգերի ֆունկցիայում, որոնք հատկացված է գնահատելու յուրաքանչյուր վերադարձաց քայլի շեղվում: Իսկ GNU Գիտական Գրադարանի (GSL) իրականացման նախնական արժեքը 0.1 է:

min_calls
Այս պարամետրը սահմանում է զանգերի ֆունկցիայի նվազագույն քանակը, որից յուրաքնաչյուրը շեղվում է հաշվարկի մեջ: Եթե  ֆունկցիայի համարի կոչերը հատկացված են գնահատականներով, օգտագործելով estimate_frac  ընկնում է ներքև min_calls ապա օգնագործում ենք  min_calls-ի փոխարեն: Սա երաշխավորում է, որ յուրաքանչյուր նախահաշիվը պահպանվում է ողջամիտ մակարդակի ճշգրտությամբ:  GNU գիտական գրադարանի  իրականացումը, min_calls-ի նախնական արժեքը 16 * dim է:

min_calls_per_bisection
Այս պարամետրը սահմանում է զանգերի ֆունկցիայի նվազագույն քանակը, որը շարունակել է այն կիսում քայլի հետ: Երբ  վերադարձ քայլը ունի ավելի քիչ զանգեր, քան առկա min_calls_per_bisection-ը, այն կատարում է պարզ Monte Carlo ընթացիկ ենթահանձնաժողովների նախահաշիվը տարածաշրջանում եւ դադարեցնում է իր մասնաճյուղի  ռեկուրսիան: GNU գիտական գրադարանի  իրականցումը ,պարամետրի նախնական արժեքը  32 * min_calls է:

alpha
Այս պարամետրը վերահսկում է, թե ինչպես գնահատած անհամաձայնությունների համար երկու ենթահաշիվների շրջաններից մեկը համակցված կիսում է,երբ հատկացվում է միավոր: Անհամաձայության ընտրանքի ընդհանուր գժտությունում լայնածավալը ավելի լավ է, քան  1/N-ում, քանի որ ենթահանձնաժողովների շրջաններիվ նախատեսված արժեքները  ձեռք են բերել օգտագործման կարգը, որով հստակորեն  նվազեցնում են իրենց շեղվումը: Այս պահվածքի տեղավորելը թույլ է տալիս ԱԳԱՀ  ալգորիթմի  ընդհանուր գժտություն, որը կախված է մի չափման պարամետրից \ ալֆաից,


 * $$\mathrm{Var}(f) = {\sigma_a \over N_a^\alpha} + {\sigma_b \over N_b^\alpha}$$

Սկզբնական թղթի հեղինակները բնութագրում են ԱԳԱհ խորհուրդի արժեքը $$\alpha = 2$$ որպես լավ ընտրություն է, ստացված թվային փորձերից, եւ դա օգտագործվում է որպես լռելյայն արժեք GNU գիտական գրադարանի իրականացումում:

dither
Այս պարամետրը ներկայացնում է պատահական կոտորակային տատանումների չափի dither յուրաքանչյուր կիսումում, որը կարելի է օգտագործել կոտրելու ինտեգրալների  սիմետրիան, որոնք կենտրոնացած են  hypercubic  ինտեգրման տարածաշրջանի կենտրոնին շատ ճշգրիտ. GNU գիտական գրադարանի իրականացումում, dither-ի նախնական արժեքը զրոյական է, այնպես որ ոչ մի փոփոխություն չի ներկայացվել: Անհրաժեշտության դեպքում dither-ի տիպիկ արժեքը մոտ 0.1-ին:

VEGAS Monte Carlo
G.P.Lepage-ի iVEGAS ալգորիթմը  հիմնված է Կարեւոր  նմուշառումի վրա: Այն հավանականության բաշխման նմուշների միավորը նկարագրված է ֆունկցիային $$|f|$$, որի կետերը կենտրոնացած են մարզերում, որոնք ինտեգրալ ամենամեծ ներդրումն էր:

Ընդհանրապես, եթե Monte Carlo անբաժան է $$f$$ օրինակ, հավանականության բաշխումը նկարագրվում է ֆունկցիայի կողմից $$g$$, մենք ստանալու ենք գնահատական $$E_g(f; N)$$,

$$E_g(f; N) = E(f/g; N)$$

ինչպես նաեւ համապատասխան գործավարությանը,

$$Var_g(f; N) = Var(f/g; N)$$

Եթե բաշխման հավանականությունը ընտրված է որպես $$g = |f|/I(|f|)$$ ապա կարելի է ցույց տալ գործավարության variance $$V_g(f; N)$$ անհետանալը, սխալ գնահատականները կլինեն  զրո: Գործնականում  հնարավոր չէ  բաշխման նմուշից  $$g$$ կամայական գործողության համար, այսպես կարեւորության ստուգման ալգորիթմների  նպատակն է արտադրել արդյունավետ ցանկալի մոտեցում:

The VEGAS algorithm approximates the exact distribution by making a number of passes over the integration region while histogramming the function $$f$$. Each histogram is used to define a sampling distribution for the next pass. Asymptotically this procedure converges to the desired distribution. In order to avoid the number of histogram bins growing like $$K^d$$ the probability distribution is approximated by a separable function: $$g(x_1, x_2, \ldots) = g_1(x_1) g_2(x_2) \ldots$$ so that the number of bins required is only $$Kd$$. This is equivalent to locating the peaks of the function from the projections of the integrand onto the coordinate axes. The efficiency of VEGAS depends on the validity of this assumption. It is most efficient when the peaks of the integrand are well-localized. If an integrand can be rewritten in a form which is approximately separable this will increase the efficiency of integration with VEGAS.

VEGAS-ը ներառում է մի շարք լրացուցիչ հնարավորություններ,և  համատեղում է և stratified sampling և ստուգման կարեւորությունը: Շրջանի ինտեգրումը բաժանված է մի շարք     " արկղերի ", յուրաքանչյուր վանդակում ստանալու կայուն միավոր (նպատակը 2): Յուրաքանչյուր արկղ կարող  է ունենալ կոտորակային շարքեր,  բայց եթե արկղերը երկուսից պակաս են, Vegas-ը կրճատում է շեղումը  ( այլ ոչ թե կարեւոր  նմուշառումը):

This routines uses the VEGAS Monte Carlo algorithm to integrate the function $$f$$ over the dim-dimensional hypercubic region defined by the lower and upper limits in the arrays $$xl$$ and $$xu$$, each of size $$dim$$. The integration uses a fixed number of function calls, and obtains random sampling points using the random number generator $$r$$. A previously allocated workspace $$s$$ must be supplied. The result of the integration is returned in $$result$$, with an estimated absolute error $$abserr$$. The result and its error estimate are based on a weighted average of independent samples. The chi-squared per degree of freedom for the weighted average is returned via the state struct component, $$s\to chisq$$, and must be consistent with 1 for the weighted average to be reliable.

The VEGAS algorithm computes a number of independent estimates of the integral internally, according to the iterations parameter described below, and returns their weighted average. Random sampling of the integrand can occasionally produce an estimate where the error is zero, particularly if the function is constant in some regions. An estimate with zero error causes the weighted average to break down and must be handled separately. In the original Fortran implementations of VEGAS the error estimate is made non-zero by substituting a small value (typically 1e-30). The implementation in GSL differs from this and avoids the use of an arbitrary constant -- it either assigns the value a weight which is the average weight of the preceding estimates, or discards it according to the following procedure:


 * Current estimate has zero error, weighted average has finite error The current estimate is assigned a weight which is the average weight of the preceding estimates.
 * Current estimate has finite error, previous estimates had zero error The previous estimates are discarded and the weighted averaging procedure begins with the current estimate.
 * Current estimate has zero error, previous estimates had zero error The estimates are averaged using the arithmetic mean, but no error is computed.

Ուրվագծված պարամետրեր
VEGAS ալգորիթմը ուրվագծված է:

chisq
Այս պարամետրը տալիս էchi-squared-ի մեկ աստիճան ազատություն ինտեգրալի գնահատման համար: Chisq-ի արժեքը  տետք է մետ լինի 1-ի. Chisq-ի արժեքը, որը զգալիորեն տարբերվում է 1-ից, նշենք, որ տարբեր iterations արժեքները անհետեւողական են: Այս դեպքում կշռված սխալը գնահատվում  է եւ հետագա iterations ալգորիթմը անհրաժեշտ է ձեռք բերել հուսալի արդյունքներ:

alpha
alpha պարամետրը վերահսկում է rebinning ալգորիթմի stiffness: Այն սովորաբար սահմանվում է մեկ եւ երկուսի միջև: Զրո արժեքը խանգարում է  rebinning  grid: GNU գիտական գրադարանի  իրականացման նախնական արժեքը 1.5:

iterations
iterations թիվը կատարում է յուրաքանչյուր զանգի ռեժիմի վրա: GNU գիտական գրադարանի  իրականացման նախնական արժեքը 5 iterations:

stage
Setting this determines the stage of the calculation. Normally, stage = 0 which begins with a new uniform grid and empty weighted average. Calling vegas with stage = 1 retains the grid from the previous run but discards the weighted average, so that one can "tune" the grid using a relatively small number of points and then do a large run with stage = 1 on the optimized grid. Setting stage = 2 keeps the grid and the weighted average from the previous run, but may increase (or decrease) the number of histogram bins in the grid depending on the number of calls available. Choosing stage = 3 enters at the main loop, so that nothing is changed, and is equivalent to performing additional iterations in a previous call.

mode
Հնարավոր ընտրություններ են GSL_VEGAS_MODE_IMPORTANCE, GSL_VEGAS_MODE_STRATIFIED, GSL_VEGAS_MODE_IMPORTANCE_ONLY: Այս սահմանում VEGAS-ը կօգտագործի կարեւորության նմուշառումը  կամ շերտ-շերտ կազմած ստուգումը, կամ արդյոք այն կարող է վերցնել իր սեփականը: Ցածր հարթություններում VEGAS-ը օգտագործում խիստ է  շերտ-շերտ կազմած ստուգումը  (ավելի ճիշտ, շերտ-շերտ դասված նմուշառումը ընտրվում է, եթե մեկ արկղում  առկա է  2-ից  պակաս արկղ):

Տես նաև

 * Auxiliary field Monte Carlo

Հիշատակում եւ հետագա ընթերցանություն
Հետեւյալ հղում Monte Carlo-յի մասին և  quasi-Monte Carlo մեթոդները ընդհանրապես (ինչպես նվազեցման տեխնիկայի շեղման նկարագրության մեջ) հիանալի է սկսել.

Nice survey on arXiv, based on lecture for graduate students in high energy physics: The MISER algorithm is described in the following article, The VEGAS algorithm is described in the following papers, Early works: A general discussion, including both MISER and VEGAS and comparing them, is at
 * R. E. Caflisch, Monte Carlo and quasi-Monte Carlo methods, Acta Numerica vol. 7, Cambridge University Press, 1998, pp. 1-49.
 * S. Weinzierl, Introduction to Monte Carlo methods,
 * W.H. Press, G.R. Farrar, Recursive Stratified Sampling for Multidimensional Monte Carlo Integration, Computers in Physics, v4 (1990), pp190-195.
 * G.P. Lepage, A New Algorithm for Adaptive Multidimensional Integration, Journal of Computational Physics 27, 192-203, (1978)
 * G.P. Lepage, VEGAS: An Adaptive Multi-dimensional Integration Program, Cornell preprint CLNS 80-447, March 1980
 * J. M. Hammersley, D.C. Handscomb (1964) Monte Carlo Methods. Methuen. ISBN 0-416-52340-4

''Based on the GNU Scientific Library's manual, which is published under the GFDL (and hence free to use for Wikipedia). Original available here.''