Zakon velikih števil

Iz testwiki
Pojdi na navigacijo Pojdi na iskanje

Predloga:Razlikuj Predloga:Short description

Prikaz zakona velikih števil z določeno izvedbo metov ene igralne kocke. Ko se število metov v tej izvedbi veča, se srednje vrednosti vseh rezultatov približujejo vrednosti 3,5. Čeprav bo vsaka izvedba z malih številom metov (na levi) kazala razločno obliko, bo oblika večjega števila metov (na desni) skrajno podobna.

Zákon velíkih števíl je v verjetnostnem računu in statistiki osnovni limitni izrek, ki opisuje rezultat izvajanja istega poskusa zelo velikokrat. Po zakonu mora biti srednja vrednost rezultatov, pridobljenih iz velikega števila poskusov, blizu pričakovane vrednosti, njena vrednost pa se vedno bolj približuje pričakovani vrednosti, če se izvaja vedno več poskusov.[1]

Zakon velikih števil je pomemben, saj zagotavlja stabilne dolgoročne rezultate za srednje vrednosti poljubnih naključnih dogodkov.[1][2] Čeprav bo mogoče na primer kazina v enem zasuku kolesa rulete izgubila denar, se bodo z velikim številom zasukov vrednosti njenih zaslužkov približevale napovedljivemu odstotku. Vsak zmagovalni niz igralca bodo premagali parametri igre. Pomembno si je zapomniti, da zakon velja le, (kakor nakazuje tudi njegovo ime), kadar se obravnava veliko število opazovanj. Ne obstaja načelo, da bo malo število opazovanj sovpadalo s pričakovano vrednostjo, ali, da bo zmagovalni niz ene vrednosti takoj »uravnotežen« z drugimi (glej hazarderska zmota).

Zgledi

Met igralne kocke

Vsak met poštene (šeststrane) igralne kocke bo dal zalogo vrednosti števil Xk={xk}={1,2,3,4,5,6}, vsako z enako verjetnostjo (Xk)=1/6 in funkcijo verjetnosti pX(xk)=1/6. Tako je pričakovana vrednost povprečne vrednosti metov enaka:

𝔼(X)=k=16xk pX(xk)=116+216+316+416+516+616=1+2+3+4+5+66=216=72=3,5.

Pričakovani standardni odklon je enak:

σ=𝕍(X)=k=16(xk𝔼(X))26==3512=1,7078....

Po zakonu velikih števil, če se vrže veliko metov poštene igralne kocke, bo srednja vrednost njihovih vrednosti (včasih imenovana vzorčna sredina) zelo verjetno blizu vrednosti 3,5 z večjo točnostjo pri večjem številu metov.

Iz zakona velikih števil sledi, da bo empirična verjetnost ugodnega izida v nizu Bernoullijevih poskusov konvergirala k teoretični verjetnosti. Za Bernoullijevo slučajno spremenljivko je pričakovana vrednost teoretična verjetnost ugodnega izida, srednja vrednost n takšnih spremenljivk, kjer se privzame, da so neodvisne in enakomerno porazdeljene (n.e.p.), pa je ravno relativna frekvenca (empirična verjetnost).

Met kovanca

Met poštenega kovanca je na primer Bernoullijev poskus. Tu je Xk={xk}={sˇ,g}{0,1}{1,2}. Ko se pošteni kovanec vrže enkrat, bo teoretična verjetnost, da bo padla številka, enaka (Xk)=1/2. Zato bo po zakonu velikih števil razmerje padlih številk v »velikem« številu metov kovanca v grobem enako 1/2. Še posebej bo razmerje padlih številk po n metih skoraj gotovo konvergiralo k 1/2, ko se bo n približeval neskončnosti.

Čeprav se razmerje padlih številk (cifer) (in grbov (glav, mož)) približuje 1/2, bo absolutna razlika števila padlih številk in grbov skoraj gotovo postala velika, ko bo število metov postalo veliko. Zato se verjetnost, da je absolutna razlika majhno število, približuje nič, ko število metov postane veliko. Tudi razmerje med absolutno razliko in številom metov se bo skoraj gotovo približevalo ničli:

|nšng|↛0,|nšng|n0.

Pričakovana razlika intuitivno narašča, vendar v manjši meri kot število metov.

Metode Monte Carlo

Drugi dober zgled je zakon velikih števil metode Monte Carlo. Te metode so širok razred izračunavalnih algoritmov, ki se za pridobitev numeričnih rezultatov zanašajo na naključno vzorčenje. Večje je število ponovitev, boljša bo aproksimacija. Razlog, da je ta metoda pomembna, je v glavnem v tem, da je včasih težko ali nemogoče uporabiti druge pristope.[3]

Omejitev

Srednja vrednost rezultatov, pridobljenih z velikim številom poskusov, v nekaterim primerih morda ne bo konvergirala. Srednja vrednost n rezultatov iz Cauchyjeve porazdelitve ali nekaterih Paretovih porazdelitev (s pomembnostjo α<1) na primer ne bodo konvergirale, ko bo n narastel čez vse meje – razlog je porazdelitev s težkimi repi. Cauchyjeva in Paretova porazdelitev predstavljata dva primera – Cauchyjeva porazdelitev nima pričakovanja,[4] pričakovanje Paretove porazdelitve (α<1) pa je neskončno.[5] V drugem primeru so naključna števila enaka tangenti kota, enakomerno porazdeljenega med −90° in +90°. Mediana je enaka nič, pričakovana vrednost pa ne obstaja – povprečje n takšnih spremenljivk ima res enako porazdelitev kot ena takšna spremenljivka. Verjetnostno ne konvergira proti nič (ali h katerikoli drugi vrednosti), ko gre n proti neskončnosti.

Zgodovina

Difuzija je zgled zakona velikih števil. Na začetku obstajajo raztopljene molekule na levi strani pregrade (škrlatna črta) in nobena na desni strani. Pregrada se odstrani in raztopina difundira po celotni posodi.
Na vrhu: z eno molekulo je gibanje videti precej naključno.
V sredini: z več molekulami je razvidna jasna tendenca, kjer raztopina polni posodo vedno bolj enakomerno z občasnimi naključnimi fluktuacijami.
Spodaj: z velikanskim številom raztopljenih molekul (preveč, da bi se videle), nakjučnost bistveno izgine – raztopina, kot je videti, se giblje gladko in sistematično iz območij z visoko koncentracijo v območja z nizko koncentracijo. V stvarnih razmerah lahko kemiki opišejo difuzijo kot deterministični makroskopski fenomen (glej difuzijski zakon], navkljub njeni podvrženi naključni naravi.

Italijanski matematik Gerolamo Cardano (1501–1576) je brez dokaza navedel, da se točnosti empiričnih statistik izboljšujejo z večjim številom poskusov.[6][7] To je bilo potem formalizirano kot zakon velikih števil. Cardanova matematika je pripadala obdobju v katerem se je izraz slutil s pomočjo formul. Zakona eksplicitno na ta način ni zmogel zapisati, vendar se bo po njem dogodek zgodil z vrednostjo, ki je blizu n, če je verjetnost zanj in n veliko število ponavljanj.[7]

Posebno obliko zakona velikih števil (za dvojiško slučajno spremenljivko) je prvi dokazal Jakob Bernoulli.[8] Za razvoj dovolj strogega matematičnega dokaza je potreboval 20 let. Objavil ga je v četrtem delu svojega dela Umetnost domnevanja (Ars Conjectandi) leta 1713. To je imenoval »zlati izrek«, vendar je postal splošno znan kot »Bernoullijev izrek«.[7] Ne sme se zamenjevati z Bernoullijevim načelom, imenovanim po njegovem nečaku Danielu Bernoulliju. Verjetnost po tem ni bila le matematični abstraktni koncept, ampak je bila količina, ki se je lahko z naraščajočim številom vzorcev ocenila s povečanim zaupanjem.[7] Leta 1837 je Siméon-Denis Poisson izrek naprej opisal pod imenom »zakon velikih števil« (»Predloga:Jezik«).Predloga:Efn[9] Tako je bil zakon znan pod obema imenoma, vendar se »zakon velikih števil« rabi pogosteje.

Po objavi Bernoullijevih in Poissonovih prizadevanj so tudi drugi matematiki prispevali k prečiščenju zakona, med drugim Čebišov,[10] Markov, Borel, Cantelli in Kolmogorov ter Hinčin. Čebišov je podal splošno formulacijo zakona velikih števil – če so pričakovane vrednosti niza slučajnih spremenljivk in kvadrati teh pričakovanj v celoti končni, bo aritmetična sredina z njihovo rastjo zelo verjetno konvergirala k aritmetični sredini njihovih pričakovanj. Markov je pokazal, da se lahko zakon uporabi za slučajno spremenljivko, ki pod določenim drugim šibkejšim privzetkom nima končne variance, Hinčin pa je leta 1929 pokazal, da, če je vrsta sestavljena iz neodvisno enakomerno porazdeljenih slučajnih spremenljivk, je dovolj, da za veljavnost šibkega zakona velikih števil pričakovana vrednost obstaja.[11][12] Ta nadaljnja raziskovanja so dala dve pomembni obliki zakona velikih števil. Ena se imenuje »šibki« zakon, druga pa »krepki« zakon, glede na dva različna načina konvergence kumulativne vzorčne sredine k pričakovani vrednosti – še posebej, kakor je pojasnjeno spodaj – iz krepke oblike sledi šibka oblika zakona.[11][13]

Dve obliki zakona

Obstajata dve različni različici zakona velikih števil, ki sta opisani spodaj. Imenujeta se krepki zakon velikih števil in šibki zakon velikih števil.[14][1] Zakona za primer kjer je X1,X2, neskončno zaporedje neodvisnih in enakomerno porazdeljenih slučajnih spremenljivk integrabilnih po Lebesgu s pričakovano vrednostjo 𝔼(X1)=𝔼(X2)==μ v obeh oblikah pravita, da z navidezno gotovostjo vzorčna sredina:

Xn=1n(X1+X2++Xn)

konvergira k pričakovani vrednosti :

Xnμ,ko gre n. (1. zakon)

(Integrabilnost po Lebesgu Xj pomeni, da pričakovana vrednost 𝔼(Xj) obstaja glede na Lebesguov integral in je končna. Ne pomeni, da je povezana mera verjetnosti absolutno zvezna glede na Lebesguovo mero.)

Na podlagi (nepotrebnega – glej spodaj) privzetka o končni varianci 𝕍(Xi)=σ2 (za vsak i) in brez korelacije med slučajnimi spremenljivkami, je varianca srednje vrednosti n slučajnih spremenljivk enaka:

𝕍(Xn)=𝕍(1n(X1++Xn))=1n2𝕍(X1++Xn)=nσ2n2=σ2n.

Ta privzetek o končni varianci 𝕍(X1)=𝕍(X2)==σ2< ni potreben. Zaradi večje ali neskončne variance bo konvergenca počasnejša, zakon velik števil pa bo vseeno veljal. Ta privzetek se pogosto rabi, saj so dokazi lažji in krajši.

Obojestranska neodvisnost slučajnih spremenljivk se lahko zamenja z neodvistnostjo po parih v obeh različicah zakona.[15]

Razliko med krepko in šibko različico upošteva način konvergence, ki se obravnava. Za interpretacijo teh načinov glej konvergenca slučajnih spremenljivk.

Šibki zakon

Simulacija, ki prikazuje zakon velikih števil. V vsakem koraku se vrže kovanec, ki je na eni strani rdeč, na drugi pa moder. V ustrezni stolpec se doda pika. Tortni diagram kaže razmerje med rdečo in modro barvo strani kovanca, vrženega do tedaj. V začetku se razmerje sicer zelo spreminja, potem pa se z večanjem števila metov približuje vrednosti 50 %.

Šibki zakon velikih števil (imenovan tudi Hinčinov zakon) pravi, da vzorčna sredina verjetnostno konvergira k pričakovani vrednosti:[16][17]

Xn  μ,ko gre n. (2. zakon)

Tako za poljubno pozitivno število ε velja:

limn(|Xnμ|ε)=0.

Šibki zakon ob opisu tega rezultata pravi, da bo za poljubno neničelno mejo, ne glede na to kako majhna je, z dovolj velikim vzorcem obstajala zelo velika verjetnost, da bo srednja vrednost opazovanj blizu pričakovane vrednosti – to je znotraj te meje.

Kakor je omenjeno prej, šibki zakon velja za primer neodvisnih in enakomerno porazdeljenih slučajnih spremenljivk, velja pa tudi v nekaterih drugih primerih. Varianca je lahko na primer za vsako slučajno spremenljivko v nizu različna, pri čemer je pričakovana vrednost konstantna. Če je varianca omejena, zakon velja, kakor je pokazal Čebišov že leta 1867. (Če se pričakovane vrednosti med nizom spreminjajo, se lahko zakon preprosto uporabi za povprečni odmik od ustrezne pričakovane vrednosti. Zakon potem pravi, da to verjetnostno konvergira k nič.) Dejansko dokaz Čebišova deluje tako dolgo, dokler gre varianca povprečja prvih n vrednosti proti nič, ko gre n proti neskončnosti.[12] Naj se na primer privzame, da za vsako slučajno spremenljivko v nizu velja Gaussova porazdelitev s srednjo vrednostjo enako 0, vrednostjo variance pa 2n/log(n+1), ki ni omejena. V vsakem koraku bo povprečje normalno porazdeljeno (kot povprečje množice normalno porazdeljenih sprememnljivk). Varianca vsote je enaka vsoti varianc, ki je asimptota k n2/logn. Varianca povprečja je tako asimptotična k 1/logn in gre k nič.

Obstajajo tudi primeri šibkega zakona, ki velja četudi pričakovana vrednost ne obstaja.

Krepki zakon

Krepki zakon velikih števil (imenovan tudi zakon Kolmogorova) pravi, da vzorčna sredina skoraj gotovo konvergira k pričakovani vrednosti:[18]

Xn s.g. μ,ko gre n. (3. zakon)

Tako velja:

(limnXn=μ)=1.

To pomeni, da je verjetnost, da bo srednja vrednost opazovanj konvergirala k pričakovani vrednosti, ko gre število poskusov n proti neskončnosti, enaka 1.

Dokaz je bolj zapleten od dokaza šibkega zakona.[19] Ta zakon opravičuje intuitivno interpretacijo pričakovane vrednosti (le za Lebesguov integral) slučajne spremenljivke, ko se večkrat vzorči kot »povprečje na dolgi rok«.

Skoraj gotova konvergenca se imenuje tudi krepka konvergenca slučajnih spremenljivk. Ta različica se imenuje krepki zakon, ker bodo slučajne spremenljivke, ki konvergirajo krepko (skoraj gotovo), zagotovo konvergirale šibko (verjetnostno, v verjetnosti). Vendar je za šibki zakon znano, da velja v določenih pogojih, v katerih krepki zakon ne velja, in je tedaj konvergenca le šibka (verjetnostno). Glej #Razlike med šibkim in krepkim zakonom.

Na sam krepki zakon velikih števil se lahko gleda kot na posebni primer točkovnega ergodičnega izreka

Krepki zakon velja za neodvisne enakomerno porazdeljene slučajne spremenljivke, ki imajo pričakovano vrednost (kakor šibki zakon). To je dokazal Kolmogorov leta 1930. Velja lahko tudi v drugih primerih. Kolmogorov je leta 1933 dokazal tudi, da, če so spremenljivke neodvisne in enakomerno porazdeljene, potem je, da bo povprečje skoraj gotovo konvergiralo k nečemu (ta velja za drugo obliko krepkega zakona), potrebno, da imajo pričakovano vrednost (in bo potem seveda povprečje skoraj gotovo konvergiralo k temu).[20]

Če so sumandi neodvisni ne pa tudi enakomerno porazdeljeni, velja:

Xn𝔼(Xn) s.g. 0,

tako, da ima vsak Xk končni drugi moment,Predloga:Efn in:

k=11k2𝕍[Xk]<.

Ta izjava je znana kot krepki zakon Kolmogorova, glej na primer Predloga:Sktxt.

Zgled niza v katerem velja šibki zakon ne pa krepki zakon je kadar je Xk enak plus ali minus k/logloglogk (s pričetkom v dovolj velikem k, da je imenovalec pozitiven) z verjetnostjo enako 1/2 za vsakega.[20] Varianca Xk je potem enaka k/logloglogk. Krepkizakon Kolmogorova ne velja, ker je delna vsota v njegovem kriteriju do k=n asimptotična k logn/logloglogn, kar je brez meje.

Če se slučajne spremenljivke zamenja z Gaussovimi spremenljivkami z enako varianco, namreč k/logloglogk, bo povprečje v vsaki točki tudi normalno porazdeljeno. Širina porazdelitve povprečja se bo približevala nič (standardni odklon k 1/2logloglogn), za dano število ε obstaja verjetnost, ki z naraščajočim n ne gre proti nič, povprečje pa včasih po n-tem poskusu gre nazaj k ε. Ker širina porazdelitve povprečja ni enaka nič, mora imeti pozitivno spodnjo mejo (ε), kar pomeni, da obstaja verjetnost enaka vsaj (ε), da bo povprečje doseglo ε po n poskusih. To se bo zgodilo z verjetnostjo enako (ε)/2 pred določenim m, kar je odvisno od n. Vendar tudi po m poskusih obstaja še vedno verjetnost enaka vsaj (ε), da se bo to zgodilo. (To zgleda nakazuje, da je (ε)=1, povprečje pa bo doseglo ε neskončno mnogokrat.)

Razlike med šibkim in krepkim zakonom

Šibki zakon pravi, da bo za poljubni veliki n povprečje Xn verjetno blizu μ. Tako pušča odprto vprašanje verjetnosti, da se bo |Xnμ|>ε zgodilo neskončno mnogokrat, čeprav ne v rednih intervalih. (Ni nujno, da velja |Xnμ|0 za vse n).

Krepki zakon kaže, da se to skoraj gotovo ne bo zgodilo. Iz njega še posebej izhaja, da z verjetnostjo enako 1 za poljubni ε>0 neenakost |Xnμ|<ε velja za dovolj veliki n.Predloga:Sfnp

Krepki zakon ne velja v naslednjih primerih, šibki pa velja:[21][22][23]

1. Naj je X eksponentno porazdeljena slučajna spremenljivka s parametrom 1. Slučajna spremenljivka sin(X)eXX1 po Lebesguovem integralu nima pričakovane vrednosti, vendar se s pogojno konvergenco in interpretacijo integrala kot Dirichletov integral, ki je nepravi Riemannov integral, lahko zapiše:

𝔼(sin(X)eXX)= 0sin(x)exxexdx=π2.

2. Naj je x geometrična porazdelitev z verjetnostjo =1/2. Slučajna spremenljivka 2X(1)XX1 v običajnem smislu nima pričakovane vrednosti, ker neskončna vrsta ni absolutno konvergentna. S pogojno konvergenco pa se lahko zapiše:

𝔼(2X(1)XX)= 12x(1)xx2x=ln2.

3. Če je zbirna funkcija verjetnosti slučajne spremenljivke enaka:

1F(x)=e2xlnx,xe,
F(x)=e2xln(x),xe,

potem nima pričakovane vrednosti, šibki izrek pa velja.[24][25]

Enolični zakon velikih števil

Naj je f(x,θ) neka funkcija definirana za θΘ in zvezna za θ. Potem bo za poljubni θ zaporedje {f(X1,θ),f(X2,θ),} takšno zaporedje neodvisnih in enakomerno porazdeljenih slučajnih spremenljivk, da bo vzorčna sredina tega zaporedja konvergirala verjetnostno k 𝔼(f(X,θ)). To je točkovna konvergenca (v θ).

Enolični zakon velikih števil podaja pogoje pod katerimi se konvergence v θ zgodijo enolično. Če je:[26][27]

  1. Θ kompaktna,
  2. f(x,θ) zvezna v vsaki θΘ za skoraj vse spremenljivke x in merljiva funkcija spremenljivke x v vsaki θ,
  3. potem obstaja takšna prevladujoča funkcija d(x), da je 𝔼(d(X))< in
    f(x,θ)d(x)za vse θΘ.

Potem je 𝔼(f(X,θ)) zvezna v θ in:

supθΘ1ni=1nf(Xi,θ)𝔼(f(X,θ))s.g. 0.

Ta rezultat je uporaben za izpeljavo konsistence velikega razreda cenilk (glej ekstremalna cenilka).

Borelov zakon velikih števil

Borelov zakon velikih števil iz leta 1909, imenovan po Émileu Borelu, pravi, da, če se poskus ponavlja velikokrat, neodvisno pod enakimi pogoji, je razmerje kolikokrat se poljubni določeni dogodek pojavi, približno enako verjetnosti pojavitve dogodka v poljubnem posameznem poskusu – večje je število ponavljanj, boljši bo približek. Točneje, če A označuje iskani dogodek, verjetnost njegove pojavitve in Nn(A) število kolikokrat se dogodek A pojavi v prvih n poskusih, bo z verjetnostjo 1:[28]

Nn(A)n, ko gre n.

Izrek strogo podaja intuitivno predstavo verjetnosti kot dolgoročni relativni frekvenci pojavitve dogodka. Je posebni primer enega od več splošnejših zakonov velikih števil v verjetnostnem računu.

Neenakost Markova (prva neenakost Čebišova): če je X nenegativna slučajna spremenljivka, za poljubno realno število k>0 velja:

(|Xμ|kσ(X))1k.

Neenakost Čebišova (druga neenakost Čebišova). Neenakost ocenjuje kakšna je verjetnost, da se slučajna spremenljivka veliko razlikuje od končne pričakovane vrednosti μ. Naj je Y poljubna realna slučajna spremenljivka s končno pričakovano vrednostjo μ in končno neničelno varianco σ2. Neenakost Čebišova sledi iz neenakosti Markova za X=|Y𝔼(Y)|2. Za vsako realno število k>0 velja:

(|Yμ|kσ(Y))1k2.

Dokaz šibkega zakona

Za dano neskončno zaporedje neodvisnih in enakomerno porazdeljenih slučajnih spremenljivk X1,X2, s končno pričakovano vrednostjo 𝔼(X1)=𝔼(X2)==μ< je treba določiti konvergenco vzorčne sredine:

Xn=1n(X1+X2++Xn).

Šibki izrek velikih števil pravi:

Izrek: Xn  μ,ko gre n. (2. zakon)

Dokaz z neenakostjo Čebišova s privzetkom končne variance

Pri tem dokazu se privzame končna varianca 𝕍(Xi)=σ2 (za vse i). Neodvisnost slučajnih spremenljivk narekuje, da med njimi ni korelacij. Velja tudi:

𝕍(Xn)=𝕍(1n(X1+X2++Xn))=1n2𝕍(X1+X2++Xn)=nσ2n2=σ2n.

Skupna srednja vrednost μ zaporedja je srednja vrednost vzorčne sredine:

(Xn)=μ.

Neenakost Čebišova za Xn da:

(|Xnμ|ε)σ2nε2.

Od tod sledi naslednje:

(|Xnμ|<ε)=1(|Xnμ|ε)1σ2nε2.

Ko se n približuje neskončnosti, vrednost izraza teži k 1. Iz definicje verjetnostne konvergence sledi:

Xn  μ,ko gre n. (2. zakon)

Dokaz s konvergenco karakterističnih funkcij

Po Taylorjevem izreku za kompleksne funkcije se lahko karakteristična funkcija poljubne slučajne spremenljivke X s končno srednjo vrednostjo μ zapiše kot:

φX(t)=1+itμ+o(t),t0.

Vse spremenljivke X1,X2, imajo enako karakteristično funkcijo, zato se lahko to označi enostavno kot φX.

Med osnovne značilnosti karakterističnih funkcij spadata:

φ1nX(t)=φX(tn)inφX+Y(t)=φX(t)φY(t) , če sta X in Y neodvisni.

S tema praviloma se lahko izračuna karakteristično funkcijo Xn, izraženo s φX:

φXn(t)=[φX(tn)]n=[1+iμtn+o(tn)]neitμ,ko gren.

Limita eitμ je karakteristična funkcija konstantne slučajne spremenljivke μ in zaradi tega po Lévyjevem izreku zveznosti Xn porazdelitveno konvergira k μ:

Xn𝒟μ,zan.

μ je konstanta, kar nakazuje, da sta porazdelitvena konvergenca k μ in verjetnostna konvergenca k μ enakovredni (glej konvergenca slučajnih spremenljivk.) Tako velja:

Xn  μ,ko gre n. (2. zakon)

To kaže, da vzorčna sredina konvergira k odvodu karakteristične funkcije v izhodišču vse dokler ta funkcija obstaja.

Posledice

Zakon velikih števil zagotavlja pričakovanje neznane porazdelitve iz realizacije zaporedja in tudi vsako značilnost verjetnostne porazdelitve.[1] Z Borelovim zakonom velikih števil se lahko preprosto pridobi funkcija verjetnosti. Za vsak dogodek obravnavane funkcije verjetnosti se lahko aproksimira verjetnost pojavitve dogodka z razmerjem kolikokrat se poljubno določeni dogodek pojavi. Večje je število ponavljanj, boljši bo približek. Glede na zvezni primer C=(ah,a+h] za mali pozitivni h tako za velik n velja:

Nn(C)np=(XC)=aha+hf(x) dx2hf(a)

S to metodo se lahko pokrije celotna os x z mrežo (velikosti 2h) in tvori palčni graf, ki se imenuje histogram.

Glej tudi

Predloga:Refbegin

Predloga:Refend

Opombe

Predloga:Notelist

Sklici

Predloga:Sklici

Viri

Predloga:Refbegin

Predloga:Refend

Zunanje povezave

Predloga:Kategorija v Zbirki

Predloga:Normativna kontrola

  1. 1,0 1,1 1,2 1,3 Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani :0, ne vsebujejo nobenega besedila
  2. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani yao__2016, ne vsebujejo nobenega besedila
  3. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani kroe_2014, ne vsebujejo nobenega besedila
  4. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani dekk_2005a, ne vsebujejo nobenega besedila
  5. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani dekk_2005b, ne vsebujejo nobenega besedila
  6. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani mlod_2008, ne vsebujejo nobenega besedila
  7. 7,0 7,1 7,2 7,3 Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani gorr_2012, ne vsebujejo nobenega besedila
  8. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani bern_1713, ne vsebujejo nobenega besedila
  9. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani hack_1983, ne vsebujejo nobenega besedila
  10. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani čebi_1846, ne vsebujejo nobenega besedila
  11. 11,0 11,1 Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani sene_2013, ne vsebujejo nobenega besedila
  12. 12,0 12,1 Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani EncMath, ne vsebujejo nobenega besedila
  13. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani stoc_2006, ne vsebujejo nobenega besedila
  14. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani bhat_2016, ne vsebujejo nobenega besedila
  15. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani etem_1981, ne vsebujejo nobenega besedila
  16. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani hinč_1929, ne vsebujejo nobenega besedila
  17. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani loev_1977a, ne vsebujejo nobenega besedila
  18. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani loev_1977b, ne vsebujejo nobenega besedila
  19. Predloga:Navedi splet
  20. 20,0 20,1 Predloga:Navedi splet
  21. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani Weak law converges to constant, ne vsebujejo nobenega besedila
  22. Predloga:Navedi splet
  23. Predloga:Navedi splet
  24. Predloga:Navedi splet
  25. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani geye_2013, ne vsebujejo nobenega besedila
  26. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani newe_1994, ne vsebujejo nobenega besedila
  27. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani jenn_1969, ne vsebujejo nobenega besedila
  28. Napaka pri navajanju: Neveljavna značka <ref>; sklici, imenovani wen__1991, ne vsebujejo nobenega besedila