Kysymys:
Lähentyminen todennäköisyydessä vs. melkein varma lähentyminen
raegtin
2010-08-31 08:57:21 UTC
view on stackexchange narkive permalink

En ole koskaan oikeastaan ​​käsitellyt näiden kahden lähentymismäärän välistä eroa. (Tai itse asiassa mikä tahansa erityyppisistä lähentymisistä, mutta mainitsen nämä kaksi erityisesti suurten lukujen heikkojen ja vahvojen lakien takia.)

Voin varmasti lainata kunkin määritelmän ja anna esimerkki, missä ne eroavat, mutta en silti ymmärrä sitä täysin.

Mikä on hyvä tapa ymmärtää ero? Miksi ero on tärkeä? Onko olemassa eräs erityisen mieleenpainuva esimerkki siitä, missä ne eroavat toisistaan?

Myös vastaus tähän: http://stats.stackexchange.com/questions/72859/is-there-a-statistical-application-that-requires-strong-consistency
Mahdollinen kopio [Onko olemassa tilastosovellusta, joka vaatii vahvaa yhdenmukaisuutta?] (Https://stats.stackexchange.com/questions/72859/is-there-a-statistical-application-that-requires-strong-consistency)
Kuusi vastused:
#1
+77
Robby McKilliam
2010-08-31 11:53:32 UTC
view on stackexchange narkive permalink

Minun mielestäni ero on tärkeä, mutta suurelta osin filosofisista syistä. Oletetaan, että sinulla on jokin laite, joka paranee ajan myötä. Joten joka kerta, kun käytät laitetta, sen epäonnistumisen todennäköisyys on pienempi kuin aikaisemmin.

Todennäköisyyden lähentyminen kertoo, että epäonnistumisen mahdollisuus menee nollaan, kun käyttökertojen määrä menee ääretön. Joten kun olet käyttänyt laitetta useita kertoja, voit olla varma siitä, että se toimii oikein, se saattaa silti epäonnistua, se on vain erittäin epätodennäköistä.

Lähentyminen on melkein varmasti hieman vahvempaa. Siinä sanotaan, että vikojen kokonaismäärä on rajallinen . Toisin sanoen, jos lasket epäonnistumisten määrän, kun käyttökertojen määrä menee äärettömään, saat lopullisen määrän. Tämän vaikutus on seuraava: Kun laitetta käytetään yhä enemmän, lopetat lopullisen määrän käytön jälkeen kaikki viat. Siitä lähtien laite toimii täydellisesti .

Kuten Srikant huomauttaa, et todellakaan tiedä, milloin kaikki epäonnistumiset on käytetty loppuun, joten puhtaasti käytännön näkökulmasta näiden kahden lähentymistavan välillä ei ole paljon eroja.

Henkilökohtaisesti olen kuitenkin hyvin iloinen siitä, että esimerkiksi on olemassa voimakas joukko lakia, toisin kuin vain heikko laki. Koska nyt tieteellinen kokeilu esimerkiksi valon nopeuden saamiseksi on perusteltua ottamaan keskiarvoja. Ainakin teoriassa, kun olet saanut tarpeeksi tietoa, voit päästä mielivaltaisesti lähelle todellista valonopeutta. Keskiarvoistamisprosessissa ei tule olemaan vikoja (riippumatta epätodennäköisistä).

Sallikaa minun täsmentää, mitä tarkoitan keskivirtausprosessin vikoilla (vaikka epätodennäköisillä). Valitse $ \ delta> 0 $ mielivaltaisesti pieni. Saat $ n $ -arviot $ X_1, X_2, \ pisteet, X_n $ valonopeudesta (tai jostakin muusta määrästä), jolla on jokin todellinen arvo, sanotaan esimerkiksi $ \ mu $. Lasket keskimääräisen $$ S_n = \ frac {1} {n} \ sum_ {k = 1} ^ n X_k. $$ Kun saamme lisää tietoa ($ n $ kasvaa), voimme laskea $ S_n $ jokaiselle $ n = 1,2, \ pisteelle $. Heikko laki sanoo (joidenkin oletusten suhteen $ X_n $), että todennäköisyys $$ P (| S_n - \ mu |> \ delta) \ rightarrow 0 $$, kun $ n $ menee $ \ infty $. Vahvan lain mukaan $ | S_n - \ mu | $ on suurempi kuin $ \ delta $, mikä on rajallinen (todennäköisyydellä 1). Eli jos määritämme ilmaisintoiminnon $ I (| S_n - \ mu |> \ delta) $, joka palauttaa yhden, kun $ | S_n - \ mu | > \ delta $ ja nolla muuten, sitten $$ \ sum_ {n = 1} ^ {\ infty} I (| S_n - \ mu |> \ delta) $$ lähentyy. Tämä antaa sinulle huomattavan luottamuksen $ S_n $: n arvoon, koska se takaa (eli todennäköisyydellä 1) jonkin äärellisen $ n_0 $: n olemassaolon siten, että $ | S_n - \ mu | < \ delta $ kaikille dollareille $ n> n_0 $ (ts. Keskiarvo ei koskaan epäonnistunut tuotteelle $ n> n_0 $). Huomaa, että heikko laki ei anna tällaista takuuta.

Kiitos, pidän äärettömän sarjan näkökulman lähentymisestä!
Luulen, että tarkoitit laskettavaa eikä välttämättä rajallista, olenko väärässä? Vai sekoitanko integraalien kanssa.
Tarkemmin sanottuna tapahtumien joukko (tai ei) tapahtuu nollamittauksella -> nollan todennäköisyys tapahtua.
En ole varma, ymmärränkö argumentin, joka melkein varmasti antaa sinulle "huomattavan luottamuksen".Vain koska $ n_0 $ on olemassa, ei vielä kerro, oletko saavuttanut sen.Äärellinen ei välttämättä tarkoita pientä tai käytännössä saavutettavissa olevaa.Itse asiassa vahva laki ei näytä kertovan sinulle, milloin olet saavuttanut tai milloin saavutat $ n_0 $.
#2
+33
user1108
2011-05-20 07:47:18 UTC
view on stackexchange narkive permalink

Tiedän, että tähän kysymykseen on jo vastattu (ja mielestäni melko hyvin), mutta täällä oli toinen kysymys, jolla oli kommentti @NRH, jossa mainittiin graafinen selitys eikä laita kuvat sinne, tuntuu sopivammalta laittaa ne tänne.

Joten, tässä menee. Se ei ole niin siisti kuin R-paketti. Mutta se on itsenäinen eikä vaadi JSTOR-tilausta.

Seuraavassa puhumme yksinkertaisesta satunnaisesta kävelystä, $ X_ {i} = \ pm 1 $ samalla todennäköisyydellä ja laskemme juoksevia keskiarvoja, $$ \ frac {S_ {n}} {n} = \ frac {1} {n} \ sum_ {i = 1} ^ {n} X_ {i}, \ quad n = 1, 2, \ ldots. $$

Strong Law of Large Numbers

SLLN (konvergenssi melkein varmasti) sanoo, että voimme olla 100% varmoja siitä, että tämä käyrä venyy oikealle pois pääsee lopulta, jossain äärellisessä ajassa, lopulta kokonaan kaistojen sisälle ikuisesti sen jälkeen (oikealle).

Tämän kaavion luomiseen käytetty R-koodi on alapuolella (juonetunnisteet jätetään pois lyhyyden vuoksi).

  n <- 1000; m <- 50; e <- 0,05s <- cumsum (2 * (rbinom (n, koko = 1, prob = 0,5) - 0,5)) juoni (s / seq.int (n), type = "l", ylim = c (- 0,4, 0,4)) viiva (h = c (-e, e), lty = 2)  

Weak Law of Large Numbers

WLLN (lähentyminen todennäköisyys) sanoo, että suuri osa näytepolkuista on oikealla puolella olevilla kaistoilla, ajankohtana $ n $ (yllä olevan kohdalla se näyttää olevan noin 48 tai 9/50). Emme voi koskaan olla varmoja siitä, että mikä tahansa tietty käyrä on sisällä milloin tahansa rajallisena aikana, mutta sen yläpuolella olevan nuudelimassan tarkastelu olisi melko turvallinen veto. WLLN sanoo myös, että voimme tehdä sisällä olevien nuudeleiden osuuden niin lähelle 1 kuin haluamme tekemällä juonteen riittävän leveäksi.

Seuraavassa käyrän R-koodi seuraa (ohitetaan taas tarrat). p>

  x <-matriisi (2 * (rbinom (n * m, koko = 1, prob = 0.5) - 0.5), ncol = m) y <- sovelletaan (x, 2, funktio (z ) cumsum (z) / seq_along (z)) matplot (y, type = "l", ylim = c (-0.4,0.4)) abline (h = c (-e, e), lty = 2, lwd = 2) )
 
#3
+6
user28
2010-08-31 09:39:45 UTC
view on stackexchange narkive permalink

Ymmärrän sen seuraavasti:

Todennäköisyyden lähentyminen

Todennäköisyys, että satunnaismuuttujien sekvenssi on sama kuin kohde-arvo, vähenee asymptoottisesti ja lähestyy 0, mutta ei koskaan saavuta 0.

Lähes varma lähentyminen

Satunnaismuuttujien järjestys on sama kuin tavoitearvo asymptoottisesti, mutta et voi ennustaa, missä vaiheessa se tapahtuu.

Lähes varma lähentyminen on vahvempi ehto satunnaismuuttujien sarjan käyttäytymiselle, koska siinä todetaan, että "jotain varmasti tapahtuu" (emme vain tiedä milloin). Sen sijaan todennäköisyyksien lähentyminen toteaa, että "vaikka jotain todennäköisesti tapahtuu", todennäköisyys "jotain ei tapahdu" vähenee asymptoottisesti, mutta ei koskaan saavuta arvoa 0. (jotain $ \ equiv $ satunnaismuuttujien sekvenssi, joka lähenee tiettyä arvoa).

wikissä on joitain esimerkkejä molemmista, joiden pitäisi auttaa selventämään yllä olevaa (katso erityisesti jousiammuntaa koskevan esimerkin lähentymisen yhteydessä esimerkki ja esimerkki hyväntekeväisyydestä melkein varman lähentymisen yhteydessä).

Käytännön näkökulmasta todennäköisyyksien lähentyminen riittää, koska me emme välitä erityisen hyvin epätodennäköisistä tapahtumista. Esimerkiksi estimaattorin johdonmukaisuus on lähinnä todennäköisyyksien lähentymistä. Kun siis käytämme johdonmukaista estimaattia, tunnustamme implisiittisesti tosiasian, että suurissa otoksissa on hyvin pieni todennäköisyys, että arviomme on kaukana todellisesta arvosta. Elämme tämän todennäköisyyden "lähentymisvirheen" kanssa, koska tiedämme, että asymptoottisesti todennäköisyys, että estimaattori on kaukana totuudesta, on häviävän pieni.

Yritetty toimittaja väittää, että tämän pitäisi lukea "Todennäköisyys, että satunnaismuuttujien * sekvenssi ei ole sama kuin * kohde-arvo ...".
"Todennäköisyys, että satunnaismuuttujien sekvenssi on sama kuin kohde-arvo, vähenee asymptoottisesti ja lähestyy 0, mutta ei koskaan saavuta 0: ta." Pitäisikö sen EI SAA koskaan saavuttaa 0?
@gung Todennäköisyys, että se on yhtä suuri kuin tavoitearvo, lähestyy 1 tai todennäköisyys, että se ei ole sama kuin tavoitearvo, lähestyy 0. Nykyinen määritelmä on väärä.
#4
+5
Kingsford Jones
2010-09-01 05:00:39 UTC
view on stackexchange narkive permalink

Jos pidät visuaalisista selityksistä, amerikkalaisessa tilastotieteilijässä oli mukava "Opettajan nurkka" -artikkeli aiheesta (siteeraa alla). Bonuksena kirjoittajat sisälsivät R-paketin oppimisen helpottamiseksi.

  @article {lafaye09, title = {Understanding Convergence Concepts: A Visual-Minded and Graphical Simulation -Pohjainen lähestymistapa}, tekijä = {Lafaye de Micheaux, P. ja Liquet, B.}, päiväkirja = {The American Statistician}, määrä = {63}, numero = {2}, sivut = {173--178}, vuosi = {2009}, julkaisija = {ASA}}  
#5
+1
Tim Brown
2012-09-14 13:10:29 UTC
view on stackexchange narkive permalink

Tämä viimeinen kaveri selittää sen erittäin hyvin. Jos otat satunnaismuuttujien sarjan Xn = 1 todennäköisyydellä 1 / n ja muuten nolla. On helppo nähdä ottavan rajoituksia siitä, että tämä lähentyy nollaan todennäköisyydellä, mutta ei lähennä melkein varmasti. Kuten hän sanoi, todennäköisyys ei välitä siitä, että saisimme yhden tiellä. Melkein varmasti.

Melkein varmasti tarkoittaa todennäköisyyksien lähentymistä, mutta ei päinvastoin jah?

Tervetuloa sivustolle, @Tim-Brown,, kiitämme apustasi vastaamalla kysymyksiin täällä. Yksi asia on huomata, että on parasta tunnistaa muut vastaukset vastaajan käyttäjätunnuksella, "tämä viimeinen kaveri" ei ole kovin tehokas. Esimerkiksi luettelo järjestetään ajan myötä, kun ihmiset äänestävät. Haluat ehkä lukea [FAQ] (http://stats.stackexchange.com/faq).
#6
  0
Sebastian
2018-01-23 13:52:04 UTC
view on stackexchange narkive permalink

Yksi asia, joka auttoi minua ymmärtämään eron, on seuraava vastaavuus

$ P ({\ lim_ {n \ to \ infty} | X_n-X | = 0}) = 1 \ Vasen nuoli \ Rightarrow \ lim_ {n \ to \ infty} ({\ sup_ {m> = n} |X_m-X | > \ epsilon}) = 0 $ $ \ kaikki \ epsilon > 0 $

Verrattuna stokastiseen lähentymiseen:

$ \ lim_ {n \ - \ infty} P (| X_n-X | > \ epsilon) = 0 $ $ \ forall \ epsilon >0 $

Kun verrataan ylemmän ekvivlanssin oikeaa puolta stokastiseen lähentymiseen, ero tulee mielestäni selvemmäksi.



Tämä Q & A käännettiin automaattisesti englanniksi.Alkuperäinen sisältö on saatavilla stackexchange-palvelussa, jota kiitämme cc by-sa 2.0-lisenssistä, jolla sitä jaetaan.
Loading...