Kysymys:
Mistä Bayesin lause on kyse?
user333
2010-07-27 01:30:37 UTC
view on stackexchange narkive permalink

Mitkä ovat Bayesin lauseeseen liittyvät pääideat eli käsitteet? En pyydä mitään johdannaisia ​​monimutkaisesta matemaattisesta merkinnästä.

Aiheeseen liittyvät: http://stats.stackexchange.com/questions/22/bayesian-and-frequentist-reasoning-in-plain-english
Haluan myös ehdottaa tätä linkkiä jonkinlaiseksi matalan tason selitykseksi: http://yudkowsky.net/rational/bayes
Bayesin lause voi olla sekoitus ilman visuaalista esitystä - kuten niin usein matematiikassa.Miksi et käyttäisi todennäköisyysruutuja tai todennäköisyyspuita Bayesin todennäköisyyksiin?Kun uudet tiedot tulevat, ne sulkevat osan näytetilasta (esim. Positiivisen testin saaminen taudista sulkee negatiivisen testin).Sitten näytetilasta tulee vain osajoukko todennäköisyyksiä testattavaksi positiiviseksi, kenties - ja tarkastellaan yksinomaan tätä.Minulla on vaikeuksia soveltaa Bayesia todennäköisyysjakaumiin erillisten todennäköisyyksien sijaan.Matematiikka on helvetin kauheaa!
Kahdeksan vastused:
#1
+24
John L. Taylor
2010-07-27 21:56:35 UTC
view on stackexchange narkive permalink

Bayesin lause on suhteellisen yksinkertainen, mutta perustavanlaatuinen todennäköisyysteorian tulos, joka mahdollistaa tiettyjen ehdollisten todennäköisyyksien laskemisen. Ehdolliset todennäköisyydet ovat vain niitä todennäköisyyksiä, jotka heijastavat yhden tapahtuman vaikutusta toisen todennäköisyyteen.

Yksinkertaisesti sanottuna, sen tunnetuimmassa muodossa, se toteaa, että uuden datan ( P (H | D) ; kutsutaan taka-todennäköisyydeksi) hypoteesin todennäköisyys on yhtä suuri kuin seuraava yhtälö: havaittujen tietojen todennäköisyys hypoteesin perusteella ( P (D | H) ; kutsutaan ehdolliseksi todennäköisyydeksi), kertoo teorian todennäköisyyden olevan totta ennen uutta näyttöä ( P (H) ; kutsutaan H: n aikaisemmaksi todennäköisyydeksi jaettuna todennäköisyydellä nähdä kyseiset tiedot, jakso ( P (D ); kutsutaan D: n marginaalitodennäköisyydeksi).

Yhtälö näyttää muodollisesti tältä:

alt text

Bayes-lauseen merkitys johtuu suurelta osin siitä, että sen asianmukainen käyttö on kiistakohta ajatuskoulut todennäköisyydestä. Subjektiiviselle Bayesilaiselle (joka tulkitsee todennäköisyyden subjektiivisiksi uskomuksen asteiksi) Bayesin lause tarjoaa kulmakiven teorian testaukselle, teorian valinnalle ja muille käytännöille kytkemällä niiden subjektiiviset todennäköisyysarvioinnit yhtälöön ja juoksemalla sen kanssa. Yleisölle (joka tulkitsee todennäköisyyden suhteellisten taajuuksien rajoittamisena), tämä Bayesin lauseen käyttö on väärinkäyttöä, ja he pyrkivät käyttämään mielekkäitä (ei-subjektiivisia) prioreja (kuten objektiiviset bayesilaiset vielä toinen todennäköisyyden tulkinta).

hyvä vastaus. Minulla on pieni hölmö: sanojen "subjektiivinen" ja "objektiivinen" käyttö ei ole aivan tarkoituksenmukaista, koska mikään menetelmä ei ole "objektiivinen". Sanoisin enemmän, että usein esiintyvät ja "objektiiviset" Bayesilaiset johtavat todennäköisyysjakaumansa yksinkertaisesti käyttämällä tiettyjä sääntöjä tai standardeja. Joten sen sijaan, että usein esiintyvä / objektiivinen Bayesilainen käyttäisi "tapauskohtaista" kyseessä olevaa tapausta, hän käyttää "oletusvalintoja" (piilottaen siten subjektiivisuudensa).
Jos mitat jotain todella arvostettua (esimerkiksi 6-vuotiaiden lasten pituutta), mikä on P (D)? Onko se tietojen pdf-tiedosto? Tällöin lasket vain takaosan pisteittäin seuraavasti: $ P (x | H | D) = \ frac {P (x | D | H) P (x | H)} {P (x | D )} $?
#2
+14
Dave Kellen
2010-07-27 18:39:36 UTC
view on stackexchange narkive permalink

Olen pahoillani, mutta näyttää siltä, ​​että tässä on jonkin verran sekaannusta: Bayesin lause ei ole tarkoitettu keskustelemaan loputtomasta Bayesin - Frequentist keskustelusta. Se on lause, joka on sopusoinnussa molempien ajattelukoulujen kanssa (kun otetaan huomioon, että se on sopusoinnussa Kolmogorovin todennäköisyysaksiomien kanssa).

Tietysti Bayesin lause on Bayesin tilastojen ydin, mutta itse lause on universaali. . Yleisurheilijoiden ja bayesilaisten välinen yhteenotto liittyy enimmäkseen siihen, miten aikaisemmat jakaumat voidaan määritellä vai ei.

Joten jos kysymys on Bayesin lauseesta (eikä Bayesin tilastoista):

Bayes 'lause määrittelee kuinka voidaan laskea tietyt ehdolliset todennäköisyydet. Kuvittele esimerkiksi, että tiedät: todennäköisyys, että jollakin on oire A, kun otetaan huomioon, että hänellä on sairaus X p (A | X); todennäköisyys, että jollakin on yleensä sairaus Xp (X); todennäköisyys, että jollakin on yleensä oire A p (A). Näiden kolmen tiedon avulla voit laskea todennäköisyyden, että jollakin on sairaus X, koska heillä on sympotmia Ap (X | A).

En ole osittain samaa mieltä alkuperäisen kappaleen kanssa, koska kysymykset koskevat Bayesin lauseen käsitettä. Frequentist-Bayesin keskustelu * on merkityksellinen * kysymyksen tässä osassa. Kolmogorov-aksioomat eivät anna Bayesin lauseelle samaa käsitteellistä merkitystä kuin "todennäköisyys kuin laajennettu logiikka" -aksiomit.
#3
+8
Andi F
2010-08-13 16:42:08 UTC
view on stackexchange narkive permalink

Bayesin lause on tapa kääntää ehdollinen todennäköisyys $ P (A | B) $ toiseen ehdolliseen todennäköisyyteen $ P (B | A) $.

Joidenkin kompastuskivi on merkitys $ P (B | A) $: sta. Tämä on tapa vähentää mahdollisten tapahtumien tilaa ottamalla huomioon vain ne tapahtumat, joissa $ A $ varmasti tapahtuu (tai on totta). Joten esimerkiksi todennäköisyys, että heitetyt, reilut noppamaat, joissa on kuusi, $ P (\ mbox {noppaa laskeutuu kuusi}) $, on 1/6, kuitenkin todennäköisyys, että noppu laskeutuu kuuteen, koska se laskeutui parilliseen numeroon, $ P (\ mbox {nopat laskevat kuusi} | \ mbox {nopat laskevat jopa}) $, on 1/3.

Voit johtaa Bayesin lauseen itse seuraavasti. Aloita ehdollisen todennäköisyyden suhdemäärityksellä:

$ P (B | A) = \ frac {P (AB)} {P (A)} $

missä $ P (AB) $ on $ A $: n ja $ B $: n yhteistodennäköisyys ja $ P (A) $ on $ A $: n marginaalitodennäköisyys.

Tällä hetkellä kaavassa ei viitata dollariin $ P (A | B) $, joten kirjoitetaan myös tämän määritelmä:

$ P (A | B) = \ frac {P (BA)} {P (B)} $

Pieni temppu tämän työn tekemiseen on nähdä, että $ P (AB) = P (BA) $ (koska Boolen algebra on kaiken tämän alapuolella, voit todistaa tämän helposti totuustaulukolla osoittamalla $ AB = BA $ ), joten voimme kirjoittaa:

$ P (A | B) = \ frac {P (AB)} {P (B)} $

Nyt voit sijoittaa tämän kaava arvolle $ P (B | A) $, kirjoita vain yllä oleva kaava niin, että $ P (AB) $ on vasemmalla:

$ P (AB) = P (A | B) P (B ) $

ja hei presto:

$ P (B | A) = \ frac {P (A | B) P (B)} {P (A)} $

Mitä tulee ehdollisen todennäköisyyden pyörittämiseen tällä tavalla, mieti yleistä esimerkkiä siitä, kuinka yritetään päätellä todennäköisyys, että jollakin on sairaus, koska hänellä on sympto Me tiedämme , että heillä on oire - voimme vain nähdä sen - mutta emme voi olla varmoja, onko heillä sairaus, ja meidän on pääteltävä siitä. Aloitan kaavasta ja palaan takaisin.

$ P (\ mbox {tauti} | \ mbox {oire}) = \ frac {P (\ mbox {oire} | \ mbox {tauti} ) P (\ mbox {tauti})} {P (\ mbox {oire})} $

Joten sen selvittämiseksi sinun on tiedettävä oireen aikaisempi todennäköisyys, taudin aikaisempi todennäköisyys (eli kuinka yleisiä tai harvinaisia ​​oire ja tauti ovat) ja myös todennäköisyys, että jollakin on oire meille tiedä, että jollakin on sairaus (esim. kalliiden, aikaa vievien laboratoriotestien avulla).

Se voi olla paljon monimutkaisempi kuin tämä, esim. jos sinulla on useita sairauksia ja oireita, mutta idea on sama. Vielä yleisemmin, Bayesin lause tulee usein esiin, jos sinulla on todennäköisyysteoria syiden (esim. Sairaudet) ja vaikutusten (esim. Oireet) välisistä suhteista ja sinun on perusteltava taaksepäin (esim. Näet joitain oireita, joista haluat taudin päättelemiseksi).

#4
+5
Tony Breyal
2010-07-27 02:35:30 UTC
view on stackexchange narkive permalink

Tilastoja on kaksi pääasiallista ajattelutapaa: usein esiintyvä ja bayesilainen.

Tätä kutsutaan ehdolliseksi todennäköisyydeksi. Saatat haluta tarkastella tätä saadaksesi käsityksen matematiikasta.
#5
+4
htrahdis
2010-07-27 07:31:39 UTC
view on stackexchange narkive permalink

Haluan antaa sinulle erittäin intuitiivisen oivalluksen. Oletetaan, että heität kolikkoa 10 kertaa ja saat 8 päätä ja 2 häntää. Mieleenne tuleva kysymys on, onko tämä kolikko puolueellinen päitä kohtaan vai ei.

Jos noudatat tavanomaisia ​​määritelmiä tai todennäköisyyden toistuvaa lähestymistapaa, saatat sanoa, että kolikko on puolueeton ja tämä on poikkeuksellinen tapahtuma. Siksi voisitte päätellä, että mahdollisuus saada pää seuraavaksi heitoksi on myös 50%.

Mutta oletetaan, että olet Bayesian. Luulisi itse asiassa, että koska sinulla on poikkeuksellisen suuri määrä päitä, kolikko on vinoutunut päätä kohti. On olemassa menetelmiä tämän mahdollisen harhojen laskemiseksi. Laskisit ne ja sitten, kun heität kolikon seuraavalla kerralla, soitat ehdottomasti päähän.

Joten Bayesin todennäköisyys koskee uskoa, jonka kehität havaitsemiesi tietojen perusteella. Toivon, että se oli tarpeeksi yksinkertainen.

Kolikon heittämisessä on tietysti enemmän tietoa kuin pelkkä tulos - Järkevä bayesilainen lyö vetoa todennäköisesti edes aikaisempien tietojen painon vuoksi ja koska kolikko ja kolikon läppä näyttävät hyvältä. Ellet ehkä näe kolikkoa tai kolikkoa käännetään. Siinä tapauksessa et edes tiedä, onko tietoja vain väärennetty aluksi, ja voit myös heittää priorisi ulos ikkunasta ...
#6
+3
user3034
2011-02-03 19:13:46 UTC
view on stackexchange narkive permalink

Bayesin lause liittyy kahteen ajatukseen: todennäköisyys ja todennäköisyys. Todennäköisyys sanoo: tämän mallin perusteella nämä ovat tuloksia. Joten: kun otetaan huomioon kohtuullinen kolikko, saan päät 50% ajasta. Todennäköisyys sanoo: näiden tulosten perusteella voimme sanoa mallista. Joten: jos heität kolikon 100 kertaa ja saat 88 päätä (poimia edellinen esimerkki ja tehdä siitä äärimmäisempi), todennäköisyys, että oikeudenmukainen kolikkomalli on oikea, ei ole niin suuri.

Yksi Bayesin lauseen havainnollistamiseen käytetyistä tavanomaisista esimerkeistä on ajatus taudin testaamisesta: jos otat testin, joka on 95% tarkka taudille, jolla on 1 10000 väestöstä, ja jos olet positiivinen, mitkä ovat mahdollisuudet että sinulla on sairaus?

Naiivinen vastaus on 95%, mutta tässä jätetään huomioimatta, että 5% testeistä 9999 potilaalla 10000: sta antaa väärän positiivisen. Joten todennäköisyytesi sairauteen on paljon alle 95%.

Käytän epämääräistä ilmausta "mitkä ovat mahdollisuudet" tarkoituksella. Todennäköisyyden / todennäköisyyden kielen käyttäminen: todennäköisyys testin oikeellisuudesta on 95%, mutta mitä haluat tietää, on todennäköisyys sairastua sairauteen.

Hieman poissa aiheesta: Toinen klassinen esimerkki, joka Bayesin lause käytetään ratkaisemaan kaikissa oppikirjoissa on Monty Hallin ongelma: Olet tietokilpailussa. Yhden kolmesta ovesta on palkinto. Valitset oven yhden. Isäntä avaa oven kolme paljastamatta mitään palkintoa. Pitäisikö sinun vaihtaa oveen kaksi, kun sinulla on mahdollisuus?

Pidän kysymyksen uudelleen muotoilemisesta (alla olevan viitteen avulla): olet tietokilpailussa. Yhden miljoonan oven takana on palkinto. Valitset oven yhden. Isäntä avaa kaikki muut ovet paitsi ovi 104632 paljastamatta mitään palkintoa. Pitäisikö sinun vaihtaa oveen 104632?

Suosikkikirjani, joka käsittelee Bayesin teemaa, hyvin Bayesin näkökulmasta, on David J. C. MacKayn "Tietoteoria, päättely ja oppimisalgoritmit". Se on Cambridge University Press -kirja, ISBN-13: 9780521642989. Vastaukseni on (toivon) tislaus kirjassa käydyistä keskusteluista. (Tavalliset säännöt ovat voimassa: Minulla ei ole sidoksia kirjoittajaan, pidän vain kirjasta.)

#7
+3
probabilityislogic
2011-02-28 15:55:19 UTC
view on stackexchange narkive permalink

Bayesin lause sen ilmeisimmässä muodossa on yksinkertaisesti kahden asian uudelleen lausuminen:

  1. argumenttien $ P (HD | I) = P (DH | I) $
  2. tuotesääntö $ P (HD | I) = P (H | I) P (D | HI) $

Joten käyttämällä symmetriaa :

$$ P (HD | I) = P (H | I) P (D | HI) = P (D | I) P (H | DI) $$

Jos nyt $ P (D | I) \ neq 0 $, voit jakaa molemmat puolet $ P (D | I) $: lla saadaksesi:

$$ P (H | DI) = P (H | I) \ frac {P (D | HI)} {P (D | I)} $$

Joten tässä? Kuinka jotain niin yksinkertaista voi olla niin mahtavaa? Kuten useimmissa asioissa, "sen matka on tärkeämpää kuin määränpää". Bayesin lause hyökkää siihen johtavien argumenttien takia.

Tästä puuttuu se, että tuotesääntö ja summa-sääntö $ P (H | I) = 1-P (\ overline {H} | I) $, voidaan johtaa käyttämällä johdonmukaista päättelykoodia perustuvaa deduktiivista logiikkaa.

Nyt deduktiivisen logiikan "sääntö" on, että jos sinulla on suhde "A tarkoittaa B", sinulla on myös "Ei" B tarkoittaa Ei A ". Joten meillä on "johdonmukainen päättely tarkoittaa Bayesin lause". Tämä tarkoittaa "Not Bayesin lause tarkoittaa epäjohdonmukaista päättelyä". ts. jos tulos ei vastaa Bayesin tulosta joillekin aikaisemmille ja todennäköisemmille tekijöille, ajattelet epäjohdonmukaisesti.

Tätä tulosta kutsutaan Coxin lauseeksi ja se todistettiin "Todennäköisen päättelyn algebrassa" 1940-luvulla. Tuoreempi johdanto on annettu Proability-teoria: Tieteen logiikka.

#8
+2
kgarten
2011-02-03 21:12:13 UTC
view on stackexchange narkive permalink

Pidän todella Kevin Murphyn Bayes-lauseen johdannosta http://www.cs.ubc.ca/~murphyk/Bayes/bayesrule.html

Lainaus täällä on taloustieteilijän artikkelista:

http://www.cs.ubc.ca/~murphyk/Bayes/economist.html

Bayesin lähestymistavan ydin on tarjota matemaattinen sääntö, joka selittää, kuinka sinun pitäisi muuttaa olemassa olevia uskomuksiasi uusien todisteiden valossa. Toisin sanoen se antaa tutkijoille mahdollisuuden yhdistää uusia tietoja nykyiseen tietoonsa tai asiantuntemukseensa. Kanoninen esimerkki on kuvitella, että ennenaikainen vastasyntynyt tarkkailee ensimmäistä auringonlaskua ja miettii, nouseeko aurinko uudelleen vai ei. Hän antaa yhtä suuret todennäköisyydet molemmille mahdollisille tuloksille ja edustaa tämän asettamalla yhden valkoisen ja yhden mustan marmorin pussiin. Seuraavana päivänä, kun aurinko nousee, lapsi asettaa toisen valkoisen marmorin pussiin. Todennäköisyys, että satunnaisesti pussista kynitty marmori on valkoista (ts. Lapsen usko tuleviin auringonnousuihin), on siis noussut puolesta kahteen kolmasosaan. Seuraavan päivän auringonnousun jälkeen lapsi lisää toisen valkoisen marmorin, ja todennäköisyys (ja siten uskomuksen aste) nousee kahdesta kolmasosasta kolmeen neljäsosaan. Ja niin edelleen. Vähitellen alkuperäinen usko siihen, että aurinko on yhtä todennäköistä kuin ei nouse joka aamu, muuttuu lähes varmuudeksi siitä, että aurinko nousee aina.



Tämä Q & A käännettiin automaattisesti englanniksi.Alkuperäinen sisältö on saatavilla stackexchange-palvelussa, jota kiitämme cc by-sa 2.0-lisenssistä, jolla sitä jaetaan.
Loading...