Kysymys:
Mitä entropia kertoo meille?
RustyStatistician
2016-02-06 00:52:09 UTC
view on stackexchange narkive permalink

Luen entropiasta ja minulla on vaikea käsittää, mitä se tarkoittaa jatkuvassa tapauksessa. Wiki-sivulla todetaan seuraavaa:

Tapahtumien todennäköisyysjakauma yhdistettynä jokaisen tapahtuman tietomäärään muodostaa satunnaismuuttujan, jonka odotettu arvo on keskimääräinen tietomäärä tai entropia, Tämän jakauman tuottama.

Joten jos lasken jatkuvaan todennäköisyysjakaumaan liittyvän entropian, mitä se todella kertoo minulle? He antavat esimerkin kolikoiden kääntämisestä, joten erillinen tapaus, mutta jos on olemassa intuitiivinen tapa selittää tällaisen esimerkin kautta jatkuvassa tapauksessa, se olisi hienoa!

Jos se auttaa, määritelmä jatkuvan satunnaismuuttujan $ X $ entropian arvo on seuraava:

$$ H (X) = - \ int P (x) \ log_b P (x) dx $$ missä $ P (x) $ on todennäköisyysjakautumistoiminto.


Yritä tehdä siitä konkreettisempi tarkastelemalla tapausta $ X \ sim \ text {Gamma} (\ alpha, \ beta) $ ja sitten Wikipediaan entropia on

\ begin {align} H (X) & = \ mathbb {E} [- \ ln (P (X))] \\ & = \ mathbb {E} [- \ alfa \ ln (\ beta) + \ ln (\ Gamma (\ alpha)) + \ ln (\ Gamma (\ alpha)) - (\ alpha-1) \ ln (X) + \ beta X] \\ & = \ alfa- \ ln (\ beta) + \ ln (\ Gamma (\ alfa)) + (1- \ alfa) \ vasen (\ frac {d} {d \ alpha} \ ln (\ Gamma (\ alpha)) \ right) \ end {tasaa}

Ja nyt olemme laskeneet jatkuvan jakauman entropian (Gamma-jakauma), joten jos nyt arvioin lausekkeen, $ H (X) $, annettu $ \ alpha $ ja $ \ be ta $, mitä tuo määrä todella kertoo minulle?

(+1) Tuo lainaus viittaa todella valitettavaan kohtaan.Se yrittää työläs ja läpinäkymätön tapa kuvata ja tulkita entropian matemaattista määritelmää.Tämä määritelmä on $ \ int f (x) \ log (f (x)) dx $.Sitä voidaan pitää $ \ log (f (X)) $ -odotuksena, jossa $ f $ on satunnaismuuttujan $ X $ pdf-tiedosto.Se yrittää luonnehtia $ \ log (f (x)) $ "tietomääräksi", joka liittyy numeroon $ x $.
@whuber joten miten voin todella tulkita sen palauttaman arvon?Vai onko tulkinta kiistanalainen?
http://math.stackexchange.com/questions/663351/what-does-the-logpx-mean-in-the-calculation-of-entropy on osuva
Se on syytä kysyä, koska siinä on herkkä, mutta tärkeä tekninen kysymys: entropian jatkuvalla versiolla ei ole aivan samoja ominaisuuksia kuin erillisellä versiolla (jolla on tietysti luonnollinen, intuitiivinen intepretointi).@Tim AFAIK, kyseinen ketju [math.se] -palvelussa käsittelee vain * erillistä * tapausta.
@RustyStatistician ajattelee, että $ - \ log \ left (f \ left (x \ right) \ right) $ kertovat kuinka yllättävä tulos x oli.Lasket sitten odotettua yllätystä.
Teknisestä asiasta @whuber -viitteet, [tämä] (http://www.crmarsh.com/static/pdf/Charles_Marsh_Continuous_Entropy.pdf) saattaa olla kiinnostava.
Jos olet kiinnostunut teknisistä seikoista: Entropia perustuu pseudo-metriikkaan, jota kutsutaan Kullback-Leibler-divergenssiksi, jota käytetään kuvaamaan tapahtumien välisiä etäisyyksiä vastaavassa mittarissaan, katso https://projecteuclid.org/euclid.aoms/1177729694Kullbackin ja Leiblerin alkuperäiselle paperille.Konsepti näkyy myös mallien valintaperusteissa, kuten AIC ja BIC.
niitä meistä, jotka tulevat fysiikasta, avustaa tämän käsitteen termodynaaminen tausta, mutta samalla se näyttää olevan erilainen tietoteoriassa joissakin teknisissä näkökohdissa.
Katso vastaukseni täältä: http://stats.stackexchange.com/questions/66186/statistical-interpretation-of-maximum-entropy-distribution/245198#245198 yhdelle mahdolliselle tulkinnalle.
Kaksi vastused:
Aksakal
2016-02-08 23:10:43 UTC
view on stackexchange narkive permalink

Entropia kertoo, kuinka paljon epävarmuutta järjestelmässä on. Oletetaan, että etsit kissaa, ja tiedät, että se on jonnekin talosi ja naapureidesi välissä, joka on kilometrin päässä. Lapsesi kertovat sinulle, että todennäköisyyttä kissan olevan $ x $ etäisyydellä talostasi kuvaa parhaiten beta-jakauma $ f (x; 2,2) $. Joten kissa voi olla missä tahansa välillä 0 ja 1, mutta todennäköisemmin keskellä, eli $ x_ {max} = 1/2 $.

enter image description here

Liitetään beeta-jakauma yhtälöösi, niin saat $ H = -0,125 $.

Seuraavaksi kysyt vaimoltasi ja hän kertoo sinulle, että paras jakelu kuvaamaan hänen tietämystään kissastasi on tasainen jakauma. Jos liität sen entropiayhtälöösi, saat $ H = 0 $.

Sekä yhtenäinen että beeta-jakauma antavat kissan olla missä tahansa 0–1 mailin päässä talostasi, mutta univormussa on enemmän epävarmuutta, koska vaimollasi ei ole aavistustakaan, missä kissa piiloutuu, kun taas lapset ovat jokin idea , heidän mielestään se on todennäköisemmin jonnekin keskellä. Siksi Betan entropia on matalampi kuin Uniformin.

enter image description here

Voit kokeilla muita jakeluita, ehkä naapurisi kertoo, että kissa haluaa olla lähellä jommassakummassa talossa, joten hänen beetajakauma on $ \ alpha = \ beta = 1/2 $. Sen $ H $: n on oltava jälleen matalampi kuin virkapuvun, koska saat jonkinlaisen kuvan siitä, mistä kissaa voi etsiä. Arvaa onko naapurisi informaatioentropia korkeampi vai pienempi kuin lapsesi? Lyön vetoa lapsista joka päivä näistä asioista.

enter image description here

UPDATE:

Kuinka tämä toimii? Yksi tapa ajatella tätä on aloittaa yhtenäisellä jakelulla. Jos olet samaa mieltä siitä, että siinä on eniten epävarmuutta, ajattele häiritä sitä. Tarkastellaan erillistä tapausta yksinkertaisuuden vuoksi. Ota $ \ Delta p $ yhdestä pisteestä ja lisää se toiseen seuraavasti: $$ p_i '= p- \ Delta p $$$$ p_j' = p + \ Delta p $$

Otetaan nyt katso kuinka entropia muuttuu: $$ H-H '= p_i \ ln p_i-p_i \ ln (p_i- \ Delta p) + p_j \ ln p_j-p_j \ ln (p_j + \ Delta p) $$$$ = p \ ln pp \ ln [p (1- \ Delta p / p)] + p \ ln pp \ ln [p (1+ \ Delta p / p)] $$$$ = - \ ln (1- \ Delta p / p) - \ ln ( 1+ \ Delta p / p) >0 $$ Tämä tarkoittaa, että kaikki tasaisen jakauman häiriöt vähentävät entropiaa (epävarmuutta). Jos haluat näyttää saman jatkuvassa tapauksessa, minun on käytettävä muunnelmaa tai jotain tätä linjaa pitkin, mutta saat periaatteessa samanlaisen tuloksen.

PÄIVITYS 2: $ n $ yhdenmukaiset satunnaismuuttujat ovat itse satunnaismuuttujia, ja ne ovat peräisin Bates-jakaumasta. CLT: stä tiedämme, että tämän uuden satunnaismuuttujan varianssi kutistuu arvoksi $ n \ arvoon \ infty $. Joten sen sijainnin epävarmuuden on vähennettävä $ n $: n lisääntyessä: olemme yhä varmempia siitä, että kissa on keskellä. Seuraava juoni ja MATLAB-koodi osoittavat kuinka entropia laskee nollasta arvoon $ n = 1 $ (yhtenäinen jakauma) arvoon $ n = 13 $. Käytän täällä distributions31 -kirjastoa.

enter image description here

  x = 0: 0.01: 1; kun k = 1: 5, i = 1 + (k-1) * 3; idx (k) = i; f = @ (x) bates_pdf (x, i); funb = @ (x) f (x). * loki (f (x)); hauska = @ (x) arrayfun (funb, x); h (k) = integraali (hauska, 0,1); osa-alue (1,5 + 1, k) juoni (x, arrayfun (f, x)) otsikko (['Bates (x,' num2str (i) ')']) ylim ([0 6]) endubplot (1, 5 + 1,5 + 1) juoni (idx, h) otsikko Entropia  
(+1) Odotan nähdäkseni muut tulkinnat, mutta pidän tästä todella.Joten näyttää siltä, että pystyt hyödyntämään entropiaa varmuuden mittana, jota sinun on verrattava muihin jakaumiin?Eli numero itsessään ei kerro paljoa?
@RustyStatistician, En sanoisi, että sen absoluuttinen arvo on täysin merkityksetön., Mutta kyllä, se on hyödyllisin, kun sitä käytetään järjestelmän tilojen vertaamiseen.Helppo tapa sisällyttää entropia on ajatella sitä * epävarmuuden * mittana
Tämän vastauksen ongelmana on, että termi "epävarmuus" jätetään määrittelemättömäksi.
termi jätetään epävarmaksi
Tämä on oikein mukavaa.
Lerner Zhang
2018-12-16 12:18:08 UTC
view on stackexchange narkive permalink

mitä tuo määrä minulle todella kertoo?

Haluaisin liittää suoraviivan vastauksen seuraavasti:

On intuitiivista havainnollistaa sitä erillisessä skenaariossa. Oletetaan, että heität voimakkaasti puolueellista kolikkoa sanoen, että todennäköisyys nähdä pää jokaisella läpällä on 0,99. Jokainen varsinainen kääntö kertoo sinulle hyvin vähän tietoa, koska tiedät melkein jo, että siitä tulee pää. Mutta kun on kyse oikeudenmukaisemmasta kolikosta, sinun on vaikeampaa olla aavistustakaan mitä odottaa, sitten jokainen läppä kertoo sinulle enemmän tietoa kuin mikä tahansa puolueellisempi kolikko. Yhden heiton seuraamalla saatujen tietojen määrä on yhtä suuri kuin $ \ log \ frac {1} {p (x)} $ .

Entropian määrä kertoo meille tiedot every todellinen keskimääräinen kääntö (painotettuna sen esiintymisen todennäköisyydellä) voi välittää: $ E \ log \ frac {1} {p (x)} = \ summa p (x) \ log \ frac {1} {p (x)} $ . Mitä reilumpi kolikko on, sitä suurempi on entropia, ja täysin reilu kolikko on mahdollisimman informatiivinen.



Tämä Q & A käännettiin automaattisesti englanniksi.Alkuperäinen sisältö on saatavilla stackexchange-palvelussa, jota kiitämme cc by-sa 3.0-lisenssistä, jolla sitä jaetaan.
Loading...