Huomaan, että molemmat toiminnot ovat osa tiedonlouhintamenetelmiä, kuten Gradient Boosting Regressors. Näen, että myös nämä ovat erillisiä objekteja.
Kuinka molempien suhde yleensä on?
Huomaan, että molemmat toiminnot ovat osa tiedonlouhintamenetelmiä, kuten Gradient Boosting Regressors. Näen, että myös nämä ovat erillisiä objekteja.
Kuinka molempien suhde yleensä on?
Päätösfunktio on funktio, joka ottaa tietojoukon syötteeksi ja antaa päätöksen tuotoksena. Mikä päätös voi olla, riippuu käsillä olevasta ongelmasta. Esimerkkejä ovat:
Ongelmalle on tyypillisesti käytettävissä ääretön määrä päätösfunktioita. Jos olemme esimerkiksi kiinnostuneita arvioimaan ruotsalaisten urosten korkeuden kymmenen havainnon perusteella $ \ mathbf {x} = (x_1, x_2, \ ldots, x_ {10}) $, voimme käyttää mitä tahansa seuraavista päätösfunktioista $ d (\ mathbf {x}) $:
Kuinka sitten voimme päättää, mitä näistä päätöksentoiminnoista käyttää? Yksi tapa on käyttää menetystoimintoa , joka kuvaa kaikkiin mahdollisiin päätöksiin liittyvää tappiota (tai kustannusta). Erilaiset päätöksentoiminnot johtavat yleensä erityyppisiin virheisiin. Menetystoiminto kertoo meille, minkä tyyppisistä virheistä meidän pitäisi olla enemmän huolissamme. Paras ratkaisutoiminto on toiminto, joka tuottaa pienimmän odotetun tappion . Mitä odotetulla menetyksellä tarkoitetaan, riippuu asetuksesta (erityisesti siitä, puhummeko usein esiintyvistä vai Bayesin tilastoista).
yhteenveto:
Menetystoiminto minimoidaan, jotta saadaan malli, joka on jossain mielessä optimaalinen. Mallissa itsessään on päätösfunktio, jota käytetään ennustamiseen.
Esimerkiksi SVM-luokittelijoissa: