Kysymys:
Kuinka ärsyttää tilastotuomaria?
csgillespie
2010-10-21 00:09:32 UTC
view on stackexchange narkive permalink

Esitin äskettäin kysymyksen paperien tilastojen tarkistamisesta. Haluaisin nyt kysyä, mikä ärsyttää sinua erityisesti artikkelia tarkasteltaessa, eli mikä on paras tapa todella ärsyttää tilastotuomaria!

Yksi esimerkki vastausta kohti, kiitos.

Laajentetaanko se perusteluihin, jotka on saatu vastauksena ensimmäiseen tarkistukseen (jossa pyydettiin pieniä ja / tai merkittäviä tarkistuksia)?
@chl: Kyllä, miksi ei.
üheksateist vastused:
onestop
2010-10-21 00:28:41 UTC
view on stackexchange narkive permalink

Mikä erityisen ärsyttää minua henkilökohtaisesti , ovat ihmiset, jotka käyttivät selvästi käyttäjän kirjoittamia paketteja tilasto-ohjelmistoihin, mutta eivät mainitse niitä oikein tai lainkaan, jättäen antamatta tunnustusta tekijöille. Näin tekeminen on erityisen tärkeää, kun kirjoittajat ovat akateemisessa maailmassa ja heidän työpaikkansa riippuvat julkaisujen julkaisemisesta joita lainataan . (Ehkä minun pitäisi lisätä, että alallani monet syylliset eivät ole tilastotieteilijöitä.)

+1 minulle. Tämä turhauttaa minua, varsinkin kun he mainitsevat väärän asian ja olen antanut tarvittavat yksityiskohdat pakettien mainitsemisesta
Kysymys: viittaatko pakettiin, mainitsetko vinjetin (jos sellainen on) vai itse paketin?
@Brandon: jos paketin tekijä välittää tarpeeksi opastamaan sinua, he ovat antaneet vastauksen muodossa, joka noudetaan lainauksella ("some_package")
Sen lisäksi, että sinulla on maamerkki, jota ei ole niin helppoa tehdä, helpoin tapa saada viittauksia on jättää ainakin yksi virhe paperiin.Sitten voit julkaista korjauksen, jossa mainitaan alkuperäinen paperi.Jätä virhe korjaukseen ja voit julkaista korjauksen, joka viittaa alkuperäiseen korjaukseen ja alkuperäiseen paperiin (näin esimerkiksi 1. luokan opiskelijan).Viittausten määrä kasvaa O (N ^ 2) -prosessina, jossa N on korjausten lukumäärä.
Stephan Kolassa
2010-10-21 00:29:30 UTC
view on stackexchange narkive permalink

Hyvää minua, niin monet asiat tulevat mieleen ...

  • Porrastettu regressio

  • Jatkuvan datan jakaminen sisäiset ryhmät

  • P-arvojen antaminen, mutta ei vaikutuksen koon mittausta

  • Tietojen kuvaaminen keskiarvon ja keskihajonnan avulla ilmoittamatta, olivatko tiedot enemmän tai vähemmän symmetrisiä ja yksimodaalisia

  • Luvut ilman selkeitä tekstityksiä (onko virhepalkkeissa keskiarvon keskivirheitä tai standardipoikkeamia ryhmissä vai mitä?)

Olen hieman utelias asteittaisesta regressioluettelosta. Mikä tekee asteittaisesta regressiosta niin pahan? Onko kysymys tietojen ruoppauksesta ja moninkertaisesta vertailusta?
Ongelmana on, että vaiheittaiset menettelyt mitätöivät kaikki p-arvoihin perustuvien "normaalien" pääteltävien tilastojen kaikki oletukset ja ennakkoedellytykset, jotka ovat sitten huonosti puolueellisia (alaspäin kohti "merkittävämpiä"). Joten pohjimmiltaan vastaus on "kyllä", varoituksella, jonka periaatteessa voitaisiin korjata kaikissa näissä moninkertaisissa vertailuissa (mutta jota en ole koskaan nähnyt tekevän). Uskon vahvasti, että tämä on tärkein yksittäinen syy, miksi näen niin paljon psykologista tutkimusta, jota ei voida toistaa - mikä puolestaan ​​johtaa valtavaan resurssien tuhlaukseen.
@Stephan: Olen samaa mieltä, vaiheittain on huono idea. Vaikka he eivät ehkä ole vielä päässeet psykologisiin menetelmiin, mutta on olemassa useita valintamenettelyjä, jotka säätävät yliasennukseen liittyvää puolueellisuutta säätämällä arvioita ja standardivirheitä. Tätä ei yleensä pidetä kysymyksenä monista vertailuista. Ne tunnetaan kutistumismenetelminä. Katso vastaukseni tässä säikeessä ja Harrellin regressiomallinnus Strategiat "tai Tibshirani lassoon.
@Brett Magill: +1 siihen, ja kyllä, tiedän kutistumisesta ja lassoista. Tarvitsen vain jonkin tavan vakuuttaa psykologit, että näillä on järkeä ... mutta ihmiset ovat taistelleet hyvin rajoitetusti vain saadakseen psykologit ilmoittamaan luottamusvälit, joten en ole liian optimistinen psykologien hyväksymän kutistumisen seuraavassa kaksikymmentä vuotta.
Väitän myös, että psykologiassa ennustuksen maksimointi ei ole tyypillisesti teoreettinen tavoite, mutta asteittaisessa regressiossa on kyse ennustuksen maksimoinnista, vaikkakin melkein yksinkertaisella tavalla. Siten menettelyn ja kysymyksen välillä on tyypillisesti yhteys.
Ihmisillä on taipumus tulkita väärin vaiheittaiset regressiotulokset antamalla PARAS joukko ennusteita lopputuloksesta, vaikka todellisuudessa se antaa parhaimmillaan JOITA HYVIN ennustajia.
+1 p-arvoille, mutta ei vaikutuksen kokoa. @rolando2 Se ei ole vain asteittaisessa regressiossa, mutta se on todellakin ongelma, ja siinä on hankala.
Mielestäni mielipiteesi jatkuvien muuttujien (joko riippuvien tai riippumattomien) dikotomisoinnista on suurin turhautuminen, jota minulla on lääketieteellisten artikkeleiden tilastollisena tarkastajana. Toinen on vaatimus tekijöille tuhlata tilaa paperissa, jossa esitetään säätämättömiä arvioita, kun merkityksellisemmät arviot on oikaistu (esim. Mukautettu kovariaateihin).
onestop
2010-10-21 00:13:42 UTC
view on stackexchange narkive permalink

Irene Stratton ja hänen kollegansa julkaisivat lyhyen artikkelin läheisesti liittyvästä kysymyksestä:

Stratton IM, Neil A. Kuinka varmistaa, että tilastointitarkastaja hylkää paperisi. diabeettinen lääketiede 2005; 22 (4): 371 - 373.

Linkki on rikki.
https://onlinelibrary.wiley.com/doi/full/10.1111/j.1464-5491.2004.01443.x
user603
2010-10-21 00:41:33 UTC
view on stackexchange narkive permalink

Simuloitujen tulosten tuottamiseen käytettyä koodia ei toimiteta. Koodin pyytämisen jälkeen se vaatii lisätyötä saadakseen sen toimimaan erotuomarin luomalla tietojoukolla.

Ja se on huonosti muotoiltu, kommentoimaton ja käyttää salaamattomia muuttujien ja funktioiden nimiä. Ooooh joo.
chl
2010-10-21 01:23:39 UTC
view on stackexchange narkive permalink

Plagiointi (teoreettinen tai metodologinen). Ensimmäinen arvosteluni oli todellakin paperi, jossa oli paljon viitteettömiä kopioita / liitteitä vakiintuneesta metodologisesta artikkelista, joka julkaistiin 10 vuotta sitten.

Löysin vain pari mielenkiintoista paperia aiheesta: Authorship and plagiarism tieteessä.

Samassa mielessä väärentäminen (tietojen tai tulosten) mielestäni on pahinta kaikista.

Muistuttaa minua siitä, että varhaisina päivinä tuomarina käytin * aivan liian kauan tarkastelemalla tilastollista paperia, jonka kyseinen päiväkirja lopulta hylkäsi, mutta muut tuomarit ja minä ehdotimme käyttökelpoisempaa sovellusta menetelmälle, ja luonnostelin myös algebrallinen todiste korvaamaan epätyydyttävä simulaatiotutkimus käsikirjoituksessa. Kirjoittajat ovat sittemmin saaneet siitä kaksi julkaistua paperia. Se ei ole * ärsyttänyt *, mutta sellainen tunnustus kuin "kiitämme paperin aikaisemman version erotuomareita hyödyllisistä kommenteista", olisi ollut hyvä tapa.
@onestop Kyllä, voin kuvitella kuinka pettymys tällainen tilanne voi olla ...
Muutama viikko sitten minulle annettiin tarkasteltava paperi ja huomasin, että 85% siitä oli julkaistu toisessa lehdessä - samojen kirjoittajien toimesta. Myös tätä pidetään edelleen plagiointina. Viimeisten vuosien aikana olen rutiininomaisesti lähettänyt palasia papereita - erityisesti tiivistelmiä, esittelyjä ja johtopäätöksiä - verkkohakukoneille * ennen * tarkistuksen tekemistä. Haluan olla varma, että teos on alkuperäinen, ennen kuin panen sen lukemiseen.
+1, @whuber. Metodologisen päiväkirjan toimittajana minulla on usein tämä vaikea tehtävä selvittää, onko julkaisujen (yleensä vakiintuneiden kirjoittajien; nuoremmat kirjoittajat eivät ole vielä päässeet tälle polulle) takaa julkaisun, ottaen huomioon, että kaikki he ' Olemme tehneet, onko ne koottu eri tavalla uudelleen kahdeksan Lego-lohkoa, jotka käsittivät viisi edellistä paperia. Tämä saa minut kyseenalaistamaan myös näiden kirjoittajien julkaisemien viidenkymmenen julkaisun panoksen :(.
chl
2010-10-21 01:29:24 UTC
view on stackexchange narkive permalink

Kun pyydämme kirjoittajilta

  1. vähäisiä kommentteja ajatuksestamme (tässä mielessä tätä ei pidetä syynä paperin hylkäämiseen, vaan vain sen varmistamiseksi, että kirjoittajat pystyvät keskustella toisesta POV: sta) tai
  2. epäselvät tai ristiriitaiset tulokset,

ja että kirjoittajat eivät todellakaan vastaa tapauksessa (1) tai että syytetty johtaa ( 2) katoavat jäsenvaltiosta.

Salaperäisesti katoavien tulosten pitäisi olla automaattinen hylkääminen, imo. Olen varma, että tätä tapahtuu paljon "kulissien takana" (ts. Ennen kuin paperi lähetetään), mutta tämä on selkeä osoitus "kirsikan poiminnasta", jota paperin normaalit lukijat eivät koskaan tiedä.
Toinen syy avoimeen vertaisarviointijärjestelmään.
Andy W
2010-11-03 09:01:11 UTC
view on stackexchange narkive permalink

Hämmentävät p-arvot ja tehosteen koko (ts. ilmoitan vaikutukseni olevan suuri, koska minulla on todella pieni p-arvo).

Hieman erilainen kuin Stephanin vastaus poissulkemasta vaikutusta koot, mutta antavat p-arvot. Olen samaa mieltä siitä, että sinun pitäisi antaa molemmat (ja toivottavasti ymmärtää ero!)

Peter Flom
2012-04-12 01:46:00 UTC
view on stackexchange narkive permalink

Ei sisällä tehosekokoja.

P-t koko tutkimuksessa (minun on kiitettävä suosikkini gradupuheenopettajani tästä linjasta).

Antaa valtavan määrän numeroita (miehet saivat 3,102019 kiloa enemmän kuin naiset)

Ei sivunumeroita (mikä vaikeuttaa tarkistamista)

Luvut ja taulukot väärin numeroivat

(kuten jo mainittiin - asteittain ja luokittelemalla jatkuvat muuttujat)

(+1) nauroi ääneen aiheesta "Antaa valtavan määrän numeroita (miehet saivat 3,102019 kiloa enemmän kuin naiset)".
anony
2010-10-21 03:55:13 UTC
view on stackexchange narkive permalink

Kun he eivät selitä riittävästi analyysiään ja / tai sisältävät yksinkertaisia ​​virheitä, jotka vaikeuttavat todellisen tekemisen selvittämistä. Tähän sisältyy usein monien ammattikielten heittäminen selityksen muodossa, mikä on epäselvämpää kuin kirjoittaja näyttää ymmärtävän, ja sitä voidaan käyttää väärin.

Olen samaa mieltä - kamppailee ymmärtääkseen, mitä kirjailija (t) tarkoitti, ennen kuin edes arvioit tieteellistä sisältöä, on todella ärsyttävää.
Olen samaa mieltä, mutta minusta on vieläkin ärsyttävämpää, kun arvostelija kehottaa sinua jättämään (tai siirtymään täydentäviin materiaaleihin), jotka ovat realistisesti erittäin tärkeitä yksityiskohtia analyysistä. Tämä ongelma tekee siitä niin, että monet tiede / yhteiskuntatieteelliset artikkelit, jotka tekevät jopa kaikkein monimutkaisimman analyysin, ovat tältä osin melko salaisia.
Michael Bishop
2011-05-21 21:04:11 UTC
view on stackexchange narkive permalink

Syy-kielen käyttäminen kuvaamaan assosiaatioita havainnotiedoissa, kun muuttujat jätetään pois, ovat melkein varmasti vakava huolenaihe.

Olen samaa mieltä siitä, että tutkijoiden tulisi ymmärtää havainnointitutkimusmallien vastuut, erityisesti ne, jotka liittyvät jätettyihin muuttujiin, mutta en usko, että syy-kielen välttäminen tekee tämän. Katso Hubert Blalockin työ, erityisesti hänen kirjansa Causal Inferences in Non-kokeellinen tutkimus, yksityiskohtaisempi argumentti syy-kielen käytön puolustamiseksi.
(+1) Tämä voi olla suurin yksittäinen epidemiologisen tutkimuksen ongelmani.
StasK
2012-04-10 21:50:19 UTC
view on stackexchange narkive permalink

Uusien sanojen keksiminen olemassa oleville käsitteille tai päinvastoin olemassa olevien termien käyttäminen erilaisten merkitsemiseen.

Jotkut olemassa olevista terminologisista eroista ovat jo pitkään asettuneet kirjallisuudessa: pitkittäistiedot biostatistiikassa vs. paneelitiedot ekonometriassa; syy-seurausindikaattorit sosiologiassa vs. muotoilevat ja reflektiiviset indikaattorit psykologiassa; jne. Vihaan edelleen heitä, mutta ainakin löytyy muutama tuhat viittausta kumpaankin omasta kirjallisuudestaan. Viimeisin on koko tämä osa kausaalisen kirjallisuuden suunnatuista asyklisista kaavioista: useimmat, ellei kaikki, näiden tunnistamis- ja arviointiteoriasta ovat ekonometristit kehittäneet 1950-luvulla samanaikaisten yhtälöiden nimellä.

Termi, jolla on kaksinkertainen, ellei kolmoinen merkitys, on "vankka", ja eri merkitykset ovat usein ristiriitaisia. "Vankat" vakiovirheet eivät ole vankkoja kaukana oleville. Lisäksi ne eivät ole vankkoja vastustamaan muuta kuin oletettua poikkeamaa mallista, ja niillä on usein surkea pieni näytteen suorituskyky. Whitein vakiovirheet eivät ole vakaita sarja- tai klusterikorrelaatioita vastaan; SEM: n "vankat" vakiovirheet eivät ole vankkoja mallirakenteen virheellisiin määrityksiin (jätetyt polut tai muuttujat). Aivan kuten hypoteesin merkitsevyyden testaus null-kohdalla, on mahdotonta osoittaa sormella ketään ja sanoa: "Olet vastuussa useiden tutkijoiden sukupolvien sekoittamisesta tämän käsitteen luomiseen, joka ei oikeastaan ​​seiso sen nimeä". p>

Minun on myönnettävä molempien syntien tekeminen: Kuvaan tietoni olevan "hierarkkisen rakenteen: kun minulla on tasot, joilla on 1: n suhteet (useita mittauksia kustakin näytteestä, useita näytteitä potilasta kohti). Jossain vaiheessa olen melko vahingossa oppinut, että tämä kutsutaan "klusteroiduksi" tietorakenteeksi - nyt käytän molempia termejä. Mutta en silti tiedä, kuinka voisin löytää kyseisen termin, etsin epätoivoisesti sanaa kuvaamaan tietorakennettani ... Toisinpäin: Käytän tekniikoita, joita kutsutaan pehmeiksi luokituksiksi kaukokartoituksessa, ja kenttäni (kemometria) käyttää sitä melko erilaisella merkityksellä.
Kaikki on hienoa - voit lisätä "monitasoisen" luetteloon tapoja viitata myös tähän rakenteeseen. "Klusteroitu" tarkoittaa yleensä sitä, että havaintojen tiedetään olevan korreloivia, mutta kukaan ei välitä mallintamasta tätä korrelaatiota, koska se ei ole ensisijaisen kiinnostava, ja välttää sellaiselle korrelaatiolle vankat menetelmät, kuten GEE. Sinulla on jotain toistuvia toimenpiteitä MANOVA. On olemassa Stata-paketti "gllamm", joka ajattelee tietojasi monitasoisena / hierarkkisena datana, mutta useimmat muut paketit ajattelevat useita mittauksia muuttujina / sarakkeina ja näytteet havainnoina / riveinä.
Kiitos panoksestasi. No, nykyään kysyisin tietysti täältä, miten sitä kutsutaan ... Se ei ole tarkalleen toistuva mittaus: yleensä mitaan näytteessä useita (suuruusjärjestys: 10 ^ 2 - 10 ^ 4) erilaisia ​​pisteitä, jotta tuottaa väärän värikarttoja eri ainesosista, ja jokaisella mittauksella on jo 10 ^ 2-10 ^ 3 havaintoa (spektrin aallonpituudet). Jokaisessa näytteessä monet spektrit korreloivat voimakkaasti, mutta eivät kaikki: näytteet eivät ole homogeenisia. ...
... Kuvaus "klusterista" kuulostaa hyvin samalta kuin mitä teemme. Mutta huolehdin näytteiden jakamisesta validointia varten, sanon, että minulla ei ole aavistustakaan todellisesta otoksen koosta (sen lisäksi, että kyseessä on ainakin mukana olevien todellisten näytteiden määrä), ja joskus osoitan, että kaikkien näiden mittausten tekeminen jokaisesta näyte todella auttaa mallikoulutusta.
Mielenkiintoista ja haastavaa tietoa varmasti.
Freya Harrison
2012-04-11 23:11:44 UTC
view on stackexchange narkive permalink

Kun kirjoittajat käyttävät yhtä tuntemaansa tilastollista testiä (kentälläni, yleensä t-testi tai ANOVA), loputtomasti riippumatta siitä, onko se tarkoituksenmukaista. Tarkistin äskettäin paperin, jossa kirjoittajat halusivat verrata kymmenkunta erilaista hoitoryhmää, joten he olivat tehneet kahden näytteen t-testin jokaiselle mahdolliselle hoitoparille ...

D L Dahly
2013-04-03 20:39:46 UTC
view on stackexchange narkive permalink

Puuttuvien tietojen nolla huomioiminen.

Monissa käytännön sovelluksissa käytetään tietoja, joilta on ainakin joitain puuttuvia arvoja. Tämä on varmasti totta epidemiologiassa. Puuttuvat tiedot aiheuttavat ongelmia monille tilastollisille menetelmille - mukaan lukien lineaariset mallit. Puuttuvat tiedot lineaarisilla malleilla hoidetaan usein poistamalla tapaukset, joissa puuttuu tietoja kovariaateista. Tämä on ongelma, paitsi jos tietoja puuttuu olettaen, että tiedot puuttuvat kokonaan satunnaisesti (MCAR).

Ehkä kymmenen vuotta sitten oli järkevää julkaista tuloksia lineaarisista malleista ilman, että puutteita tarkasteltaisiin tarkemmin. Olen varmasti syyllinen tähän. Erittäin hyviä neuvoja puuttuvien tietojen käsittelemiseksi useilla imputointeilla on kuitenkin nyt laajalti saatavilla, samoin kuin tilastopaketteja / malleja / kirjastoja / jne. helpottaa tarkoituksenmukaisempia analyysejä järkevämpien oletusten perusteella, kun puuttuu.

Pystytkö laatimaan lisää koulutustyön hengessä? Mitä pidät harkittavana - myöntätkö sen olemassaolon tai mukautatko tilastollista analyysiä sen edessä (esim. Imputointi). Tarvittaessa yritän sisällyttää supp. kiinnostavien kovariaattien taulukot puuttuvista arvoista, mutta ei ole selvää, riittääkö tämä tämän huomautuksen "harkintaan".
StatisticsDoc Consulting
2012-11-21 06:03:28 UTC
view on stackexchange narkive permalink

Raportoimalla vaikutuksista, jotka "lähestyivät merkitystä (esimerkiksi p < .10), ja sitten kirjoittamalla niistä ikään kuin ne olisivat saavuttaneet merkityksen tiukemmalla ja hyväksyttävämmällä tasolla. Suorita useita rakenteellisia yhtälömalleja, joita ei ole sisäkkäin, ja kirjoita niistä sitten ikään kuin he olisivat sisäkkäin. Hyvin vakiintuneen analyyttisen strategian ottaminen ja sen esittäminen ikään kuin kukaan ei olisi koskaan ajatellut käyttää sitä aiemmin. Ehkä tämä on plagiointia n. astetta.

Ehkä se on pyörän keksiminen uudelleen plagioinnin sijasta?
Karl Ove Hufthammer
2015-04-01 14:01:33 UTC
view on stackexchange narkive permalink

Suosittelen seuraavia kahta artikkelia:

Martin Bland:
Tilastotuomarin järkyttäminen
Tämä perustuu annettuihin keskusteluihin Martin Bland yhdessä muiden tilastotuomareiden tietojen kanssa ('' mukavuusnäyte, jolla on pieni vastausprosentti ''). Se päättyy 11 pisteen luetteloon "[h] ow to išvengti tilastotuomarin häiritsemisestä".

Stian Lydersen:
Tilastokatsaus: usein annettuja kommentteja Tässä tuoreessa julkaisussa (julkaistu 2014/2015) luetellaan kirjoittajan 14 yleisintä arvostelukommenttia, jotka perustuvat noin. 200 tilastollista katsausta tieteellisistä julkaisuista (tietyssä lehdessä). Jokaisessa kommentissa on lyhyt selitys ongelmasta ja ohjeet siitä, miten oikein tehdä analyysi / raportointi. Viitattujen viitteiden luettelo on mielenkiintoisten paperien aarreaitta.

Lydersenin luettelo on mielenkiintoinen.Luulen olevani eri mieltä kourallisen kanssa...
cbeleites unhappy with SX
2012-04-10 22:38:03 UTC
view on stackexchange narkive permalink

Minua ärsyttää eniten (ja yleisimmin) ennustusmallien yleistysvirheeseen tähtäävä "validointi", jossa testitiedot eivät ole riippumattomia (esim. tyypillisesti useita mittauksia potilasta kohden, käynnistyksen ulkopuolella tai ristivalidointi) jakamalla mittaukset eivät potilaat ).

Vielä ärsyttävämpiä ovat paperit, jotka antavat tällaisia ​​virheellisiä ristivalidoinnin tuloksia sekä riippumaton testisarja, joka osoittaa ristivalidoinnin liian optimistisen puolueellisuuden, mutta ei yhtä sana, että ristivalidoinnin suunnittelu on väärä ...

(Olisin täysin onnellinen, jos samat tiedot esitettäisiin "tiedämme, että ristivalidoinnin pitäisi jakaa potilaat, mutta olemme juuttuneet ohjelmisto, joka ei salli tätä. Siksi testasimme lisäksi todella itsenäisen testipotilasjoukon ")

(Olen myös tietoinen siitä, että bootstrapping = uudelleennäyte korvaamalla toimii yleensä paremmin kuin ristivalidointi = uudelleen näytteenotto ilman Löysimme kuitenkin spektroskooppisen datan (simuloidut s pectra ja hieman keinotekoinen malliasetus, mutta todelliset spektrit), jotka toistivat / toistivat ristivalidoinnin ja käynnistysrajan ulkopuolella, oli samanlainen yleinen epävarmuus; oobilla oli enemmän ennakkoluuloja, mutta vähemmän varianssia - uudelleensuuntaamiseksi katson tätä hyvin käytännöllisestä näkökulmasta: toistuvalla ristivalidoinnilla vs. käynnistysrannalla ei ole merkitystä, kunhan monet paperit eivät jakaudu potilaskohtaisesti eivätkä raportoi / keskustele / mainitse satunnainen epävarmuus rajoitetun testinäytteen koon vuoksi.)

Väärinkäytön lisäksi sillä on myös sivuvaikutus, että asianmukaisen validoinnin suorittavien ihmisten on usein puolustettava, miksi niiden tulokset ovat niin paljon huonompia kuin kaikki muut tuloksia kirjallisuudessa.

Etkö ole varma, halusitko sanoa tämän, mutta "optimismi" -käynnistyshihna on yksi parhaista tavoista vahvistaa malli, ja sen koulutus- ja testinäytteet ovat päällekkäisiä.
@Frank Harrell - En ole varma, sainko mielipiteesi. Ehkä vaikeus on se, että kemometriikassa "ennustavan mallin validointi" koskee aina suorituskykyä uusissa, tuntemattomissa, tulevissa tapauksissa (esimerkissä: uusien potilaiden diagnosointi). Käytän käynnistyksen ulkopuolista tai toistuvaa / toistettua ristivalidointia koko ajan. Voitteko selittää, mitä etua testi- ja junajoukkojen päällekkäisyydestä verrattuna jakamiseen potilastasolla (oletan, että "päällekkäisyys" tarkoittaa mittausten jakamista, jotta testi- ja harjoittelumittaukset voivat kuulua samalle potilaalle, puhuen aina potilaanvälisestä mallista )?
... Ja kyllä, joihinkin mallin validointipisteisiin voidaan vastata jakamatta tietoja erillisissä testi- ja koulutustapauksissa (esim. Mallin vakaus kertoimien suhteen). Mutta jo mallin vakaus kirjoitettiin. ennusteisiin tulisi mitata tuntemattomilla potilailla (tuntematon: ei koskaan esiintynyt mallin rakentamisprosessissa, mukaan lukien kaikki tiedot huomioon ottava esikäsittely, joka ottaa huomioon kaikki tapaukset). Itse asiassa kemometrian perinteisessä kvantitoinnissa validoinnissa on vaiheita, jotka tarvitsevat edelleen itsenäisesti mitattuja testitietoja: ...
hyvien käytäntöjen mukaan laitteen tuntematon käyttäjä on tuntematon ja yksi tärkeä analyysimenetelmän ominaisuus, joka määritetään validoinnin aikana, on se, kuinka usein kalibrointi on tehtävä uudelleen (tai osoittaa, että instrumentaalinen ajautuminen on vähäistä tietyn ajan kuluessa) - [ jotkut kirjoittajat puhuvat jopa "uudelleennäytteen väärinkäytöstä", joka johtaa tällaisten riippumattomien testijoukkojen laiminlyöntiin] (http://onlinelibrary.wiley.com/doi/10.1002/cem.1310/abstract).
Jos laite tai mittaustekniikat tarvitsevat validointia, tarvitaan riippumaton näyte. Mutta yleinen virhe on käyttää tietojen jakamista yrittämään simuloida riippumatonta validointia. Tämä on edelleen sisäinen validointi. Yllä olevaan @cbeleites-kysymykseen vastaamiseksi päällekkäiset näytteet, jotka liittyvät käynnistykseen, johtavat tarkempiin arvioihin mallin tulevasta suorituskyvystä kuin tietojen jakaminen useimmissa aineistoissa, jotka todennäköisesti näkevät. Minulla on ollut tietojen jakaminen huonosti, kun n = 17000 ja 0,30 tapahtuma.
@Frank: käytätkö spliting = cross validation; päällekkäin = bootstrap? Sitten olemme täysin samaa mieltä (Minulle sekä käynnistyksen ulkopuolinen että ristivalidointi jakavat yhden tietojoukon koulutus- ja testisarjoiksi [toistuvasti] - mutta harjoitusjoukko koostuu korvaavista ja ilman korvaavia. Tulkitsen päällekkäisyyksiä esiintyvinä tapauksina sekä näytteenoton validoinnin aikana rakennettujen monien mallien (alimallit, sijaismallit) koulutus- ja testi (ala) sarjoissa)
Halkaisemalla halusin tarkoittaa yhden jaon, ei ristivalidointia. Mutta tarkin arvio todennäköisestä tulevasta suorituskyvystä tulee usein tavallisesta optimismista (Efron-Gong) käynnistyshihnasta, jossa "koulutus" ja "testi" näytteet ovat paljon päällekkäisiä.
Peter
2012-04-12 01:19:33 UTC
view on stackexchange narkive permalink

"datan" käyttäminen yksinäisessä mielessä. Tiedot OVAT, ne eivät ole koskaan.

Todennäköisesti ranskalainen tilastotieteilijä;)
Minun on myönnettävä, että olen viime aikoina luopunut tietojen monikkomuodosta pitäytyessäni siihen noin 10 vuoden ajan. Kirjoitan yleensä muille kuin teknisille yleisöille ja olin huolissani siitä, että tulin pompoiksi. APA: lla näyttää olevan edelleen tiukka lukemus sen monikkomuodosta, mutta mielenkiintoista kyllä ​​kuninkaallisella tilastoyhdistyksellä ei näytä olevan erityistä näkemystä. Täällä on mielenkiintoinen keskustelu: http://www.guardian.co.uk/news/datablog/2010/jul/16/data-plural-singular
En ole englanninkielinen, mutta yksitellen "data" tai "media" ongelmien ongelmana on, että englanti on lainannut monia muita latinankielisiä sanoja ja sinun on käytettävä kaikkia latinankielisiä sanoja johdonmukaisella tavalla. Mitä seuraavaksi? "Opetussuunnitelmat ovat" tai "Opetussuunnitelmat ovat"? "Medium are"? Jos "data" on latinaa, niin se on monikko. Keskustelun loppu. Ei väliä kuinka moni ihminen haluaa jättää sen huomiotta nyt.
Ehkä minulta puuttuu se, mutta vaihdan yksikön ja monikon välillä kontekstista riippuen.
Sanan "datum" käyttö on vähäistä ja vain erityisolosuhteissa. Mielestäni sana "data" on jotain vastaavaa sanalle "pakkaus" "susien" suhteen.On varmasti hyväksyttävää käyttää sanaa ”pakkaus” yksikköön kuvaamaan useita susia.Sana 'Data' on vähitellen muuttumassa omaksi yhteisnimekseen ...
StatsStudent
2015-10-07 02:55:13 UTC
view on stackexchange narkive permalink

Minulle on ylivoimaisesti syyn osoittaminen ilman asianmukaista syy-analyysiä tai kun on olemassa väärä syy-seuraus.

Vihaan sitä myös silloin, kun puuttuvien tietojen käsittelyyn ei kiinnitetä mitään huomiota. Näen niin monia artikkeleita, joissa kirjoittajat yksinkertaisesti suorittavat täydellisen tapausanalyysin eivätkä mainitse, ovatko tulokset yleistettävissä väestölle, jolla on puuttuvat arvot, tai miten puuttuvien arvojen populaatio voisi järjestelmällisesti erota täydellisistä tiedoista koostuvasta populaatiosta.

Simone
2015-10-07 03:13:38 UTC
view on stackexchange narkive permalink

Microsoft Wordin käyttäminen LaTeXin sijaan.



Tämä Q & A käännettiin automaattisesti englanniksi.Alkuperäinen sisältö on saatavilla stackexchange-palvelussa, jota kiitämme cc by-sa 2.0-lisenssistä, jolla sitä jaetaan.
Loading...