Noin 50-100 erilaista efektikokoa tunnetaan. Monet erityyppiset vaikutuskoot voidaan muuntaa muiksi, koska monet arvioivat kahden jakauman erottamisen, joten ne liittyvät matemaattisesti. Esimerkiksi korrelaatiokerroin voidaan muuntaa Cohen ”sd: ksi ja päinvastoin.
Korrelaatioperhe: Tehosteiden koot perustuvat” selitettyyn varianssiin ”Muokkaa
Nämä vaikutuskoot arvioivat määrän kokeessa olevan varianssin, joka on ”selitetty” tai ”selitetty” kokeen mallilla (selitetty muunnelma).
Pearsonin r tai korrelaatiokerroinMuokkaa
Pearsonin korrelaatio , jota usein merkitään r: llä ja jonka Karl Pearson on ottanut käyttöön, käytetään laajalti vaikutuskokona, kun parillisia kvantitatiivisia tietoja on saatavilla; esimerkiksi jos tutkitaan syntymäpainon ja pitkäikäisyyden suhdetta. Korrelaatiokerrointa voidaan käyttää myös silloin, kun tiedot ovat binaarisia Pearson ”sr voi vaihdella suuruudeltaan välillä -1 – 1, jolloin -1 osoittaa täydellisen negatiivisen lineaarisen suhteen, 1 osoittaa täydellisen positiivisen lineaarisen suhteen ja 0 ei osoita lineaarista suhdetta kahden muuttujan välillä. Cohen antaa seuraavat ohjeet yhteiskuntatieteille:
Tehosteen koko | r |
---|---|
Pieni | 0,10 |
Keskikokoinen | 0,30 |
Suuri | 0,50 |
Määrityskerroin (r2 tai R2) Muokkaa
Liittyvä vaikutuskoko on r2, määrityskerroin (kutsutaan myös nimellä R2 tai ”r-neliö”), laskettu kuin Pearsonin korrelaation r neliö. Yhdistettyjen tietojen tapauksessa tämä on kahden muuttujan jakaman varianssin osuuden mitta ja vaihtelee 0: sta 1. Esimerkiksi r: n ollessa 0,21 määrityskerroin on 0,0441, mikä tarkoittaa, että 4,4% kummankin muuttujan varianssi jaetaan toisen muuttujan kanssa. R2 on aina positiivinen, joten se ei välitä korrelaation suuntaa kahden muuttujan välillä.
Eta-neliö (η2) Muokkaa
Eta-neliö kuvaa selitetyn varianssisuhteen ennakoivan tekijän avulla riippuvassa muuttujassa samalla kun ohjataan muita ennustajia, jolloin se on analoginen R2: n kanssa. Eta-neliö on puolueellinen estimaattori mallin selittämästä varianssista populaatiossa (se arvioi vain otoksen vaikutuksen koon). Tämä arvio jakaa heikkouden r2: n kanssa, että jokainen muuttuja lisää automaattisesti η2: n arvoa. Lisäksi se mittaa otoksen selitetyn varianssin, ei populaatiota, mikä tarkoittaa, että se yliarvioi aina vaikutuksen koon, vaikka puolueellisuus kasvaa pienemmäksi otoksen kasvaessa.
η 2 = S S Hoito S S Yhteensä. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Treatment}}} {SS _ {\ text {Total}}}}.}
Omega-neliö (ω2) Muokkaa
Vähemmän puolueellinen estimaattori populaatiossa selitetystä varianssista on ω2
ω 2 = SS-hoito – df-hoito ⋅ MS-virhe SS yhteensä + MS-virhe. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {virhe}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}}.}
Tämä kaavan muoto on rajoitettu tutkittavien välillä analyysin ollessa sama näytekoko kaikissa soluissa. Koska se on vähemmän puolueellinen (vaikkakaan ei puolueeton), ω2 on parempi kuin η2; voi kuitenkin olla hankalampaa laskea monimutkaisille analyyseille. Estimaattorin yleistetty muoto on julkaistu tutkittavien välillä ja yksilöiden välillä, toistuva mitta, sekoitussuunnittelu ja satunnaistetut lohkosuunnittelukokeet. Lisäksi on julkaistu menetelmiä osittaisen ω2: n laskemiseksi yksittäisille tekijöille ja yhdistetyille tekijöille malleissa, joissa on enintään kolme riippumatonta muuttujaa.
Cohen ”s ƒ2Edit
Cohen” s ƒ2 on yksi useista vaikutuskoon mittareista käytettäväksi F-testin yhteydessä ANOVA: lle tai moninkertaiselle regressiolle. Sen esijännityksen määrä (ANOVA: n vaikutuskoon yliarviointi) riippuu sen taustalla olevan varianssimittauksen puolueellisuudesta (esim. R2, η2, ω2).
effect2-efektikoon mitta useille regressioille määritellään seuraavasti:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} jossa R2 on moninkertainen korrelaatio neliössä .
Samoin ƒ2 voidaan määritellä seuraavasti:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} tai f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ yli 1- \ omega ^ {2}}} malleille, jotka on kuvattu kyseisillä tehosteen kokomittareilla.
F 2 {\ displaystyle f ^ {2}} -tehosteen kokomitta peräkkäiselle moniregressiolle ja yleinen PLS-mallinnukselle määritellään seuraavasti:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ yli 1-R_ {AB} ^ {2}}}, jossa R2A on varianssi, jonka vastaa joukko yksi tai useampi itsenäinen muuttuja A, ja R2AB on yhdistetty varianssi, jonka A ja toinen yhden tai useamman kiinnostavan muuttujan B joukko selittää. Sopimuksella ƒ2 vaikutuskokoa 0,1 2 {\ displaystyle 0.1 ^ {2}}, 0.25 2 {\ displaystyle 0.25 ^ {2}} ja 0.4 2 {\ displaystyle 0.4 ^ {2}} kutsutaan vastaavasti pieniksi, keskisuuriksi ja suuriksi.
Cohen ”sf ^ {\ displaystyle {\ hat {f}}} löytyy myös taaksepäin työskentelevälle varianssianalyysille (ANOVA) käyttämällä:
f ^ effect = (F effect df effect / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}
ANOVA: n tasapainotetussa mallissa (ekvivalentit näytekoot ryhmissä) f 2 {\ displaystyle f ^ {2}} vastaava populaatioparametri on
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ pisteitä, \ mu _ {K})} \ yli {K \ kertaa \ sigma ^ {2}}, }
jossa μj tarkoittaa populaation keskiarvoa K-ryhmän j-ryhmän joukossa ja σ vastaavaa populaation keskihajontaa kussakin ryhmässä. SS on ANOVA: n neliöiden summa.
Cohen ”s qEdit
Toinen korrelaatioerojen kanssa käytetty mitta on Cohen ”s q. Tämä on ero kahden Fisherin muunnetun Pearsonin regressiokertoimen välillä. Symboleissa tämä on
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
missä r1 ja r2 ovat verrattuja regressioita. Odotettu q: n arvo on nolla ja sen varianssi on
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operaattorin nimi {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
missä N1 ja N2 ovat datapisteiden lukumäärä ensimmäisessä ja toisessa regressiossa.
Difference-perhe: Efektikoot, jotka perustuvat meanEdit-eroihin
Gaussin tiheydet, jotka kuvaavat eri arvoja Cohenin d. – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
jossa μ1 on yhden populaation keskiarvo, μ2 on toisen populaation keskiarvo ja σ on keskihajonta, joka perustuu jompaankumpaan tai molempiin populaatioihin.
Käytännössä populaatioarvoja ei yleensä tunneta ja ne on arvioitava otostilastoista. Keskiarvoihin perustuvat tehokokojen n: t eroavat toisistaan sen mukaan, mitä tilastoja käytetään.
Tämä efektikoon muoto muistuttaa t-testitilaston laskemista kriittisen eron kanssa, jonka t-testitilasto sisältää kerroin n {\ displaystyle {\ sqrt {n}}}. Tämä tarkoittaa, että tietyllä vaikutuskoolla merkitsevyystaso kasvaa otoksen koon mukaan. Toisin kuin t-testin tilastossa, vaikutuksen koon tarkoituksena on arvioida populaatioparametri, eikä otoskoko vaikuta siihen.
Cohen ”sd Edit
Cohen” sd määritellään Kahden keskiarvon ero jaettuna datan keskihajonnalla, ts.
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen määritteli s, yhdistetyn keskihajonnan, (kahdelle itsenäiselle näytteelle): 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
jossa yhden ryhmän varianssi on määritelty seuraavasti:
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ summa _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
ja vastaavasti muille ryhmä.
Alla oleva taulukko sisältää d = 0,01 – 2,0 suuruuksien kuvaimet, kuten Cohen alun perin ehdotti ja Sawilowsky laajensi.
Tehosteen koko | d | Viite |
---|---|---|
Hyvin pieni | 0,01 | |
pieni | 0,20 | |
Normaali | 0,50 | |
Suuri | 0,80 | |
Erittäin suuri | 1.20 | |
Valtava | 2.0 |
Muut kirjoittajat valitsevat hieman erilaisen laskennan keskihajonnasta viitattaessa ”Cohen” sd: hen, jossa nimittäjä on ilman ”-2”: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Tätä ”Cohen” sd: n määritelmää kutsutaan Hedgesin ja Olkinin suurimman todennäköisyyden estimaattoriksi, ja se liittyy Hedges ”g: ään skaalauskertoimella (katso alla ).
Kahdella pariliitetyllä näytteellä tarkastellaan eripisteiden jakaumaa. Tällöin s on eropisteiden jakauman keskihajonta. Tämä luo seuraavan suhteen t-tilastojen välille testata eroa kahden ryhmän ja Cohen ”sd: n keskiarvoissa:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ palkki {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
ja
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen ”sd: tä käytetään usein arvioitaessa otoskokoja tilastolliseen testaukseen. Alempi Cohen ”sd osoittaa suuremman otoskokon tarpeen, ja päinvastoin, mikä voidaan myöhemmin määrittää yhdessä halutun merkitsevyystason ja tilastollisen tehon lisäparametrien kanssa.
Lasi” ΔEdit
Gene V. Glass ehdotti vuonna 1976 vaikutuksen koon estimaattoria, joka käyttää vain toisen ryhmän keskihajontaa: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
Toista ryhmää voidaan pitää kontrolliryhmänä, ja Glass väitti, että jos verrataan useita hoitoja kontrolliryhmään, on parempi käyttää vain kontrolliryhmästä laskettua keskihajontaa, jotta vaikutuskoot eivät eroa yhtä suurilla keskiarvoilla ja erilaisilla variansseilla.
Alle oikea oletus yhtäläisistä populaatiovaihteluista on σ: n yhdistetty estimaatti tarkempi.
Larry Hedgesin vuonna 1981 ehdottamat suojaukset ”gEdit
Suojaukset” g on kuin muutkin standardoidulla di ero: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
jossa yhdistetty keskihajonta s ∗ {\ displaystyle s ^ {*}} lasketaan seuraavasti:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Populaatioefektin koon an estimaattorina se on puolueellinen. Siitä huolimatta tämä ennakkoarvio voidaan korjata likimääräisesti kertomalla kertoimella
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ oikea) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, neliön keskimääräinen standardoitu effectEdit
Samanlainen vaikutusten koon estimaattori useille vertailutoiminnoille (esim. ANOVA) on Ψ juurikeskimääräinen neliö standardoitu vaikutus. Tämä esittää olennaisesti koko mallin omnibus-eron, joka on sovitettu neliökeskiarvolla, analoginen d: n tai g: n kanssa. Yksinkertaisin kaava Ψ: lle, joka soveltuu yksisuuntaiseen ANOVAan, on
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS-virhe {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {-virhe }}}}}}}
Lisäksi on annettu yleistys monitekijällisille malleille.
Efektikokojen jakelu meansEdit
-jakelusta on mahdollista laskea vaikutuskokojen odotus ja varianssi.
Joissakin tapauksissa käytetään suuria varianssiarvioita. Yksi ehdotus Hedgesin ”puolueettoman estimaattorin varianssille on: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Muut tiedotEdit
Mahalanobiksen etäisyys (D) on Cohen ”sd: n monivaihteluinen yleistys, jossa otetaan huomioon muuttujien väliset suhteet.
Luokkaryhmä: Efektikoot kategoristen muuttujien välisille assosiaatioilleMuokkaa
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}} |
Phi (φ) | Cramér ’s V (φc) |
---|
Khi-neliötestissä yleisesti käytettyjä assosiaatiomittareita ovat Phi-kerroin ja Cramér’s V (joita kutsutaan joskus Cramér’s phi: ksi ja merkitty φc: ksi) Phi liittyy pistebiseriaaliseen korrelaatiokertoimeen ja Cohen ”sd: hen ja arvioi kahden muuttujan (2 × 2) välisen suhteen laajuuden. Cramérin V: tä voidaan käyttää muuttujien kanssa, joilla on enemmän kuin kaksi tasoa.
Phi voidaan laskea etsimällä khi-neliön tilaston neliöjuuri jakamalla otoksen koko.
Vastaavasti Cramérin V lasketaan ottamalla khi-neliön tilaston neliöjuuri jakamalla otoksen koko ja vähimmäismitan pituus (k on pienempi rivien r tai sarakkeiden c lukumäärästä).
φc on kahden erillisen muuttujan välinen korrelaatio ja se voidaan laskea mille tahansa r: n tai c: n arvolle. Kuitenkin, kun khi-neliöarvoilla on taipumus kasvaa solujen lukumäärän kanssa, sitä suurempi ero r: n ja c: n välillä on, sitä todennäköisemmin V pyrkii arvoon 1 ilman vahvaa näyttöä merkityksellisestä korrelaatiosta.
Cramér ” s V: tä voidaan soveltaa myös ”sovituksen hyvyyteen” chi-neliön malleihin (ts. malleihin, joissa c = 1). Tällöin se toimii taipumana mittaamaan yksittäistä lopputulosta (ts. k lopputulosta). Tällöin on käytettävä r: tä k: lle, jotta V voidaan säilyttää 0: n ja 1: n välillä. Muussa tapauksessa c: n käyttö vähentäisi yhtälöä Ph: n yhtälöön.
Cohen ”wEdit
Toinen khi-neliötesteissä käytetty vaikutuskoon mitta on Cohen ”s w. Tämä määritellään seuraavasti:
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ summa _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}
missä p0i on H0: n alla olevan i: n solun arvo, p1i on H1: n alla olevan i: n solun arvo ja m on solujen lukumäärä.
Tehosteen koko | w |
---|---|
Pieni | 0.10 |
Keskitaso | 0,30 |
Suuri | 0,50 |
Odds ratioEdit
Kerroinaste (OR) on toinen hyödyllinen tehosteen koko. On tarkoituksenmukaista, kun tutkimuskysymys keskittyy kahden binaarisen muuttujan väliseen assosiaatioasteeseen. Harkitse esimerkiksi oikeinkirjoituskykyä koskevaa tutkimusta. Kontrolliryhmässä kaksi opiskelijaa läpäisee luokan jokaisen epäonnistuneen kohdalla, joten onnistumisen todennäköisyys on kaksi yhteen (tai 2/1 = 2). Hoitoryhmässä kuusi opiskelijaa läpäisee jokaisen epäonnistuneen, joten onnistumisen todennäköisyys on kuusi yhteen (tai 6/1 = 6). Efektikoko voidaan laskea huomioimalla, että läpäisykertoimet hoitoryhmässä ovat kolme kertaa suuremmat kuin kontrolliryhmässä (koska 6 jaettuna 2: lla on 3). Siksi kertoimien suhde on 3. Kerroinlaadun tilastot ovat eri mittakaavassa kuin Cohen ”sd, joten tämä” 3 ”ei ole verrattavissa Cohen” sd: n 3: een.
Suhteellinen riskEdit
Suhteellinen riski (RR), jota kutsutaan myös riskisuhteeksi, on yksinkertaisesti tapahtuman riski (todennäköisyys) suhteessa johonkin riippumattomaan muuttujaan. Tämä vaikutuskoon mitta eroaa kertoimien suhteesta siinä, että siinä verrataan todennäköisyyksiä kertoimien sijaan, mutta lähestytään jälkimmäistä asymptoottisesti pienten todennäköisyyksien suhteen. Yllä olevaa esimerkkiä käyttämällä todennäköisyys kontrolliryhmässä ja hoitoryhmässä läpäiseville on 2/3 (tai 0,67) ja 6/7 (tai 0,86). Efektikoko voidaan laskea sama kuin edellä, mutta käyttämällä sen sijaan todennäköisyyksiä. Siksi suhteellinen riski on 1,28. Koska käytettiin melko suuria todennäköisyyksiä ohittaa, suhteellisen riskin ja kertoimien välillä on suuri ero. Jos epäonnistumista (pienempi todennäköisyys) olisi käytetty tapahtumana (pikemminkin kuin ohimenevää), vaikutusten kahden mittayksikön välinen ero ei olisi niin suuri.
Vaikka molemmat mittarit ovat hyödyllisiä, niillä on erilaiset tilastolliset vaikutukset. käyttää. Lääketieteellisessä tutkimuksessa kerroinsuhdetta käytetään yleisesti tapaustarkastustutkimuksissa, koska kertoimet, mutta eivät todennäköisyyksiä, yleensä arvioidaan. Suhteellista riskiä käytetään yleisesti satunnaistetuissa kontrolloiduissa tutkimuksissa ja kohorttitutkimuksissa, mutta suhteellinen riski vaikuttaa interventioiden tehokkuuden yliarviointiin. absoluuttinen riskin pieneneminen on yksinkertaisesti tapahtuman riskin (todennäköisyyden) ero kahden ryhmän välillä. Se on hyödyllinen mitta kokeellisessa tutkimuksessa, koska RD kertoo, missä määrin kokeelliset interventiot muuttavat tapahtuman tai lopputuloksen todennäköisyyttä.Käyttämällä yllä olevaa esimerkkiä todennäköisyys verrokkiryhmässä ja hoitoryhmässä läpäiseville on vastaavasti 2/3 (tai 0,67) ja 6/7 (tai 0,86), joten RD-vaikutuksen koko on 0,86 – 0,67 = 0,19 (tai 19%). RD on ylivoimainen toimenpide interventioiden tehokkuuden arvioinnissa.
Cohenin hEdit
Yksi mittari, jota käytetään tehoanalyysissä verrattaessa kaksi riippumatonta mittasuhdetta on Cohen ”s h. Tämä määritellään seuraavasti:
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}}
jossa p1 ja p2 ovat kahden verratun näytteen osuudet ja arcsin on arcsiinimuunnos.
Yhteisen kielen tehosteen kokoEdit
Jotta vaikutuksen koon merkitys voidaan kuvata helpommin tilastojen ulkopuolella oleville ihmisille, yleisen kielen tehosteen koko, kuten nimestä käy ilmi, on suunniteltu välittämään se tavallisella englanniksi. Sitä käytetään kuvaamaan kahden ryhmän välistä eroa, ja Kenneth McGraw ja SP Wong ehdottivat sitä sekä nimittivät sen vuonna 1992. He käyttivät seuraavaa esimerkkiä (miesten ja naisten korkeudesta): ”missä tahansa nuoren aikuisen satunnaisessa pariliitoksessa. miehet ja naiset, probabi Naisen pitempi uros on 0,92, tai yksinkertaisemmin sanottuna, 92: ssa 100: sta nuorten aikuisten sokeasta päivämäärästä uros on naista korkeampi ”, kuvattaessa yleisen kielivaikutuksen populaatioarvoa koko.
Populaatioarvo, tavallisen kielivaikutuksen koon osalta, raportoidaan usein näin, pareittain satunnaisesti valitusta populaatiosta. Kerby (2014) huomauttaa, että pari, joka määritellään pisteiksi yhdessä ryhmässä pariksi toisen ryhmän pisteiden kanssa, on yleisen kielitehosteen koon peruskäsite.
Harkitse toisena esimerkkinä tieteellistä tutkimusta (ehkä jonkin kroonisen sairauden, kuten niveltulehduksen hoito), johon kuuluu kymmenen ihmistä hoitoryhmässä ja kymmenen ihmistä kontrolliryhmässä. Jos kaikkia hoitoryhmän jäseniä verrataan kaikkiin kontrolliryhmän jäseniin, pareja on (10 × 10 =) 100. Tutkimuksen lopussa tulos arvioidaan pisteiksi jokaiselle yksilölle (esimerkiksi liikkuvuuden ja kivun asteikolla niveltulehdustutkimuksen tapauksessa), ja sitten kaikkia pisteitä verrataan parien välillä. Tulos hypoteesia tukevien parien prosenttiosuutena on yleisen kielen vaikutuksen koko. Esimerkkitutkimuksessa se voi olla (sanotaan sanotaan) .80, jos 80 sadasta vertailuparista osoittaa parempia tuloksia hoitoryhmälle kuin vertailuryhmä, ja raportti saattaa kuulua seuraavasti: ”Kun potilas hoitoryhmää verrattiin kontrolliryhmän potilaaseen, 80: llä 100: sta parista hoidetun potilaan hoitotulos oli parempi. ”Esimerkiksi näyte-arvo, esimerkiksi tällaisessa tutkimuksessa, on puolueeton estimaatti populaation arvosta.
Vargha ja Delaney yleistivät yleisen kielitehosteen koon (Vargha-Delaney A) järjestystason tietojen kattamiseksi.
Rank-biserial correlationEdit
Yleisen kielen vaikutusten kokoon liittyvä vaikutuskoko on rank-biserial-korrelaatio. Cureton otti tämän toimenpiteen käyttöön vaikutuskokona Mann – Whitney U -testissä Eli on olemassa kaksi ryhmää, ja ryhmien pisteet on muunnettu riveiksi. Kerbyn yksinkertainen erotuskaava laskee sijoitus-biseriaalisen korrelaation yleisen kielen vaikutuksen koosta. Jos f on hypoteesille (yhteisen kielen vaikutuksen koko) suotuisien parien osuus, ja u: n ei-suotuisten parien osuuden, sijoitus-biseriaalinen r on yksinkertainen ero näiden kahden osuuden välillä: r = f – u. Toisin sanoen korrelaatio on ero yleisen kielen vaikutuksen koon ja sen täydennyksen välillä. Esimerkiksi, jos yleisen kielen vaikutuksen koko on 60%, sijoitus-biseriaalinen r on 60% miinus 40% tai r = 0,20. Kerbyn kaava on suuntainen, ja positiiviset arvot osoittavat, että tulokset tukevat hypoteesia.
Wendt toimitti ei-suunnatun kaavan sijoitus-biseriaaliselle korrelaatiolle siten, että korrelaatio on aina positiivinen. Wendt-kaavan etuna on, että se voidaan laskea tiedoilla, jotka ovat helposti saatavilla julkaistuissa julkaisuissa. Kaavassa käytetään vain Mann-Whitney U -testin U-arvon arvoa ja kahden ryhmän näytekokoja: r = 1 – (2U) / (n1 n2). Huomaa, että U määritellään tässä klassisen määritelmän mukaan pienempänä kahdesta U-arvosta, jotka voidaan laskea datasta. Tämä varmistaa, että 2U < n1n2, koska n1n2 on U-tilastojen suurin arvo.
Esimerkki voi havainnollistaa kahden kaavan käyttöä. Harkitse terveystutkimusta, johon osallistui kaksikymmentä vanhempaa aikuista, kymmenen hoitoryhmässä ja kymmenen kontrolliryhmässä siis on kymmenen kertaa kymmenen tai 100 paria.Terveysohjelma käyttää ruokavaliota, liikuntaa ja ravintolisiä muistin parantamiseksi, ja muisti mitataan standardoidulla testillä. Mann-Whitney U -testi osoittaa, että hoitoryhmän aikuisella oli parempi muisti 70: ssä 100 sadasta ja huonommassa muistissa 30 parissa. Mann-Whitney U on pienempi 70 ja 30, joten U = 30. Muistin ja hoidon suorituskyvyn korrelaatio Kerbyn yksinkertaisen erotuskaavan mukaan on r = (70/100) – (30/100) = 0,40. Wendt-kaavan korrelaatio on r = 1 – (2 · 30) / (10 · 10) = 0,40.
Järjestysdatan tehosteen kokoEdit
Cliffin delta tai d {\ displaystyle d}, jonka Norman Cliff on alun perin kehittänyt käytettäväksi järjestysdatan kanssa, mittaa, kuinka usein yhden jakelun arvot ovat suurempia kuin toisen jakauman arvot. Ratkaisevaa on, että se ei vaadi oletuksia muodosta tai Kahden jakauman leviäminen.
Näyteestimaatin d {\ displaystyle d} antaa:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} liittyy lineaarisesti Mann – Whitney U -tilastoon, mutta se vangitsee merkkinsä eron suunnan. Kun otetaan huomioon Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} on:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}