Cirka 50 till 100 olika mått på effektstorlek är kända. Många effektstorlekar av olika typer kan konverteras till andra typer, eftersom många uppskattar separationen mellan två fördelningar, så är matematiskt relaterade. Till exempel kan en korrelationskoefficient omvandlas till en Cohen ”sd och vice versa.
Korrelationsfamilj: Effektstorlekar baserade på” förklaring av varians ”Redigera
Dessa effektstorlekar uppskattar mängden av variansen i ett experiment som ”förklaras” eller ”redovisas” av experimentets modell (Förklarad variation).
Pearson r eller korrelationskoefficient Redigera
Pearson’s korrelation , ofta betecknad r och introducerad av Karl Pearson, används ofta som en effektstorlek när parade kvantitativa data är tillgängliga, till exempel om man studerade sambandet mellan födelsevikt och livslängd. Korrelationskoefficienten kan också användas när data är binära . Pearson ”sr kan variera i storlek från −1 till 1, med −1 som indikerar en perfekt negativ linjär relation, 1 indikerar en perfekt positiv linjär relation och 0 indikerar ingen linjär relation mellan två variabler. Cohen ger följande riktlinjer för samhällsvetenskapen:
Effektstorlek | r |
---|---|
Liten | 0,10 |
Medium | 0,30 |
Stor | 0,50 |
Bestämningskoefficient (r2 eller R2) Redigera
En relaterad effektstorlek är r2, bestämningskoefficienten (även kallad R2 eller ”r-kvadrat”), beräknad som fyrkanten för Pearson-korrelationen r. När det gäller parade data är detta ett mått på andelen varians som delas av de två variablerna och varierar från 0 till 1. Till exempel, med en r på 0,21 är bestämningskoefficienten 0,0441, vilket innebär att 4,4% av variansen för endera variabeln delas med den andra variabeln. R2 är alltid positiv, så förmedlar inte riktningen för korrelationen mellan de två variablerna.
Eta-kvadrat (η2) Redigera
Eta-kvadrat beskriver förklarat variansförhållande i den beroende variabeln av en prediktor medan han kontrollerar för andra prediktorer, vilket gör den analog med r2. Eta-kvadrat är en partisk uppskattning av variansen som förklaras av modellen i populationen (den uppskattar endast effektstorleken i urvalet). Denna uppskattning delar svagheten med r2 att varje ytterligare variabel automatiskt ökar värdet på η2. Dessutom mäter den variationen som förklaras av provet, inte populationen, vilket innebär att det alltid kommer att överskatta effektstorleken, även om förspänningen blir mindre när provet blir större.
η 2 = S S Behandling S S Totalt. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Treatment}}} {SS _ {\ text {Total}}}}.}
Omega-kvadrat (ω2) Redigera
En mindre partisk uppskattning av variationen som förklaras i populationen är ω2
ω 2 = SS-behandling – df-behandling ⋅ MS-fel SS totalt + MS-fel. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {behandling}} – df _ {\ text {behandling}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
Denna form av formeln är begränsad till analys mellan försökspersoner med samma provstorlekar i alla celler. Eftersom det är mindre partiskt (även om det inte är opartiskt) är ω2 att föredra framför η2; Det kan dock vara mer besvärligt att beräkna för komplexa analyser. En generaliserad form av uppskattaren har publicerats för analyser mellan försökspersoner och analyser, upprepade mått, blandad design och randomiserade experiment med blockdesign. Dessutom har metoder för att beräkna partiell ω2 för enskilda faktorer och kombinerade faktorer i mönster med upp till tre oberoende variabler publicerats.
Cohen ”s ƒ2Edit
Cohen” s ƒ2 är en av flera mått på effektstorlek att använda i samband med ett F-test för ANOVA eller multipel regression. Dess biasmängd (överskattning av effektstorleken för ANOVA) beror på förspänningen av dess underliggande variansmätning som förklarats (t.ex. R2, η2, ω2).
Måttet ƒ2-effektstorlek för multipel regression definieras som:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ över 1-R ^ {2}}} där R2 är kvadratisk multipel korrelation .
På samma sätt kan ƒ2 definieras som:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ över 1- \ eta ^ {2} }} eller f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ över 1- \ omega ^ {2}}} för modeller som beskrivs av dessa effektstorleksmått.
F 2 {\ displaystyle f ^ {2}} effektstorleksmått för sekventiell multipel regression och också vanligt för PLS-modellering definieras som:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ över 1-R_ {AB} ^ {2}}} där R2A är den varians som redovisas av en uppsättning en eller flera oberoende variabler A och R2AB är den kombinerade variansen som redovisas av A och en annan uppsättning av en eller flera oberoende variabler av intresse B. Enligt konvention är ƒ2 effektstorlekar av 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0,25 ^ {2}} och 0,4 2 {\ displaystyle 0,4 ^ {2}} benämns små, medelstora respektive stora.
Cohen ”sf ^ {\ displaystyle {\ hat {f}}} kan också hittas för faktoriell analys av varians (ANOVA) som arbetar bakåt, med:
f ^ effekt = (F effekt df effekt / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}
I en balanserad design (motsvarande provstorlekar över grupper) av ANOVA är motsvarande populationsparameter för f 2 {\ displaystyle f ^ {2}}
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ punkter, \ mu _ {K})} \ över {K \ gånger \ sigma ^ {2}}, }
där μj betecknar populationens medelvärde inom den j: e gruppen av de totala K-grupperna, och σ motsvarande populationsstandardavvikelser inom varje grupp. SS är summan av kvadrater i ANOVA.
Cohen ”s qEdit
Ett annat mått som används med korrelationsskillnader är Cohens q. Detta är skillnaden mellan två Fisher-transformerade Pearson-regressionskoefficienter. I symboler är detta
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
där r1 och r2 är de regressioner som jämförs. Det förväntade värdet på q är noll och dess varians är
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
där N1 och N2 är antalet datapunkter i första respektive andra regressionen.
Skillnadsfamilj: Effektstorlekar baserat på skillnader mellan medel Redigera
Diagram över Gaussiska densiteter som illustrerar olika värden av Cohens d.
En (populations) effektstorlek θ baserat på medel beaktar vanligtvis den standardiserade medelskillnaden mellan två populationer: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
där μ1 är medelvärdet för en population, μ2 är medelvärdet för den andra populationen, och σ är en standardavvikelse baserad på endera eller båda populationerna.
I den praktiska inställningen är populationsvärdena vanligtvis inte kända och måste uppskattas ur provstatistik. ns av effektstorlekar baserat på medel skiljer sig åt med avseende på vilken statistik som används.
Denna form för effektstorlek liknar beräkningen för en t-teststatistik, med den kritiska skillnaden som t-teststatistiken inkluderar en faktor n {\ displaystyle {\ sqrt {n}}}. Detta innebär att signifikansnivån för en given effektstorlek ökar med provstorleken. Till skillnad från t-teststatistiken syftar effektstorleken till att uppskatta en populationsparameter och påverkas inte av urvalsstorleken.
Cohen ”sd Redigera
Cohen” sd definieras som skillnad mellan två medel dividerat med en standardavvikelse för data, dvs
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen definierade s, den sammanslagna standardavvikelsen, som (för två oberoende prover) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
där variansen för en av grupperna definieras som
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
och liknande för de andra grupp.
Tabellen nedan innehåller deskriptorer för d = 0,01 till 2,0, vilket ursprungligen föreslogs av Cohen och utökades av Sawilowsky.
Effektstorlek | d | Referens |
---|---|---|
Mycket liten | 0,01 | |
Liten | 0,20 | |
Medium | 0,50 | |
Stor | 0,80 | |
Mycket stor | 1,20 | |
Enorm | 2.0 |
Andra författare väljer en något annan beräkning av standardavvikelsen när man hänvisar till ”Cohen” sd ”där nämnaren är utan” -2 ”: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}
Denna definition av ”Cohen” sd ”kallas den maximala sannolikhetsuppskattaren av Hedges och Olkin, och den är relaterad till Hedges” g av en skalningsfaktor (se nedan ).
Med två parade prover tittar vi på fördelningen av skillnadspoängen. I så fall är s standardavvikelsen för denna fördelning av skillnadspoäng. Detta skapar följande samband mellan t-statistiken för att testa en skillnad i medelvärdet för de två grupperna och Cohen ”sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
och
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen ”sd används ofta för att uppskatta provstorlekar för statistisk testning. En lägre Cohen ”sd indikerar nödvändigheten av större provstorlekar, och vice versa, vilket därefter kan bestämmas tillsammans med de ytterligare parametrarna för önskad signifikansnivå och statistisk effekt.
Glas” ΔEdit
1976 föreslog Gene V. Glass en uppskattning av effektstorleken som endast använder standardavvikelsen för den andra gruppen: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
Den andra gruppen kan betraktas som en kontrollgrupp och Glass hävdade att om flera behandlingar jämfördes med kontrollgruppen skulle det vara bättre att bara använda standardavvikelsen som beräknats från kontrollgruppen, så att effektstorlekarna inte skiljer sig på lika sätt och med olika avvikelser.
Under ett korrekt antagande om lika befolkningsvariationer en poolad uppskattning för σ är mer exakt.
Hedges ”gEdit
Hedges” g, föreslog av Larry Hedges 1981, är som de andra måttbaserade på en standardiserad di fference: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
där den sammanslagna standardavvikelsen s ∗ {\ displaystyle s ^ {*}} beräknas som:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}.}
Som en uppskattning av populationseffektstorleken θ är den partisk. Ändå kan denna förspänning korrigeras ungefär genom multiplikation med en faktor
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, root-mean-square standardised effectEdit
En liknande effektstorleksuppskattare för flera jämförelser (t.ex. ANOVA) är den standardiserade root-medel-kvadrat-effekten. Detta visar i huvudsak omnibusskillnaden för hela modellen justerad av rotens medelkvadrat, analogt med d eller g. Den enklaste formeln för Ψ, lämplig för enkelriktad ANOVA, är
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS-fel {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {fel }}}}}}}
Dessutom har en generalisering för flerfaktoriska mönster tillhandahållits.
Fördelning av effektstorlekar baserat på medel Redigera
Från distributionen är det möjligt att beräkna förväntan och variansen för effektstorlekarna.
I vissa fall används stora provuppskattningar för variansen. Ett förslag för variansen av Hedges ”opartisk estimator är: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Övriga mått Redigera
Mahalanobis avstånd (D) är en multivariat generalisering av Cohen ”sd, som tar hänsyn till relationerna mellan variablerna.
Kategorisk familj: Effektstorlekar för associeringar mellan kategoriska variabler Redigera
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}} |
Phi (φ) | Cramér ”s V (φc) |
---|
Vanligen använda associeringsåtgärder för chi-kvadrat-testet är Phi-koefficienten och Cramér’s V (ibland kallad Cramérs phi och betecknad som φc) . Phi är relaterat till den punktbiseriella korrelationskoefficienten och Cohen ”sd och uppskattar omfattningen av sambandet mellan två variabler (2 × 2). Cramér’s V kan användas med variabler som har mer än två nivåer.
Phi kan beräknas genom att hitta kvadratroten av den chi-kvadratiska statistiken dividerat med provstorleken.
På samma sätt beräknas Cramers V genom att ta kvadratroten av chi-kvadratstatistiken dividerat med provstorleken och längden på minsta dimension (k är den minsta av antalet rader r eller kolumner c).
φc är interkorrelationen mellan de två diskreta variablerna och kan beräknas för valfritt värde av r eller c. Men eftersom chi-kvadratvärden tenderar att öka med antalet celler, ju större skillnad mellan r och c, desto mer sannolikt kommer V att tendera till 1 utan starka bevis för en meningsfull korrelation.
Cramér ” s V kan också tillämpas på ”godhet av passform” chi-kvadratmodeller (dvs. de där c = 1). I det här fallet fungerar det som ett mått på tendensen mot ett enda resultat (dvs. av k-resultat). om man måste använda r för k för att bevara 0 till 1-intervallet av V. Annars skulle användning av c minska ekvationen till den för Phi.
Cohen’s wEdit
Ett annat mått på effektstorlek som används för chi-kvadratiska tester är Cohen’s w. Detta definieras som
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}
där p0i är värdet på ith-cellen under H0, p1i är värdet på ith-cellen under H1 och m är antalet celler.
Effektstorlek | w |
---|---|
Liten | 0,10 |
Medium | 0,30 |
Large | 0,50 |
Odds ratioEdit
Odds ratio (OR) är en annan användbar effektstorlek. Det är lämpligt när forskningsfrågan fokuserar på graden av samband mellan två binära variabler. Tänk till exempel på en studie av stavningsförmågan. I en kontrollgrupp passerar två elever klassen för alla som misslyckas, så oddsen för att klara är två till en (eller 2/1 = 2). I behandlingsgruppen passerar sex studenter för alla som misslyckas, så oddsen för att klara är sex till en (eller 6/1 = 6). Effektstorleken kan beräknas genom att notera att oddsen för att passera i behandlingsgruppen är tre gånger högre än i kontrollgruppen (eftersom 6 dividerat med 2 är 3). Oddskvoten är därför 3. Oddskvotstatistiken är i en annan skala än Cohen ”sd, så denna” 3 ”kan inte jämföras med en Cohen” sd på 3.
Relativ riskRedigera
Den relativa risken (RR), även kallad riskkvot, är helt enkelt risken (sannolikheten) för en händelse i förhållande till någon oberoende variabel. Detta mått på effektstorlek skiljer sig från oddskvoten genom att det jämför sannolikheter istället för odds, men närmar sig det senare för små sannolikheter asymptotiskt. Med hjälp av exemplet ovan är sannolikheten för de i kontrollgruppen och behandlingsgruppen som passerar 2/3 (eller 0,67) respektive 6/7 (eller 0,86). Effektstorleken kan beräknas på samma sätt som ovan, men använder sannolikheterna istället. Därför är den relativa risken 1,28. Eftersom ganska stora sannolikheter för passering användes är det stor skillnad mellan relativ risk och oddskvot. Om misslyckande (mindre sannolikhet) hade använts som händelse (snarare än att passera) skulle skillnaden mellan de två måtten på effektstorlek inte vara så stor.
Även om båda måtten är användbara, har de olika statistiska användningsområden. I medicinsk forskning används oddskvoten ofta för fallkontrollstudier, eftersom odds, men inte sannolikheter, vanligtvis uppskattas. Relativ risk används vanligtvis i randomiserade kontrollerade studier och kohortstudier, men relativ risk bidrar till överskattningar av interventionernas effektivitet.
RiskskillnadRedigera
Riskskillnaden (RD), ibland kallad absolut riskminskning, är helt enkelt skillnaden i risk (sannolikhet) för en händelse mellan två grupper. Det är ett användbart mått i experimentell forskning, eftersom RD berättar i vilken utsträckning en experimentell intervention förändrar sannolikheten för en händelse eller ett resultat.Med hjälp av exemplet ovan är sannolikheten för de i kontrollgruppen och behandlingsgruppen som passerar 2/3 (eller 0,67) respektive 6/7 (eller 0,86), varför RD-effektstorleken är 0,86 – 0,67 = 0,19 (eller 19%). RD är det överlägsna måttet för att bedöma effektiviteten av interventioner.
Cohen’s hEdit
Ett mått som används i effektanalys vid jämförelse två oberoende proportioner är Cohen ”s h. Detta definieras enligt följande
h = 2 (bågsin p 1 – bågsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
där p1 och p2 är andelarna av de två proverna som jämförs och arcsin är bågsyntransformationen.
Gemensam språkeffektstorlekEdit
För att lättare kunna beskriva betydelsen av en effektstorlek, för personer utanför statistik, utformades den gemensamma språkeffektstorleken, som namnet antyder, för att kommunicera den på vanlig engelska. Den används för att beskriva en skillnad mellan två grupper och föreslogs, liksom namngiven, av Kenneth McGraw och SP Wong 1992. De använde följande exempel (om höjder hos män och kvinnor): ”i alla slumpmässiga parningar av unga vuxna män och kvinnor, probabi mänsklighetens högre längd än kvinnan är .92, eller i enklare termer ännu, i 92 av 100 blinda datum bland unga vuxna kommer hanen att vara högre än kvinnan ”, när man beskriver befolkningsvärdet för den gemensamma språkeffekten storlek.
Befolkningsvärdet, för storleken på den gemensamma språkeffekten, rapporteras ofta så här, i termer av par som slumpmässigt har valts bland befolkningen. Kerby (2014) konstaterar att ett par, definierat som en poäng i en grupp ihop med en poäng i en annan grupp, är ett kärnkoncept för den vanliga språkeffektstorleken.
Som ett annat exempel, överväg en vetenskaplig studie (kanske av en behandling för någon kronisk sjukdom, såsom artrit) med tio personer i behandlingsgruppen och tio personer i en kontrollgrupp. Om alla i behandlingsgruppen jämförs med alla i kontrollgruppen, så finns det (10 × 10 =) 100 par. I slutet av studien klassificeras resultatet i en poäng för varje individ (till exempel på en skala av rörlighet och smärta, i fallet med en artritstudie), och sedan jämförs alla poäng mellan paren. Resultatet, som procentandelen par som stöder hypotesen, är den vanliga språkeffektstorleken. I exempelstudien kan det vara (låt oss säga) .80, om 80 av de 100 jämförelseparen visar ett bättre resultat för behandlingsgruppen än kontrollgruppen, och rapporten kan ha följande lydelse: ”När en patient i behandlingsgruppen jämfördes med en patient i kontrollgruppen, i 80 av 100 par visade den behandlade patienten ett bättre behandlingsresultat. ”Urvalsvärdet, i exempelvis en studie som denna, är en opartisk uppskattning av populationsvärdet.
Vargha och Delaney generaliserade den vanliga språkeffektstorleken (Vargha-Delaney A) för att täcka data på ordinalnivå.
Rank-biserial correlationEdit
En effektstorlek relaterad till den gemensamma språkeffektstorleken är rank-biserial korrelation. Denna åtgärd introducerades av Cureton som en effektstorlek för Mann – Whitney U-testet Det vill säga det finns två grupper och poängen för grupperna har konverterats till rangordningar beräknar den rangvisande korrelationen från den gemensamma språkeffektstorleken. Att låta f vara andelen par som är gynnsamma för hypotesen (den vanliga språkeffektstorleken), och att låta u vara andelen par som inte är gynnsamma, är den rangbisiella r den enkla skillnaden mellan de två proportionerna: r = f – u. Med andra ord är korrelationen skillnaden mellan den gemensamma språkeffektstorleken och dess komplement. Till exempel, om den vanliga språkeffektstorleken är 60%, är rank-biserial r lika med 60% minus 40%, eller r = 0,20. Kerby-formeln är riktad, med positiva värden som indikerar att resultaten stöder hypotesen.
En icke-riktad formel för rank-biseriell korrelation tillhandahölls av Wendt, så att korrelationen alltid är positiv. Fördelen med Wendt-formeln är att den kan beräknas med information som är lätt tillgänglig i publicerade artiklar. Formeln använder endast testvärdet för U från Mann-Whitney U-testet och provstorlekarna för de två grupperna: r = 1 – (2U) / (n1 n2). Observera att U definieras här enligt den klassiska definitionen som det minsta av de två U-värden som kan beräknas från data. Detta säkerställer att 2U < n1n2, eftersom n1n2 är U-statistikens maximala värde.
Ett exempel kan illustrera användningen av de två formlerna. Tänk på en hälsostudie av tjugo äldre vuxna, med tio i behandlingsgruppen och tio i kontrollgruppen; därför finns det tio gånger tio eller 100 par.Hälsoprogrammet använder kost, motion och kosttillskott för att förbättra minnet, och minnet mäts med ett standardiserat test. Ett Mann-Whitney U-test visar att vuxen i behandlingsgruppen hade bättre minne i 70 av de 100 paren och det sämre minnet i 30 par. Mann-Whitney U är den minsta av 70 och 30, så U = 30. Korrelationen mellan minne och behandlingsprestanda med Kerbys enkla skillnadsformel är r = (70/100) – (30/100) = 0,40. Korrelationen med Wendt-formeln är r = 1 – (2 · 30) / (10 · 10) = 0,40.
Effektstorlek för ordinarie data Redigera
Cliff’s delta eller d {\ displaystyle d}, ursprungligen utvecklad av Norman Cliff för användning med ordinarie data, är ett mått på hur ofta värdena i en distribution är större än värdena i en andra distribution. Avgörande, det kräver inga antaganden om formen eller spridning av de två fördelningarna.
Exempeluppskattningen d {\ displaystyle d} ges av:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} är linjärt relaterad till statistiken Mann – Whitney U, men fångar riktningen för skillnaden i dess tecken. Med tanke på Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} är:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}