Effectgrootte

Er zijn ongeveer 50 tot 100 verschillende maten van effectgrootte bekend. Veel effectgroottes van verschillende typen kunnen worden geconverteerd naar andere typen, aangezien velen de scheiding van twee verdelingen schatten, dus wiskundig gerelateerd zijn. Een correlatiecoëfficiënt kan bijvoorbeeld worden geconverteerd naar een Cohen “sd en vice versa.

Correlatiefamilie: effectgroottes gebaseerd op” variantie verklaard “Bewerken

Deze effectgroottes schatten de hoeveelheid van de variantie binnen een experiment dat wordt ‘verklaard’ of ‘verklaard’ door het model van het experiment (verklaarde variatie).

Pearson r of correlatiecoëfficiëntEdit

Pearson’s correlatie , vaak aangeduid met r en geïntroduceerd door Karl Pearson, wordt veel gebruikt als een effectgrootte wanneer gepaarde kwantitatieve gegevens beschikbaar zijn; bijvoorbeeld als men de relatie tussen geboortegewicht en levensduur bestudeert. De correlatiecoëfficiënt kan ook worden gebruikt als de gegevens binair zijn . Pearson “sr kan in grootte variëren van −1 tot 1, waarbij −1 een perfect negatief lineair verband aangeeft, 1 een perfect positief lineair verband aangeeft en 0 geen lineair verband aangeeft tussen twee variabelen. Cohen geeft de volgende richtlijnen voor de sociale wetenschappen:

Effectgrootte r
Klein 0,10
Gemiddeld 0,30
Groot 0,50
Bepalingscoëfficiënt (r2 of R2) Bewerken

Een gerelateerde effectgrootte is r2, de determinatiecoëfficiënt (ook wel R2 of “r-kwadraat” genoemd), berekend als het kwadraat van de Pearson-correlatie r. In het geval van gepaarde gegevens is dit een maat voor het aandeel van de variantie dat door de twee variabelen wordt gedeeld, en varieert van 0 tot 1. Met een r van 0,21 is de determinatiecoëfficiënt bijvoorbeeld 0,0441, wat betekent dat 4,4% van de variantie van beide variabelen wordt gedeeld met de andere variabele. De r2 is altijd positief, dus geeft niet de richting van de correlatie tussen de twee variabelen weer.

Eta-kwadraat (η2) Bewerken

Eta-kwadraat beschrijft de verklaarde variantie-ratio in de afhankelijke variabele door een voorspeller terwijl wordt gecontroleerd voor andere voorspellers, waardoor deze analoog is aan de r2. Eta-kwadraat is een vertekende schatter van de variantie verklaard door het model in de populatie (het schat alleen de effectgrootte in de steekproef). Deze schatting deelt de zwakte met r2 dat elke extra variabele automatisch de waarde van η2 zal verhogen. Bovendien meet het de variantie verklaard van de steekproef, niet de populatie, wat betekent dat het altijd de effectgrootte overschat, hoewel de vertekening kleiner wordt naarmate de steekproef groter wordt.

η 2 = S S Behandeling S S Totaal. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Behandeling}}} {SS _ {\ text {Totaal}}}}.}

Omega-kwadraat (ω2) Bewerken
Zie ook: Aangepaste R2

Een minder vertekende schatter van de variantie verklaard in de populatie is ω2

ω 2 = SS behandeling – df behandeling ⋅ MS fout SS totaal + MS fout. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {behandeling}} – df _ {\ text {behandeling}} \ cdot {\ text {MS}} _ {\ tekst {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}

Deze vorm van de formule is beperkt tot analyse tussen proefpersonen met gelijke steekproefomvang in alle cellen. Omdat het minder vertekend is (hoewel niet onbevooroordeeld), heeft ω2 de voorkeur boven η2; Voor complexe analyses kan het echter onhandiger zijn om te rekenen. Een gegeneraliseerde vorm van de schatter is gepubliceerd voor analyse tussen proefpersonen en binnen proefpersonen, herhaalde metingen, gemengd ontwerp en gerandomiseerde blokontwerpexperimenten. Daarnaast zijn er methoden gepubliceerd om partiële ω2 voor individuele factoren en gecombineerde factoren in ontwerpen met maximaal drie onafhankelijke variabelen te berekenen.

Cohen “s ƒ2Edit

Cohen” s ƒ2 is één van verschillende maatstaven voor effectgrootte om te gebruiken in de context van een F-test voor ANOVA of meervoudige regressie. De mate van bias (overschatting van de effectgrootte voor de ANOVA) hangt af van de bias van de onderliggende variantie-meting die wordt verklaard (bijv. R2, η2, ω2).

De ƒ2-effectgrootte voor meervoudige regressie wordt gedefinieerd als:

f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} waarbij R2 de gekwadrateerde meervoudige correlatie is .

Evenzo kan ƒ2 worden gedefinieerd als:

f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} of f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} voor modellen die worden beschreven door die effectgroottemetingen.

De f 2 {\ displaystyle f ^ {2}} maat voor de effectgrootte voor sequentiële meervoudige regressie en ook gebruikelijk voor PLS-modellering wordt gedefinieerd als:

f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} waarbij R2A de variantie is die wordt verklaard door een reeks een of meer onafhankelijke variabelen A, en R2AB is de gecombineerde variantie die wordt verklaard door A en een andere set van een of meer onafhankelijke variabelen van belang B. Volgens afspraak ƒ2 effectgroottes van 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0.25 ^ {2}} en 0.4 2 {\ displaystyle 0.4 ^ {2}} worden respectievelijk small, medium en large genoemd.

Cohen “sf ^ {\ displaystyle {\ hat {f}}} kan ook worden gevonden voor factoriële variantieanalyse (ANOVA) die achteruit werkt met:

f ^ effect = (F effect df effect / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}

In een uitgebalanceerd ontwerp (equivalente steekproefomvang in groepen) van ANOVA, is de overeenkomstige populatieparameter van f 2 {\ displaystyle f ^ {2}}

SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }

waarin μj het populatiegemiddelde aangeeft binnen de j-de groep van de totale K-groepen, en σ de equivalente standaarddeviaties van de populatie binnen elke groep. SS is de som van kwadraten in ANOVA.

Cohen “s qEdit

Een andere maat die wordt gebruikt bij correlatieverschillen is de q van Cohen. Dit is het verschil tussen twee door Fisher getransformeerde Pearson-regressiecoëfficiënten. In symbolen is dit

q = 1 2 log ⁡ 1 + r 1 1 – r 1-1 2 logboek ⁡ 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}

waarbij r1 en r2 de regressies zijn die worden vergeleken. De verwachte waarde van q is nul en de variantie ervan is

var ⁡ (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatornaam {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}

waarbij N1 en N2 het aantal gegevenspunten in respectievelijk de eerste en tweede regressie zijn.

Verschilfamilie: effectgroottes gebaseerd op verschillen tussen gemiddeldenEdit

Plots van Gaussiaanse dichtheden die verschillende waarden illustreren of Cohen’s d.

Een (populatie) effectgrootte θ op basis van gemiddelden houdt meestal rekening met het gestandaardiseerde gemiddelde verschil tussen twee populaties: 78

θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}

waarbij μ1 het gemiddelde is voor een populatie, μ2 is het gemiddelde voor de andere populatie, en σ is een standaarddeviatie op basis van een of beide populaties.

In de praktijk zijn de populatiewaarden doorgaans niet bekend en moeten ze worden geschat op basis van steekproefstatistieken. ns van effectgroottes op basis van gemiddelden verschillen met betrekking tot welke statistieken worden gebruikt.

Dit formulier voor de effectgrootte lijkt op de berekening voor een t-test-statistiek, met het kritische verschil dat de t-test-statistiek omvat een factor n {\ displaystyle {\ sqrt {n}}}. Dit betekent dat voor een gegeven effectgrootte het significantieniveau toeneemt met de steekproefomvang. In tegenstelling tot de t-test-statistiek, is de effectgrootte bedoeld om een populatieparameter te schatten en wordt deze niet beïnvloed door de steekproefomvang.

Cohen “sd Edit

Cohen” sd wordt gedefinieerd als de verschil tussen twee gemiddelden gedeeld door een standaarddeviatie voor de gegevens, dwz

d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}

Jacob Cohen definieerde s, de gepoolde standaarddeviatie, als (voor twee onafhankelijke steekproeven) :: 67

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}

waarbij de variantie voor een van de groepen is gedefinieerd als

s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}

en vergelijkbaar voor de andere groep.

De onderstaande tabel bevat descriptoren voor magnitudes van d = 0,01 tot 2,0, zoals aanvankelijk voorgesteld door Cohen en uitgebreid door Sawilowsky.

Effectgrootte d Referentie
Zeer klein 0,01
Klein 0,20
Gemiddeld 0,50
Groot 0,80
Zeer groot 1,20
Enorm 2.0

Andere auteurs kiezen voor een iets andere berekening van de standaarddeviatie wanneer wordt verwezen naar “Cohen” sd “waarbij de noemer geen” -2 “is: 14

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}

Deze definitie van “Cohen” sd “wordt door Hedges en Olkin de maximale waarschijnlijkheidsschatter genoemd, en is gerelateerd aan Hedges” g door een schaalfactor (zie hieronder ).

Met twee gepaarde steekproeven kijken we naar de verdeling van de verschilscores. In dat geval is s de standaarddeviatie van deze verdeling van verschilscores. Hierdoor ontstaat de volgende relatie tussen de t-statistiek om te testen op een verschil in de gemiddelden van de twee groepen en Cohen “sd:

t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ balk {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}

en

d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}

Cohen “sd wordt vaak gebruikt bij het schatten van steekproefomvang voor statistische toetsing. Een lagere Cohen “sd geeft de noodzaak aan van grotere steekproeven, en vice versa, zoals vervolgens kan worden bepaald samen met de aanvullende parameters van het gewenste significantieniveau en statistisch vermogen.

Glass” ΔEdit

In 1976 stelde Gene V. Glass een schatter voor van de effectgrootte die alleen de standaarddeviatie van de tweede groep gebruikt: 78

Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}

De tweede groep kan worden beschouwd als een controlegroep, en Glass voerde aan dat als meerdere behandelingen werden vergeleken met de controlegroep, het beter zou zijn om alleen de standaarddeviatie te gebruiken die is berekend op basis van de controlegroep, zodat de effectgroottes niet zouden verschillen onder gelijke gemiddelden en verschillende varianties.

Onder een correcte aanname van gelijke populatievarianties een gepoolde schatting voor σ is nauwkeuriger.

Hedges “gEdit

Hedges” g, voorgesteld door Larry Hedges in 1981, is net als de andere metingen gebaseerd op een gestandaardiseerde di fference: 79

g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}

waarbij de gepoolde standaarddeviatie s ∗ {\ displaystyle s ^ {*}} wordt berekend als:

s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}

Als schatter voor de populatie-effectgrootte θ is het echter vertekend. Desalniettemin kan deze vertekening bij benadering worden gecorrigeerd door vermenigvuldiging met een factor

g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}

Ψ, wortel-gemiddelde-kwadraat gestandaardiseerd effectEdit

Een vergelijkbare effectgrootteschatter voor meerdere vergelijkingen (bijv. ANOVA) is het Ψ wortel-gemiddelde-kwadraat gestandaardiseerde effect. Dit geeft in wezen het omnibusverschil van het gehele model weer, aangepast door het gemiddelde kwadraat, analoog aan d of g. De eenvoudigste formule voor Ψ, geschikt voor eenrichtings-ANOVA, is

Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS-fout {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {error }}}}}}}

Daarnaast is er een generalisatie voor multifactoriële ontwerpen voorzien.

Verdeling van effectgroottes op basis van gemiddeldenEdit

Vanuit de verdeling is het mogelijk om de verwachting en variantie van de effectgroottes te berekenen.

In sommige gevallen worden grote steekproefbenaderingen voor de variantie gebruikt. Een suggestie voor de variantie van de zuivere schatter van Hedges is: 86

σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}

Andere statistieken Bewerken

Mahalanobis-afstand (D) is een multivariate generalisatie van Cohen “sd, waarbij rekening wordt gehouden met de relaties tussen de variabelen.

Categorische familie: effectgrootten voor associaties tussen categorische variabelen Bewerken

φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}}

φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}

Phi (φ) Cramér “s V (φc)

Veelgebruikte associatiematen voor de chi-kwadraat-test zijn de Phi-coëfficiënt en Cramér “s V (soms aangeduid als Cramér” s phi en aangeduid als φc) Phi is gerelateerd aan de punt-biseriële correlatiecoëfficiënt en Cohen “sd en schat de omvang van de relatie tussen twee variabelen (2 × 2). De V van Cramér kan worden gebruikt met variabelen met meer dan twee niveaus.

Phi kan worden berekend door de vierkantswortel van de chikwadraatstatistiek te vinden gedeeld door de steekproefomvang.

Evenzo wordt de V van Cramér berekend door de vierkantswortel van de chikwadraatstatistiek te delen door de steekproefomvang en de lengte van de minimumafmeting (k is de kleinste van het aantal rijen r of kolommen c).

φc is de onderlinge correlatie van de twee discrete variabelen en kan worden berekend voor elke waarde van r of c. Echter, aangezien chikwadraatwaarden de neiging hebben om toe te nemen met het aantal cellen, hoe groter het verschil tussen r en c, hoe groter de kans dat V naar 1 neigt zonder sterk bewijs van een zinvolle correlatie.

Cramér ” s V kan ook worden toegepast op “goodness of fit” chikwadraatmodellen (dwz modellen waarbij c = 1). In dit geval functioneert het als een maatstaf voor de neiging tot een enkele uitkomst (dwz uit k uitkomsten). in het geval dat men r moet gebruiken voor k, om het bereik van 0 tot 1 van V te behouden. Anders zou het gebruik van c de vergelijking terugbrengen tot die voor Phi.

Cohen’s wEdit

Een andere maatstaf voor de effectgrootte die wordt gebruikt voor chikwadraat-tests is Cohen “s w. Dit wordt gedefinieerd als

w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}

waarbij p0i de waarde is van de ie cel onder H0, p1i de waarde is van de ie cel onder H1 en m het aantal cellen is.

Effectgrootte w
Klein 0,10
Gemiddeld 0.30
Groot 0.50

Odds ratioEdit

De odds ratio (OR) is een andere bruikbare effectgrootte. Het is passend wanneer de onderzoeksvraag zich richt op de mate van associatie tussen twee binaire variabelen. Overweeg bijvoorbeeld een onderzoek naar spellingsvermogen. In een controlegroep slagen twee studenten voor elke klas die niet slaagt, dus de kans om te slagen is twee tegen één (of 2/1 = 2). In de behandelgroep slagen zes studenten voor iedereen die faalt, dus de kans om te slagen is zes op één (of 6/1 = 6). De effectgrootte kan worden berekend door op te merken dat de kans om te slagen in de behandelde groep drie keer zo hoog is als in de controlegroep (omdat 6 gedeeld door 2 3 is). Daarom is de odds ratio 3. De odds ratio-statistieken zijn op een andere schaal dan Cohen “sd, dus deze” 3 “is niet vergelijkbaar met een Cohen” sd van 3.

Relative riskEdit

Het relatieve risico (RR), ook wel risicoverhouding genoemd, is simpelweg het risico (waarschijnlijkheid) van een gebeurtenis ten opzichte van een onafhankelijke variabele. Deze maat voor effectgrootte verschilt van de odds ratio doordat het kansen vergelijkt in plaats van odds, maar benadert de laatste asymptotisch voor kleine waarschijnlijkheden. Als we het bovenstaande voorbeeld gebruiken, is de kans op slagen voor degenen in de controlegroep en de behandelgroep respectievelijk 2/3 (of 0,67) en 6/7 (of 0,86). De effectgrootte kan op dezelfde manier worden berekend als hierboven, maar met behulp van de waarschijnlijkheden. Daarom is het relatieve risico 1,28. Omdat er gebruik is gemaakt van vrij grote kansen op overlijden, is er een groot verschil tussen de relatieve risico- en oddsratio. Als falen (een kleinere kans) als gebeurtenis was gebruikt (in plaats van voorbij), zou het verschil tussen de twee maten van effectgrootte niet zo groot zijn.

Hoewel beide maten nuttig zijn, hebben ze verschillende statistische toepassingen. In medisch onderzoek wordt de odds ratio vaak gebruikt voor case-control studies, aangezien odds, maar niet waarschijnlijkheden, meestal worden geschat. Relatief risico wordt vaak gebruikt in gerandomiseerde gecontroleerde studies en cohortstudies, maar relatief risico draagt bij aan overschatting van de effectiviteit van interventies.

Risico-verschilEdit

Het risico-verschil (RD), ook wel absolute risicoreductie, is simpelweg het verschil in risico (waarschijnlijkheid) van een gebeurtenis tussen twee groepen. Het is een nuttige maat bij experimenteel onderzoek, aangezien RD je vertelt in hoeverre een experimentele interventie de kans op een gebeurtenis of uitkomst verandert.Als we het bovenstaande voorbeeld gebruiken, is de kans op slagen voor degenen in de controlegroep en de behandelgroep respectievelijk 2/3 (of 0,67) en 6/7 (of 0,86), en dus is de RD-effectgrootte 0,86 – 0,67 = 0,19 (of 19%). RD is de superieure maatstaf voor het beoordelen van de effectiviteit van interventies.

Cohen “s hEdit

Hoofdartikel: Cohen” sh

Een maat die wordt gebruikt bij vermogensanalyse bij het vergelijken twee onafhankelijke verhoudingen is Cohen “s h. Dit wordt als volgt gedefinieerd

h = 2 (arcsin ⁡ p 1 – arcsin ⁡ p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}

waarbij p1 en p2 de verhoudingen zijn van de twee monsters die worden vergeleken en arcsin de arcsinus-transformatie is.

Common language effect sizeEdit

Om de betekenis van een effect size gemakkelijker te beschrijven voor mensen buiten de statistieken, werd de common language effect size, zoals de naam al aangeeft, ontworpen om het in gewoon Engels te communiceren. Het wordt gebruikt om een verschil tussen twee groepen te beschrijven en werd in 1992 voorgesteld en genoemd door Kenneth McGraw en SP Wong. Ze gebruikten het volgende voorbeeld (over de lengte van mannen en vrouwen): “in een willekeurige combinatie van jonge volwassenen mannetjes en vrouwtjes, de probabi liteit van het mannetje dat groter is dan het vrouwtje is 0,92, of in eenvoudiger bewoordingen nog, in 92 van de 100 blind dates onder jongvolwassenen, zal het mannetje groter zijn dan het vrouwtje “, bij het beschrijven van de populatiewaarde van het gemeenschappelijke taaleffect grootte.

De populatiewaarde, voor de algemene taaleffectgrootte, wordt vaak als volgt gerapporteerd, in termen van willekeurig gekozen paren uit de populatie. Kerby (2014) merkt op dat een paar, gedefinieerd als een score in de ene groep gecombineerd met een score in een andere groep, een kernconcept is van de algemene taaleffectgrootte.

Als een ander voorbeeld, beschouw een wetenschappelijke studie (misschien een behandeling voor een chronische ziekte, zoals artritis) met tien mensen in de behandelgroep en tien mensen in een controlegroep. Als iedereen in de behandelgroep wordt vergeleken met iedereen in de controlegroep, dan zijn er (10 × 10 =) 100 paren. Aan het einde van het onderzoek wordt de uitkomst beoordeeld in een score, voor elk individu (bijvoorbeeld op een schaal van mobiliteit en pijn, in het geval van een artritisonderzoek), en vervolgens worden alle scores tussen de paren vergeleken. Het resultaat, als het percentage paren dat de hypothese ondersteunt, is de grootte van het algemene taaleffect. In de voorbeeldstudie zou het (laten we zeggen) .80 kunnen zijn, als 80 van de 100 vergelijkingsparen een beter resultaat laten zien voor de behandelde groep dan de controlegroep, en het rapport zou als volgt kunnen luiden: “Wanneer een patiënt in de behandelde groep werd vergeleken met een patiënt in de controlegroep, in 80 van de 100 paren liet de behandelde patiënt een beter behandelresultaat zien. “De steekproefwaarde, in bijvoorbeeld een onderzoek als deze, is een zuivere schatter van de populatiewaarde.

Vargha en Delaney hebben de algemene taaleffectgrootte (Vargha-Delaney A) gegeneraliseerd om gegevens op ordinaal niveau te dekken.

Rang-biseriële correlatie Bewerken

Hoofdartikel: Mann –Whitney U-test § Rang-biseriële correlatie

Een effectgrootte gerelateerd aan de algemene taaleffectgrootte is de rang-biseriële correlatie. Deze maat werd door Cureton geïntroduceerd als een effectgrootte voor de Mann-Whitney U-test Dat wil zeggen, er zijn twee groepen en de scores voor de groepen zijn omgezet in rangen De Kerby-formule voor eenvoudig verschil berekent de rang-biseriële correlatie uit de algemene taaleffectgrootte. Als f het aandeel van paren is dat gunstig is voor de hypothese (de grootte van het gemeenschappelijke taaleffect), en als u het aandeel van paren is dat niet gunstig is, is de rang-biseriële r het simpele verschil tussen de twee verhoudingen: r = f – u. Met andere woorden, de correlatie is het verschil tussen de grootte van het algemene taaleffect en het complement ervan. Als de grootte van het gewone taaleffect bijvoorbeeld 60% is, is de rang-biseriële r gelijk aan 60% min 40%, of r = 0,20. De Kerby-formule is directioneel, met positieve waarden die aangeven dat de resultaten de hypothese ondersteunen.

Een niet-directionele formule voor de rang-biseriële correlatie werd geleverd door Wendt, zodat de correlatie altijd positief is. Het voordeel van de Wendt-formule is dat deze kan worden berekend met informatie die direct beschikbaar is in gepubliceerde artikelen. De formule gebruikt alleen de testwaarde van U uit de Mann-Whitney U-test en de steekproefomvang van de twee groepen: r = 1 – (2U) / (n1 n2). Merk op dat U hier volgens de klassieke definitie wordt gedefinieerd als de kleinste van de twee U-waarden die uit de gegevens kunnen worden berekend. Dit zorgt ervoor dat 2U < n1n2, aangezien n1n2 de maximale waarde is van de U-statistieken.

Een voorbeeld kan het gebruik van de twee formules illustreren. Beschouw een gezondheidsonderzoek onder twintig oudere volwassenen, met tien in de behandelde groep en tien in de controlegroep; daarom zijn er tien keer tien of 100 paren.Het gezondheidsprogramma maakt gebruik van voeding, lichaamsbeweging en supplementen om het geheugen te verbeteren, en het geheugen wordt gemeten met een gestandaardiseerde test. Een Mann-Whitney U-test laat zien dat de volwassene in de behandelde groep het betere geheugen had in 70 van de 100 paren en het slechtere geheugen in 30 paren. De Mann-Whitney U is de kleinste van 70 en 30, dus U = 30. De correlatie tussen geheugen en behandelingsprestaties door de eenvoudige verschilformule van Kerby is r = (70/100) – (30/100) = 0,40. De correlatie door de Wendt-formule is r = 1 – (2 · 30) / (10 · 10) = 0,40.

Effectgrootte voor ordinale dataEdit

Cliff’s delta of d {\ displaystyle d}, oorspronkelijk ontwikkeld door Norman Cliff voor gebruik met ordinale gegevens, is een maatstaf voor hoe vaak de waarden in één distributie groter zijn dan de waarden in een tweede distributie. Cruciaal is dat er geen aannames over de vorm of spreiding van de twee verdelingen.

De steekproefschatting d {\ displaystyle d} wordt gegeven door:

d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}

d {\ displaystyle d} is lineair gerelateerd aan de Mann-Whitney U-statistiek, maar het geeft de richting van het verschil in zijn teken weer. Gezien de Mann-Whitney U {\ displaystyle U}, d {\ displaystyle d} is:

d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}

Write a Comment

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *