Körülbelül 50-100 különböző effektusmérő ismert. Sok különböző típusú effektusméret konvertálható más típusúvá, mivel sokan két eloszlás elválasztását becsülik, így matematikailag összefüggenek egymással. Például egy korrelációs együtthatót átalakíthatunk Cohen “sd-be és fordítva.
Korrelációs család: A hatásméretek a” magyarázott variancia alapján “Szerkesztés
Ezek a hatásméretek becsülik egy kísérleten belüli variancia értéke, amelyet a kísérlet modellje “megmagyaráz” vagy “elszámol” (magyarázható variáció).
Pearson r vagy korrelációs együtthatóEdit
Pearson korrelációja , gyakran r-el jelölve, és Karl Pearson vezeti be, széles körben használják effektméretként, ha párosított kvantitatív adatok állnak rendelkezésre; például ha a születési súly és a hosszú élettartam kapcsolatát tanulmányozták. . Pearson “sr nagysága -1 és 1 között változhat, −1 tökéletes negatív lineáris relációt, 1 tökéletes pozitív lineáris relációt és 0 0 nem mutat két változó közötti lineáris kapcsolatot. Cohen a következő irányelveket adja a társadalomtudományok számára:
Hatásméret | r |
---|---|
Kicsi | 0,10 |
Közepes | 0,30 |
nagy | 0,50 |
Meghatározási együttható (r2 vagy R2) Szerkesztés
A kapcsolódó hatásméret r2, a determinációs együttható (amelyet R2-nek vagy „r-négyzetnek” is neveznek) kiszámítva mint a Pearson-korreláció négyzete r. Párosított adatok esetében ez a két változó által megosztott varianciaarány mértéke, és 0 és 1 között változik. Például 0,21 r értékkel a meghatározási együttható 0,0441, ami azt jelenti, hogy a bármelyik változó varianciája megoszlik a másik változóval. Az r2 mindig pozitív, ezért nem közvetíti a korreláció irányát a két változó között.
Eta-négyzet (η2) Edit
Az Eta-négyzet a megmagyarázott variancia arányát írja le. egy prediktor által a függő változóban, miközben más prediktorokat kontrollál, így az r2-vel analóg. Az Eta-négyzet a modell által megmagyarázott variancia torzított becslője a populációban (csak a minta hatásméretét becsüli meg). Ez a becslés osztja azt a gyengeséget az r2-vel, hogy minden további változó automatikusan növeli az η2 értékét. Ezenkívül a minta magyarázott varianciáját méri, nem pedig a populációt, vagyis mindig felül fogja becsülni a hatás nagyságát, bár az elfogultság kisebb lesz, ahogy a minta növekszik.
η 2 = S S Kezelés S S Összesen. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Kezelés}}} {SS _ {\ text {Összesen}}}}.}
Omega-négyzet (ω2) Szerkesztés
A populációban kifejtett variancia kevésbé elfogult becslője az ω2
ω 2 = SS kezelés – df kezelés ⋅ MS hiba SS összesen + MS hiba. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {hiba}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
A képlet ezen formája az alanyok közötti elemzésre korlátozódik, azonos mintanagysággal az összes sejtben. Mivel kevésbé elfogult (bár nem elfogulatlan), az ω2 előnyösebb, mint a η2; a komplex elemzéseknél azonban kényelmetlenebb kiszámítani. A becslés általánosított formája megjelent az alanyok közötti és az alanyokon belüli elemzés, ismételt mérés, vegyes tervezés és randomizált blokk-tervezési kísérletek számára. Ezenkívül közzétettek módszereket a részleges ω2 kiszámítására az egyes tényezőknél és a kombinált tényezőknél legfeljebb három független változóval rendelkező tervekben.
Cohen “ƒ2Edit
Cohen” ƒ2 egy az ANOVA vagy a többszörös regresszió F-tesztjének összefüggésében felhasználható számos hatásméret. Elfogultságának mértéke (az ANOVA hatásméretének túlbecsülése) az alapul szolgáló varianciamérés elfogultságától függ (pl. R2, η2, ω2).
A ƒ2 hatásméret többszörös regresszióhoz definíciója:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ 1-R ^ {2}}} felett, ahol R2 a négyzetes többszörös korreláció .
Hasonlóképpen, a ƒ2 meghatározható a következőképpen:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} vagy f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} azoknál a modelleknél, amelyeket az effektus méretmérők írnak le.
Az f 2 {\ displaystyle f ^ {2}} effektusméret a szekvenciális többszörös regresszióhoz és a PLS modellezéshez is általános:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ 1-R_ {AB} ^ {2}}} felett, ahol R2A az a variancia, amelyet egy sor egy vagy több független A változó, az R2AB pedig az A és az egy vagy több B érdeklődésre számot tartó független változó másik halmaza által elszámolt kombinált variancia. Megállapodás szerint effect2 hatásméret 0,1 2 {\ displaystyle 0.1 ^ {2}}, 0,25 2 {\ displaystyle 0,25 ^ {2}}, illetve 0,4 2 {\ displaystyle 0,4 ^ {2}} nevet kicsi, közepes és nagy.
Cohen “sf ^ {\ displaystyle {\ hat {f}}} megtalálható a tényleges varianciaanalízishez (ANOVA) is, amely visszafelé dolgozik, a következő használatával:
f ^ effect = (F effect df effect / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}
Az ANOVA kiegyensúlyozott kialakításában (egyenértékű mintaméretek csoportonként) az f 2 {\ displaystyle f ^ {2}} megfelelő populációs paramétere
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ pöttyök, \ mu _ {K})} \ felett {K \ szor \ sigma ^ {2}}, }
ahol μj a teljes K-csoport j-edik csoportján belüli populációs átlagot jelöli, és σ az ekvivalens populáció-szórás az egyes csoportokon belül. SS az ANOVA négyzetének összege.
Cohen “s qEdit
Egy másik korrelációs különbséggel használt intézkedés a Cohen “s q. Ez a különbség két Fisher által transzformált Pearson regressziós együttható között. Szimbólumokban ez
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
ahol r1 és r2 az összehasonlított regressziók. A q várható értéke nulla, és szórása
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operátor neve {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
ahol N1 és N2 az első és a második regresszió adatpontjainak száma.
Difference family: Hatásméretek a meanEdit közötti különbségek alapján Cohen d.
A (populáció) hatás nagysága means az átlagok alapján általában két populáció közötti standardizált átlagkülönbséget vesz figyelembe: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
ahol μ1 egy populáció átlaga, μ2 a másik populáció átlaga, és σ az egyik vagy mindkét populáción alapuló szórás.
A gyakorlati beállításban a populáció értékei általában nem ismertek, és a minta statisztikáiból kell megbecsülni őket. Az átlagok alapján mért effektméretek különböznek attól függően, hogy mely statisztikákat használják.
Ez a hatásméret-forma hasonlít egy t-teszt statisztika kiszámításához, azzal a kritikus különbséggel, amelyet a t-teszt statisztika tartalmaz n {\ displaystyle {\ sqrt {n}}} tényező. Ez azt jelenti, hogy egy adott effektméretnél a szignifikancia szint a minta méretével együtt növekszik. A t-teszt statisztikával ellentétben az effektus méretének célja egy populációs paraméter megbecsülése, és a minta mérete nem befolyásolja.
Cohen “sd Edit
Cohen” sd a következő: két átlag közötti különbség elosztva az adatok szórásával, azaz
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen meghatározta az s-t, az összesített szórást, mint (két független minta esetében) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
ahol az egyik csoport varianciája a következő:
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
és hasonlóan a másikhoz csoport.
Az alábbi táblázat a d = 0,01–2,0 nagyságrend leíróit tartalmazza, amint azt Cohen kezdetben javasolta és Sawilowsky bővítette.
Hatásméret | d | Referencia |
---|---|---|
Nagyon kicsi | 0,01 | |
kicsi | 0,20 | |
Közepes | 0,50 | |
Nagy | 0,80 | |
Nagyon nagy | 1.20 | |
Hatalmas | 2.0 |
Más szerzők kissé eltérő számítást választanak a szórás értéke, amikor a “Cohen” sd “kifejezésre hivatkozunk, ahol a nevező” -2 “nélkül van: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
A “Cohen” sd “definícióját Hedges és Olkin a maximális valószínűség becslőnek nevezi, és a Hedges” g-hez egy méretezési tényező kapcsolódik (lásd alább ).
Két párosított mintával megvizsgáljuk a különbségpontszámok eloszlását. Ebben az esetben s a különbségpontszámok ezen eloszlásának szórása. Ez a következő kapcsolatot hozza létre a t-statisztika között. tesztelni a két csoport és Cohen “sd átlagának különbségét:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
és
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
A Cohen “sd-t gyakran használják a mintaméretek becsléséhez statisztikai tesztelés céljából. Alacsonyabb Cohen “sd jelzi a nagyobb mintaméretek szükségességét, és fordítva, amit később a kívánt szignifikancia szint és statisztikai teljesítmény további paramétereivel együtt meghatározhatunk.
Üveg” ΔEdit
1976-ban Gene V. Glass olyan hatásmérő becslést javasolt, amely csak a második csoport szórását használja: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
A második csoport kontrollcsoportnak tekinthető, és Glass azzal érvelt, hogy ha több kezelést hasonlítanak össze a kontrollcsoporthoz, jobb lenne, ha csak a kontrollcsoporttól számított szórást használnánk, így a hatásméretek nem különböznek egymástól egyenlő átlagok és különböző eltérések mellett.
az egyenlő népességvariánsok helyes feltételezése, a σ összesített becslése pontosabb. szabványosított di-n távolság: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
ahol az s ∗ {\ displaystyle s ^ {*}} összesített szórását a következőképpen számolják:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Azonban a populációs hatás nagyságának becslőjeként torzított. Mindazonáltal ez az elfogultság megközelítőleg korrigálható szorzóval egy tényezővel
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ körülbelül \, \ balra (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ jobbra) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, a négyzet alapértelmezett standardizált effektusEdit
Hasonló hatásméret-becslő több összehasonlításhoz (pl. ANOVA) az Ψ alapértelmezett négyzet standardizált hatás. Ez lényegében a teljes modell összesítő különbségét mutatja a középérték négyzettel korrigálva, analóg módon d-vel vagy g-vel. A Ψ legegyszerűbb képlete, egyirányú ANOVA-hoz alkalmas:
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS hiba {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {hiba }}}}}}}
Ezenkívül általánosítást nyújtottak a többtényezős tervekhez.
Az effektusméretek megoszlása a meansEdit alapján
Az eloszlásból kiszámítható a hatásméretek várakozása és szórása.
Bizonyos esetekben a minta varianciájára nagy mintaszámításokat használnak. Az egyik javaslat a Hedges “elfogulatlan becslőjének varianciájára: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Egyéb mutatókEdit
A Mahalanobis távolság (D) egy a Cohen “sd többváltozós általánosítása, amely figyelembe veszi a változók közötti kapcsolatokat.
Kategóriás család: Hatásméretek a kategorikus változók közötti társításokhoz Szerkesztés
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}} |
Phi (φ) | Cramér “s V (φc) |
---|
A chi-négyzet tesztben általában alkalmazott asszociációs mérőszámok a Phi együttható és Cramér V (néha Cramér s phi néven emlegetik és φc jelöléssel) A Phi összefügg a pont-biseriális korrelációs együtthatóval és a Cohen “sd-vel, és megbecsüli a két változó (2 × 2) közötti kapcsolat mértékét. Cramér V-je kétnél több szintet tartalmazó változókkal használható.
A Phi kiszámítható a chi-négyzet statisztika négyzetgyökének megtalálásával, osztva a minta méretével.
Hasonlóképpen, Cramér ‘V-jét úgy számoljuk ki, hogy a khi-négyzet statisztika négyzetgyökét elosztjuk a minta méretével és a minimális dimenzió hosszúságával (k az kisebb az r vagy c oszlopok számából).
φc a két diszkrét változó összefüggése, és bármely r vagy c értékre kiszámítható. Mivel azonban a khi-négyzet értékei általában növekszenek a sejtek számával, annál nagyobb a különbség r és c között, annál valószínűbb, hogy V 1-re hajlik anélkül, hogy erős bizonyíték lenne az értelmes összefüggésre.
Cramér ” s V alkalmazható a “fit of goodness” khi-négyzet modellekre is (vagyis azokra, ahol c = 1). Ebben az esetben az egyetlen eredményre (azaz k kimenetelre) való hajlam mértékeként működik. esetben az r-t k-ra kell használni, hogy megőrizzük az V. 0-tól 1-ig terjedő tartományát. Ellenkező esetben a c használata csökkentené az egyenletet a Phi-re.
Cohen “s wEdit
A chi-négyzet teszteknél alkalmazott másik effektusméret Cohen “s w. Ezt a következőképpen határozzuk meg:
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}}
ahol p0i a H0 alatti i-es cella értéke, p1i a H1 alatti i-es cella értéke, m pedig a cellák száma.
Hatásméret | w |
---|---|
Kicsi | 0.10 |
Közepes | 0,30 |
Nagy | 0,50 |
Odds ratioEdit
Az odds ratio (OR) egy másik hasznos hatásméret. Akkor célszerű, ha a kutatási kérdés két bináris változó asszociációs fokára összpontosít. Vegyünk egy tanulmányt például a helyesírási képességről. Egy kontrollcsoportban két hallgató teljesíti az osztályt minden sikertelenért, így a továbbjutás esélye kettő az egyhez (vagy 2/1 = 2). A kezelési csoportban hat hallgató halad el minden sikertelenért, tehát a továbbjutás esélye hat az egyhez (vagy 6/1 = 6). A hatás nagyságát úgy lehet kiszámítani, hogy megjegyezzük, hogy a kezelési csoportban a továbbjutás esélye háromszor nagyobb, mint a kontroll csoportban (mert a 6 osztva 2-vel 3). Ezért az esélyek aránya 3. Az esélyhányados statisztikák más léptékűek, mint a Cohen “sd, tehát ez a” 3 “nem hasonlítható össze a 3-as Cohen” sd-vel.
Relative riskEdit
A relatív kockázat (RR), más néven kockázati arány, egyszerűen egy esemény kockázata (valószínűsége) valamilyen független változóhoz viszonyítva. Ez a hatásmérés abban különbözik az esélyhányadostól, hogy az esélyek helyett a valószínűségeket hasonlítja össze, de aszimptotikusan megközelíti az utóbbit kis valószínűségek esetén. A fenti példát felhasználva a kontrollcsoportban és a kezelési csoportban áthaladók valószínűsége 2/3 (vagy 0,67), illetve 6/7 (vagy 0,86). A hatás mérete kiszámítható a fentivel megegyezően, de a valószínűségeket használva. Ezért a relatív kockázat 1,28. Mivel elég nagy valószínűséggel alkalmazták a továbbjutást, nagy a különbség a relatív kockázat és az esélyhányados között. Ha sikertelenséget (kisebb valószínűséggel) alkalmaztak volna eseményként (ahelyett, hogy elmúlna), akkor a hatásméret két mértéke közötti különbség nem lenne olyan nagy.
Bár mindkét mérték hasznos, eltérő statisztikai adatokkal rendelkezik használ. Az orvosi kutatások során az esélykontrollt általában használják az eset-kontroll vizsgálatokhoz, mivel az esélyeket általában becsülik, de nem a valószínűségeket. A relatív kockázatot gyakran alkalmazzák randomizált, kontrollált vizsgálatokban és kohorsz vizsgálatokban, de a relatív kockázat hozzájárul a beavatkozások hatékonyságának túlbecsüléséhez.
KockázatkülönbségEdit
A kockázati különbség (RD), néha ún. az abszolút kockázatcsökkenés egyszerűen egy esemény kockázatának (valószínűségének) különbsége két csoport között. Hasznos intézkedés a kísérleti kutatásban, mivel az RD megmondja, hogy egy kísérleti beavatkozás mennyiben változtatja meg egy esemény vagy eredmény valószínűségét.A fenti példát felhasználva a kontrollcsoportban és a kezelési csoportban eljutók valószínűsége 2/3 (vagy 0,67), illetve 6/7 (vagy 0,86), tehát az RD hatás nagysága 0,86 – 0,67 = 0,19 (vagy 19%). Az RD a legfontosabb intézkedés a beavatkozások hatékonyságának értékelésében.
Cohen “hEdit
A teljesítményelemzés során használt egyik mérőszám összehasonlításakor két független arány Cohen “s h. Ezt a következőképpen határozzuk meg:
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}}
ahol p1 és p2 a két összehasonlított minta aránya, az arcsin pedig az arcsine transzformáció.
Közös nyelvű effektus méretEdit
Az effektusméret jelentésének könnyebb leírása érdekében a statisztikán kívüli emberek számára a köznyelvi effektus méretét, amint a neve is mutatja, úgy tervezték, hogy egyszerű angol nyelven kommunikálja. Két csoport közötti különbség leírására használják, és Kenneth McGraw és SP Wong javasolta és nevezte meg 1992-ben. A következő példát alkalmazták (a férfiak és a nők magasságáról): “a fiatal felnőttek bármilyen véletlenszerű párosításakor hím és nőstény, a probabi A nősténynél magasabb férfi súlya: 92, vagy egyszerűbben kifejezve, a fiatal felnőttek körében a 100 vak dátum közül 92-ben a férfi magasabb lesz, mint a nő “, amikor a köznyelv hatásának populációs értékét ismertetjük. méret.
A népesség értékét, a köznyelv hatásának nagyságára, gyakran így jelentik, a populációból véletlenszerűen kiválasztott párok tekintetében. Kerby (2014) megjegyzi, hogy egy pár, amelyet egy csoport pontszámaként definiálnak, párosítva egy másik csoport pontszámával, a közös nyelvi hatás méretének alapkoncepciója.
Másik példaként tekintsünk egy tudományos tanulmányt (talán valamilyen krónikus betegség, például ízületi gyulladás kezelésére) tíz emberrel a kezelési csoportban és tíz emberrel egy kontroll csoportban. Ha a kezelési csoportban mindenkit összehasonlítunk a kontrollcsoport mindenkivel, akkor (10 × 10 =) 100 pár van. A vizsgálat végén az eredményt pontszámokra osztják, egyénenként (például a mozgékonyság és a fájdalom skáláján, ízületi gyulladásos vizsgálat esetén), majd összehasonlítják az összes pontszámot a párok között. Az eredmény, mint a hipotézist alátámasztó párok százaléka, a köznyelv hatásának nagysága. A példa-tanulmányban ez lehet (mondjuk “s”) .80, ha a 100 összehasonlító pár közül 80 jobb eredményt mutat a kezelési csoport számára, mint a kontroll csoport, és a jelentés a következőképpen szólhat: “Amikor egy beteg a kezelt csoportot összehasonlítottuk a kontrollcsoport betegével, 100 párból 80-ban a kezelt beteg jobb kezelési eredményt mutatott. “A minta értéke, például egy ilyen tanulmányban, a populáció értékének elfogulatlan becslője.
Vargha és Delaney általánosították a közös nyelvi effektus méretét (Vargha-Delaney A), hogy lefedjék a sorszámadatokat.
Rank-biserial correlationEdit
A köznyelv hatásának nagyságához kapcsolódó hatásméret a rang-biserial korreláció. Ezt az intézkedést Cureton vezette be a Mann – Whitney U teszt hatásméreteként Ez azt jelenti, hogy két csoport van, és a csoportok pontszámait átszámították rangokká. A Kerby egyszerű különbség képlete kiszámítja a rang-biserialis korrelációt a köznyelv hatásának méretéből. Ha az f a hipotézishez kedvező párok aránya (a köznyelv hatásának nagysága), az u pedig a nem kedvező párok aránya, akkor az r rang-biserial az egyszerű különbség a két arány között: r = f – u. Más szavakkal, az összefüggés a köznyelvi hatásméret és annak kiegészítése közötti különbség. Például, ha a köznyelvhatás nagysága 60%, akkor a rang-biserial r értéke 60% mínusz 40%, vagy r = 0,20. A Kerby-képlet irányított, pozitív értékekkel jelezve, hogy az eredmények alátámasztják a hipotézist.
A rang-biserialis korreláció nem irányított képletét Wendt adta meg, így a korreláció mindig pozitív. A Wendt-formula előnye, hogy a publikált cikkekben könnyen elérhető információkkal kiszámítható. A képlet csak a Mann-Whitney U tesztből származó U tesztértékét és a két csoport mintaméretét használja: r = 1 – (2U) / (n1 n2). Megjegyezzük, hogy az U itt a klasszikus meghatározás szerint a két U érték közül a kisebbik, amely az adatokból kiszámolható. Ez biztosítja, hogy a 2U < n1n2, mivel az n1n2 az U statisztika maximális értéke.
Egy példa szemlélteti a két képlet használatát. Vegyünk egy húsz idősebb felnőtt egészségügyi vizsgálatát, tízen a kezelési csoportban és tíz a kontrollcsoportban; ezért tízszer tíz vagy 100 pár van.Az egészségügyi program az étrendet, a testmozgást és a kiegészítőket használja a memória javítására, a memóriát pedig szabványosított teszt méri. Egy Mann-Whitney U teszt azt mutatja, hogy a kezelt csoport felnőttjének a 100 párból 70-ben jobb a memóriája, 30 párban pedig a gyengébb memória. A Mann-Whitney U értéke kisebb, 70 és 30, tehát U = 30. A memória és a kezelési teljesítmény közötti korreláció a Kerby egyszerű különbség képletével r = (70/100) – (30/100) = 0,40. A Wendt-képlet korrelációja r = 1 – (2 · 30) / (10 · 10) = 0,40.
A sorszámadatok effektusméretEdit
Cliff delta vagy d A {\ displaystyle d}, amelyet eredetileg Norman Cliff fejlesztett ki sorszámadatokkal való használatra, annak a mértéke, hogy egy eloszlásban szereplő értékek milyen gyakran nagyobbak, mint a második eloszlás értékei. Fontos, hogy nem igényel semmilyen feltételezést az alak vagy A két eloszlás eloszlása.
A d {\ displaystyle d} minta becslést a következő adja:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} lineárisan kapcsolódik a Mann – Whitney U statisztikához, azonban a különbség irányát rögzíti előjelében. Tekintettel a Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d}:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}