Je známo přibližně 50 až 100 různých měr velikosti efektu. Mnoho velikostí efektů různých typů lze převést na jiné typy, protože mnoho odhaduje oddělení dvou distribucí, takže jsou matematicky příbuzné. Například lze korelační koeficient převést na Cohenův „sd a naopak.
Korelační rodina: velikosti efektů založené na„ vysvětleném rozptylu “Upravit
Tyto velikosti efektů odhadují částku rozptylu v experimentu, který je „vysvětlen“ nebo „za něj odpovídá“ model experimentu (vysvětlená variace).
Pearson r nebo korelační koeficientEdit
Pearsonova korelace , často označovaný r a zavedený Karlem Pearsonem, je široce používán jako velikost efektu, když jsou k dispozici spárované kvantitativní údaje; například pokud by někdo studoval vztah mezi porodní hmotností a životností. . Pearson „sr se může lišit o velikost od −1 do 1, přičemž −1 označuje perfektní záporný lineární vztah, 1 označuje perfektní kladný lineární vztah a 0 znamená žádný lineární vztah mezi dvěma proměnnými. Cohen poskytuje následující pokyny pro sociální vědy:
Velikost efektu | r |
---|---|
Malý | 0,10 |
Střední | 0,30 |
Velké | 0,50 |
Koeficient stanovení (r2 nebo R2) Upravit
Související velikost účinku je r2, koeficient determinace (označovaný také jako R2 nebo „r-na druhou“), vypočítaný jako čtverec Pearsonovy korelace r. V případě spárovaných dat se jedná o míru podílu rozptylu sdíleného oběma proměnnými a pohybuje se od 0 do 1. Například při r 0,21 je koeficient determinace 0,0441, což znamená, že 4,4% z varianta jedné proměnné je sdílena s druhou proměnnou. Hodnota r2 je vždy kladná, takže nevyjadřuje směr korelace mezi dvěma proměnnými.
Eta-kvadrát (η2) Upravit
Eta-kvadrát popisuje vysvětlený poměr rozptylu v závislé proměnné pomocí prediktoru při ovládání dalších prediktorů, což je analogické s r2. Eta-kvadrát je předpjatý odhad variance vysvětlené modelem v populaci (odhaduje pouze velikost efektu ve vzorku). Tento odhad sdílí slabost s r2, že každá další proměnná automaticky zvýší hodnotu η2. Kromě toho měří rozptyl vysvětlený vzorkem, nikoli populaci, což znamená, že vždy nadhodnocuje velikost efektu, i když se zkreslení s rostoucím vzorkem zmenšuje.
η 2 = S S Léčba S S Celkem. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Léčba}}} {SS _ {\ text {Celkem}}}}.}
Omega-na druhou (ω2) Upravit
Méně zaujatý odhad rozptylu vysvětlený v populaci je ω2
ω 2 = léčba SS – léčba df error MS chyba SS celkem + MS chyba. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
Tato forma vzorce je omezeno na analýzu mezi subjekty se stejnou velikostí vzorku ve všech buňkách. Protože je méně zaujatý (i když není nezaujatý), ω2 je vhodnější než η2; výpočet složitých analýz však může být nepohodlnější. Byla publikována zobecněná forma odhadce pro mezisubjektové a mezisubjektové analýzy, opakovaná měření, smíšený design a randomizované blokové experimenty. Kromě toho byly publikovány metody výpočtu parciálních ω2 pro jednotlivé faktory a kombinované faktory v designech až se třemi nezávislými proměnnými.
Cohen „s ƒ2Edit
Cohen“ s ƒ2 je jeden několika opatření velikosti účinku, která se mají použít v kontextu F-testu pro ANOVA nebo vícenásobnou regresi. Jeho velikost zkreslení (nadhodnocení velikosti efektu pro ANOVA) závisí na zkreslení jeho základního měření rozptylu vysvětleného (např. R2, η2, ω2).
Míra velikosti efektu ƒ2 pro vícenásobnou regresi je definováno jako:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ nad 1-R ^ {2}}} kde R2 je kvadratická vícenásobná korelace .
Podobně lze ƒ2 definovat jako:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ přes 1- \ eta ^ {2} }} nebo f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ nad 1- \ omega ^ {2}}} pro modely popsané těmito měřítky velikosti efektu.
Míra velikosti efektu f 2 {\ displaystyle f ^ {2}} pro sekvenční vícenásobnou regresi a také běžná pro modelování PLS je definována jako:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ nad 1-R_ {AB} ^ {2}}} kde R2A je rozptyl představovaný množinou jedna nebo více nezávislých proměnných A a R2AB je kombinovaná odchylka představovaná A a další množina jedné nebo více nezávislých sledovaných proměnných B. Podle konvence je velikost efektu effect2 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0,25 ^ {2}} a 0,4 2 {\ displaystyle 0,4 ^ {2}} jsou označovány jako malé, střední a velké.
Cohen „sf ^ {\ displaystyle {\ hat {f}}} lze také najít pro faktoriální analýzu rozptylu (ANOVA) pracující zpětně pomocí:
f ^ effect = (F efekt df efekt / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}}}}} p> Ve vyváženém designu (ekvivalentní velikosti vzorků napříč skupinami) ANOVA je odpovídající populační parametr f SS (μ 1, μ 2,…, μ K) f 2 {\ displaystyle f ^ {2}} K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ tečky, \ mu _ {K})} \ přes {K \ krát \ sigma ^ {2}}, }
přičemž μj označuje průměr populace v j-té skupině celkových skupin K a σ ekvivalentní standardní odchylky populace v každé skupině. SS je součet čtverců v ANOVA.
Cohen qEdit
Dalším měřítkem, které se používá s korelačními rozdíly, je Cohenovo q. To je rozdíl mezi dvěma Fisherovými transformovanými Pearsonovými regresními koeficienty. V symbolech to je
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
kde r1 a r2 jsou porovnávané regrese. Očekávaná hodnota q je nula a její rozptyl je
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
kde N1 a N2 jsou počet datových bodů v první a druhé regresi.
Rodina rozdílů: Velikost efektů založená na rozdílech mezi meansEdit
Pozemky gaussovské hustoty ilustrující různé hodnoty Cohenova d.
Velikost efektu (populace) θ na základě průměrů obvykle bere v úvahu standardizovaný průměrný rozdíl mezi dvěma populacemi: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
kde μ1 je průměr pro jednu populaci, μ2 je průměr pro druhou populaci a σ je směrodatná odchylka založená na jedné nebo obou populacích.
V praktickém nastavení nejsou hodnoty populace obvykle známy a musí být odhadnuty ze statistik vzorků. Několik verzí ns velikostí efektů založených na prostředcích se liší s ohledem na to, které statistiky se používají.
Tento formulář pro velikost efektu se podobá výpočtu pro statistiku t-testu, s kritickým rozdílem, který statistika t-testu zahrnuje faktor n {\ displaystyle {\ sqrt {n}}}. To znamená, že pro danou velikost efektu se úroveň významnosti zvyšuje s velikostí vzorku. Na rozdíl od statistiky t-testu má velikost efektu za cíl odhadnout populační parametr a není ovlivněna velikostí vzorku.
Cohen „sd Edit
Cohen“ sd je definován jako rozdíl mezi dvěma prostředky děleno standardní odchylkou pro data, tj.
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen definoval s, směrodatnou odchylku jako (pro dva nezávislé vzorky) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
kde je odchylka pro jednu ze skupin definována jako
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
a podobně pro ostatní skupina.
Následující tabulka obsahuje deskriptory pro velikosti d = 0,01 až 2,0, jak původně navrhl Cohen a rozšířil Sawilowsky.
Velikost efektu | d | Reference |
---|---|---|
Velmi malý | 0,01 | |
malý | 0,20 | |
Střední | 0,50 | |
Velké | 0,80 | |
Velmi velké | 1,20 | |
Obrovský | 2.0 |
Jiní autoři volí mírně odlišný výpočet směrodatné odchylky, když se odkazuje na „Cohen“ sd, kde je jmenovatel bez „-2“: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Tato definice „Cohenova“ sd se nazývá Hedges a Olkin odhadem maximální pravděpodobnosti a souvisí s Hedgesem „g faktorem změny měřítka (viz níže) ).
U dvou spárovaných vzorků se podíváme na rozdělení rozdílových skóre. V takovém případě je s směrodatná odchylka tohoto rozdělení rozdílových skóre. Tím se vytvoří následující vztah mezi t-statistikou otestovat rozdíl ve střední hodnotě obou skupin a Cohen „sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
a
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen „sd se často používá při odhadu velikosti vzorku pro statistické testování. Nižší Cohen „sd naznačuje nutnost větších velikostí vzorků a naopak, jak lze následně určit společně s dalšími parametry požadované úrovně významnosti a statistické síly.
Glass“ ΔEdit
V roce 1976 navrhl Gene V. Glass odhadce velikosti efektu, který používá pouze směrodatnou odchylku druhé skupiny: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
Druhá skupina může být považována za kontrolní skupinu a Glass tvrdil, že pokud by bylo porovnáno několik ošetření s kontrolní skupinou, bylo by lepší použít pouze směrodatnou odchylku vypočtenou z kontrolní skupiny, aby se velikost účinků nelišila při stejných prostředcích a různých odchylkách.
Under správný předpoklad stejných populačních odchylek je souhrnný odhad pro σ přesnější.
Hedges „gEdit
Hedges“ g, navržený Larry Hedgesem v roce 1981, je jako ostatní opatření založená na na standardizovaném di fference: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
, kde se sdružená standardní odchylka s ∗ {\ displaystyle s ^ {*}} počítá jako:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Jako odhad pro velikost efektu populace θ je však zkreslený. Toto zkreslení však lze přibližně korigovat vynásobením faktorem
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ Displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ přibližně \, \ vlevo (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ vpravo) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, standardizovaný efekt root-mean-squareEdit
Podobným odhadcem velikosti efektu pro více srovnání (např. ANOVA) je Ψ standardizovaný efekt root-mean-square. To v podstatě představuje souhrnný rozdíl celého modelu upraveného o odmocninu, analogickou k d nebo g. Nejjednodušší vzorec pro Ψ, vhodný pro jednosměrnou ANOVA, je
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS chyba {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {chyba }}}}}}}
Kromě toho byla poskytnuta generalizace vícefaktorových návrhů.
Distribuce velikostí efektů na základě meansEdit
Z distribuce je možné vypočítat očekávání a rozptyl velikostí efektů.
V některých případech se pro rozptyl používají velké vzorové aproximace. Jedním z návrhů pro rozptyl Hedgesova „nezaujatého odhadu je: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Další metrikyUpravit
Mahalanobisova vzdálenost (D) je vícerozměrná generalizace Cohenova sd, která bere v úvahu vztahy mezi proměnnými.
Kategorická rodina: velikosti efektů pro přidružení mezi kategorickými proměnnými Upravit
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}} |
Phi (φ) | Cramérův V (φc) |
---|
Běžně používanými měřítky asociace pro test chí-kvadrát jsou koeficient Phi a Cramérův V (někdy označovaný jako Cramérův phi a označovaný jako φc) . Phi souvisí s korelačním koeficientem bod-biseriál a Cohenovým sd a odhaduje rozsah vztahu mezi dvěma proměnnými (2 × 2). Cramérovo V lze použít s proměnnými, které mají více než dvě úrovně.
Phi lze vypočítat vyhledáním druhé odmocniny chí-kvadrát statistiky vydělené velikostí vzorku.
Podobně se Cramérovo V vypočítá pomocí druhé odmocniny chí-kvadrátové statistiky vydělené velikostí vzorku a délkou minimálního rozměru (k je menší z počtu řádků r nebo sloupců c).
φc je vzájemná korelace dvou diskrétních proměnných a lze ji vypočítat pro jakoukoli hodnotu r nebo c. Protože však hodnoty chí-kvadrát mají tendenci se zvyšovat s počtem buněk, čím větší je rozdíl mezi r a c, tím pravděpodobnější bude V mít tendenci k 1 bez silných důkazů o smysluplné korelaci.
Cramér “ s V lze také použít na chi-kvadrát modely „goodness of fit“ (tj. ty, kde c = 1). V tomto případě funguje jako měřítko tendence k jedinému výsledku (tj. z k výsledků). V takovém případ jeden musí použít r pro k, aby se zachoval rozsah 0 až 1 V. Jinak by použití c snížilo rovnici na rovnici pro Phi.
Cohenův wEdit
Další míra velikosti efektu použitá pro testy chí-kvadrát je Cohenova s. To je definováno jako
w = ∑ i = 1 m (p 1 já – p 0 i) 2 p 0 já {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}}
kde p0i je hodnota i-té buňky pod H0, p1i je hodnota i-té buňky pod H1 am je počet buněk.
Velikost efektu | w |
---|---|
Malý | 0,10 |
Střední | 0,30 |
Velký | 0,50 |
Odds ratioEdit
Poměr šancí (OR) je další užitečná velikost efektu. Je vhodné, když se výzkumná otázka zaměřuje na míru asociace mezi dvěma binárními proměnnými. Zvažte například studium pravopisné schopnosti. V kontrolní skupině dva studenti projdou třídou za každého, kdo neuspěje, takže šance na úspěšné absolvování jsou dva ku jednomu (nebo 2/1 = 2). V léčebné skupině šest studentů vyhovuje každému, kdo neuspěje, takže šance na úspěšné absolvování je šest ku jedné (nebo 6/1 = 6). Velikost účinku lze vypočítat konstatováním, že pravděpodobnost průchodu v léčené skupině je třikrát vyšší než v kontrolní skupině (protože 6 děleno 2 je 3). Proto je poměr šancí 3. Statistiky poměru šancí jsou v jiném měřítku než Cohen „sd, takže tato“ 3 „není srovnatelná s Cohen“ sd 3.
Relativní rizikoEdit
Relativní riziko (RR), nazývané také poměr rizik, je jednoduše riziko (pravděpodobnost) události ve vztahu k nějaké nezávislé proměnné. Tato míra velikosti efektu se liší od poměru šancí v tom, že porovnává pravděpodobnosti místo pravděpodobnosti, ale asymptoticky se k nim přibližuje pro malé pravděpodobnosti. Použitím výše uvedeného příkladu jsou pravděpodobnosti u pacientů v kontrolní skupině a u léčené skupiny 2/3 (nebo 0,67) a 6/7 (nebo 0,86). Velikost efektu lze vypočítat stejně jako výše, ale místo toho pomocí pravděpodobností. Relativní riziko je tedy 1,28. Jelikož byly použity poměrně velké pravděpodobnosti průchodu, existuje velký rozdíl mezi relativním rizikem a poměrem šancí. Pokud by bylo jako událost použito selhání (menší pravděpodobnost) (spíše než úspěšné), nebyl by rozdíl mezi těmito dvěma měřítky velikosti účinku tak velký.
I když jsou obě míry užitečné, mají odlišné statistické údaje používá. V lékařském výzkumu se poměr pravděpodobnosti běžně používá pro případové studie, protože pravděpodobnost, ale nikoli pravděpodobnost, se obvykle odhadují. Relativní riziko se běžně používá v randomizovaných kontrolovaných studiích a kohortních studiích, ale relativní riziko přispívá k nadhodnocení účinnosti intervencí.
Risk differenceEdit
Risk risk (RD), někdy nazývaný absolutní snížení rizika, je jednoduše rozdíl v riziku (pravděpodobnosti) události mezi dvěma skupinami. Je to užitečné opatření v experimentálním výzkumu, protože RD vám řekne, do jaké míry experimentální intervence mění pravděpodobnost události nebo výsledku.Na základě výše uvedeného příkladu jsou pravděpodobnosti u pacientů v kontrolní skupině a u léčené skupiny 2/3 (nebo 0,67), respektive 6/7 (nebo 0,86), takže velikost efektu RD je 0,86 – 0,67 = 0,19 (nebo 19%). RD je nadřazeným měřítkem pro hodnocení účinnosti intervencí.
Cohenův hEdit
Jedno opatření používané při analýze síly při porovnávání dvěma nezávislými proporcemi je Cohenův s. To je definováno takto.
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
kde p1 a p2 jsou proporce dvou porovnávaných vzorků a arcsin je arcsinová transformace.
Velikost efektu společného jazykaEdit
Pro snadnější popis významu velikosti efektu pro lidi mimo statistiku byla velikost efektu společného jazyka, jak název napovídá, navržena tak, aby jej komunikovala v jednoduché angličtině. Používá se k popisu rozdílu mezi dvěma skupinami a navrhli jej i pojmenovali Kenneth McGraw a SP Wong v roce 1992. Použili následující příklad (o výškách mužů a žen): „při jakémkoli náhodném párování mladých dospělých muži a ženy, probabi milost muže, který je vyšší než žena, je 0,92, nebo ještě jednodušeji, u 92 ze 100 slepých schůzek mezi mladými dospělými bude muž vyšší než žena “, když popisuje populační hodnotu efektu společného jazyka velikost.
Hodnota populace pro velikost efektu společného jazyka se často uvádí takto, pokud jde o páry náhodně vybrané z populace. Kerby (2014) poznamenává, že pár, definovaný jako skóre v jedné skupině spárované se skóre v jiné skupině, je základním konceptem velikosti efektu společného jazyka.
Jako další příklad zvažte vědeckou studii (možná léčba některých chronických onemocnění, jako je artritida) s deseti lidmi v léčené skupině a deseti lidmi v kontrolní skupině. Pokud jsou všichni v léčené skupině porovnáni se všemi v kontrolní skupině, pak existuje (10 × 10 =) 100 párů. Na konci studie je výsledek hodnocen do skóre pro každého jednotlivce (například na stupnici pohyblivosti a bolesti v případě studie artritidy) a poté jsou všechna skóre porovnána mezi páry. Výsledkem, jako procento párů, které podporují hypotézu, je velikost efektu společného jazyka. V příkladové studii by to mohlo být (řekněme) 0,80, pokud 80 ze 100 porovnávacích párů vykazuje lepší výsledek pro léčenou skupinu než kontrolní skupina, a zpráva může znít následovně: „Když pacient v léčená skupina byla porovnána s pacientem v kontrolní skupině, u 80 ze 100 párů vykazoval léčený pacient lepší výsledek léčby. “Hodnota vzorku, například v takové studii, je objektivním odhadem hodnoty populace.
Vargha a Delaney zobecnili velikost efektu společného jazyka (Vargha-Delaney A), aby pokryli data na řadové úrovni.
Rank-biserial correlationEdit
Velikost efektu související s velikostí efektu společného jazyka je korelace Rank-Biserial. Toto měřítko zavedl Cureton jako velikost efektu pro Mann – Whitney U test To znamená, že existují dvě skupiny a skóre pro skupiny byla převedena do řad. Kerbyův jednoduchý rozdílový vzorec vypočítá korelační a korelační korelaci z velikosti efektu společného jazyka. Necháme-li f být poměr párů příznivých pro hypotézu (velikost efektu společného jazyka), a necháme u být poměr párů nepříznivý, hodnostní biseriál r je prostý rozdíl mezi těmito dvěma poměry: r = f – u. Jinými slovy, korelace je rozdílem mezi velikostí efektu společného jazyka a jeho doplňkem. Například pokud je velikost efektu společného jazyka 60%, pak se r-biserial r rovná 60% minus 40%, nebo r = 0,20. Kerbyův vzorec je směrový, přičemž kladné hodnoty naznačují, že výsledky podporují hypotézu.
Wendt poskytl nesměrový vzorec pro korelační a korelační korelaci, takže korelace je vždy pozitivní. Výhodou Wendtova vzorce je, že jej lze vypočítat pomocí informací, které jsou snadno dostupné v publikovaných dokumentech. Vzorec používá pouze testovací hodnotu U z testu Mann-Whitney U a velikosti vzorku dvou skupin: r = 1 – (2U) / (n1 n2). Všimněte si, že U je zde definováno podle klasické definice jako menší ze dvou hodnot U, které lze vypočítat z dat. Tím je zajištěno, že 2U < n1n2, protože n1n2 je maximální hodnota statistik U.
Příklad může ilustrovat použití těchto dvou vzorců. Zvažte zdravotní studii dvaceti starších dospělých, z toho 10 v léčené skupině a deset v kontrolní skupině; proto je jich desetkrát deset nebo 100 párů.Program zdraví využívá ke zlepšení paměti dietu, cvičení a doplňky a paměť se měří standardizovaným testem. Test Mann-Whitney U ukazuje, že dospělý v léčené skupině měl lepší paměť u 70 ze 100 párů a horší paměť u 30 párů. Mann-Whitney U je menší ze 70 a 30, takže U = 30. Korelace mezi pamětí a výkonem léčby podle Kerbyho jednoduchého rozdílového vzorce je r = (70/100) – (30/100) = 0,40. Korelace podle Wendtova vzorce je r = 1 – (2,30) / (10,10) = 0,40.
Velikost efektu pro pořadová dataEdit
Cliffova delta nebo d {\ displaystyle d}, původně vyvinutý Normanem Cliffem pro použití s řadovými daty, je měřítkem toho, jak často jsou hodnoty v jedné distribuci větší než hodnoty ve druhé distribuci. Klíčové je, že nevyžaduje žádné předpoklady o tvaru nebo šíření obou distribucí.
Odhad vzorku d je dán vztahem:
d = ∑ já, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} lineárně souvisí se statistikou Mann – Whitney U; zachycuje však směr rozdílu v jejím znaménku. Vzhledem k Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} je:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}