Znanych jest około 50 do 100 różnych miar wielkości efektu. Wiele rozmiarów efektów różnych typów można przekonwertować na inne typy, ponieważ wiele z nich szacuje rozdzielenie dwóch rozkładów, więc są matematycznie powiązane. Na przykład współczynnik korelacji można przekształcić w współczynnik Cohena „sd i odwrotnie.
Rodzina korelacji: rozmiary efektów oparte na„ wyjaśnieniu wariancji ”. Edycja
Te wielkości efektów określają wielkość wariancji w ramach eksperymentu, która jest „wyjaśniona” lub „uwzględniona” przez model eksperymentu (zmienność wyjaśniona).
r Pearsona lub współczynnik korelacjiEdit
Korelacja Pearsona , często oznaczany r i wprowadzony przez Karla Pearsona, jest szeroko stosowany jako wielkość efektu, gdy dostępne są sparowane dane ilościowe; na przykład jeśli badano związek między masą urodzeniową a długowiecznością. Współczynnik korelacji można również stosować, gdy dane są binarne . Pearsona „sr może różnić się wielkością od -1 do 1, przy czym -1 oznacza doskonałą ujemną zależność liniową, 1 oznacza doskonałą dodatnią zależność liniową, a 0 oznacza brak liniowej zależności między dwiema zmiennymi. Cohen podaje następujące wskazówki dla nauk społecznych:
Wielkość efektu | r |
---|---|
Mały | 0,10 |
Średni | 0,30 |
Duży | 0,50 |
Współczynnik determinacji (r2 lub R2) Edytuj
Powiązana wielkość efektu to r2, współczynnik determinacji (nazywany również R2 lub „r-kwadrat”), obliczony jako kwadrat korelacji Pearsona r. W przypadku sparowanych danych jest to miara proporcji wariancji dzielonej przez dwie zmienne i waha się od 0 do 1. Na przykład, przy r równym 0,21 współczynnik determinacji wynosi 0,0441, co oznacza, że 4,4% wartości Wariancja jednej zmiennej jest wspólna z drugą zmienną. Wartość r2 jest zawsze dodatnia, więc nie przekazuje kierunku korelacji między dwiema zmiennymi.
Eta-kwadrat (η2) Edycja
Eta-kwadrat opisuje wyjaśniony stosunek wariancji w zmiennej zależnej przez predyktor, kontrolując inne predyktory, czyniąc ją analogiczną do r2. Eta-kwadrat jest obciążonym estymatorem wariancji wyjaśnionej przez model w populacji (szacuje tylko wielkość efektu w próbie). To oszacowanie ma taką samą słabość jak r2, że każda dodatkowa zmienna automatycznie zwiększy wartość η2. Ponadto mierzy wariancję wyjaśnioną dla próby, a nie populacji, co oznacza, że zawsze będzie przeszacowywać wielkość efektu, chociaż odchylenie zmniejsza się, gdy próbka rośnie.
η 2 = S S Leczenie S S Suma. {\ Displaystyle \ eta ^ {2} = {\ Frac {SS _ {\ tekst {Leczenie}}} {SS _ {\ tekst {Razem}}}}.}
Omega-kwadrat (ω2) Edytuj
Mniej obciążony estymatorem wariancji wyjaśnionej w populacji jest ω2
ω 2 = leczenie SS – leczenie df ⋅ błąd SM całkowity SS + błąd SM. {\ Displaystyle \ omega ^ {2} = {\ Frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ tekst {błąd}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
Ta forma formuły ogranicza się do analizy międzyosobniczej z równymi rozmiarami próbek we wszystkich komórkach. Ponieważ jest mniej obciążony (chociaż nie jest bezstronny), ω2 jest lepsze niż η2; jednakże obliczenia w przypadku złożonych analiz mogą być bardziej niewygodne. Uogólniona forma estymatora została opublikowana dla analizy między-podmiotowej i wewnątrz-podmiotowej, pomiarów powtarzanych, projektu mieszanego i eksperymentów z losowym planowaniem bloków. Ponadto opublikowano metody obliczania częściowego ω2 dla indywidualnych czynników i połączonych czynników w planach z maksymalnie trzema zmiennymi niezależnymi.
Cohen „s ƒ2Edit
Cohen” s ƒ2 to jeden kilku miar wielkości efektu do wykorzystania w kontekście testu F dla ANOVA lub regresji wielokrotnej. Jego wielkość odchylenia (przeszacowanie wielkości efektu dla ANOVA) zależy od obciążenia wynikającego z pomiaru wariancji wyjaśnionej (np. R2, η2, ω2).
Miara wielkości efektu ƒ2 dla regresji wielokrotnej jest zdefiniowana jako:
fa 2 = R 2 1 – R 2 {\ Displaystyle f ^ {2} = {R ^ {2} \ ponad 1-R ^ {2}}} gdzie R2 jest kwadratem wielokrotnej korelacji .
Podobnie, ƒ2 można zdefiniować jako:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ ponad 1- \ eta ^ {2} }} lub f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ ponad 1- \ omega ^ {2}}} dla modeli opisanych przez te miary wielkości efektu.
F 2 {\ Displaystyle f ^ {2}} miara wielkości efektu dla sekwencyjnej regresji wielokrotnej, a także wspólne dla modelowania PLS jest zdefiniowana jako:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ ponad 1-R_ {AB} ^ {2}}} gdzie R2A jest wariancją rozliczaną przez zbiór jedna lub więcej zmiennych niezależnych A, a R2AB to połączona wariancja uwzględniana przez A i inny zestaw jednej lub więcej niezależnych zmiennych będących przedmiotem zainteresowania B. Zgodnie z konwencją, ƒ2 wielkości efektu 0,1 2 {\ Displaystyle 0,1 ^ {2}}, 0,25 2 {\ Displaystyle 0,25 ^ {2}} i 0,4 2 {\ Displaystyle 0,4 ^ {2}} są określane odpowiednio jako małe, średnie i duże.
Cohena „sf ^ {\ displaystyle {\ hat {f}}} można również znaleźć dla analizy czynnikowej wariancji (ANOVA) działającej wstecz, używając:
f ^ efekt = (efekt F efekt df / N ). {\ Displaystyle {\ kapelusz {f}} _ {\ tekst {efekt}} = {\ sqrt {(F _ {\ tekst {efekt}} df _ {\ tekst {efekt}} / N)}}.}
W zrównoważonym projekcie (równoważne wielkości próbek w grupach) ANOVA, odpowiedni parametr populacji f 2 {\ Displaystyle f ^ {2}} to
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ Displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ kropki, \ mu _ {K})} \ ponad {K \ razy \ sigma ^ {2}}, }
gdzie μj oznacza średnią populację w j-tej grupie wszystkich K grup, a σ równoważne odchylenia standardowe populacji w każdej grupie. SS jest sumą kwadratów w ANOVA.
Cohena „s qEdit
Inną miarą używaną z różnicami korelacji jest q Cohena. Jest to różnica między dwoma współczynnikami regresji Pearsona przekształconymi przez Fishera. W symbolach jest to
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
gdzie r1 i r2 to porównywane regresje. Oczekiwana wartość q wynosi zero, a jego wariancja to
var (q) = 1 N 1-3 + 1 N 2-3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
gdzie N1 i N2 to liczba punktów danych odpowiednio w pierwszej i drugiej regresji.
Rodzina różnic: rozmiary efektów oparte na różnicach między średnimiEdytuj
Wykresy gęstości Gaussa ilustrujące różne wartości of Cohena „s d.
Wielkość efektu (populacji) θ oparta na średnich zwykle uwzględnia standaryzowaną średnią różnicę między dwiema populacjami: 78
θ = μ 1 – μ 2 σ, {\ Displaystyle \ theta = {\ Frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
gdzie μ1 jest średnią dla jednej populacji, μ2 to średnią dla innej populacji, a σ jest odchyleniem standardowym opartym na jednej lub obu populacjach.
W praktyce wartości populacji zazwyczaj nie są znane i muszą być oszacowane na podstawie statystyk próby. ns wielkości efektów opartych na średnich różni się w odniesieniu do stosowanych statystyk.
Ta postać wielkości efektu przypomina obliczenia dla statystyki testu t, z krytyczną różnicą, którą zawiera statystyka testu t współczynnik n {\ displaystyle {\ sqrt {n}}}. Oznacza to, że dla danej wielkości efektu poziom istotności rośnie wraz z wielkością próby. W przeciwieństwie do statystyki testu t, wielkość efektu ma na celu oszacowanie parametru populacji i nie ma na nią wpływu wielkość próby.
Cohen „sd Edit
Cohen” sd jest zdefiniowany jako różnica między dwoma średnimi podzielona przez odchylenie standardowe danych, tj.
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ Displaystyle d = {\ Frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ Frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen zdefiniował s, zebrane odchylenie standardowe, jako (dla dwóch niezależnych próbek) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ Displaystyle s = {\ sqrt {\ Frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2) } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
gdzie wariancja dla jednej z grup jest zdefiniowana jako
s 1 2 = 1 n 1-1 ∑ ja = 1 n 1 (x 1, ja – x ¯ 1) 2, {\ Displaystyle s_ {1} ^ {2} = {\ Frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
i podobnie dla pozostałych
Poniższa tabela zawiera deskryptory jasności od d = 0,01 do 2,0, zgodnie z początkową sugestią Cohena i rozwiniętą przez Sawilowsky’ego.
Rozmiar efektu | d | Referencja |
---|---|---|
Bardzo mały | 0,01 | |
Mały | 0,20 | |
Średni | 0,50 | |
Duży | 0,80 | |
Bardzo duży | 1,20 | |
Ogromny | 2.0 |
Inni autorzy wybierają nieco inne obliczenia odchylenia standardowego w odniesieniu do „Cohena” sd „, gdzie mianownik jest bez” -2 „: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ Frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Ta definicja „Cohena” sd jest nazywana przez Hedgesa i Olkina estymatorem największej wiarygodności i jest powiązana z Hedges „g przez współczynnik skalujący (patrz poniżej ).
W przypadku dwóch sparowanych próbek patrzymy na rozkład wyników różnicowych. W takim przypadku s jest odchyleniem standardowym tego rozkładu wyników różnicowych. Tworzy to następującą zależność między statystyką t aby zbadać różnicę w średnich dwóch grup i Cohena „sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ Frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
i
d = X ¯ 1 – X ¯ 2 SD = t N {\ Displaystyle d = {\ Frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ Frac {t} {\ sqrt {N}}}}
Cohen „sd jest często używany do szacowania wielkości próby do testów statystycznych. Niższy współczynnik Cohena „sd wskazuje na konieczność większych rozmiarów próbek i odwrotnie, co można następnie określić razem z dodatkowymi parametrami o pożądanym poziomie istotności i mocy statystycznej.
Szkło” ΔEdit
W 1976 roku Gene V. Glass zaproponował estymator wielkości efektu, który wykorzystuje tylko odchylenie standardowe drugiej grupy: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
Druga grupa może być traktowana jako grupa kontrolna, a Glass argumentował, że gdyby porównać kilka zabiegów z grupą kontrolną, lepiej byłoby zastosować tylko odchylenie standardowe obliczone z grupy kontrolnej, tak aby wielkość efektu nie różniła się przy równych średnich i różnych wariancjach.
Poniżej prawidłowe założenie równych wariancji populacji, zbiorcze oszacowanie dla σ jest dokładniejsze.
Hedges „gEdit
Hedges” g, zasugerowany przez Larry’ego Hedgesa w 1981 r., jest podobny do innych miar na znormalizowanym di fference: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ Displaystyle g = {\ Frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
gdzie zebrane odchylenie standardowe s ∗ {\ Displaystyle s ^ {*}} jest obliczane jako:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ Displaystyle s ^ {*} = {\ sqrt {\ Frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Jednak jako estymator wielkości efektu populacyjnego θ jest obciążony. Niemniej jednak to odchylenie można w przybliżeniu skorygować poprzez pomnożenie przez współczynnik
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ Displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ ok \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ Displaystyle J (a) = {\ Frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, efekt standaryzowany średniej kwadratowejEdit
Podobnym estymatorem wielkości efektu dla porównań wielokrotnych (np. ANOVA) jest standaryzowany efekt Ψ średniej kwadratowej. To zasadniczo przedstawia różnicę typu omnibus całego modelu skorygowaną o średnią kwadratową, analogiczną do d lub g. Najprostsza formuła dla Ψ, odpowiednia dla jednokierunkowej ANOVA, to
Ψ = 1 k – 1 ⋅ ∑ (x – j – X ¯) 2 błąd MS {\ Displaystyle \ Psi = {\ sqrt {{\ Frac) {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {error }}}}}}}
Dodatkowo zostało przedstawione uogólnienie dla planów wieloczynnikowych.
Rozkład wielkości efektu na podstawie średnichEdytuj
Z rozkładu wynika można obliczyć oczekiwanie i wariancję rozmiarów efektów.
W niektórych przypadkach stosuje się przybliżenia wielkiej próby dla wariancji. Jedna z propozycji wariancji nieobciążonego estymatora Hedgesa to: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ Displaystyle {\ kapelusz {\ sigma}} ^ {2} (g ^ {*}) = {\ Frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Other metricsEdit
Odległość Mahalanobisa (D) to wielowymiarowe uogólnienie Cohena „sd, które uwzględnia relacje między zmiennymi.
Rodzina kategorialna: rozmiary efektów dla asocjacji między zmiennymi kategorialnymiEdytuj
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ Displaystyle \ varphi _ {c} = {\ sqrt {\ Frac {\ chi ^ {2}} {N (k-1)}}}} |
Phi (φ) | Cramér „s V (φc) |
---|
Powszechnie stosowanymi miarami asocjacji w teście chi-kwadrat są współczynnik Phi i Cramér „s V (czasami określane jako Cramér” s phi i oznaczane jako φc) Phi jest powiązane ze współczynnikiem korelacji punktowo-dwuseryjnej i Cohena „sd i szacuje zakres związku między dwiema zmiennymi (2 × 2). V Craméra można stosować ze zmiennymi o więcej niż dwóch poziomach.
Phi można obliczyć, znajdując pierwiastek kwadratowy statystyki chi-kwadrat podzielonej przez wielkość próby.
Podobnie, V Craméra oblicza się, dzieląc pierwiastek kwadratowy statystyki chi kwadrat przez rozmiar próbki i długość minimalnego wymiaru (k jest mniejszą z liczby wierszy r lub kolumn c).
φc jest wzajemną korelacją dwóch zmiennych dyskretnych i można ją obliczyć dla dowolnej wartości r lub c. Jednak ponieważ wartości chi-kwadrat mają tendencję do zwiększania się wraz z liczbą komórek, im większa różnica między r i c, tym bardziej prawdopodobne jest, że V będzie miał tendencję do 1 bez silnych dowodów na znaczącą korelację.
Cramér ” S V można również zastosować do modeli „dobroci dopasowania” chi-kwadrat (tj. tych, w których c = 1). W tym przypadku funkcjonuje jako miara tendencji do pojedynczego wyniku (tj. z k wyników). przypadku należy użyć r dla k, aby zachować zakres od 0 do 1 V. W przeciwnym razie użycie c sprowadziłoby równanie do równania dla Phi.
WEdit Cohena
Inną miarą wielkości efektu używanej w testach chi-kwadrat jest Cohena „s w. Jest to zdefiniowane jako
w = ∑ ja = 1 m (p 1 ja – p 0 i) 2 p 0 ja {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}
gdzie p0i to wartość i-tej komórki w H0, p1i to wartość i-tej komórki pod H1, a m to liczba komórek.
Rozmiar efektu | w |
---|---|
Mały | 0,10 |
Średni | 0,30 |
Duży | 0,50 |
Iloraz szansEdytuj
Iloraz szans (OR) to kolejna użyteczna wielkość efektu. Jest to właściwe, gdy pytanie badawcze skupia się na stopniu powiązania między dwiema zmiennymi binarnymi. Na przykład rozważ badanie umiejętności ortograficznych. W grupie kontrolnej dwóch uczniów zdaje klasę za każdego, kto nie zda egzaminu, więc szanse na zdanie wynoszą dwa do jednego (lub 2/1 = 2). W grupie terapeutycznej sześciu uczniów zdaje za każdego, kto nie zda egzaminu, więc szansa na zdanie wynosi sześć do jednego (lub 6/1 = 6). Wielkość efektu można obliczyć, zauważając, że prawdopodobieństwo przejścia w grupie leczonej jest trzykrotnie wyższe niż w grupie kontrolnej (ponieważ 6 podzielone przez 2 daje 3). W związku z tym iloraz szans wynosi 3. Statystyki ilorazu szans są na innej skali niż „SD Cohena”, więc ta „3” nie jest porównywalna z Sd Cohena równą 3.
Względne ryzykoEdytuj
Ryzyko względne (RR), zwane także współczynnikiem ryzyka, to po prostu ryzyko (prawdopodobieństwo) zdarzenia w stosunku do pewnej zmiennej niezależnej. Ta miara wielkości efektu różni się od ilorazu szans tym, że porównuje prawdopodobieństwa zamiast szans, ale asymptotycznie podchodzi do tej ostatniej dla małych prawdopodobieństw. Korzystając z powyższego przykładu, prawdopodobieństwo dla osób z grupy kontrolnej i grupy badanej, które przeszły pomyślnie, wynosi odpowiednio 2/3 (lub 0,67) i 6/7 (lub 0,86). Wielkość efektu można obliczyć tak samo jak powyżej, ale zamiast tego przy użyciu prawdopodobieństw. Dlatego ryzyko względne wynosi 1,28. Ponieważ zastosowano raczej duże prawdopodobieństwo trafienia, istnieje duża różnica między ryzykiem względnym a ilorazem szans. Gdyby niepowodzenie (mniejsze prawdopodobieństwo) zostało użyte jako zdarzenie (zamiast przejścia), różnica między dwiema miarami wielkości efektu nie byłaby tak duża.
Chociaż obie miary są przydatne, mają różne statystyki używa. W badaniach medycznych iloraz szans jest powszechnie stosowany w badaniach kliniczno-kontrolnych, ponieważ zwykle szacuje się szanse, ale nie prawdopodobieństwa. Ryzyko względne jest powszechnie stosowane w badaniach z randomizacją i badaniach kohortowych, ale ryzyko względne przyczynia się do przeszacowania skuteczności interwencji.
Różnica ryzykaEdytuj
Różnica ryzyka (RD), czasami nazywana bezwzględna redukcja ryzyka to po prostu różnica w ryzyku (prawdopodobieństwie) zdarzenia między dwiema grupami. Jest to przydatna miara w badaniach eksperymentalnych, ponieważ rzadkie choroby wskazują, w jakim stopniu interwencja eksperymentalna zmienia prawdopodobieństwo zdarzenia lub wyniku.Korzystając z powyższego przykładu, prawdopodobieństwo dla osób z grupy kontrolnej i grupy badanej, które przeszły pomyślnie, wynosi odpowiednio 2/3 (lub 0,67) i 6/7 (lub 0,86), a więc wielkość efektu RD wynosi 0,86 – 0,67 = 0,19 (lub 19%). RD jest nadrzędną miarą oceny skuteczności interwencji.
HEdit Cohena
Jedna miara stosowana w analizie mocy przy porównywaniu dwie niezależne proporcje to Cohen „s h. Jest to zdefiniowane w następujący sposób
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
gdzie p1 i p2 to proporcje dwóch porównywanych próbek, a arcsin to transformacja arcus sinus.
Common Language effect sizeEdit
Aby łatwiej opisać znaczenie rozmiaru efektu osobom spoza statystyk, rozmiar efektu języka wspólnego, jak sama nazwa wskazuje, został zaprojektowany, aby przekazać go prostym językiem angielskim. Jest używany do opisania różnicy między dwiema grupami i został zaproponowany, a także nazwany przez Kennetha McGrawa i SP Wonga w 1992 roku. Posłużyli się następującym przykładem (dotyczącym wzrostu kobiet i mężczyzn): „w dowolnym losowym parowaniu młodych dorosłych samce i samice, probabi Jeśli mężczyzna jest wyższy od kobiety, wynosi 0,92, lub mówiąc prościej, w 92 na 100 randek w ciemno wśród młodych dorosłych mężczyzna będzie wyższy od kobiety ”, opisując wartość populacyjną efektu języka wspólnego rozmiar.
Wartość populacji, dla wielkości efektu języka wspólnego, jest często podawana w ten sposób, jako pary losowo wybrane z populacji. Kerby (2014) zauważa, że para, zdefiniowana jako wynik w jednej grupie w połączeniu z wynikiem w innej grupie, jest podstawową koncepcją wielkości efektu języka wspólnego.
Jako kolejny przykład rozważ badanie naukowe (być może leczenia jakiejś choroby przewlekłej, takiej jak zapalenie stawów) z dziesięcioma osobami w grupie leczonej i dziesięcioma osobami w grupie kontrolnej. Jeśli porównamy wszystkich w grupie leczonej ze wszystkimi w grupie kontrolnej, to jest (10 × 10 =) 100 par. Na koniec badania wynik jest oceniany jako punktacja dla każdej osoby (na przykład w skali mobilności i bólu, w przypadku badania zapalenia stawów), a następnie wszystkie wyniki są porównywane między parami. Wynik, jako procent par, które potwierdzają hipotezę, to wielkość efektu języka wspólnego. W przykładowym badaniu mogłoby to być (powiedzmy) 0,80, gdyby 80 ze 100 par porównawczych wykazało lepszy wynik dla grupy leczonej niż grupa kontrolna, a raport może brzmieć następująco: „Gdy pacjent w grupę leczoną porównano z pacjentem w grupie kontrolnej, w 80 na 100 par leczony pacjent wykazał lepszy wynik leczenia. ”Wartość próby, na przykład w takim badaniu, jest nieobciążonym oszacowaniem wartości populacji.
Vargha i Delaney uogólnili rozmiar efektu języka wspólnego (Vargha-Delaney A), aby objąć dane na poziomie porządkowym.
Korelacja dwuseryjna rangEdit
Wielkość efektu związana z wielkością efektu języka wspólnego to korelacja dwuseryjna rang. Miara ta została wprowadzona przez Curetona jako wielkość efektu dla testu U Manna – Whitneya Oznacza to, że istnieją dwie grupy, a wyniki dla grup zostały zamienione na rangi oblicza korelację dwuseryjną rang na podstawie wielkości efektu języka wspólnego. Gdy f będzie proporcją par korzystnych dla hipotezy (wielkość efektu języka wspólnego), a niech u będzie proporcją par niekorzystnych, rangowo-dwuseryjne r jest prostą różnicą między tymi dwoma proporcjami: r = f – u. Innymi słowy, korelacja jest różnicą między rozmiarem efektu języka wspólnego a jego uzupełnieniem. Na przykład, jeśli rozmiar efektu języka wspólnego wynosi 60%, rangowa dwuseryjna r wynosi 60% minus 40% lub r = 0,20. Formuła Kerby’ego jest kierunkowa, z dodatnimi wartościami wskazującymi, że wyniki potwierdzają hipotezę.
Bezkierunkowy wzór na korelację dwuseryjną rang został dostarczony przez Wendta, tak że korelacja jest zawsze dodatnia. Zaletą wzoru Wendta jest to, że można go obliczyć na podstawie informacji łatwo dostępnych w opublikowanych artykułach. W formule wykorzystano tylko testową wartość U z testu U Manna-Whitneya oraz wielkości próby z dwóch grup: r = 1 – (2U) / (n1 n2). Należy zauważyć, że U jest tutaj zdefiniowane zgodnie z klasyczną definicją jako mniejsza z dwóch wartości U, które można obliczyć na podstawie danych. Zapewnia to, że 2U < n1n2, ponieważ n1n2 to maksymalna wartość statystyki U.
Przykład może zilustrować użycie tych dwóch formuł. Rozważ badanie stanu zdrowia dwudziestu starszych osób dorosłych, w tym dziesięciu w grupie leczonej i dziesięciu w grupie kontrolnej; stąd jest dziesięć razy dziesięć lub 100 par.Program zdrowotny wykorzystuje dietę, ćwiczenia i suplementy w celu poprawy pamięci, a pamięć jest mierzona za pomocą standardowego testu. Test U Manna-Whitneya pokazuje, że osoba dorosła w grupie terapeutycznej miała lepszą pamięć w 70 ze 100 par, a gorszą w 30 parach. U Manna-Whitneya jest mniejsze z 70 i 30, więc U = 30. Korelacja między pamięcią a wynikami leczenia według prostego wzoru na różnicę Kerby’ego wynosi r = (70/100) – (30/100) = 0,40. Korelacja według wzoru Wendta to r = 1 – (2 · 30) / (10 · 10) = 0,40.
Wielkość efektu dla danych porządkowychEdytuj
Delta lub d Cliffa {\ displaystyle d}, pierwotnie opracowany przez Normana Cliffa do użytku z danymi porządkowymi, jest miarą tego, jak często wartości w jednym rozkładzie są większe niż wartości w drugim rozkładzie. Co najważniejsze, nie wymaga żadnych założeń dotyczących kształtu ani rozpiętość dwóch rozkładów.
Szacunkowa próbka d {\ Displaystyle d} jest określona wzorem:
d = ∑ ja, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} jest liniowo powiązany ze statystyką U Manna-Whitneya; jednak rejestruje kierunek różnicy w jej znaku. U {\ Displaystyle U}, d {\ Displaystyle d} to:
d = 2 U mn – 1 {\ Displaystyle d = {\ Frac {2U} {mn}} – 1}