효과 크기

효과 크기에 대한 약 50 ~ 100 가지 측정 값이 알려져 있습니다. 많은 사람들이 두 분포의 분리를 추정하므로 다른 유형의 많은 효과 크기를 다른 유형으로 변환 할 수 있으므로 수학적으로 관련됩니다. 예를 들어, 상관 계수는 Cohen’sd로 변환하거나 그 반대로 변환 할 수 있습니다.

상관 관계 군 : “분산 설명”에 따른 효과 크기 편집

이러한 효과 크기는 양을 추정합니다. 실험 모델에 의해 “설명 된”또는 “설명 된”실험 내 분산 (변동 설명)

Pearson r 또는 상관 계수 편집

Pearson “의 상관 관계 종종 r로 표시되고 Karl Pearson이 소개 한 짝을 이룬 정량적 데이터가있을 때 효과 크기로 널리 사용됩니다 (예 : 출생 체중과 수명 간의 관계를 연구하는 경우). 상관 계수는 데이터가 이진일 때도 사용할 수 있습니다. Pearson “sr은 -1에서 1까지 크기가 다양 할 수 있으며 -1은 완벽한 음의 선형 관계를 나타내고 1은 완벽한 양의 선형 관계를 나타내며 0은 두 변수 간의 선형 관계가 없음을 나타냅니다. Cohen은 사회 과학에 대한 다음 지침을 제공합니다.

효과 크기 r
소형 0.10
중간 0.30
대형 0.50
결정 계수 (r2 또는 R2) 편집

관련 효과 크기는 r2, 결정 계수 (R2 또는 “r-squared”라고도 함), 계산 됨 Pearson 상관 관계 r의 제곱으로. 쌍을 이룬 데이터의 경우 두 변수가 공유하는 분산 비율의 측도이며 0에서 1까지 다양합니다. 예를 들어, r이 0.21 인 경우 결정 계수는 0.0441입니다. 두 변수의 분산은 다른 변수와 공유됩니다. r2는 항상 양수이므로 두 변수 간의 상관 방향을 전달하지 않습니다.

Eta-squared (η2) Edit

Eta-squared는 설명 된 분산 비율을 설명합니다. 다른 예측 변수를 제어하면서 예측 변수에 의해 종속 변수에서 r2와 유사하게 만듭니다. Eta-squared는 모집단의 모델에 의해 설명되는 분산의 편향 추정량입니다 (샘플의 효과 크기 만 추정). 이 추정치는 각 추가 변수가 η2 값을 자동으로 증가 시킨다는 r2와 약점을 공유합니다. 또한 모집단이 아닌 표본에 대해 설명 된 분산을 측정합니다. 즉, 표본이 커질수록 편향이 작아 지더라도 항상 효과 크기를 과대 평가합니다.

η 2 = S S 처리 S S 합계. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Treatment}}} {SS _ {\ text {Total}}}}.}

Omega-squared (ω2) Edit
참조 : 조정 된 R2

모집단에서 설명 된 분산의 덜 편향된 추정량은 ω2

ω 2 = SS 처리 − df 처리 ⋅ MS 오차 SS 합계 + MS 오차. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}}-df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}

이 형식의 수식 모든 세포에서 샘플 크기가 동일한 개체 간 분석으로 제한됩니다. 편향이 덜하기 때문에 (편향되지는 않지만) ω2가 η2보다 바람직합니다. 그러나 복잡한 분석을 계산하는 것은 더 불편할 수 있습니다. 개체 간 및 개체 내 분석, 반복 측정, 혼합 설계 및 무작위 블록 설계 실험을 위해 일반화 된 형태의 추정기가 발표되었습니다. 또한 개별 요인에 대한 부분 ω2를 계산하는 방법과 최대 3 개의 독립 변수가있는 설계의 결합 요인이 발표되었습니다.

Cohen의 ƒ2Edit

Cohen의 ƒ2는 하나입니다. ANOVA 또는 다중 회귀에 대한 F- 검정의 맥락에서 사용할 여러 효과 크기 측정 값. 편향의 양 (ANOVA에 대한 효과 크기의 과대 평가)은 설명 된 분산의 기본 측정치 (예 : R2, η2, ω2)의 편향에 따라 다릅니다.

다중 회귀에 대한 ƒ2 효과 크기 측정 값 다음과 같이 정의됩니다.

f 2 = R 2 1 − R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} 여기서 R2는 제곱 다중 상관 관계입니다. .

마찬가지로 ƒ2는 다음과 같이 정의 할 수 있습니다.

f 2 = η 2 1 − η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} 또는 f 2 = ω 2 1 − ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} 해당 효과 크기 측정으로 설명되는 모델의 경우.

순차 다중 회귀 및 PLS 모델링에 대한 일반적인 f 2 {\ displaystyle f ^ {2}} 효과 크기 측정 값은 다음과 같이 정의됩니다.

f 2 = RAB 2 − RA 2 1 − RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} 여기서 R2A는 다음의 집합으로 설명 된 분산입니다. 하나 이상의 독립 변수 A 및 R2AB는 A와 하나 이상의 관심있는 독립 변수 B의 또 다른 집합에 의해 설명되는 결합 분산입니다. 관례 적으로 ƒ2 효과 크기는 0.1 2 {\ displaystyle 0.1 ^ {2}}, 0.25 2 {\ displaystyle 0.25 ^ {2}} 및 0.4 2 {\ displaystyle 0.4 ^ {2}}는 각각 소형, 중형 및 대형이라고합니다.

Cohen “sf ^ {\ displaystyle {\ hat {f}}}는 다음을 사용하여 거꾸로 작동하는 분산 요인 분석 (ANOVA)에서도 찾을 수 있습니다.

f ^ 효과 = (F 효과 df 효과 / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}

분산 분석의 균형 잡힌 설계 (그룹 간 동일한 표본 크기)에서 f 2 {\ displaystyle f ^ {2}}의 해당 모집단 매개 변수는

SS (μ 1, μ 2,…, μ K)입니다. K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }

여기서 μj는 총 K 그룹의 j 번째 그룹 내의 모집단 평균을 나타내고 σ는 각 그룹 내의 동등한 모집단 표준 편차를 나타냅니다. SS는 ANOVA의 제곱합입니다.

Cohen “s qEdit

상관 차이와 함께 사용되는 또 다른 측정 값은 Cohen ‘s q입니다. 이것은 두 Fisher 변환 Pearson 회귀 계수 간의 차이입니다. 기호에서 이것은 다음과 같습니다.

q = 1 2 log ⁡ 1 + r 1 1 − r 1 − 1 2 로그 ⁡ 1 + r 2 1 − r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}}-{\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}

여기서 r1과 r2는 비교되는 회귀입니다. q의 예상 값은 0이고 분산은 다음과 같습니다.

var ⁡ (q) = 1 N 1 − 3 + 1 N 2 − 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}

여기서 N1과 N2는 각각 첫 번째 및 두 번째 회귀의 데이터 포인트 수입니다.

차이 계열 : 평균 차이에 따른 효과 크기 편집

다양한 값을 나타내는 가우스 밀도 플롯 of Cohen ‘s d.

평균에 기반한 효과 크기 θ는 일반적으로 두 모집단 간의 표준화 된 평균 차이를 고려합니다 .78

θ = μ 1 − μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1}-\ mu _ {2}} {\ sigma}},}

여기서 μ1은 한 모집단의 평균이고 μ2는 다른 모집단의 평균이고 σ는 모집단 중 하나 또는 둘 다에 기반한 표준 편차입니다.

실제 설정에서 모집단 값은 일반적으로 알려지지 않았으며 표본 통계에서 추정해야합니다. 평균에 기반한 ns의 효과 크기는 사용되는 통계에 따라 다릅니다.

효과 크기에 대한이 형식은 t- 검정 통계에 대한 계산과 유사하지만 t- 검정 통계에 포함 된 임계 차이가 있습니다. n {\ displaystyle {\ sqrt {n}}}의 인수입니다. 이는 주어진 효과 크기에 대해 유의 수준이 표본 크기에 따라 증가한다는 것을 의미합니다. t- 검정 통계와 달리 효과 크기는 모집단 매개 변수를 추정하는 것을 목표로하며 표본 크기의 영향을받지 않습니다.

Cohen “sd Edit

Cohen”sd는 다음과 같이 정의됩니다. 두 평균 간의 차이를 데이터에 대한 표준 편차로 나눈 값, 즉

d = x ¯ 1 − x ¯ 2 s = μ 1 − μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1}-{\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1}-\ mu _ {2}} {s}}.}

Jacob Cohen은 합동 표준 편차 s를 다음과 같이 정의했습니다. (두 개의 독립 표본에 대해) :: 67

s = (n 1 − 1) s 1 2 + (n 2 − 1) s 2 2 n 1 + n 2 − 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}

여기서 그룹 중 하나의 분산은 다음과 같이 정의됩니다.

s 1 2 = 1n 1 − 1 ∑ i = 1n 1 (x 1, i − x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i}-{\ bar {x}} _ {1}) ^ {2},}

및 기타 유사 group.

아래 표에는 Cohen이 처음 제안하고 Sawilowsky가 확장 한 d = 0.01 ~ 2.0 크기에 대한 설명이 포함되어 있습니다.

효과 크기 d 참조
매우 소형 0.01
소형 0.20
중간 0.50
크게 0.80
매우 큼 1.20
거대 2.0

다른 작성자는 약간 다른 계산을 선택합니다. 분모에 “-2″가없는 “Cohen”sd “를 참조 할 때 표준 편차 : 14

s = (n 1 − 1) s 1 2 + (n 2 − 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}

이 “Cohen”sd “정의는 Hedges 및 Olkin에 의한 최대 가능성 추정량이라고하며 스케일링 계수에 의해 Hedges”g와 관련됩니다 (아래 참조). ).

두 개의 쌍을 이룬 표본을 사용하여 차이 점수 분포를 살펴 봅니다.이 경우 s는 차이 점수 분포의 표준 편차입니다. 이는 t- 통계 사이에 다음과 같은 관계를 생성합니다. 두 그룹의 평균과 Cohen “sd의 차이를 테스트하려면 :

t = X ¯ 1 − X ¯ 2 SE = X ¯ 1 − X ¯ 2 SD N = N (X ¯ 1 − X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1}-{\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1}-{\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1}-{\ bar {X}} _ {2})} {SD}}}

d = X ¯ 1 − X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1}-{\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}

Cohen “sd는 통계 테스트를위한 샘플 크기를 추정하는 데 자주 사용됩니다. 더 낮은 Cohen “sd는 더 큰 표본 크기의 필요성을 나타내며, 그 반대의 경우 원하는 유의 수준 및 통계적 검정력의 추가 매개 변수와 함께 나중에 결정할 수 있습니다.

Glass”ΔEdit

1976 년 Gene V. Glass는 두 번째 그룹의 표준 편차 만 사용하는 효과 크기 추정기를 제안했습니다 .78

Δ = x ¯ 1 − x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1}-{\ bar {x}} _ {2}} {s_ {2}}}}

두 번째 그룹은 통제 그룹으로 간주 될 수 있습니다. Glass는 여러 치료법을 대조군과 비교하면 대조군에서 계산 된 표준 편차 만 사용하는 것이 더 좋을 것이라고 주장했습니다. 따라서 효과 크기는 동일한 평균과 다른 분산에서 다르지 않습니다.

Under 동일한 모집단 분산에 대한 정확한 가정은 σ에 대한 합동 추정치가 더 정확합니다.

Hedges “gEdit

Hedges”g는 Larry Hedges가 1981 년에 제안한 다른 측정 값과 같습니다. 표준화 된 디에 fference : 79

g = x ¯ 1 − x ¯ 2 초 ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1}-{\ bar {x}} _ {2} } {s ^ {*}}}}

여기서 합동 표준 편차 s ∗ {\ displaystyle s ^ {*}}는 다음과 같이 계산됩니다.

s ∗ = (n 1 − 1) s 1 2 + (n 2 − 1) s 2 2 n 1 + n 2 − 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}

그러나 모집단 효과 크기 θ에 대한 추정치는 편향되어 있습니다. 그럼에도 불구하고이 편향은 요인 곱셈을 통해 대략적으로 수정할 수 있습니다.

g ∗ = J (n 1 + n 2 − 2) g ≈ (1 − 3 4 (n 1 + n 2) − 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1-{\ frac {3} {4 (n_ {1} + n_ {2})-9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a − 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}

Ψ, 제곱 평균 제곱근 표준화 효과 편집

다중 비교 (예 : ANOVA)를위한 유사한 효과 크기 추정기는 Ψ 제곱 평균 제곱근 표준화 효과입니다. 이것은 본질적으로 d 또는 g와 유사한 제곱 평균 제곱근으로 조정 된 전체 모델의 옴니버스 차이를 나타냅니다. 일원 분산 분석에 적합한 Ψ의 가장 간단한 공식은

Ψ = 1 k − 1 ⋅ ∑ (x ¯ j − X ¯) 2 MS 오류 {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j}-{\ bar {X}}) ^ {2}} {MS _ {\ text {오류 }}}}}}

또한 다중 요인 설계에 대한 일반화가 제공되었습니다.

평균에 따른 효과 크기 분포 편집

분포에서 효과 크기의 기대치와 분산을 계산할 수 있습니다.

어떤 경우에는 분산에 대한 큰 샘플 근사치가 사용됩니다. 헤지스의 분산에 대한 한 가지 제안은 편향되지 않은 추정량입니다 .86

σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}

기타 측정 항목 편집

Mahalanobis 거리 (D)는 변수 간의 관계를 고려하는 Cohen “sd의 다변량 일반화.

범주 형 계열 : 범주 형 변수 간의 연관성을위한 효과 크기 편집

φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}}

φ c = χ 2 N (k − 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}

Phi (φ) Cramér “s V (φc)

카이 제곱 검정에 일반적으로 사용되는 연관 측정 값은 Phi 계수와 Cramér “s V (때로는 Cramér”s phi라고도하며 φc로 표시됨)입니다. Phi는 점-이차 상관 계수 및 Cohen “sd와 관련이 있으며 두 변수 사이의 관계 범위를 추정합니다 (2 × 2). Cramér ‘s V는 3 개 이상의 수준을 가진 변수와 함께 사용할 수 있습니다.

Phi는 표본 크기로 나눈 카이 제곱 통계의 제곱근을 찾아 계산할 수 있습니다.

유사하게, Cramér의 V는 카이 제곱 통계의 제곱근을 표본 크기와 최소 차원의 길이로 나눈 값으로 계산됩니다 (k는 행 r 또는 열 c 중 더 작은 수입니다).

φc는 두 이산 변수의 상호 상관이며 r 또는 c의 값에 대해 계산 될 수 있습니다. 그러나 카이-제곱 값은 셀 수에 따라 증가하는 경향이 있으므로 r과 c의 차이가 클수록 의미있는 상관 관계에 대한 강력한 증거없이 V가 1이 될 가능성이 높습니다.

Cramér ” s V는 “적합도”카이 제곱 모델 (즉, c = 1 인 경우)에도 적용될 수 있습니다.이 경우 단일 결과 (즉, k 결과 중)에 대한 경향의 척도로 기능합니다. 경우 1은 V의 0에서 1 범위를 유지하기 위해 k에 r을 사용해야합니다. 그렇지 않으면 c를 사용하면 방정식이 Phi에 대한 방정식으로 줄어 듭니다.

Cohen ‘s wEdit

카이 제곱 테스트에 사용되는 효과 크기의 또 다른 측정 값은 Cohen ‘s w입니다. 이것은 다음과 같이 정의됩니다.

w = ∑ i = 1 m (p 1 i − p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}

여기서 p0i는 H0 아래의 i 번째 셀 값, p1i는 H1 아래의 i 번째 셀 값, m은 셀 수입니다.

효과 크기 w
소형 0.10
중간 0.30
대형 0.50

승산 비 편집

승산 비 (OR)는 또 다른 유용한 효과 크기입니다. 연구 질문이 두 이진 변수 간의 연관 정도에 초점을 맞출 때 적합합니다. 예를 들어 철자 능력에 대한 연구를 생각해보십시오. 통제 그룹에서는 두 학생이 실패한 모든 학생에 대해 수업을 통과하므로 통과 확률은 2 대 1 (또는 2/1 = 2)입니다. 치료 그룹에서는 실패한 1 명당 6 명의 학생이 합격하므로 합격 확률은 6 대 1입니다 (또는 6/1 = 6). 효과 크기는 치료 그룹의 통과 확률이 대조군보다 3 배 더 높다는 점에 주목하여 계산할 수 있습니다 (6을 2로 나눈 값은 3입니다). 따라서 승산 비는 3입니다. 승산 비 통계는 Cohen “sd와 다른 척도이므로이”3 “은 Cohen”sd 3과 비교할 수 없습니다.

Relative riskEdit

위험 비율이라고도하는 상대 위험 (RR)은 단순히 일부 독립 변수와 관련된 사건의 위험 (확률)입니다. 이 효과 크기 측정은 승산 대신 확률을 비교한다는 점에서 승산 비와 다르지만 작은 확률의 경우 점근 적으로 후자에 접근합니다. 위의 예를 사용하면 대조군과 치료군의 합격 확률은 각각 2/3 (또는 0.67) 및 6/7 (또는 0.86)입니다. 효과 크기는 위와 동일하게 계산할 수 있지만 대신 확률을 사용합니다. 따라서 상대 위험은 1.28입니다. 통과 확률이 다소 높기 때문에 상대적 위험과 승산 비 사이에 큰 차이가 있습니다. 실패 (더 작은 확률)가 이벤트로 사용 되었다면 (통과가 아니라) 효과 크기의 두 측정 값 간의 차이는 그리 크지 않을 것입니다.

두 측정 값이 모두 유용하지만 통계는 다릅니다. 사용합니다. 의학 연구에서 승산 비는 일반적으로 확률이 아닌 승산이 추정되므로 사례 대조 연구에 일반적으로 사용됩니다. 상대 위험은 일반적으로 무작위 대조 시험 및 코호트 연구에서 사용되지만 상대 위험은 중재의 효과를 과대 평가하는 데 기여합니다.

위험 차이 편집

위험 차이 (RD), 때로는 호출되기도합니다. 절대 위험 감소는 단순히 두 그룹 간의 이벤트 위험 (확률) 차이입니다. RD는 실험적 개입이 사건 또는 결과의 확률을 어느 정도 변경하는지 알려주기 때문에 실험 연구에서 유용한 측정 값입니다.위의 예를 사용하여 대조군과 치료군의 합격 확률은 각각 2/3 (또는 0.67) 및 6/7 (또는 0.86)이므로 RD 효과 크기는 0.86-0.67 = 0.19 (또는 19 %). RD는 중재의 효과를 평가하기위한 우수한 척도입니다.

Cohen의 hEdit

주 문서 : Cohen “sh

비교시 전력 분석에 사용되는 한 가지 척도 두 개의 독립적 인 비율은 Cohen ‘s h입니다. 이것은 다음과 같이 정의됩니다.

h = 2 (arcsin ⁡ p 1 − arcsin ⁡ p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}}-\ arcsin {\ sqrt {p_ {2}}})}

여기서 p1과 p2는 비교되는 두 샘플의 비율이고 arcsin은 아크 사인 변환입니다.

공통 언어 효과 크기 편집

통계 외부의 사람들에게 효과 크기의 의미를 더 쉽게 설명하기 위해 이름에서 알 수 있듯이 공통 언어 효과 크기는 일반 영어로 전달하도록 설계되었습니다. 두 그룹 간의 차이를 설명하는 데 사용되며 1992 년 Kenneth McGraw와 SP Wong에 의해 제안되고 이름이 지정되었습니다. 그들은 다음의 예를 사용했습니다 (남성과 여성의 키에 대한). 남성과 여성, 프로 바비 남성의 키가 여성보다 키가 .92이거나 더 간단하게 말하면 젊은 성인의 블라인드 데이트 100 명 중 92 명에서 남성이 여성보다 키가 커질 것입니다 “라는 공통 언어 효과의 인구 가치를 설명 할 때 크기.

공통 언어 효과 크기에 대한 모집단 값은 모집단에서 무작위로 선택한 쌍의 관점에서 종종 이와 같이보고됩니다. Kerby (2014)는 한 그룹의 점수와 다른 그룹의 점수로 정의되는 쌍이 공통 언어 효과 크기의 핵심 개념이라고 말합니다.

다른 예로, 과학적 연구를 고려해보십시오. (관절염과 같은 일부 만성 질환에 대한 치료 일 수 있음) 치료 그룹에 10 명, 대조군에 10 명. 치료 그룹의 모든 사람을 대조군의 모든 사람과 비교하면 (10 × 10 =) 100 쌍이 있습니다. 연구가 끝나면 결과를 각 개인에 대한 점수로 평가 한 다음 (예 : 관절염 연구의 경우 이동성과 통증의 척도에 따라) 모든 점수를 쌍간에 비교합니다. 가설을 뒷받침하는 쌍의 백분율로 표시되는 결과는 공통 언어 효과 크기입니다. 예제 연구에서 100 개의 비교 쌍 중 80 개가 대조군보다 치료 그룹에 대해 더 나은 결과를 보여 주면 .80이 될 수 있으며, 보고서는 다음과 같이 표시 될 수 있습니다. 치료 그룹은 대조군의 환자와 비교되었으며, 100 쌍 중 80 쌍에서 치료 된 환자가 더 나은 치료 결과를 보였습니다. “예를 들어 이와 같은 연구에서 샘플 값은 모집단 값의 편향되지 않은 추정치입니다.

Vargha와 Delaney는 공통 언어 효과 크기 (Vargha-Delaney A)를 일반화하여 순서 수준 데이터를 다루었습니다.

Rank-biserial correlationEdit

Main article : Mann –Whitney U 테스트 § Rank-biserial 상관 관계

공통 언어 효과 크기와 관련된 효과 크기는 Rank-biserial 상관 관계입니다.이 측정은 Mann–Whitney U 테스트의 효과 크기로 Cureton에 의해 도입되었습니다. 즉, 두 개의 그룹이 있으며 그룹의 점수가 순위로 변환되었습니다 .Kerby 단순 차이 공식 공통 언어 효과 크기에서 순위-이중 상관 관계를 계산합니다. f를 가설에 유리한 쌍의 비율 (공통 언어 효과 크기)로하고 u를 유리하지 않은 쌍의 비율로두면 랭크 바이 세 리얼 r은 r = f-u의 두 비율 간의 단순한 차이입니다. 즉, 상관 관계는 공통 언어 효과 크기와 그 보완 간의 차이입니다. 예를 들어, 공통 언어 효과 크기가 60 %이면 랭크 바이 세 리얼 r은 60 %에서 40 %를 뺀 값이거나 r = 0.20입니다. Kerby 공식은 방향성이 있으며 양수 값은 결과가 가설을 뒷받침한다는 것을 나타냅니다.

Wendt에서 순위-이중 상관 관계에 대한 비 방향성 공식을 제공하여 상관 관계가 항상 양수입니다. Wendt 공식의 장점은 출판 된 논문에서 쉽게 사용할 수있는 정보로 계산할 수 있다는 것입니다. 이 공식은 Mann-Whitney U 검정의 검정 값과 두 그룹의 표본 크기 인 r = 1 – (2U) / (n1 n2) 만 사용합니다. 여기서 U는 데이터에서 계산할 수있는 두 U 값 중 더 작은 것으로 고전적인 정의에 따라 정의됩니다. 이렇게하면 n1n2가 U 통계의 최대 값이므로 2U < n1n2가 보장됩니다.

두 수식의 사용을 예를 들어 설명 할 수 있습니다. 치료 그룹에 10 명, 대조군에 10 명을 포함하는 20 명의 노인을 대상으로 한 건강 연구를 고려하십시오. 따라서 10 x 10 또는 100 쌍이 있습니다.건강 프로그램은 식단, 운동 및 보충제를 사용하여 기억력을 향상시키고 기억력은 표준화 된 테스트로 측정됩니다. Mann-Whitney U 테스트는 치료 그룹의 성인이 100 쌍 중 70 쌍에서 더 나은 기억력을 가지고 있고 30 쌍에서 더 나쁜 기억력을 가졌음을 보여줍니다. Mann-Whitney U는 70과 30 중 더 작으므로 U = 30입니다. Kerby 단순 차이 공식에 의한 기억과 치료 성능 간의 상관 관계는 r = (70/100) − (30/100) = 0.40입니다. Wendt 공식에 의한 상관 관계는 r = 1 − (2 · 30) / (10 · 10) = 0.40입니다.

서수 데이터에 대한 효과 크기 편집

클리프의 델타 또는 d 원래 Norman Cliff에서 서수 데이터와 함께 사용하기 위해 개발 한 {\ displaystyle d}는 한 분포의 값이 두 번째 분포의 값보다 얼마나 자주 큰지 측정합니다. 결정적으로, 모양이나 모양에 대한 가정이 필요하지 않습니다. 두 분포의 산포.

샘플 추정치 d {\ displaystyle d}는 다음과 같이 계산됩니다.

d = ∑ i, j − mn {\ displaystyle d = {\ frac {\ sum _ {i, j}-} {mn}}}

d {\ displaystyle d}는 Mann–Whitney U 통계와 선형 적으로 관련되어 있지만 부호 차이의 방향을 포착합니다. Mann–Whitney가 주어지면 U {\ displaystyle U}, d {\ displaystyle d}는 다음과 같습니다.

d = 2 U mn − 1 {\ displaystyle d = {\ frac {2U} {mn}}-1}

Write a Comment

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다