Cerca de 50 a 100 medidas diferentes de tamanho do efeito são conhecidas. Muitos tamanhos de efeito de diferentes tipos podem ser convertidos em outros tipos, já que muitos estimam a separação de duas distribuições, portanto, são matematicamente relacionados. Por exemplo, um coeficiente de correlação pode ser convertido para um Cohen “sd e vice-versa.
Família de correlação: tamanhos de efeito baseados em” variância explicada “Editar
Esses tamanhos de efeito estimam a quantidade da variação dentro de um experimento que é “explicada” ou “contabilizada” pelo modelo do experimento (variação explicada).
Pearson r ou coeficiente de correlação Editar
Correlação de Pearson , frequentemente denotado por r e introduzido por Karl Pearson, é amplamente usado como um tamanho de efeito quando dados quantitativos pareados estão disponíveis; por exemplo, se alguém estiver estudando a relação entre peso ao nascer e longevidade. O coeficiente de correlação também pode ser usado quando os dados são binários . Pearson “sr pode variar em magnitude de −1 a 1, com −1 indicando uma relação linear negativa perfeita, 1 indicando uma relação linear positiva perfeita e 0 indicando que não há relação linear entre duas variáveis. Cohen fornece as seguintes diretrizes para as ciências sociais:
Tamanho do efeito | r |
---|---|
Pequeno | 0,10 |
Médio | 0,30 |
Grande | 0,50 |
Coeficiente de determinação (r2 ou R2) Editar
Um tamanho de efeito relacionado é r2, o coeficiente de determinação (também referido como R2 ou “r-quadrado”), calculado como o quadrado da correlação de Pearson r. No caso de dados pareados, esta é uma medida da proporção da variância compartilhada pelas duas variáveis, e varia de 0 a 1. Por exemplo, com um r de 0,21, o coeficiente de determinação é 0,0441, o que significa que 4,4% do a variação de qualquer uma das variáveis é compartilhada com a outra variável. O r2 é sempre positivo, então não transmite a direção da correlação entre as duas variáveis.
Eta-quadrado (η2) Editar
Eta-quadrado descreve a razão de variância explicada na variável dependente por um preditor enquanto controla outros preditores, tornando-o análogo ao r2. Eta-quadrado é um estimador enviesado da variância explicada pelo modelo na população (ele estima apenas o tamanho do efeito na amostra). Esta estimativa compartilha a fraqueza com r2 que cada variável adicional aumentará automaticamente o valor de η2. Além disso, mede a variância explicada da amostra, não da população, o que significa que sempre superestimará o tamanho do efeito, embora o viés diminua à medida que a amostra aumenta.
η 2 = S S Tratamento S S Total. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Tratamento}}} {SS _ {\ text {Total}}}}.}
Omega-quadrado (ω2) Editar
Um estimador menos tendencioso da variância explicada na população é ω2
ω 2 = tratamento SS – tratamento df ⋅ erro MS total SS + erro MS. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ texto {erro}}} {{\ texto {SS}} _ {\ texto {total}} + {\ texto {MS}} _ {\ texto {erro}}}}.}
Esta forma da fórmula é limitado à análise entre sujeitos com tamanhos de amostra iguais em todas as células. Por ser menos tendencioso (embora não não tendencioso), ω2 é preferível a η2; no entanto, pode ser mais inconveniente calcular para análises complexas. Uma forma generalizada do estimador foi publicada para análises entre assuntos e dentro de assuntos, medidas repetidas, design misto e experimentos de design de blocos aleatórios. Além disso, foram publicados métodos para calcular ω2 parcial para fatores individuais e fatores combinados em experimentos com até três variáveis independentes.
Cohen “s ƒ2Edit
Cohen” s ƒ2 é um de várias medidas de tamanho de efeito para usar no contexto de um teste F para ANOVA ou regressão múltipla. Sua quantidade de viés (superestimativa do tamanho do efeito para a ANOVA) depende do viés de sua medição subjacente de variância explicada (por exemplo, R2, η2, ω2).
A medida do tamanho do efeito ƒ2 para regressão múltipla é definido como:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} onde R2 é a correlação múltipla ao quadrado .
Da mesma forma, ƒ2 pode ser definido como:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} ou f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} para modelos descritos por essas medidas de tamanho de efeito.
A medida do tamanho do efeito f 2 {\ displaystyle f ^ {2}} para regressão múltipla sequencial e também comum para modelagem PLS é definida como:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} onde R2A é a variação contabilizada por um conjunto de uma ou mais variáveis independentes A, e R2AB é a variância combinada contabilizada por A e outro conjunto de uma ou mais variáveis independentes de interesse B. Por convenção, ƒ2 tamanhos de efeito de 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0,25 ^ {2}} e 0,4 2 {\ displaystyle 0,4 ^ {2}} são denominados pequeno, médio e grande, respectivamente.
Cohen “sf ^ {\ displaystyle {\ hat {f}}} também pode ser encontrado para análise fatorial de variância (ANOVA) trabalhando para trás, usando:
f ^ efeito = (efeito F df efeito / N ). {\ displaystyle {\ hat {f}} _ {\ text {efeito}} = {\ sqrt {(F _ {\ text {efeito}} df _ {\ text {efeito}} / N)}}.}
Em um projeto balanceado (tamanhos de amostra equivalentes entre os grupos) de ANOVA, o parâmetro de população correspondente de f 2 {\ displaystyle f ^ {2}} é
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }
em que μj denota a média da população dentro do jº grupo dos grupos K totais, e σ os desvios padrão da população equivalente dentro de cada grupo. SS é a soma dos quadrados em ANOVA.
Cohen “s qEditar
Outra medida usada com diferenças de correlação é Cohen “s q. Esta é a diferença entre dois coeficientes de regressão de Pearson transformados por Fisher. Em símbolos, é
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
onde r1 e r2 são as regressões sendo comparadas. O valor esperado de q é zero e sua variância é
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
onde N1 e N2 são o número de pontos de dados na primeira e segunda regressão, respectivamente.
Família de diferenças: tamanhos de efeito baseados em diferenças entre médiasEditar
Gráficos de densidades gaussianas ilustrando vários valores de Cohen “s d.
A (população) tamanho do efeito θ com base nas médias geralmente considera a diferença média padronizada entre duas populações: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
onde μ1 é a média para uma população, μ2 é a média para a outra população, e σ é um desvio padrão com base em uma ou ambas as populações.
No cenário prático, os valores da população normalmente não são conhecidos e devem ser estimados a partir de estatísticas de amostra. Os ns de tamanhos de efeito com base nas médias diferem em relação às estatísticas usadas.
Esta forma para o tamanho do efeito se assemelha ao cálculo para uma estatística de teste t, com a diferença crítica que a estatística de teste t inclui um fator de n {\ displaystyle {\ sqrt {n}}}. Isso significa que, para um determinado tamanho de efeito, o nível de significância aumenta com o tamanho da amostra. Ao contrário da estatística do teste t, o tamanho do efeito visa estimar um parâmetro da população e não é afetado pelo tamanho da amostra.
Cohen “sd Edit
Cohen” sd é definido como o diferença entre duas médias divididas por um desvio padrão para os dados, ou seja,
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen definiu s, o desvio padrão agrupado, como (para duas amostras independentes) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
onde a variância para um dos grupos é definida como
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
e da mesma forma para o outro grupo.
A tabela abaixo contém descritores para magnitudes de d = 0,01 a 2,0, conforme sugerido inicialmente por Cohen e expandido por Sawilowsky.
Tamanho do efeito | d | Referência |
---|---|---|
Muito pequeno | 0,01 | |
Pequeno | 0,20 | |
Médio | 0,50 | |
Grande | 0,80 | |
Muito grande | 1,20 | |
Enorme | 2.0 |
Outros autores escolhem um cálculo ligeiramente diferente do desvio padrão quando se refere a “Cohen” sd “, onde o denominador é sem” -2 “: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Esta definição de “Cohen” sd “é chamada de estimador de máxima verossimilhança por Hedges e Olkin e está relacionada a Hedges” g por um fator de escala (ver abaixo ).
Com duas amostras emparelhadas, observamos a distribuição das pontuações de diferença. Nesse caso, s é o desvio padrão desta distribuição de pontuações de diferença. Isso cria a seguinte relação entre a estatística t para testar a diferença nas médias dos dois grupos e Cohen “sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
e
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen “sd é freqüentemente usado na estimativa de tamanhos de amostra para testes estatísticos. Um Cohen “dp inferior indica a necessidade de tamanhos de amostra maiores, e vice-versa, como pode ser subsequentemente determinado junto com os parâmetros adicionais do nível de significância desejado e poder estatístico.
Glass” ΔEdit
Em 1976, Gene V. Glass propôs um estimador do tamanho do efeito que usa apenas o desvio padrão do segundo grupo: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
O segundo grupo pode ser considerado um grupo de controle, e Glass argumentou que, se vários tratamentos fossem comparados ao grupo de controle, seria melhor usar apenas o desvio padrão calculado do grupo de controle, de modo que os tamanhos dos efeitos não diferissem em médias iguais e variâncias diferentes.
Abaixo uma suposição correta de variâncias populacionais iguais uma estimativa combinada para σ é mais precisa.
Hedges “gEdit
Hedges” g, sugerido por Larry Hedges em 1981, é como as outras medidas baseadas em um di padronizado referência: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
onde o desvio padrão combinado s ∗ {\ displaystyle s ^ {*}} é calculado como:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
No entanto, como um estimador para o tamanho do efeito da população θ, ele é tendencioso. No entanto, esse viés pode ser corrigido aproximadamente através da multiplicação por um fator
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, efeitoEditEditar raiz quadrada média
Um estimador de tamanho de efeito semelhante para comparações múltiplas (por exemplo, ANOVA) é o efeito padronizado Ψ raiz quadrada média. Isso essencialmente apresenta a diferença geral de todo o modelo ajustado pela raiz quadrada média, análogo a d ou g. A fórmula mais simples para Ψ, adequada para ANOVA unilateral, é
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS erro {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {erro }}}}}}}
Além disso, uma generalização para experimentos multifatoriais foi fornecida.
Distribuição de tamanhos de efeito com base em meioEditar
A partir da distribuição, é possível calcular a expectativa e a variação dos tamanhos do efeito.
Em alguns casos, são usadas grandes aproximações de amostra para a variação. Uma sugestão para a variância do estimador imparcial de Hedges é: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Other metricsEdit
A distância de Mahalanobis (D) é um generalização multivariada de Cohen “sd, que leva em consideração as relações entre as variáveis.
Família categórica: tamanhos de efeito para associações entre variáveis categóricasEditar
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}} |
Phi (φ) | Cramér “s V (φc) |
---|
As medidas de associação comumente usadas para o teste qui-quadrado são o coeficiente Phi e o V de Cramér “(às vezes referido como phi de Cramér” e denotado como φc) . Phi está relacionado ao coeficiente de correlação ponto-bisserial e Cohen “sd e estima a extensão da relação entre duas variáveis (2 × 2). O V de Cramér pode ser usado com variáveis com mais de dois níveis.
Phi pode ser calculado encontrando a raiz quadrada da estatística qui-quadrada dividida pelo tamanho da amostra.
Da mesma forma, o V de Cramér é calculado tomando a raiz quadrada da estatística qui-quadrada dividida pelo tamanho da amostra e o comprimento da dimensão mínima (k é o menor do número de linhas r ou colunas c).
φc é a intercorrelação das duas variáveis discretas e pode ser calculada para qualquer valor de r ou c. No entanto, como os valores do qui-quadrado tendem a aumentar com o número de células, quanto maior a diferença entre r e c, mais provavelmente V tenderá a 1 sem fortes evidências de uma correlação significativa.
Cramér ” s V também pode ser aplicado a modelos qui-quadrado de “qualidade de ajuste” (ou seja, aqueles em que c = 1). Neste caso, funciona como uma medida de tendência em direção a um único resultado (ou seja, fora de k resultados). caso, deve-se usar r para k, a fim de preservar a faixa de 0 a 1 de V. Caso contrário, usar c reduziria a equação para Phi.
Cohen “s wEdit
Outra medida do tamanho do efeito usada para os testes qui-quadrado é Cohen “s w. Isso é definido como
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}
onde p0i é o valor da i-ésima célula em H0, p1i é o valor da i-ésima célula em H1 e m é o número de células.
Tamanho do efeito | w |
---|---|
Pequeno | 0,10 |
Médio | 0,30 |
Grande | 0,50 |
Odds ratioEdit
O odds ratio (OR) é outro tamanho de efeito útil. É apropriado quando a questão de pesquisa enfoca o grau de associação entre duas variáveis binárias. Por exemplo, considere um estudo da habilidade de ortografia. Em um grupo de controle, dois alunos passam na classe para cada um que reprova, então as chances de aprovação são de dois para um (ou 2/1 = 2). No grupo de tratamento, seis alunos são aprovados para cada um que reprova, então as chances de aprovação são de seis para um (ou 6/1 = 6). O tamanho do efeito pode ser calculado observando-se que as chances de aprovação no grupo de tratamento são três vezes maiores do que no grupo de controle (porque 6 dividido por 2 é 3). Portanto, o odds ratio é 3. As estatísticas do odds ratio estão em uma escala diferente do que Cohen “sd, então este” 3 “não é comparável a um Cohen” sd de 3.
Risco RelativoEdit
O risco relativo (RR), também chamado de razão de risco, é simplesmente o risco (probabilidade) de um evento em relação a alguma variável independente. Essa medida do tamanho do efeito difere do odds ratio porque compara probabilidades em vez de probabilidades, mas assintoticamente se aproxima da última para pequenas probabilidades. Usando o exemplo acima, as probabilidades para aqueles no grupo de controle e aprovação no grupo de tratamento são 2/3 (ou 0,67) e 6/7 (ou 0,86), respectivamente. O tamanho do efeito pode ser calculado da mesma forma que acima, mas usando as probabilidades. Portanto, o risco relativo é de 1,28. Uma vez que probabilidades bastante grandes de aprovação foram usadas, há uma grande diferença entre o risco relativo e a razão de chances. Se a falha (uma probabilidade menor) tivesse sido usada como o evento (em vez de passar), a diferença entre as duas medidas do tamanho do efeito não seria tão grande.
Embora ambas as medidas sejam úteis, elas têm estatísticas diferentes usa. Na pesquisa médica, a razão de chances é comumente usada para estudos de caso-controle, uma vez que as chances, mas não as probabilidades, geralmente são estimadas. O risco relativo é comumente usado em ensaios clínicos randomizados e estudos de coorte, mas o risco relativo contribui para a superestimação da eficácia das intervenções.
Diferença de risco Editar
A diferença de risco (RD), às vezes chamada a redução de risco absoluta é simplesmente a diferença de risco (probabilidade) de um evento entre dois grupos. É uma medida útil na pesquisa experimental, uma vez que o RD informa até que ponto uma intervenção experimental muda a probabilidade de um evento ou resultado.Usando o exemplo acima, as probabilidades para aqueles no grupo de controle e aprovação no grupo de tratamento são 2/3 (ou 0,67) e 6/7 (ou 0,86), respectivamente, e assim o tamanho do efeito RD é 0,86 – 0,67 = 0,19 (ou 19%). RD é a medida superior para avaliar a eficácia das intervenções.
Cohen “s hEdit
Uma medida usada na análise de poder ao comparar duas proporções independentes são Cohen “s h. Isso é definido como segue
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
onde p1 e p2 são as proporções das duas amostras sendo comparadas e arcsin é a transformação do arco seno.
Tamanho do efeito da linguagem comumEditar
Para descrever mais facilmente o significado de um tamanho do efeito, para pessoas fora das estatísticas, o tamanho do efeito da linguagem comum, como o nome indica, foi projetado para comunicá-lo em inglês simples. É usado para descrever uma diferença entre dois grupos e foi proposto, bem como nomeado, por Kenneth McGraw e SP Wong em 1992. Eles usaram o seguinte exemplo (sobre alturas de homens e mulheres): “em qualquer par aleatório de adulto jovem machos e fêmeas, o probabi lidade de o homem ser mais alto do que a mulher é 0,92, ou em termos mais simples, ainda, em 92 de 100 encontros às cegas entre jovens adultos, o homem será mais alto que a mulher “, ao descrever o valor populacional do efeito da linguagem comum tamanho.
O valor da população, para o tamanho do efeito da linguagem comum, é freqüentemente relatado assim, em termos de pares escolhidos aleatoriamente da população. Kerby (2014) observa que um par, definido como uma pontuação em um grupo emparelhado com uma pontuação em outro grupo, é um conceito central do tamanho do efeito da linguagem comum.
Como outro exemplo, considere um estudo científico (talvez de um tratamento para alguma doença crônica, como artrite) com dez pessoas no grupo de tratamento e dez pessoas em um grupo de controle. Se todos no grupo de tratamento forem comparados a todos no grupo de controle, então haverá (10 × 10 =) 100 pares. No final do estudo, o resultado é classificado em uma pontuação, para cada indivíduo (por exemplo, em uma escala de mobilidade e dor, no caso de um estudo de artrite) e, em seguida, todas as pontuações são comparadas entre os pares. O resultado, como a porcentagem de pares que suportam a hipótese, é o tamanho do efeito da linguagem comum. No estudo de exemplo, poderia ser (digamos) 0,80, se 80 dos 100 pares de comparação mostrassem um resultado melhor para o grupo de tratamento do que o grupo de controle, e o relatório poderia ser o seguinte: “Quando um paciente em o grupo de tratamento foi comparado a um paciente no grupo de controle, em 80 de 100 pares o paciente tratado apresentou um resultado de tratamento melhor. “O valor da amostra, por exemplo, um estudo como este, é um estimador imparcial do valor da população.
Vargha e Delaney generalizaram o tamanho do efeito da linguagem comum (Vargha-Delaney A), para cobrir dados de nível ordinal.
Correlação bisserialEditar
Um tamanho de efeito relacionado ao tamanho do efeito da linguagem comum é a correlação bisserial de classificação. Esta medida foi introduzida por Cureton como um tamanho de efeito para o teste U de Mann-Whitney . Ou seja, existem dois grupos, e as pontuações dos grupos foram convertidas em classificações. A fórmula de diferença simples de Kerby calcula a correlação de classificação bisserial a partir do tamanho do efeito da linguagem comum. Supondo que f seja a proporção de pares favorável à hipótese (o tamanho do efeito da linguagem comum), e seja u a proporção de pares desfavoráveis, o r ranque-bisserial é a diferença simples entre as duas proporções: r = f – u. Em outras palavras, a correlação é a diferença entre o tamanho do efeito da linguagem comum e seu complemento. Por exemplo, se o tamanho do efeito da linguagem comum for 60%, o r rank-bisserial é igual a 60% menos 40%, ou r = 0,20. A fórmula de Kerby é direcional, com valores positivos indicando que os resultados apóiam a hipótese.
Uma fórmula não direcional para a correlação bisserial de classificação foi fornecida por Wendt, de modo que a correlação é sempre positiva. A vantagem da fórmula de Wendt é que ela pode ser calculada com informações que estão prontamente disponíveis em artigos publicados. A fórmula usa apenas o valor de teste de U do teste U de Mann-Whitney e os tamanhos de amostra dos dois grupos: r = 1 – (2U) / (n1 n2). Observe que U é definido aqui de acordo com a definição clássica como o menor dos dois valores de U que podem ser calculados a partir dos dados. Isso garante que 2U < n1n2, pois n1n2 é o valor máximo da estatística U.
Um exemplo pode ilustrar o uso das duas fórmulas. Considere um estudo de saúde de vinte adultos mais velhos, com dez no grupo de tratamento e dez no grupo de controle; portanto, há dez vezes dez ou 100 pares.O programa de saúde usa dieta, exercícios e suplementos para melhorar a memória, e a memória é medida por um teste padronizado. Um teste U de Mann-Whitney mostra que o adulto no grupo de tratamento teve melhor memória em 70 dos 100 pares e pior memória em 30 pares. O U de Mann-Whitney é o menor de 70 e 30, então U = 30. A correlação entre a memória e o desempenho do tratamento pela fórmula de diferença simples de Kerby é r = (70/100) – (30/100) = 0,40. A correlação pela fórmula de Wendt é r = 1 – (2 · 30) / (10 · 10) = 0,40.
Tamanho do efeito para dataEdit ordinal
Delta de Cliff ou d {\ displaystyle d}, originalmente desenvolvido por Norman Cliff para uso com dados ordinais, é uma medida de quantas vezes os valores em uma distribuição são maiores do que os valores em uma segunda distribuição. Crucialmente, não requer quaisquer suposições sobre a forma ou distribuição das duas distribuições.
A estimativa de amostra d {\ displaystyle d} é dada por:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} está linearmente relacionado à estatística U de Mann-Whitney; no entanto, ele captura a direção da diferença em seu sinal. Dado o Mann-Whitney U {\ displaystyle U}, d {\ displaystyle d} é:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}