Se conocen entre 50 y 100 medidas diferentes del tamaño del efecto. Muchos tamaños de efecto de diferentes tipos se pueden convertir a otros tipos, ya que muchos estiman la separación de dos distribuciones, por lo que están relacionados matemáticamente. Por ejemplo, un coeficiente de correlación se puede convertir en un «sd de Cohen y viceversa.
Familia de correlación: tamaños de efecto basados en la» varianza explicada «Editar
Estos tamaños de efecto estiman la cantidad de la varianza dentro de un experimento que es «explicado» o «contabilizado» por el modelo del experimento (variación explicada).
Pearson r o coeficiente de correlaciónEditar
Correlación de Pearson , a menudo denotado con r e introducido por Karl Pearson, se usa ampliamente como un tamaño del efecto cuando se dispone de datos cuantitativos emparejados; por ejemplo, si se estudia la relación entre el peso al nacer y la longevidad. El coeficiente de correlación también se puede usar cuando los datos son binarios . Pearson «sr puede variar en magnitud de -1 a 1, donde -1 indica una relación lineal negativa perfecta, 1 indica una relación lineal positiva perfecta y 0 indica que no hay relación lineal entre dos variables. Cohen da las siguientes pautas para las ciencias sociales:
Tamaño del efecto | r |
---|---|
Pequeño | 0,10 |
Medio | 0,30 |
Grande | 0.50 |
Coeficiente de determinación (r2 o R2) Editar
Un tamaño del efecto relacionado es r2, el coeficiente de determinación (también conocido como R2 o «r-cuadrado»), calculado como el cuadrado de la correlación de Pearson r. En el caso de datos apareados, esta es una medida de la proporción de varianza compartida por las dos variables, y varía de 0 a 1. Por ejemplo, con una r de 0.21 el coeficiente de determinación es 0.0441, lo que significa que 4.4% de la la varianza de cualquiera de las variables se comparte con la otra variable. El r2 es siempre positivo, por lo que no transmite la dirección de la correlación entre las dos variables.
Eta-cuadrado (η2) Editar
Eta-cuadrado describe la relación de varianza explicada en la variable dependiente por un predictor mientras se controla por otros predictores, haciéndolo análogo al r2. Eta-cuadrado es un estimador sesgado de la varianza explicada por el modelo en la población (estima solo el tamaño del efecto en la muestra). Esta estimación comparte la debilidad con r2 de que cada variable adicional aumentará automáticamente el valor de η2. Además, mide la varianza explicada de la muestra, no la población, lo que significa que siempre sobrestimará el tamaño del efecto, aunque el sesgo se reduce a medida que la muestra crece.
η 2 = S S Tratamiento S S Total. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Tratamiento}}} {SS _ {\ text {Total}}}}.}
Omega-cuadrado (ω2) Editar
Un estimador menos sesgado de la varianza explicada en la población es ω2
ω 2 = tratamiento SS – tratamiento gl ⋅ error MS SS total + error MS. {\ Displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {tratamiento}} – df _ {\ text {tratamiento}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
Esta forma de la fórmula se limita al análisis entre sujetos con tamaños de muestra iguales en todas las celdas. Dado que está menos sesgado (aunque no sesgado), ω2 es preferible a η2; sin embargo, puede resultar más incómodo realizar cálculos para análisis complejos. Se ha publicado una forma generalizada del estimador para análisis interindividuales e intraindividuales, medidas repetidas, diseño mixto y experimentos de diseño de bloques aleatorios. Además, se han publicado métodos para calcular ω2 parcial para factores individuales y factores combinados en diseños con hasta tres variables independientes.
Cohen «s ƒ2Edit
Cohen» s ƒ2 es uno de varias medidas de tamaño del efecto para usar en el contexto de una prueba F para ANOVA o regresión múltiple. Su grado de sesgo (sobreestimación del tamaño del efecto para el ANOVA) depende del sesgo de su medición subyacente de la varianza explicada (p. Ej., R2, η2, ω2).
La medida del tamaño del efecto ƒ2 para regresión múltiple se define como:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} donde R2 es la correlación múltiple al cuadrado .
Del mismo modo, ƒ2 se puede definir como:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} of 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} para los modelos descritos por esas medidas de tamaño del efecto.
La medida del tamaño del efecto f 2 {\ displaystyle f ^ {2}} para la regresión secuencial múltiple y también común para el modelado PLS se define como:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} donde R2A es la varianza representada por un conjunto de una o más variables independientes A, y R2AB es la varianza combinada representada por A y otro conjunto de una o más variables independientes de interés B. Por convención, ƒ2 tamaños del efecto de 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0.25 ^ {2}} y 0.4 2 {\ displaystyle 0.4 ^ {2}} se denominan pequeño, mediano y grande, respectivamente.
Cohen «sf ^ {\ displaystyle {\ hat {f}}} también se puede encontrar para el análisis factorial de varianza (ANOVA) trabajando al revés, usando:
f ^ effect = (F effect df effect / N ). {\ Displaystyle {\ hat {f}} _ {\ text {efecto}} = {\ sqrt {(F _ {\ text {efecto}} df _ {\ text {efecto}} / N)}}.}
En un diseño equilibrado (tamaños de muestra equivalentes entre grupos) de ANOVA, el parámetro de población correspondiente de f 2 {\ displaystyle f ^ {2}} es
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }
donde μj denota la media poblacional dentro del j-ésimo grupo de los grupos K totales, y σ las desviaciones estándar equivalentes de la población dentro de cada grupo. SS es la suma de cuadrados en ANOVA.
Cohen «s qEdit
Otra medida que se utiliza con las diferencias de correlación es la q de Cohen. Ésta es la diferencia entre dos coeficientes de regresión de Pearson transformados de Fisher. En símbolos es
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ Displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
donde r1 y r2 son las regresiones que se comparan. El valor esperado de q es cero y su varianza es
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
donde N1 y N2 son el número de puntos de datos en la primera y segunda regresión respectivamente.
Familia de diferencias: tamaños de efecto basados en diferencias entre medias Editar
Gráficos de densidades gaussianas que ilustran varios valores de Cohen «s d.
Un tamaño del efecto (de la población) θ basado en las medias normalmente considera la diferencia media estandarizada entre dos poblaciones: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
donde μ1 es la media de una población, μ2 es la media de la otra población, y σ es una desviación estándar basada en una o ambas poblaciones.
En la práctica, los valores de la población generalmente no se conocen y deben estimarse a partir de estadísticas de muestra. ns de tamaños de efecto basados en medias difieren con respecto a qué estadísticas se utilizan.
Esta forma para el tamaño del efecto se asemeja al cálculo de una estadística de prueba t, con la diferencia crítica que incluye la estadística de prueba t un factor de n {\ displaystyle {\ sqrt {n}}}. Esto significa que para un tamaño de efecto dado, el nivel de significancia aumenta con el tamaño de la muestra. A diferencia de la estadística de la prueba t, el tamaño del efecto tiene como objetivo estimar un parámetro de población y no se ve afectado por el tamaño de la muestra.
Cohen «sd Edit
Cohen» sd se define como el diferencia entre dos medias dividida por una desviación estándar de los datos, es decir,
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ Displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen definió s, la desviación estándar agrupada, como (para dos muestras independientes) :: 67
s = (n 1 – 1) s 1 2 + (norte 2 – 1) s 2 2 norte 1 + norte 2 – 2 {\ Displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
donde la varianza para uno de los grupos se define como
s 1 2 = 1 norte 1 – 1 ∑ yo = 1 norte 1 (x 1, yo – x ¯ 1) 2, {\ Displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
y de manera similar para el otro grupo.
La siguiente tabla contiene descriptores para magnitudes de d = 0.01 a 2.0, como sugirió inicialmente Cohen y ampliado por Sawilowsky.
Tamaño del efecto | d | Referencia |
---|---|---|
Muy pequeño | 0,01 | |
Pequeño | 0,20 | |
Medio | 0.50 | |
Grande | 0,80 | |
Muy grande | 1,20 | |
Enorme | 2.0 |
Otros autores eligen un cálculo ligeramente diferente de la desviación estándar cuando se hace referencia a «Cohen» sd «donde el denominador no tiene» -2 «: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ Displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Esta definición de «Cohen» sd «se denomina estimador de máxima verosimilitud por Hedges y Olkin, y está relacionada con Hedges» g por un factor de escala (ver más abajo ).
Con dos muestras pareadas, observamos la distribución de las puntuaciones de diferencia. En ese caso, s es la desviación estándar de esta distribución de puntuaciones de diferencia. Esto crea la siguiente relación entre el estadístico t para probar una diferencia en las medias de los dos grupos y Cohen «sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ Displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
y
d = X ¯ 1 – X ¯ 2 SD = t N {\ Displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen «sd se utiliza con frecuencia para estimar tamaños de muestra para pruebas estadísticas. Un valor de Cohen «sd más bajo indica la necesidad de tamaños de muestra más grandes, y viceversa, como se puede determinar posteriormente junto con los parámetros adicionales del nivel de significancia y el poder estadístico deseados.
Glass» ΔEdit
En 1976, Gene V. Glass propuso un estimador del tamaño del efecto que usa solo la desviación estándar del segundo grupo: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
El segundo grupo puede considerarse como un grupo de control, y Glass argumentó que si se compararan varios tratamientos con el grupo de control, sería mejor usar solo la desviación estándar calculada del grupo de control, de modo que los tamaños del efecto no difieran con medias iguales y varianzas diferentes.
Bajo una suposición correcta de varianzas poblacionales iguales, una estimación combinada de σ es más precisa.
Hedges «gEdit
Hedges» g, sugerida por Larry Hedges en 1981, es como las otras medidas basadas en un di estandarizado fferencia: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
donde la desviación estándar agrupada s ∗ {\ displaystyle s ^ {*}} se calcula como:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ Displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Sin embargo, como estimador del tamaño del efecto de la población θ está sesgado. Sin embargo, este sesgo se puede corregir aproximadamente mediante la multiplicación por un factor
sol ∗ = J (norte 1 + norte 2 – 2) sol ≈ (1 – 3 4 (norte 1 + norte 2) – 9) sol {\ Displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ Displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, efecto estandarizado de raíz cuadrada mediaEditar
Un estimador de tamaño de efecto similar para comparaciones múltiples (por ejemplo, ANOVA) es el efecto estandarizado de raíz cuadrada media Ψ. Esto esencialmente presenta la diferencia ómnibus de todo el modelo ajustado por la raíz cuadrada media, análoga a d o g. La fórmula más simple para Ψ, adecuada para ANOVA de una vía, es
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 Error de MS {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {error }}}}}}}
Además, se ha proporcionado una generalización para diseños multifactoriales.
Distribución de tamaños de efecto basada en mediasEditar
De la distribución es posible calcular la expectativa y la varianza de los tamaños del efecto.
En algunos casos, se utilizan grandes aproximaciones de muestra para la varianza. Una sugerencia para la varianza del estimador insesgado de Hedges es: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ Displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Otras métricasEditar
La distancia de Mahalanobis (D) es una Generalización multivariante de Cohen «sd, que tiene en cuenta las relaciones entre las variables.
Familia categórica: tamaños de efecto para asociaciones entre variables categóricasEditar
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ Displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}} |
Phi (φ) | Cramér «s V (φc) |
---|
Las medidas de asociación comúnmente utilizadas para la prueba de chi-cuadrado son el coeficiente Phi y la V de Cramér (a veces denominada phi de Cramér y denotada como φc) . Phi se relaciona con el coeficiente de correlación biserial puntual y la sd de Cohen y estima el alcance de la relación entre dos variables (2 × 2). La V de Cramér se puede utilizar con variables que tengan más de dos niveles.
Phi se puede calcular encontrando la raíz cuadrada de la estadística chi-cuadrado dividida por el tamaño de la muestra.
De manera similar, la V de Cramér se calcula tomando la raíz cuadrada de la estadística de chi-cuadrado dividida por el tamaño de la muestra y la longitud de la dimensión mínima (k es el número menor de filas ro columnas c).
φc es la intercorrelación de las dos variables discretas y puede calcularse para cualquier valor de ro c. Sin embargo, como los valores de chi-cuadrado tienden a aumentar con el número de celdas, cuanto mayor sea la diferencia entre r y c, es más probable que V tienda a 1 sin una fuerte evidencia de una correlación significativa.
Cramér » s V también se puede aplicar a modelos chi-cuadrado de «bondad de ajuste» (es decir, aquellos en los que c = 1). En este caso, funciona como una medida de tendencia hacia un único resultado (es decir, fuera de k resultados). caso uno debe usar r para k, para preservar el rango 0 a 1 de V. De lo contrario, usar c reduciría la ecuación a la de Phi.
Cohen «s wEdit
Otra medida del tamaño del efecto que se utiliza para las pruebas de chi-cuadrado es la w de Cohen. Esto se define como
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}
donde p0i es el valor de la i-ésima celda debajo de H0, p1i es el valor de la iésima celda debajo de H1 ym es el número de celdas.
Tamaño del efecto | w |
---|---|
Pequeño | 0.10 |
Mediano | 0.30 |
Grande | 0.50 |
Odds ratioEdit
El odds ratio (OR) es otro tamaño de efecto útil. Es apropiado cuando la pregunta de investigación se centra en el grado de asociación entre dos variables binarias. Por ejemplo, considere un estudio de la habilidad ortográfica. En un grupo de control, dos estudiantes aprueban la clase por cada uno que falla, por lo que las probabilidades de aprobar son dos a uno (o 2/1 = 2). En el grupo de tratamiento, seis estudiantes aprueban por cada uno que falla, por lo que las probabilidades de aprobar son seis a uno (o 6/1 = 6). El tamaño del efecto se puede calcular observando que las probabilidades de aprobar en el grupo de tratamiento son tres veces más altas que en el grupo de control (porque 6 dividido por 2 es 3). Por lo tanto, la razón de probabilidades es 3. Las estadísticas de razón de probabilidades están en una escala diferente a la de Cohen «sd, por lo que este» 3 «no es comparable con una de Cohen» de 3.
Riesgo relativoEditar
El riesgo relativo (RR), también llamado índice de riesgo, es simplemente el riesgo (probabilidad) de un evento en relación con alguna variable independiente. Esta medida del tamaño del efecto difiere de la razón de probabilidades en que compara probabilidades en lugar de probabilidades, pero se acerca asintóticamente a esta última para probabilidades pequeñas. Usando el ejemplo anterior, las probabilidades para los que están en el grupo de control y el grupo de tratamiento aprobaron son 2/3 (o 0,67) y 6/7 (o 0,86), respectivamente. El tamaño del efecto se puede calcular de la misma forma que anteriormente, pero utilizando las probabilidades. Por tanto, el riesgo relativo es 1,28. Dado que se utilizaron probabilidades de aprobación bastante grandes, existe una gran diferencia entre el riesgo relativo y la razón de probabilidades. Si se hubiera utilizado la falla (una probabilidad menor) como evento (en lugar de pasar), la diferencia entre las dos medidas del tamaño del efecto no sería tan grande.
Si bien ambas medidas son útiles, tienen estadísticas diferentes usos. En la investigación médica, la razón de probabilidades se usa comúnmente para estudios de casos y controles, ya que generalmente se calculan las probabilidades, pero no las probabilidades. El riesgo relativo se usa comúnmente en ensayos controlados aleatorios y estudios de cohortes, pero el riesgo relativo contribuye a sobrestimar la efectividad de las intervenciones.
Diferencia de riesgoEditar
La diferencia de riesgo (DR), a veces llamada reducción absoluta del riesgo, es simplemente la diferencia en el riesgo (probabilidad) de un evento entre dos grupos. Es una medida útil en la investigación experimental, ya que la RD indica en qué medida una intervención experimental cambia la probabilidad de un evento o resultado.Utilizando el ejemplo anterior, las probabilidades de aprobación para los del grupo de control y del grupo de tratamiento son 2/3 (o 0,67) y 6/7 (o 0,86), respectivamente, por lo que el tamaño del efecto de la DR es 0,86 – 0,67 = 0,19 (o 19%). La DR es la medida superior para evaluar la efectividad de las intervenciones.
Edición de Cohen
Una medida utilizada en el análisis de poder al comparar dos proporciones independientes es la h de Cohen. Esto se define de la siguiente manera
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
donde p1 y p2 son las proporciones de las dos muestras que se comparan y arcsin es la transformación de arcoseno.
Tamaño del efecto del lenguaje comúnEditar
Para describir más fácilmente el significado de un tamaño del efecto, para personas ajenas a las estadísticas, el tamaño del efecto del lenguaje común, como su nombre lo indica, fue diseñado para comunicarlo en inglés simple. Se utiliza para describir una diferencia entre dos grupos y fue propuesto, además de nombrado, por Kenneth McGraw y SP Wong en 1992. Utilizaron el siguiente ejemplo (sobre la altura de hombres y mujeres): «en cualquier emparejamiento aleatorio de adultos jóvenes machos y hembras, el probabi La probabilidad de que el hombre sea más alto que la mujer es de .92, o en términos más simples, en 92 de cada 100 citas a ciegas entre adultos jóvenes, el hombre será más alto que la mujer «, al describir el valor poblacional del efecto del lenguaje común tamaño.
El valor de la población, para el tamaño del efecto del lenguaje común, a menudo se informa así, en términos de pares elegidos aleatoriamente de la población. Kerby (2014) señala que un par, definido como una puntuación en un grupo junto con una puntuación en otro grupo, es un concepto básico del tamaño del efecto del lenguaje común.
Como otro ejemplo, considere un estudio científico (tal vez de un tratamiento para alguna enfermedad crónica, como la artritis) con diez personas en el grupo de tratamiento y diez personas en un grupo de control. Si se compara a todos en el grupo de tratamiento con todos en el grupo de control, entonces hay (10 × 10 =) 100 pares. Al final del estudio, el resultado se clasifica en una puntuación, para cada individuo (por ejemplo, en una escala de movilidad y dolor, en el caso de un estudio de artritis), y luego se comparan todas las puntuaciones entre los pares. El resultado, como porcentaje de pares que apoyan la hipótesis, es el tamaño del efecto del lenguaje común. En el estudio de ejemplo podría ser (digamos) .80, si 80 de los 100 pares de comparación muestran un mejor resultado para el grupo de tratamiento que el grupo de control, y el informe puede leer lo siguiente: «Cuando un paciente en el grupo de tratamiento se comparó con un paciente del grupo de control, en 80 de 100 pares el paciente tratado mostró un mejor resultado del tratamiento. «El valor de la muestra, por ejemplo en un estudio como este, es un estimador no sesgado del valor de la población. / p>
Vargha y Delaney generalizaron el tamaño del efecto del lenguaje común (Vargha-Delaney A), para cubrir los datos de nivel ordinal.
Correlación de rango-biserialEditar
Un tamaño del efecto relacionado con el tamaño del efecto del lenguaje común es la correlación biserial de rango. Esta medida fue introducida por Cureton como un tamaño del efecto para la prueba U de Mann-Whitney . Es decir, hay dos grupos y las puntuaciones de los grupos se han convertido en rangos. La fórmula de diferencia simple de Kerby calcula la correlación de rango-biserial a partir del tamaño del efecto del lenguaje común. Si f es la proporción de pares favorables a la hipótesis (el tamaño del efecto del lenguaje común), y siendo u la proporción de pares no favorables, el rango-biserial r es la diferencia simple entre las dos proporciones: r = f – u. En otras palabras, la correlación es la diferencia entre el tamaño del efecto del lenguaje común y su complemento. Por ejemplo, si el tamaño del efecto del lenguaje común es del 60%, entonces el rango biserial r es igual al 60% menos el 40%, o r = 0,20. La fórmula de Kerby es direccional, con valores positivos que indican que los resultados apoyan la hipótesis.
Wendt proporcionó una fórmula no direccional para la correlación de rango-biserial, de modo que la correlación es siempre positiva. La ventaja de la fórmula de Wendt es que se puede calcular con información que está fácilmente disponible en artículos publicados. La fórmula utiliza solo el valor de prueba de U de la prueba U de Mann-Whitney y los tamaños de muestra de los dos grupos: r = 1 – (2U) / (n1 n2). Tenga en cuenta que U se define aquí de acuerdo con la definición clásica como el menor de los dos valores de U que se pueden calcular a partir de los datos. Esto asegura que 2U < n1n2, ya que n1n2 es el valor máximo de las estadísticas U.
Un ejemplo puede ilustrar el uso de las dos fórmulas. Considere un estudio de salud de veinte adultos mayores, diez en el grupo de tratamiento y diez en el grupo de control; por tanto, hay diez por diez o 100 pares.El programa de salud utiliza dieta, ejercicio y suplementos para mejorar la memoria, y la memoria se mide mediante una prueba estandarizada. Una prueba U de Mann-Whitney muestra que el adulto en el grupo de tratamiento tenía la mejor memoria en 70 de los 100 pares y la memoria más pobre en 30 pares. La U de Mann-Whitney es la menor de 70 y 30, por lo que U = 30. La correlación entre la memoria y el rendimiento del tratamiento según la fórmula de diferencia simple de Kerby es r = (70/100) – (30/100) = 0,40. La correlación por la fórmula de Wendt es r = 1 – (2 · 30) / (10 · 10) = 0.40.
Tamaño del efecto para datos ordinalesEditar
Cliff «s delta o d {\ displaystyle d}, desarrollado originalmente por Norman Cliff para su uso con datos ordinales, es una medida de la frecuencia con la que los valores de una distribución son mayores que los valores de una segunda distribución. Fundamentalmente, no requiere ninguna suposición sobre la forma o extensión de las dos distribuciones.
La estimación de muestra d {\ displaystyle d} viene dada por:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} está relacionado linealmente con la estadística U de Mann-Whitney; sin embargo, captura la dirección de la diferencia en su signo. Dado el valor de Mann-Whitney U {\ displaystyle U}, d {\ displaystyle d} es:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}