Taille de l’effet

Environ 50 à 100 mesures différentes de la taille de l’effet sont connues. De nombreuses tailles d’effet de types différents peuvent être converties en d’autres types, car beaucoup estiment la séparation de deux distributions et sont donc mathématiquement liées. Par exemple, un coefficient de corrélation peut être converti en un sd de Cohen « et vice versa.

Famille de corrélation: tailles d’effet basées sur la » variance expliquée « Modifier

Ces tailles d’effet estiment le montant de la variance dans une expérience qui est « expliquée » ou « prise en compte » par le modèle de l’expérience « (Variation expliquée).

Pearson r ou coefficient de corrélation Modifier

Corrélation de Pearson , souvent noté r et introduit par Karl Pearson, est largement utilisé comme taille d’effet lorsque des données quantitatives appariées sont disponibles; par exemple, si l’on étudie la relation entre le poids à la naissance et la longévité. Le coefficient de corrélation peut également être utilisé lorsque les données sont binaires . Pearson « sr peut varier en magnitude de -1 à 1, avec -1 indiquant une relation linéaire négative parfaite, 1 indiquant une relation linéaire positive parfaite et 0 indiquant aucune relation linéaire entre deux variables. Cohen donne les directives suivantes pour les sciences sociales:

Taille de l’effet r
Petit 0,10
Moyen 0,30
Grand 0,50
Coefficient de détermination (r2 ou R2) Modifier

Une taille d’effet connexe est r2, le coefficient de détermination (également appelé R2 ou « r-carré »), calculé comme le carré de la corrélation de Pearson r. Dans le cas des données appariées, il s’agit d’une mesure de la proportion de variance partagée par les deux variables, et varie de 0 à 1. Par exemple, avec un r de 0,21, le coefficient de détermination est de 0,0441, ce qui signifie que 4,4% du la variance de l’une ou l’autre variable est partagée avec l’autre variable. Le r2 est toujours positif, donc ne donne pas le sens de la corrélation entre les deux variables.

Eta-squared (η2) Edit

Eta-squared décrit le rapport de variance expliqué dans la variable dépendante par un prédicteur tout en contrôlant les autres prédicteurs, ce qui la rend analogue au r2. Eta-carré est un estimateur biaisé de la variance expliquée par le modèle dans la population (il estime uniquement la taille de l’effet dans l’échantillon). Cette estimation partage la faiblesse de r2 que chaque variable supplémentaire augmentera automatiquement la valeur de η2. De plus, il mesure la variance expliquée de l’échantillon, et non de la population, ce qui signifie qu’il surestimera toujours la taille de l’effet, bien que le biais diminue à mesure que l’échantillon grossit.

η 2 = S S Traitement S S Total. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Traitement}}} {SS _ {\ text {Total}}}}.}

Omega-squared (ω2) Edit
Voir aussi: R2 ajusté

Un estimateur moins biaisé de la variance expliquée dans la population est ω2

ω 2 = traitement SS – traitement df ⋅ erreur MS SS total + erreur MS. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {traitement}} – df _ {\ text {traitement}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}

Cette forme de la formule est limitée à l’analyse inter-sujets avec des échantillons de taille égale dans toutes les cellules. Comme il est moins biaisé (bien que non biaisé), ω2 est préférable à η2; cependant, il peut être plus gênant de calculer pour des analyses complexes. Une forme généralisée de l’estimateur a été publiée pour l’analyse inter-sujets et intra-sujets, les mesures répétées, le plan mixte et les expériences de plan de blocs randomisés. De plus, des méthodes pour calculer le ω2 partiel pour les facteurs individuels et les facteurs combinés dans les plans comportant jusqu’à trois variables indépendantes ont été publiées.

Cohen « s ƒ2Edit

Cohen » s ƒ2 est un de plusieurs mesures de taille d’effet à utiliser dans le cadre d’un test F pour ANOVA ou régression multiple. Son degré de biais (surestimation de la taille de l’effet pour l’ANOVA) dépend du biais de sa mesure sous-jacente de la variance expliquée (par exemple, R2, η2, ω2).

La mesure de la taille de l’effet ƒ2 pour la régression multiple se définit comme suit:

f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} où R2 est la corrélation multiple au carré .

De même, ƒ2 peut être défini comme:

f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} ou f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} pour les modèles décrits par ces mesures de taille d’effet.

La mesure de la taille de l’effet f 2 {\ displaystyle f ^ {2}} pour la régression multiple séquentielle et également courante pour la modélisation PLS est définie comme suit:

f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} où R2A est la variance expliquée par un ensemble de une ou plusieurs variables indépendantes A, et R2AB est la variance combinée expliquée par A et un autre ensemble d’une ou plusieurs variables indépendantes d’intérêt B. Par convention, ƒ2 tailles d’effet de 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0,25 ^ {2}} et 0,4 2 {\ displaystyle 0,4 ^ {2}} sont appelés respectivement petit, moyen et grand.

Cohen « sf ^ {\ displaystyle {\ hat {f}}} peut également être trouvé pour l’analyse factorielle de la variance (ANOVA) à rebours, en utilisant:

f ^ effect = (F effet df effet / N ). {\ displaystyle {\ hat {f}} _ {\ text {effet}} = {\ sqrt {(F _ {\ text {effet}} df _ {\ text {effet}} / N)}}.}

Dans un plan équilibré (tailles d’échantillon équivalentes dans les groupes) d’ANOVA, le paramètre de population correspondant de f 2 {\ displaystyle f ^ {2}} est

SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }

où μj désigne la moyenne de la population dans le jème groupe du total des K groupes, et σ les écarts-types de population équivalents dans chaque groupe. SS est la somme des carrés dans ANOVA.

Cohen « s qEdit

Une autre mesure utilisée avec les différences de corrélation est le q de Cohen. C’est la différence entre deux coefficients de régression de Pearson transformés par Fisher. En symboles, c’est

q = 1 2 log ⁡ 1 + r 1 1 – r 1 – 1 2 log ⁡ 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}

où r1 et r2 sont les régressions comparées. La valeur attendue de q est zéro et sa variance est

var ⁡ (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}

où N1 et N2 sont respectivement le nombre de points de données dans la première et la deuxième régression.

Famille de différences: tailles d’effet basées sur les différences entre les moyennes Modifier

Tracés de densités gaussiennes illustrant diverses valeurs de Cohen « s d.

Une taille d’effet (population) θ basée sur des moyennes considère généralement la différence moyenne standardisée entre deux populations: 78

θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}

où μ1 est la moyenne pour une population, μ2 est la moyenne pour l’autre population, et σ est un écart-type basé sur l’une ou les deux populations.

Dans le cadre pratique, les valeurs de la population ne sont généralement pas connues et doivent être estimées à partir de statistiques d’échantillons. ns de tailles d’effet basées sur des moyennes diffèrent en fonction des statistiques utilisées.

Cette forme de taille d’effet ressemble au calcul d’une statistique de test t, avec la différence critique que la statistique de test t inclut un facteur de n {\ displaystyle {\ sqrt {n}}}. Cela signifie que pour une taille d’effet donnée, le niveau de signification augmente avec la taille de l’échantillon. Contrairement à la statistique du test t, la taille de l’effet vise à estimer un paramètre de population et n’est pas affectée par la taille de l’échantillon.

Cohen « sd Edit

Cohen » sd est défini comme le différence entre deux moyennes divisée par un écart type pour les données, c’est-à-dire

d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}

Jacob Cohen a défini s, l’écart type regroupé, comme (pour deux échantillons indépendants) :: 67

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}

où la variance pour l’un des groupes est définie comme

s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}

et de même pour l’autre group.

Le tableau ci-dessous contient des descripteurs pour des magnitudes de d = 0,01 à 2,0, comme initialement suggéré par Cohen et développé par Sawilowsky.

Taille de l’effet d Référence
Très petit 0,01
Petit 0.20
Moyen 0,50
Grand 0.80
Très grand 1,20
Énorme 2.0

D’autres auteurs choisissent un calcul légèrement différent de l’écart type en se référant à « Cohen » sd « où le dénominateur est sans » -2 « : 14

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}

Cette définition de « Cohen » sd « est appelée l’estimateur du maximum de vraisemblance par Hedges et Olkin, et elle est liée à Hedges » g par un facteur d’échelle (voir ci-dessous ).

Avec deux échantillons appariés, nous examinons la distribution des scores de différence. Dans ce cas, s est l’écart type de cette distribution des scores de différence. Cela crée la relation suivante entre la statistique t pour tester une différence dans les moyennes des deux groupes et Cohen « sd:

t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}

et

d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}

Cohen « sd est fréquemment utilisé pour estimer la taille des échantillons à des fins de tests statistiques. Un Cohen « sd plus faible indique la nécessité de tailles d’échantillon plus grandes, et vice versa, comme cela peut être déterminé ultérieurement avec les paramètres supplémentaires du niveau de signification et de la puissance statistique souhaités.

Glass » ΔEdit

En 1976, Gene V. Glass a proposé un estimateur de la taille de l’effet qui n’utilise que l’écart-type du deuxième groupe: 78

Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}

Le deuxième groupe peut être considéré comme un groupe de contrôle, et Glass a fait valoir que si plusieurs traitements étaient comparés au groupe témoin, il serait préférable d’utiliser uniquement l’écart-type calculé à partir du groupe témoin, de sorte que les tailles d’effet ne différeraient pas avec des moyennes égales et des variances différentes.

Sous une hypothèse correcte de variances de population égales une estimation groupée pour σ est plus précise.

Hedges « gEdit

Hedges » g, suggéré par Larry Hedges en 1981, est comme les autres mesures basées sur un di standardisé référence: 79

g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}

où l’écart type groupé s ∗ {\ displaystyle s ^ {*}} est calculé comme suit:

s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}

Cependant, en tant qu’estimateur de la taille de l’effet de la population θ, il est biaisé. Néanmoins, ce biais peut être corrigé approximativement par multiplication par un facteur

g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ Displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}

Ψ, effet standardisé de la moyenne quadratiqueModifier

Un estimateur de taille d’effet similaire pour des comparaisons multiples (par exemple, ANOVA) est l’effet standardisé de la moyenne quadratique Ψ. Ceci présente essentiellement la différence omnibus de l’ensemble du modèle ajusté par la racine quadratique moyenne, analogue à d ou g. La formule la plus simple pour Ψ, adaptée à une ANOVA unidirectionnelle, est

Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS error {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {erreur }}}}}}}

De plus, une généralisation pour les conceptions multifactorielles a été fournie.

Distribution des tailles d’effet basée sur meansEdit

De la distribution, il est possible de calculer l’espérance et la variance des tailles d’effet.

Dans certains cas, de grandes approximations d’échantillons pour la variance sont utilisées. Une suggestion pour la variance de l’estimateur sans biais de Hedges est: 86

σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}

Autres métriquesModifier

La distance de Mahalanobis (D) est un généralisation multivariée de Cohen « sd, qui prend en compte les relations entre les variables.

Famille catégorielle: tailles d’effet pour les associations entre variables catégoriellesEdit

φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}}

φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}

Phi (φ) Cramér « s V (φc)

Les mesures d’association couramment utilisées pour le test du chi carré sont le coefficient Phi et le V de Cramér (parfois appelé Cramér « s phi et noté φc) . Phi est lié au coefficient de corrélation point-biserial et Cohen « sd et estime l’étendue de la relation entre deux variables (2 × 2). Le V de Cramér peut être utilisé avec des variables ayant plus de deux niveaux.

Phi peut être calculé en trouvant la racine carrée de la statistique du chi carré divisée par la taille de l’échantillon.

De même, le V de Cramér est calculé en prenant la racine carrée de la statistique du chi carré divisée par la taille de l’échantillon et la longueur de la dimension minimale (k est le plus petit du nombre de lignes r ou de colonnes c).

φc est l’intercorrélation des deux variables discrètes et peut être calculée pour n’importe quelle valeur de r ou c. Cependant, comme les valeurs du chi carré ont tendance à augmenter avec le nombre de cellules, plus la différence entre r et c est grande, plus il est probable que V tendra vers 1 sans preuve solide d’une corrélation significative.

Cramér  » s V peut également être appliqué aux modèles chi-carré «qualité de l’ajustement» (c’est-à-dire ceux où c = 1). Dans ce cas, il fonctionne comme une mesure de la tendance vers un résultat unique (c’est-à-dire sur k résultats). cas on doit utiliser r pour k, afin de conserver la plage 0 à 1 de V. Sinon, utiliser c réduirait l’équation à celle de Phi.

Cohen « s wEdit

Une autre mesure de la taille de l’effet utilisée pour les tests du chi carré est Cohen « s w. Ceci est défini comme

w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}

où p0i est la valeur de la ième cellule sous H0, p1i est la valeur de la ième cellule sous H1 et m est le nombre de cellules.

Taille de l’effet w
Petit 0,10
Moyen 0,30
Grand 0,50

Odds ratioModifier

L’odds ratio (OR) est une autre taille d’effet utile. Il convient lorsque la question de recherche porte sur le degré d’association entre deux variables binaires. Par exemple, considérons une étude de l’orthographe. Dans un groupe témoin, deux élèves réussissent la classe pour chaque échec, donc les chances de réussite sont de deux contre un (ou 2/1 = 2). Dans le groupe de traitement, six élèves réussissent pour chaque échec, donc les chances de réussite sont de six contre un (ou 6/1 = 6). La taille de l’effet peut être calculée en notant que les chances de réussite dans le groupe de traitement sont trois fois plus élevées que dans le groupe de contrôle (car 6 divisé par 2 est 3). Par conséquent, le rapport de cotes est 3. Les statistiques de rapport de cotes sont sur une échelle différente de celle de Cohen « sd, donc ce » 3 « n’est pas comparable à un Cohen » sd de 3.

Risque relatifEdit

Le risque relatif (RR), également appelé risque relatif, est simplement le risque (probabilité) d’un événement par rapport à une variable indépendante. Cette mesure de la taille de l’effet diffère du rapport de cotes en ce qu’elle compare les probabilités au lieu des cotes, mais s’approche asymptotiquement de ces dernières pour les petites probabilités. En utilisant l’exemple ci-dessus, les probabilités de réussite des personnes du groupe témoin et du groupe de traitement sont respectivement de 2/3 (ou 0,67) et de 6/7 (ou 0,86). La taille de l’effet peut être calculée de la même manière que ci-dessus, mais en utilisant les probabilités à la place. Par conséquent, le risque relatif est de 1,28. Étant donné que des probabilités de réussite assez élevées ont été utilisées, il existe une grande différence entre le risque relatif et le rapport de cotes. Si l’échec (une probabilité plus faible) avait été utilisé comme événement (plutôt que de passage), la différence entre les deux mesures de la taille de l’effet ne serait pas si grande.

Bien que les deux mesures soient utiles, elles ont des statistiques différentes les usages. Dans la recherche médicale, le rapport de cotes est couramment utilisé pour les études cas-témoins, car les cotes, mais pas les probabilités, sont généralement estimées. Le risque relatif est couramment utilisé dans les essais contrôlés randomisés et les études de cohorte, mais le risque relatif contribue aux surestimations de l’efficacité des interventions.

Différence de risqueModifier

La différence de risque (DR), parfois appelée réduction du risque absolu, est simplement la différence de risque (probabilité) d’un événement entre deux groupes. C’est une mesure utile dans la recherche expérimentale, car RD vous indique dans quelle mesure une intervention expérimentale change la probabilité d’un événement ou d’un résultat.En utilisant l’exemple ci-dessus, les probabilités de réussite pour ceux du groupe témoin et du groupe de traitement sont respectivement de 2/3 (ou 0,67) et de 6/7 (ou 0,86), et donc la taille de l’effet RD est de 0,86 – 0,67 = 0,19 (ou 19%). RD est la mesure supérieure pour évaluer l’efficacité des interventions.

Cohen « s hEdit

Article principal: Cohen » sh

Une mesure utilisée dans l’analyse de puissance lors de la comparaison deux proportions indépendantes est Cohen « s h. Ceci est défini comme suit

h = 2 (arcsin ⁡ p 1 – arcsin ⁡ p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}

où p1 et p2 sont les proportions des deux échantillons comparés et arcsin est la transformation arcsine.

Taille d’effet de langage commun

Pour décrire plus facilement la signification d’une taille d’effet, à des personnes extérieures aux statistiques, la taille de l’effet de langage commun, comme son nom l’indique, a été conçue pour la communiquer en anglais simple. Il est utilisé pour décrire une différence entre deux groupes et a été proposé, ainsi que nommé, par Kenneth McGraw et SP Wong en 1992. Ils ont utilisé l’exemple suivant (à propos de la taille des hommes et des femmes): « dans tout appariement aléatoire de jeunes adultes mâles et femelles, le probabi La taille du mâle étant plus grande que la femelle est de 0,92, ou en termes plus simples encore, dans 92 des 100 rendez-vous à l’aveugle chez les jeunes adultes, le mâle sera plus grand que la femelle « , lors de la description de la valeur démographique de l’effet de langage commun taille.

La valeur de la population, pour la taille de l’effet de langage commun, est souvent rapportée comme ceci, en termes de paires choisies au hasard dans la population. Kerby (2014) note qu’une paire, définie comme un score dans un groupe associé à un score dans un autre groupe, est un concept fondamental de la taille de l’effet de langage commun.

Comme autre exemple, considérons une étude scientifique (peut-être d’un traitement pour une maladie chronique, comme l’arthrite) avec dix personnes dans le groupe de traitement et dix personnes dans un groupe témoin. Si tout le monde dans le groupe de traitement est comparé à tout le monde dans le groupe de contrôle, alors il y a (10 × 10 =) 100 paires. À la fin de l’étude, le résultat est noté dans un score, pour chaque individu (par exemple sur une échelle de mobilité et de douleur, dans le cas d’une étude sur l’arthrite), puis tous les scores sont comparés entre les paires. Le résultat, en pourcentage de paires qui soutiennent l’hypothèse, est la taille de l’effet de langage commun. Dans l’étude d’exemple, cela pourrait être (disons) .80, si 80 des 100 paires de comparaison montrent un meilleur résultat pour le groupe de traitement que le groupe de contrôle, et le rapport peut se lire comme suit: « Lorsqu’un patient en le groupe de traitement a été comparé à un patient du groupe témoin, dans 80 des 100 paires, le patient traité a montré un meilleur résultat de traitement. « La valeur de l’échantillon, par exemple dans une étude comme celle-ci, est un estimateur non biaisé de la valeur de la population.

Vargha et Delaney ont généralisé la taille de l’effet de langage commun (Vargha-Delaney A), pour couvrir les données de niveau ordinal.

Corrélation de rang-biserialEdit

Article principal: Mann –Test de Whitney U § Corrélation rang-bisériel

Une taille d’effet liée à la taille de l’effet de langage commun est la corrélation rang-bisériel. Cette mesure a été introduite par Cureton comme taille d’effet pour le test U de Mann – Whitney . Autrement dit, il existe deux groupes et les scores des groupes ont été convertis en rangs. La formule de différence simple Kerby calcule la corrélation de rang-bisériel à partir de la taille de l’effet de langage commun. Soit f la proportion de paires favorables à l’hypothèse (la taille de l’effet de langage commun), et soit u la proportion de paires non favorable, le rang-bisériel r est la simple différence entre les deux proportions: r = f – u. En d’autres termes, la corrélation est la différence entre la taille de l’effet de langage commun et son complément. Par exemple, si la taille de l’effet de langage commun est de 60%, alors le rang-bisériel r est égal à 60% moins 40%, ou r = 0,20. La formule de Kerby est directionnelle, avec des valeurs positives indiquant que les résultats soutiennent l’hypothèse.

Une formule non directionnelle pour la corrélation de rang-bisériel a été fournie par Wendt, de sorte que la corrélation est toujours positive. L’avantage de la formule de Wendt est qu’elle peut être calculée avec des informations facilement disponibles dans les articles publiés. La formule utilise uniquement la valeur de test de U du test U de Mann-Whitney et les tailles d’échantillon des deux groupes: r = 1 – (2U) / (n1 n2). Notez que U est défini ici selon la définition classique comme la plus petite des deux valeurs U qui peuvent être calculées à partir des données. Cela garantit que 2U < n1n2, car n1n2 est la valeur maximale des statistiques U.

Un exemple peut illustrer l’utilisation des deux formules. Prenons une étude sur la santé de vingt adultes plus âgés, dont dix dans le groupe de traitement et dix dans le groupe témoin; par conséquent, il y a dix fois dix ou 100 paires.Le programme de santé utilise un régime, de l’exercice et des suppléments pour améliorer la mémoire, et la mémoire est mesurée par un test standardisé. Un test de Mann-Whitney U montre que l’adulte du groupe de traitement avait la meilleure mémoire dans 70 des 100 paires et la moins bonne mémoire dans 30 paires. Le Mann-Whitney U est le plus petit entre 70 et 30, donc U = 30. La corrélation entre la mémoire et les performances de traitement par la formule de différence simple de Kerby est r = (70/100) – (30/100) = 0,40. La corrélation par la formule de Wendt est r = 1 – (2 · 30) / (10 · 10) = 0.40.

Taille de l’effet pour les données ordinales Modifier

Cliff « s delta ou d {\ displaystyle d}, développé à l’origine par Norman Cliff pour être utilisé avec des données ordinales, est une mesure de la fréquence à laquelle les valeurs d’une distribution sont plus grandes que les valeurs d’une seconde distribution. Il ne nécessite aucune hypothèse sur la forme ou répartition des deux distributions.

L’échantillon d’estimation d {\ displaystyle d} est donné par:

d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}

d {\ displaystyle d} est linéairement lié à la statistique Mann – Whitney U; cependant, il capture la direction de la différence dans son signe. Étant donné le Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} est:

d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}

Write a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *