Sono note da 50 a 100 diverse misure della dimensione dell’effetto. Molte dimensioni degli effetti di diversi tipi possono essere convertite in altri tipi, poiché molti stimano la separazione di due distribuzioni, quindi sono matematicamente correlati. Ad esempio, un coefficiente di correlazione può essere convertito in un “SD di Cohen e viceversa.
Famiglia di correlazione: dimensioni degli effetti basate sulla” varianza spiegata “Modifica
Queste dimensioni degli effetti stimano la quantità della varianza all’interno di un esperimento che è “spiegato” o “rappresentato” dal modello dell’esperimento (variazione spiegata).
Pearson r o coefficiente di correlazioneModifica
Correlazione di Pearson , spesso indicato con re introdotto da Karl Pearson, è ampiamente utilizzato come dimensione dell’effetto quando sono disponibili dati quantitativi accoppiati; ad esempio se si studia la relazione tra peso alla nascita e longevità. Il coefficiente di correlazione può essere utilizzato anche quando i dati sono binari . Pearson “sr può variare in grandezza da −1 a 1, dove −1 indica una relazione lineare negativa perfetta, 1 indica una relazione lineare positiva perfetta e 0 indica nessuna relazione lineare tra due variabili. Cohen fornisce le seguenti linee guida per le scienze sociali:
Dimensione effetto | r |
---|---|
Piccolo | 0,10 |
Medio | 0,30 |
Grande | 0,50 |
Coefficiente di determinazione (r2 o R2) Modifica
La dimensione dell’effetto correlato è r2, il coefficiente di determinazione (indicato anche come R2 o “r-quadrato”), calcolato come il quadrato della correlazione di Pearson r. Nel caso di dati accoppiati, questa è una misura della proporzione di varianza condivisa dalle due variabili e varia da 0 a 1. Ad esempio, con un r di 0,21 il coefficiente di determinazione è 0,0441, il che significa che il 4,4% del la varianza di una delle due variabili è condivisa con l’altra variabile. L’r2 è sempre positivo, quindi non trasmette la direzione della correlazione tra le due variabili.
Eta-quadrato (η2) Modifica
Eta-quadrato descrive il rapporto di varianza spiegato nella variabile dipendente da un predittore mentre si controlla per altri predittori, rendendolo analogo a r2. Eta-squared è uno stimatore distorto della varianza spiegata dal modello nella popolazione (stima solo la dimensione dell’effetto nel campione). Questa stima condivide la debolezza con r2 che ogni variabile aggiuntiva aumenterà automaticamente il valore di η2. Inoltre, misura la varianza spiegata del campione, non della popolazione, il che significa che sovrastimerà sempre la dimensione dell’effetto, sebbene il bias si riduca all’aumentare del campione.
η 2 = S S Trattamento S S Totale. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Treatment}}} {SS _ {\ text {Total}}}}.}
Omega-squared (ω2) Modifica
Uno stimatore meno distorto della varianza spiegata nella popolazione è ω2
ω 2 = trattamento SS – trattamento df ⋅ Errore MS SS totale + errore MS. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}
Questa forma della formula è limitato all’analisi tra soggetti con le stesse dimensioni del campione in tutte le celle. Poiché è meno distorto (sebbene non corretto), ω2 è preferibile a η2; tuttavia, può essere più scomodo calcolare per analisi complesse. È stata pubblicata una forma generalizzata dello stimatore per analisi tra soggetti e all’interno di soggetti, misure ripetute, disegno misto e esperimenti di disegno a blocchi randomizzati. Inoltre, sono stati pubblicati metodi per calcolare ω2 parziale per fattori individuali e fattori combinati in progetti con un massimo di tre variabili indipendenti.
ƒ2Edit di Cohen
ƒ2 di Cohen è uno di diverse misure della dimensione dell’effetto da utilizzare nel contesto di un test F per ANOVA o regressione multipla. La sua quantità di bias (sovrastima della dimensione dell’effetto per l’ANOVA) dipende dalla distorsione della sua misurazione sottostante della varianza spiegata (ad esempio, R2, η2, ω2).
La misura della dimensione dell’effetto ƒ2 per la regressione multipla è definito come:
f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} dove R2 è la correlazione multipla al quadrato .
Allo stesso modo, ƒ2 può essere definito come:
f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} o f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} per i modelli descritti da queste misure di dimensione dell’effetto.
La misura della dimensione dell’effetto f 2 {\ displaystyle f ^ {2}} per la regressione multipla sequenziale e comune anche per la modellazione PLS è definita come:
f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} dove R2A è la varianza rappresentata da un insieme di una o più variabili indipendenti A e R2AB è la varianza combinata rappresentata da A e da un altro insieme di una o più variabili indipendenti di interesse B. Per convenzione, ƒ2 dimensioni dell’effetto di 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0.25 ^ {2}} e 0.4 2 {\ displaystyle 0.4 ^ {2}} sono rispettivamente chiamati piccolo, medio e grande.
Cohen “sf ^ {\ displaystyle {\ hat {f}}} può essere trovato anche per l’analisi fattoriale della varianza (ANOVA) lavorando all’indietro, usando:
f ^ effect = (F effetto df effetto / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}
In un disegno bilanciato (dimensioni del campione equivalenti tra i gruppi) di ANOVA, il parametro della popolazione corrispondente di f 2 {\ displaystyle f ^ {2}} è
SS (μ 1, μ 2,…, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }
in cui μj indica la media della popolazione all’interno del j-esimo gruppo dei gruppi K totali e σ le deviazioni standard della popolazione equivalente all’interno di ciascun gruppo. SS è la somma dei quadrati in ANOVA.
Cohen “s qEdit
Un’altra misura utilizzata con le differenze di correlazione è “s q di Cohen. Questa è la differenza tra due coefficienti di regressione di Pearson trasformati di Fisher. Nei simboli questo è
q = 1 2 log 1 + r 1 1 – r 1 – 1 2 log 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}
dove r1 e r2 sono le regressioni confrontate. Il valore atteso di q è zero e la sua varianza è
var (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}
dove N1 e N2 sono il numero di punti dati rispettivamente nella prima e nella seconda regressione.
Famiglia di differenze: dimensioni degli effetti basate sulle differenze tra i mezziModifica
Grafici di densità gaussiane che illustrano vari valori di Cohen “s d.
Una dimensione dell’effetto (popolazione) θ basata sulla media di solito considera la differenza media standardizzata tra due popolazioni: 78
θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}
dove μ1 è la media di una popolazione, μ2 è la media per l’altra popolazione e σ è una deviazione standard basata su una o entrambe le popolazioni.
Nell’impostazione pratica i valori della popolazione in genere non sono noti e devono essere stimati dalle statistiche del campione. Le varie versioni Le dimensioni dell’effetto basate sulle medie differiscono rispetto a quali statistiche vengono utilizzate.
Questo modulo per la dimensione dell’effetto assomiglia al calcolo per una statistica del test t, con la differenza critica che include la statistica del test t un fattore di n {\ displaystyle {\ sqrt {n}}}. Ciò significa che per una data dimensione dell’effetto, il livello di significatività aumenta con la dimensione del campione. A differenza della statistica del test t, la dimensione dell’effetto mira a stimare un parametro della popolazione e non è influenzata dalla dimensione del campione.
Cohen “sd Edit
Cohen” sd è definito come differenza tra due medie divisa per una deviazione standard per i dati, cioè
d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}
Jacob Cohen ha definito s, la deviazione standard aggregata, come (per due campioni indipendenti) :: 67
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}
dove la varianza per uno dei gruppi è definita come
s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}
e similmente per gli altri gruppo.
La tabella seguente contiene descrittori per magnitudini da d = 0,01 a 2,0, come inizialmente suggerito da Cohen ed ampliato da Sawilowsky.
Dimensione effetto | d | Riferimento |
---|---|---|
Molto piccolo | 0,01 | |
Piccolo | 0,20 | |
Medio | 0,50 | |
Grande | 0,80 | |
Molto grande | 1,20 | |
Enorme | 2.0 |
Altri autori scelgono un calcolo leggermente diverso della deviazione standard quando ci si riferisce a “Cohen” sd “dove il denominatore è senza” -2 “: 14
s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}
Questa definizione di “Cohen” sd “è chiamata stimatore di massima verosimiglianza da Hedges e Olkin, ed è correlata a Hedges” g da un fattore di scala (vedi sotto ).
Con due campioni appaiati, esaminiamo la distribuzione dei punteggi di differenza. In tal caso, s è la deviazione standard di questa distribuzione dei punteggi di differenza. Ciò crea la seguente relazione tra la statistica t per verificare una differenza nelle medie dei due gruppi e di Cohen “sd:
t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}
e
d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}
Cohen “sd è spesso utilizzato nella stima delle dimensioni del campione per i test statistici. Un valore “sd” di Cohen inferiore indica la necessità di campioni di dimensioni maggiori e viceversa, come può essere successivamente determinato insieme ai parametri aggiuntivi del livello di significatività e potenza statistica desiderati.
Vetro “ΔEdit
Nel 1976, Gene V. Glass propose uno stimatore della dimensione dell’effetto che utilizza solo la deviazione standard del secondo gruppo: 78
Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}
Il secondo gruppo può essere considerato un gruppo di controllo e Glass ha sostenuto che se diversi trattamenti fossero stati confrontati con il gruppo di controllo sarebbe stato meglio usare solo la deviazione standard calcolata dal gruppo di controllo, in modo che le dimensioni degli effetti non differissero a parità di medie e varianze diverse.
Sotto una corretta ipotesi di uguali varianze della popolazione una stima aggregata per σ è più precisa.
Hedges “gEdit
Hedges” g, suggerito da Larry Hedges nel 1981, è come le altre misure basate su un standardizzato di fference: 79
g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}
dove la deviazione standard aggregata s ∗ {\ displaystyle s ^ {*}} è calcolata come:
s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}
Tuttavia, come stimatore per la dimensione dell’effetto sulla popolazione θ è distorta. Tuttavia, questa distorsione può essere approssimativamente corretta moltiplicando per un fattore
g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}
Ψ, effetto standardizzato radice quadrata mediaModifica
Uno stimatore della dimensione dell’effetto simile per confronti multipli (ad esempio, ANOVA) è l’effetto standardizzato Ψ radice quadrata media. Questo presenta essenzialmente la differenza omnibus dell’intero modello aggiustata dalla radice quadrata media, analoga a d o g. La formula più semplice per Ψ, adatta per ANOVA unidirezionale, è
Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 Errore MS {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {errore }}}}}}}
Inoltre, è stata fornita una generalizzazione per i progetti multifattoriali.
Distribuzione delle dimensioni degli effetti basata su meansEdit
Dalla distribuzione è possibile calcolare l’aspettativa e la varianza delle dimensioni dell’effetto.
In alcuni casi vengono utilizzate grandi approssimazioni campione per la varianza. Un suggerimento per lo stimatore imparziale della varianza di Hedges è: 86
σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}
Altre metriche Modifica
La distanza di Mahalanobis (D) è una generalizzazione multivariata di Cohen “sd, che tiene conto delle relazioni tra le variabili.
Famiglia categoriale: dimensioni degli effetti per le associazioni tra variabili categorialiModifica
φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}} |
φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}} |
Phi (φ) | Cramér “s V (φc) |
---|
Le misure di associazione comunemente utilizzate per il test del chi quadrato sono il coefficiente Phi e la V di Cramér (a volte indicata come phi di Cramér e indicata come φc) Phi è correlato al coefficiente di correlazione punto-biseriale e alla “sd” di Cohen e stima l’entità della relazione tra due variabili (2 × 2). La V di Cramér può essere utilizzata con variabili aventi più di due livelli.
Phi può essere calcolato trovando la radice quadrata della statistica chi-quadrato divisa per la dimensione del campione.
Allo stesso modo, la V di Cramér viene calcolata prendendo la radice quadrata della statistica chi quadrato divisa per la dimensione del campione e la lunghezza della dimensione minima (k è il minore del numero di righe r o colonne c).
φc è l’intercorrelazione delle due variabili discrete e può essere calcolata per qualsiasi valore di r o c. Tuttavia, poiché i valori del chi quadrato tendono ad aumentare con il numero di cellule, maggiore è la differenza tra re c, più è probabile che V tenderà a 1 senza una forte evidenza di una correlazione significativa.
Cramér ” s V può anche essere applicato ai modelli chi-quadrato “bontà di adattamento” (cioè quelli dove c = 1). In questo caso funziona come una misura della tendenza verso un singolo risultato (cioè su k risultati). caso si deve usare r per k, al fine di preservare l’intervallo da 0 a 1 di V. Altrimenti, l’uso di c ridurrebbe l’equazione a quella di Phi.
Cohen “s wEdit
Un’altra misura della dimensione dell’effetto utilizzata per i test del chi quadrato è “s w di Cohen. Questo è definito come
w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}
dove p0i è il valore della iesima cella sotto H0, p1i è il valore della iesima cella sotto H1 ed m è il numero di celle.
Dimensione effetto | w |
---|---|
Piccolo | 0,10 |
Medio | 0,30 |
Grande | 0,50 |
Odds ratioEdit
L’oddds ratio (OR) è un’altra dimensione utile dell’effetto. È appropriato quando la domanda di ricerca si concentra sul grado di associazione tra due variabili binarie. Ad esempio, considera uno studio sulla capacità di ortografia. In un gruppo di controllo, due studenti superano la classe per ognuno che fallisce, quindi le probabilità di passare sono due a uno (o 2/1 = 2). Nel gruppo di trattamento, sei studenti passano per ognuno che fallisce, quindi le probabilità di passare sono sei a uno (o 6/1 = 6). La dimensione dell’effetto può essere calcolata osservando che le probabilità di passaggio nel gruppo di trattamento sono tre volte superiori rispetto al gruppo di controllo (perché 6 diviso 2 è 3). Pertanto, l’odds ratio è 3. Le statistiche degli odds ratio sono su una scala diversa da “sd di Cohen”, quindi questo “3” non è paragonabile a un sd di Cohen di 3.
Rischio relativoEdit
Il rischio relativo (RR), chiamato anche rapporto di rischio, è semplicemente il rischio (probabilità) di un evento relativo a una variabile indipendente. Questa misura della dimensione dell’effetto differisce dall’odds ratio in quanto confronta le probabilità anziché le probabilità, ma si avvicina asintoticamente a quest’ultima per probabilità piccole. Utilizzando l’esempio sopra, le probabilità di passaggio di coloro nel gruppo di controllo e nel gruppo di trattamento sono rispettivamente 2/3 (o 0,67) e 6/7 (o 0,86). La dimensione dell’effetto può essere calcolata come sopra, ma utilizzando invece le probabilità. Pertanto, il rischio relativo è 1,28. Poiché sono state utilizzate probabilità di superamento piuttosto grandi, c’è una grande differenza tra rischio relativo e odds ratio. Se come evento fosse stato utilizzato il fallimento (una probabilità minore) (anziché il passaggio), la differenza tra le due misure della dimensione dell’effetto non sarebbe così grande.
Sebbene entrambe le misure siano utili, hanno statistiche diverse usi. Nella ricerca medica, l’odds ratio è comunemente usato per gli studi caso-controllo, poiché le probabilità, ma non le probabilità, sono generalmente stimate. Il rischio relativo è comunemente utilizzato negli studi randomizzati controllati e negli studi di coorte, ma il rischio relativo contribuisce a sovrastimare l’efficacia degli interventi.
Differenza di rischio Modifica
La differenza di rischio (RD), a volte chiamata riduzione del rischio assoluto, è semplicemente la differenza di rischio (probabilità) di un evento tra due gruppi. È una misura utile nella ricerca sperimentale, poiché RD ti dice fino a che punto un intervento sperimentale cambia la probabilità di un evento o risultato.Utilizzando l’esempio sopra, le probabilità di passaggio di coloro nel gruppo di controllo e nel gruppo di trattamento sono 2/3 (o 0,67) e 6/7 (o 0,86), rispettivamente, e quindi la dimensione dell’effetto RD è 0,86 – 0,67 = 0,19 (o 19%). RD è la misura migliore per valutare l’efficacia degli interventi.
Cohen “s hEdit
Una misura utilizzata nell’analisi di potenza durante il confronto due proporzioni indipendenti è la h di Cohen. Questa è definita come segue
h = 2 (arcsin p 1 – arcsin p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}
dove p1 e p2 sono le proporzioni dei due campioni confrontati e arcsin è la trasformazione dell’arcoseno.
Dimensione dell’effetto del linguaggio comuneModifica
Per descrivere più facilmente il significato di una dimensione dell’effetto, a persone al di fuori delle statistiche, la dimensione dell’effetto del linguaggio comune, come suggerisce il nome, è stata progettata per comunicarlo in un inglese semplice. È usato per descrivere una differenza tra due gruppi ed è stato proposto, oltre che nominato, da Kenneth McGraw e SP Wong nel 1992. Hanno usato il seguente esempio (sulle altezze di uomini e donne): “in qualsiasi accoppiamento casuale di giovani adulti maschi e femmine, il probabi lità del maschio che è più alto della femmina è 0,92, o in termini più semplici ancora, in 92 su 100 appuntamenti al buio tra i giovani adulti, il maschio sarà più alto della femmina “, descrivendo il valore della popolazione dell’effetto del linguaggio comune size.
Il valore della popolazione, per la dimensione dell’effetto del linguaggio comune, è spesso riportato in questo modo, in termini di coppie scelte a caso dalla popolazione. Kerby (2014) osserva che una coppia, definita come un punteggio in un gruppo abbinato a un punteggio in un altro gruppo, è un concetto fondamentale della dimensione dell’effetto del linguaggio comune.
Come altro esempio, si consideri uno studio scientifico (forse di un trattamento per alcune malattie croniche, come l’artrite) con dieci persone nel gruppo di trattamento e dieci persone in un gruppo di controllo. Se tutti nel gruppo di trattamento vengono confrontati con tutti nel gruppo di controllo, allora ci sono (10 × 10 =) 100 coppie. Alla fine dello studio, il risultato viene valutato in un punteggio, per ogni individuo (ad esempio su una scala di mobilità e dolore, nel caso di uno studio sull’artrite), quindi tutti i punteggi vengono confrontati tra le coppie. Il risultato, come percentuale di coppie che supportano l’ipotesi, è la dimensione dell’effetto del linguaggio comune. Nello studio di esempio potrebbe essere (diciamo) .80, se 80 coppie di confronto su 100 mostrano un risultato migliore per il gruppo di trattamento rispetto al gruppo di controllo, e il rapporto potrebbe essere il seguente: “Quando un paziente in il gruppo di trattamento è stato confrontato con un paziente nel gruppo di controllo, in 80 coppie su 100 il paziente trattato ha mostrato un risultato migliore del trattamento. “Il valore del campione, ad esempio in uno studio come questo, è uno stimatore imparziale del valore della popolazione.
Vargha e Delaney hanno generalizzato la dimensione dell’effetto del linguaggio comune (Vargha-Delaney A), per coprire i dati a livello ordinale.
Correlazione rango-biseriale –Whitney U test § Correlazione rango-biseriale
Una dimensione dell’effetto relativa alla dimensione dell’effetto del linguaggio comune è la correlazione rango-biseriale. Questa misura è stata introdotta da Cureton come dimensione dell’effetto per il test U di Mann-Whitney Cioè, ci sono due gruppi e i punteggi per i gruppi sono stati convertiti in ranghi. La formula della differenza semplice Kerby calcola la correlazione rango-biseriale dalla dimensione dell’effetto del linguaggio comune. Lasciando f la proporzione di coppie favorevoli all’ipotesi (la dimensione dell’effetto del linguaggio comune), e lasciando u la proporzione di coppie non favorevoli, il rango-biseriale r è la semplice differenza tra le due proporzioni: r = f – u. In altre parole, la correlazione è la differenza tra la dimensione dell’effetto del linguaggio comune e il suo complemento. Ad esempio, se la dimensione dell’effetto del linguaggio comune è del 60%, il rango-biseriale r è uguale al 60% meno il 40% o r = 0,20. La formula di Kerby è direzionale, con valori positivi che indicano che i risultati supportano l’ipotesi.
Una formula non direzionale per la correlazione rango-biseriale è stata fornita da Wendt, in modo tale che la correlazione sia sempre positiva. Il vantaggio della formula di Wendt è che può essere calcolata con informazioni prontamente disponibili negli articoli pubblicati. La formula utilizza solo il valore di test di U dal test U di Mann-Whitney e le dimensioni del campione dei due gruppi: r = 1 – (2U) / (n1 n2). Si noti che U è definito qui secondo la definizione classica come il più piccolo dei due valori U che possono essere calcolati dai dati. Ciò garantisce che 2U < n1n2, poiché n1n2 è il valore massimo delle statistiche U.
Un esempio può illustrare l’uso delle due formule. Si consideri uno studio sulla salute di venti adulti più anziani, dieci nel gruppo di trattamento e dieci nel gruppo di controllo; quindi, ci sono dieci volte dieci o 100 coppie.Il programma di salute utilizza dieta, esercizio fisico e integratori per migliorare la memoria e la memoria viene misurata da un test standardizzato. Un test U di Mann-Whitney mostra che l’adulto nel gruppo di trattamento aveva la memoria migliore in 70 delle 100 coppie e la memoria più scarsa in 30 coppie. L’U di Mann-Whitney è il più piccolo tra 70 e 30, quindi U = 30. La correlazione tra memoria e prestazioni del trattamento con la formula della differenza semplice di Kerby è r = (70/100) – (30/100) = 0,40. La correlazione con la formula di Wendt è r = 1 – (2 · 30) / (10 · 10) = 0,40.
Dimensione dell’effetto per i dati ordinali Modifica
delta di Cliff o d {\ displaystyle d}, originariamente sviluppato da Norman Cliff per l’uso con dati ordinali, è una misura di quanto spesso i valori in una distribuzione sono maggiori dei valori in una seconda distribuzione. Fondamentalmente, non richiede alcuna supposizione sulla forma o diffusione delle due distribuzioni.
La stima campione d {\ displaystyle d} è data da:
d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}
d {\ displaystyle d} è linearmente correlato alla statistica U di Mann – Whitney; tuttavia, cattura la direzione della differenza nel suo segno. Dato il Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} è:
d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}