Dimensiunea efectului

Sunt cunoscute aproximativ 50 până la 100 de măsuri diferite ale dimensiunii efectului. Multe dimensiuni ale efectelor de diferite tipuri pot fi convertite în alte tipuri, deoarece mulți estimează separarea a două distribuții, deci sunt corelate matematic. De exemplu, un coeficient de corelație poate fi convertit într-un Cohen „sd și invers.

Familia de corelație: dimensiunile efectelor bazate pe” varianța explicată „Edit

Aceste dimensiuni ale efectului estimează suma a varianței în cadrul unui experiment care este „explicat” sau „contabilizat” de modelul experimentului (Variația explicată).

Pearson r sau coeficient de corelațieEdit

Corelația Pearson , adesea notat r și introdus de Karl Pearson, este utilizat pe scară largă ca dimensiune a efectului atunci când sunt disponibile date cantitative asociate; de exemplu, dacă s-ar studia relația dintre greutatea la naștere și longevitate. Coeficientul de corelație poate fi utilizat și atunci când datele sunt binare Pearson „sr poate varia în mărime de la -1 la 1, cu -1 indicând o relație liniară negativă perfectă, 1 indicând o relație liniară pozitivă perfectă și 0 indicând nicio relație liniară între două variabile. Cohen oferă următoarele orientări pentru științele sociale:

Dimensiunea efectului r
Mic 0.10
Mediu 0.30
Mare 0.50
Coeficientul de determinare (r2 sau R2) Editați

O dimensiune a efectului asociată este r2, coeficientul de determinare (denumit și R2 sau „r-pătrat”), calculat ca pătratul corelației Pearson r. În cazul datelor asociate, aceasta este o măsură a proporției de varianță împărțită de cele două variabile și variază de la 0 la 1. De exemplu, cu un r de 0,21, coeficientul de determinare este 0,0441, ceea ce înseamnă că 4,4% din varianța oricărei variabile este partajată cu cealaltă variabilă. R2 este întotdeauna pozitiv, deci nu transmite direcția corelației dintre cele două variabile.

Eta-squared (η2) Edit

Eta-squared descrie raportul de varianță explicat în variabila dependentă de un predictor în timp ce controlează pentru alți predictori, făcându-l analog cu r2. Eta-squared este un estimator părtinitor al varianței explicate de model în populație (estimează doar dimensiunea efectului din eșantion). Această estimare împarte slăbiciunea cu r2 că fiecare variabilă suplimentară va crește automat valoarea η2. În plus, măsoară varianța explicată a eșantionului, nu a populației, ceea ce înseamnă că va supraestima întotdeauna dimensiunea efectului, deși prejudecata crește pe măsură ce eșantionul crește. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Tratament}}} {SS _ {\ text {Total}}}}.}

Omega-pătrat (ω2) Editare
A se vedea, de asemenea: R2 ajustat

Un estimator mai puțin părtinitor al varianței explicate în populație este ω2

treatment 2 = tratament SS – tratament df error eroare MS total SS + eroare MS. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {treatment}} – df _ {\ text {treatment}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}}.}

Această formă a formulei este limitată la analiza între subiecți, cu dimensiuni egale ale eșantionului în toate celulele. Deoarece este mai puțin părtinitor (deși nu este imparțial), ω2 este de preferat față de η2; cu toate acestea, poate fi mai incomod să se calculeze pentru analize complexe. O formă generalizată a estimatorului a fost publicată pentru analize între subiecți și subiecți, măsuri repetate, proiectare mixtă și experimente de proiectare a blocurilor randomizate. În plus, au fost publicate metode pentru a calcula partial2 parțial pentru factori individuali și factori combinați în modele cu până la trei variabile independente.

Cohen „s ƒ2Edit

Cohen” s ƒ2 este una a mai multor măsuri de mărime a efectului de utilizat în contextul unui test F pentru ANOVA sau regresie multiplă. Cantitatea de prejudecată (supraestimarea mărimii efectului pentru ANOVA) depinde de tendința măsurării subiacente a varianței explicate (de exemplu, R2, η2, ω2).

Măsura dimensiunii efectului ƒ2 pentru regresie multiplă este definit ca:

f 2 = R 2 1 – R 2 {\ displaystyle f ^ {2} = {R ^ {2} \ over 1-R ^ {2}}} unde R2 este corelația multiplă pătrată .

La fel, ƒ2 poate fi definit ca:

f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} sau f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} pentru modelele descrise prin acele măsuri de dimensiune a efectului.

Măsurarea dimensiunii efectului f 2 {\ displaystyle f ^ {2}} pentru regresia multiplă secvențială și, de asemenea, comună pentru modelarea PLS este definită ca:

f 2 = RAB 2 – RA 2 1 – RAB 2 {\ displaystyle f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ over 1-R_ {AB} ^ {2}}} unde R2A este varianța contabilizată de un set de una sau mai multe variabile independente A și R2AB este varianța combinată contabilizată de A și un alt set de una sau mai multe variabile independente de interes B. Prin convenție, ƒ2 dimensiuni de efect de 0,1 2 {\ displaystyle 0.1 ^ {2}}, 0,25 2 {\ displaystyle 0.25 ^ {2}} și 0.4 2 {\ displaystyle 0.4 ^ {2}} sunt denumite mici, medii și, respectiv, mari.

Cohen „sf ^ {\ displaystyle {\ hat {f}}} poate fi găsit și pentru analiza factorială a varianței (ANOVA) care funcționează înapoi, folosind:

f ^ effect = (F effect df effect / N ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}}.}

Într-un design echilibrat (dimensiuni de eșantion echivalente între grupuri) de ANOVA, parametrul populației corespunzător de f 2 {\ displaystyle f ^ {2}} este

SS (μ 1, μ 2, …, μ K) K × σ 2, {\ displaystyle {SS (\ mu _ {1}, \ mu _ {2}, \ dots, \ mu _ {K})} \ over {K \ times \ sigma ^ {2}}, }

în care μj reprezintă media populației din grupul j din totalul grupurilor K și σ abaterile standard ale populației echivalente în cadrul fiecărui grup. SS este suma pătratelor din ANOVA.

Cohen „s qEdit

O altă măsură care este utilizată cu diferențele de corelație este Cohen „s q. Aceasta este diferența dintre doi coeficienți de regresie Pearson transformați de Fisher. În simboluri acesta este

q = 1 2 log ⁡ 1 + r 1 1 – r 1 – 1 2 log ⁡ 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}}

unde r1 și r2 sunt regresiile comparate. Valoarea așteptată a q este zero, iar varianța sa este

var ⁡ (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}

unde N1 și N2 sunt numărul de puncte de date din prima și respectiv a doua regresie.

Familia de diferențe: dimensiunile efectelor se bazează pe diferențele dintre meansEdit

Graficele densităților Gaussiene care ilustrează diferite valori al lui Cohen „s d.

Dimensiunea efectului population (populație) θ bazat pe mijloace ia în considerare de obicei diferența medie standardizată între două populații: 78

θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}

unde μ1 este media pentru o populație, μ2 este media pentru cealaltă populație și σ este o abatere standard bazată pe una sau ambele populații.

În cadrul practic valorile populației nu sunt de obicei cunoscute și trebuie estimate din statistici eșantion. ns de dimensiuni ale efectelor bazate pe medii diferă în funcție de statisticile utilizate.

Acest formular pentru dimensiunea efectului seamănă cu calculul pentru o statistică de testare t, cu diferența critică pe care o include statistica testului t un factor de n {\ displaystyle {\ sqrt {n}}}. Aceasta înseamnă că pentru o dimensiune de efect dată, nivelul de semnificație crește odată cu dimensiunea eșantionului. Spre deosebire de statistica testului t, dimensiunea efectului vizează estimarea unui parametru de populație și nu este afectată de dimensiunea eșantionului.

Cohen „sd Edit

Cohen” sd este definit ca diferența dintre două mijloace împărțite la o abatere standard pentru date, adică

d = x ¯ 1 – x ¯ 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}

Jacob Cohen a definit s, abaterea standard cumulată, ca (pentru două eșantioane independente) :: 67

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}}

unde varianța pentru unul dintre grupuri este definită ca

s 1 2 = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}

și similar pentru celălalt grup.

Tabelul de mai jos conține descriptori pentru magnitudini de d = 0,01 până la 2,0, așa cum a fost sugerat inițial de Cohen și extins de Sawilowsky.

Dimensiunea efectului d Referință
Foarte mic 0.01
Mic 0.20
Mediu 0.50
Mare 0.80
Foarte mare 1.20
Imens 2.0

Alți autori aleg un calcul ușor diferit a abaterii standard atunci când se referă la „Cohen” sd „unde numitorul este fără” -2 „: 14

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}}

Această definiție a „Cohen” sd „este numită estimatorul de probabilitate maximă de Hedges și Olkin și este legată de Hedges” g printr-un factor de scalare (vezi mai jos ).

Cu două eșantioane împerecheate, ne uităm la distribuția scorurilor diferenței. În acest caz, s este deviația standard a acestei distribuții a scorurilor diferenței. Aceasta creează următoarea relație între statistica t pentru a testa diferența dintre cele două grupuri și Cohen „sd:

t = X ¯ 1 – X ¯ 2 SE = X ¯ 1 – X ¯ 2 SD N = N (X ¯ 1 – X ¯ 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}

și

d = X ¯ 1 – X ¯ 2 SD = t N {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}

Cohen „sd este frecvent utilizat în estimarea dimensiunilor eșantionului pentru testarea statistică. Un sd Cohen mai mic indică necesitatea unor dimensiuni mai mari ale eșantionului și invers, așa cum se poate determina ulterior împreună cu parametrii suplimentari ai nivelului de semnificație dorit și puterii statistice.

Sticlă „ΔEdit

În 1976, Gene V. Glass a propus un estimator al mărimii efectului care utilizează doar abaterea standard a celui de-al doilea grup: 78

Δ = x ¯ 1 – x ¯ 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}}

Al doilea grup poate fi considerat un grup de control și Glass a susținut că, dacă mai multe tratamente ar fi comparate cu grupul de control, ar fi mai bine să se utilizeze doar deviația standard calculată de la grupul de control, astfel încât dimensiunile efectului să nu difere în condiții egale și diferite varianțe.

o presupunere corectă a variațiilor populației egale o estimare cumulată pentru σ este mai precisă.

Hedges „gEdit

Hedges” g, sugerat de Larry Hedges în 1981, este ca și celelalte măsuri pe un di standardizat referință: 79

g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}

unde deviația standard cumulată s ∗ {\ displaystyle s ^ {*}} este calculată ca:

s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}

Cu toate acestea, ca estimator al dimensiunii efectului populației θ este părtinitor. Cu toate acestea, această părtinire poate fi corectată aproximativ prin multiplicare cu un factor

g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ displaystyle g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}

Ψ, efect standardizat rădăcină-medie-pătratEdit

Un estimator similar al mărimii efectului pentru comparații multiple (de exemplu, ANOVA) este efectul standardizat Ψ rădăcină-medie-pătrat. Aceasta prezintă în esență diferența omnibus a întregului model ajustat de pătratul mediu rădăcină, analog cu d sau g. Cea mai simplă formulă pentru Ψ, potrivită pentru ANOVA unidirecțională, este

Ψ = 1 k – 1 ⋅ ∑ (x ¯ j – X ¯) 2 MS error {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {eroare }}}}}}}

În plus, a fost furnizată o generalizare pentru design-uri multi-factoriale.

Distribuția dimensiunilor efectelor pe baza meansEdit

Din distribuție este este posibil să se calculeze așteptarea și varianța dimensiunilor efectului.

În unele cazuri se utilizează aproximări de eșantioane mari pentru varianță. O sugestie pentru varianța estimatorului imparțial Hedges este: 86

σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}

Alte valoriModificare

Distanța Mahalanobis (D) este o generalizarea multivariată a lui Cohen „sd, care ia în considerare relațiile dintre variabile.

Familie categorică: dimensiunile efectului pentru asocieri între variabilele categorice Editați

div . .Phi este legat de coeficientul de corelație punct-biserială și Cohen „sd și estimează întinderea relației dintre două variabile (2 × 2). Cramér „s V poate fi utilizat cu variabile care au mai mult de două niveluri.

Phi poate fi calculat prin găsirea rădăcinii pătrate a statisticii chi-pătrat împărțită la dimensiunea eșantionului.

În mod similar, V-ul lui Cramér se calculează luând rădăcina pătrată a statisticii chi-pătrat împărțită la dimensiunea eșantionului și lungimea dimensiunii minime (k este cea mai mică dintre numărul de rânduri r sau coloane c).

φc este intercorelația celor două variabile discrete și poate fi calculată pentru orice valoare a lui r sau c. Cu toate acestea, întrucât valorile chi-pătrate tind să crească odată cu numărul de celule, cu cât diferența dintre r și c este mai mare, cu atât mai probabil V va tinde la 1 fără dovezi puternice ale unei corelații semnificative.

Cramér ” s V poate fi aplicat și modelelor chi-pătrate „bunătate de potrivire” (adică cele unde c = 1). În acest caz funcționează ca o măsură a tendinței către un singur rezultat (adică în afara rezultatelor k). în cazul în care trebuie să folosiți r pentru k, pentru a păstra intervalul 0-1 de V. În caz contrar, utilizarea c ar reduce ecuația la cea pentru Phi.

Cohen „s wEdit

O altă măsură a dimensiunii efectului utilizată pentru testele chi-pătrat este Cohen „s w. Aceasta este definită ca

w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}}}

unde p0i este valoarea celulei ith sub H0, p1i este valoarea celulei ith sub H1 și m este numărul de celule.

φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}}

φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}}

Phi (φ) Cramér „s V (φc)
Dimensiune efect w
Mic 0.10
Mediu 0.30
Mare 0.50

Odds ratioEdit

Odds ratio (OR) este o altă dimensiune utilă a efectului. Este adecvat atunci când întrebarea de cercetare se concentrează pe gradul de asociere între două variabile binare. De exemplu, luați în considerare un studiu al abilității de ortografie. Într-un grup de control, doi elevi trec clasa pentru fiecare care nu reușește, deci șansele de a trece sunt două la unu (sau 2/1 = 2). În grupul de tratament, șase studenți trec pentru fiecare care nu reușește, deci șansele de promovare sunt de șase la unu (sau 6/1 = 6). Mărimea efectului poate fi calculată observând că șansele de trecere în grupul de tratament sunt de trei ori mai mari decât în grupul de control (deoarece 6 împărțit la 2 este 3). Prin urmare, raportul cote este de 3. Statisticile raportului cote sunt pe o scară diferită de Cohen „sd, deci acest” 3 „nu este comparabil cu un Cohen” sd de 3.

Risc relativEdit

Riscul relativ (RR), numit și raport de risc, este pur și simplu riscul (probabilitatea) unui eveniment în raport cu o variabilă independentă. Această măsură a dimensiunii efectului diferă de raportul probabilităților prin faptul că compară probabilitățile în loc de probabilități, dar se apropie asimptotic de acesta din urmă pentru probabilități mici. Folosind exemplul de mai sus, probabilitățile pentru trecerea grupului de control și a grupului de tratament este de 2/3 (sau 0,67) și respectiv 6/7 (sau 0,86). Mărimea efectului poate fi calculată la fel ca mai sus, dar folosind în schimb probabilitățile. Prin urmare, riscul relativ este de 1,28. Deoarece au fost utilizate probabilități destul de mari de trecere, există o diferență mare între riscul relativ și raportul cote. Dacă eșecul (o probabilitate mai mică) ar fi fost folosit ca eveniment (mai degrabă decât trecerea), diferența dintre cele două măsurători ale mărimii efectului nu ar fi atât de mare.

Deși ambele măsuri sunt utile, ele au statistici diferite utilizări. În cercetarea medicală, raportul de probabilități este utilizat în mod obișnuit pentru studii de caz-control, deoarece probabilitățile sunt, de obicei, estimate. Riscul relativ este utilizat în mod obișnuit în studiile randomizate controlate și în studiile de cohortă, dar riscul relativ contribuie la supraestimarea eficacității intervențiilor.

Diferența de risc Modificare

Diferența de risc (RD), uneori numită reducerea absolută a riscului, este pur și simplu diferența de risc (probabilitate) a unui eveniment între două grupuri. Este o măsură utilă în cercetarea experimentală, deoarece RD vă spune în ce măsură o intervenție experimentală modifică probabilitatea unui eveniment sau rezultat.Utilizând exemplul de mai sus, probabilitățile pentru trecerea grupului de control și a grupului de tratament sunt de 2/3 (sau 0,67) și respectiv 6/7 (sau 0,86), astfel încât dimensiunea efectului RD este de 0,86 – 0,67 = 0,19 (sau 19%). RD este măsura superioară pentru evaluarea eficienței intervențiilor.

Cohen „s hEdit

Articolul principal: Cohen” sh

O măsură utilizată în analiza puterii atunci când se compară două proporții independente sunt Cohen „s h. Aceasta este definită după cum urmează

h = 2 (arcsin ⁡ p 1 – arcsin ⁡ p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}

unde p1 și p2 sunt proporțiile celor două eșantioane comparate și arcsin este transformarea arcsine.

Mărimea efectului de limbă comună Editează

Pentru a descrie mai ușor semnificația unei dimensiuni de efect, pentru persoanele din afara statisticilor, dimensiunea efectului de limbă comună, așa cum sugerează și numele, a fost concepută pentru a o comunica în engleză simplă. Este folosit pentru a descrie o diferență între două grupuri și a fost propus, precum și numit, de Kenneth McGraw și SP Wong în 1992. Au folosit următorul exemplu (despre înălțimile bărbaților și femeilor): „în orice pereche aleatorie de adulți tineri masculi și femele, probabi Litatea bărbatului fiind mai înaltă decât femela este de 0,92, sau în termeni mai simpli încă, în 92 din 100 de date nevăzătoare în rândul adulților tineri, masculul va fi mai înalt decât femela „, atunci când se descrie valoarea populației efectului de limbaj comun size.

Valoarea populației, pentru mărimea efectului de limbaj comun, este adesea raportată astfel, în termeni de perechi alese aleatoriu din populație. Kerby (2014) remarcă faptul că o pereche, definită ca un scor într-un grup asociat cu un scor într-un alt grup, este un concept de bază al mărimii efectului de limbaj comun.

Ca un alt exemplu, luați în considerare un studiu științific (poate a unui tratament pentru unele boli cronice, cum ar fi artrita) cu zece persoane din grupul de tratament și zece persoane într-un grup de control. Dacă toată lumea din grupul de tratament este comparată cu toată lumea din grupul de control, atunci există (10 × 10 =) 100 de perechi. La sfârșitul studiului, rezultatul este evaluat într-un scor, pentru fiecare individ (de exemplu pe o scară de mobilitate și durere, în cazul unui studiu de artrită), iar apoi toate scorurile sunt comparate între perechi. Rezultatul, ca procent de perechi care susțin ipoteza, este dimensiunea comună a efectului limbajului. În studiul de exemplu, ar putea fi (să spunem) .80, dacă 80 din cele 100 de perechi de comparație arată un rezultat mai bun pentru grupul de tratament decât grupul de control, iar raportul poate citi după cum urmează: „Când un pacient în grupul de tratament a fost comparat cu un pacient din grupul de control, în 80 din 100 de perechi pacientul tratat a prezentat un rezultat mai bun al tratamentului. „Valoarea eșantionului, de exemplu într-un studiu ca acesta, este un estimator imparțial al valorii populației.

Vargha și Delaney au generalizat dimensiunea efectului de limbaj comun (Vargha-Delaney A), pentru a acoperi datele la nivel ordinal.

Corelație biserială de rang Editați

Articolul principal: Mann –Testul Whitney U § Corelația rank-biserială

O dimensiune a efectului legată de mărimea efectului limbajului comun este corelația rank-biserială. Această măsură a fost introdusă de Cureton ca dimensiune a efectului pentru testul U Mann – Whitney Adică există două grupuri, iar scorurile pentru grupuri au fost convertite în ranguri. Formula Kerby a diferenței simple calculează corelația rank-biserială din mărimea efectului de limbaj comun. Lăsând f să fie proporția de perechi favorabilă ipotezei (mărimea efectului de limbaj comun) și lăsând u proporția de perechi care nu este favorabilă, r-biserial r este diferența simplă dintre cele două proporții: r = f – u. Cu alte cuvinte, corelația este diferența dintre dimensiunea efectului de limbaj comun și complementul acestuia. De exemplu, dacă mărimea efectului de limbaj comun este de 60%, atunci rangul biserial r este egal cu 60% minus 40% sau r = 0,20. Formula Kerby este direcțională, cu valori pozitive care indică faptul că rezultatele susțin ipoteza.

O formulă nedirecțională pentru corelația rang-biserială a fost furnizată de Wendt, astfel încât corelația este întotdeauna pozitivă. Avantajul formulei Wendt este că poate fi calculat cu informații care sunt ușor disponibile în lucrările publicate. Formula utilizează numai valoarea testului U din testul U Mann-Whitney și dimensiunile eșantionului celor două grupuri: r = 1 – (2U) / (n1 n2). Rețineți că U este definit aici în conformitate cu definiția clasică ca fiind cea mai mică dintre cele două valori U care pot fi calculate din date. Acest lucru asigură că 2U < n1n2, deoarece n1n2 este valoarea maximă a statisticilor U.

Un exemplu poate ilustra utilizarea celor două formule. Luați în considerare un studiu de sănătate a douăzeci de adulți mai în vârstă, cu zece în grupul de tratament și zece în grupul de control; prin urmare, există de zece ori zece sau 100 de perechi.Programul de sănătate folosește dietă, exerciții fizice și suplimente pentru a îmbunătăți memoria, iar memoria este măsurată printr-un test standardizat. Un test Mann-Whitney U arată că adultul din grupul de tratament a avut memoria mai bună în 70 din cele 100 de perechi și memoria mai slabă în 30 de perechi. Mann-Whitney U este cel mai mic dintre 70 și 30, deci U = 30. Corelația dintre memorie și performanța tratamentului prin formula diferenței simple Kerby este r = (70/100) – (30/100) = 0,40. Corelația după formula Wendt este r = 1 – (2 · 30) / (10 · 10) = 0,40.

Dimensiunea efectului pentru date ordinale Editare

Delta sau d a Cliff {\ displaystyle d}, dezvoltat inițial de Norman Cliff pentru a fi utilizat cu date ordinale, este o măsură a frecvenței cu care valorile dintr-o distribuție sunt mai mari decât valorile dintr-o a doua distribuție. În mod crucial, nu necesită presupuneri despre formă sau răspândirea celor două distribuții.

Eșantionul estimativ d {\ displaystyle d} este dat de:

d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}

d {\ displaystyle d} este legat liniar de statistica Mann – Whitney U; totuși, surprinde direcția diferenței în semnul său. Având în vedere Mann – Whitney U {\ displaystyle U}, d {\ displaystyle d} este:

d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}

Write a Comment

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *