Effektgröße

Es sind etwa 50 bis 100 verschiedene Maße für die Effektgröße bekannt. Viele Effektgrößen verschiedener Typen können in andere Typen konvertiert werden, da viele die Trennung zweier Verteilungen schätzen und daher mathematisch zusammenhängen. Zum Beispiel kann ein Korrelationskoeffizient in einen Cohen „sd konvertiert werden und umgekehrt.

Korrelationsfamilie: Effektgrößen basierend auf“ Varianz erklärt „Bearbeiten

Diese Effektgrößen schätzen den Betrag der Varianz innerhalb eines Experiments, die durch das Modell des Experiments „erklärt“ oder „erklärt“ wird (Erklärte Variation).

Pearson r oder KorrelationskoeffizientEdit

Pearson-Korrelation , oft mit r bezeichnet und von Karl Pearson eingeführt, wird häufig als Effektgröße verwendet, wenn gepaarte quantitative Daten verfügbar sind, beispielsweise wenn man die Beziehung zwischen Geburtsgewicht und Langlebigkeit untersucht. Der Korrelationskoeffizient kann auch verwendet werden, wenn die Daten binär sind Pearson sr kann in der Größe von -1 bis 1 variieren, wobei -1 eine perfekte negative lineare Beziehung anzeigt, 1 eine perfekte positive lineare Beziehung anzeigt und 0 keine lineare Beziehung zwischen zwei Variablen anzeigt. Cohen gibt die folgenden Richtlinien für die Sozialwissenschaften an:

Effektgröße r
Klein 0,10
Mittel 0,30
Groß 0,50
Bestimmungskoeffizient (r2 oder R2) Bearbeiten

Eine verwandte Effektgröße ist r2, der Bestimmungskoeffizient (auch als R2 oder „r-Quadrat“ bezeichnet), berechnet als Quadrat der Pearson-Korrelation r. Im Fall von gepaarten Daten ist dies ein Maß für den Anteil der Varianz, der von den beiden Variablen geteilt wird, und variiert von 0 bis 1. Bei einem r von 0,21 beträgt der Bestimmungskoeffizient beispielsweise 0,0441, was bedeutet, dass 4,4% der Die Varianz einer der Variablen wird mit der anderen Variablen geteilt. Das r2 ist immer positiv und vermittelt daher nicht die Richtung der Korrelation zwischen den beiden Variablen.

Eta-Quadrat (η2) Bearbeiten

Eta-Quadrat beschreibt das erklärte Varianzverhältnis in der abhängigen Variablen durch einen Prädiktor, während er für andere Prädiktoren steuert, was sie analog zu r2 macht. Das Eta-Quadrat ist ein voreingenommener Schätzer der Varianz, die durch das Modell in der Population erklärt wird (es schätzt nur die Effektgröße in der Stichprobe). Diese Schätzung teilt die Schwäche mit r2, dass jede zusätzliche Variable automatisch den Wert von η2 erhöht. Darüber hinaus misst es die erklärte Varianz der Stichprobe, nicht die Population, was bedeutet, dass die Effektgröße immer überschätzt wird, obwohl die Verzerrung kleiner wird, wenn die Stichprobe größer wird.

η 2 = S S Behandlung S S Gesamt. {\ displaystyle \ eta ^ {2} = {\ frac {SS _ {\ text {Behandlung}}} {SS _ {\ text {Gesamt}}}.}

Omega-Quadrat (ω2) Bearbeiten
Siehe auch: Angepasstes R2

Ein weniger voreingenommener Schätzer der in der Grundgesamtheit erklärten Varianz ist ω2

ω 2 = SS-Behandlung – df-Behandlung ⋅ MS-Fehler SS gesamt + MS-Fehler. {\ displaystyle \ omega ^ {2} = {\ frac {{\ text {SS}} _ {\ text {behandlung}} – df _ {\ text {behandlung}} \ cdot {\ text {MS}} _ {\ text {error}}} {{\ text {SS}} _ {\ text {total}} + {\ text {MS}} _ {\ text {error}}}.}

Diese Form der Formel ist auf die Analyse zwischen Probanden mit gleichen Probengrößen in allen Zellen beschränkt. Da es weniger vorgespannt ist (obwohl es nicht unverzerrt ist), ist ω2 η2 vorzuziehen; Es kann jedoch unpraktischer sein, komplexe Analysen zu berechnen. Eine verallgemeinerte Form des Schätzers wurde für Experimente zwischen Subjekten und innerhalb von Subjekten, wiederholte Messungen, gemischtes Design und randomisierte Blockdesign-Experimente veröffentlicht. Darüber hinaus wurden Methoden zur Berechnung des partiellen ω2 für einzelne Faktoren und kombinierte Faktoren in Konstruktionen mit bis zu drei unabhängigen Variablen veröffentlicht.

Cohens ƒ2Edit

Cohens ƒ2 ist eins von mehreren Effektgrößenmaßen, die im Rahmen eines F-Tests für ANOVA oder multiple Regression verwendet werden sollen. Das Ausmaß der Verzerrung (Überschätzung der Effektgröße für die ANOVA) hängt von der Verzerrung der zugrunde liegenden Varianzmessung ab (z. B. R2, η2, ω2).

Das Maß für die ƒ2-Effektgröße für die multiple Regression ist definiert als:

f 2 = R 2 1 – R 2 {\ Anzeigestil f ^ {2} = {R ^ {2} \ über 1-R ^ {2}}} wobei R2 die quadratische Mehrfachkorrelation ist .

Ebenso kann ƒ2 definiert werden als:

f 2 = η 2 1 – η 2 {\ displaystyle f ^ {2} = {\ eta ^ {2} \ over 1- \ eta ^ {2} }} oder f 2 = ω 2 1 – ω 2 {\ displaystyle f ^ {2} = {\ omega ^ {2} \ over 1- \ omega ^ {2}}} für Modelle, die durch diese Effektgrößenmaße beschrieben werden.

Das f 2 {\ displaystyle f ^ {2}} -Effektgrößenmaß für die sequentielle multiple Regression, das auch für die PLS-Modellierung üblich ist, ist definiert als:

f 2 = RAB 2 – RA 2 1 – RAB 2 {\ Anzeigestil f ^ {2} = {R_ {AB} ^ {2} -R_ {A} ^ {2} \ über 1-R_ {AB} ^ {2}}} wobei R2A die Varianz ist, die durch eine Menge von erklärt wird eine oder mehrere unabhängige Variablen A und R2AB ist die kombinierte Varianz, die von A und einem anderen Satz von einer oder mehreren unabhängigen Variablen von Interesse B berücksichtigt wird. Konventionell sind ƒ2 Effektgrößen von 0,1 2 {\ displaystyle 0,1 ^ {2}}, 0,25 2 {\ displaystyle 0.25 ^ {2}} und 0.4 2 {\ displaystyle 0.4 ^ {2}} werden als klein, mittel bzw. groß bezeichnet.

Cohen „sf ^ {\ displaystyle {\ hat {f}}} kann auch für die faktorielle Varianzanalyse (ANOVA) gefunden werden, die rückwärts arbeitet, wobei verwendet wird:

f ^ effect = (F effect df effect / N. ). {\ displaystyle {\ hat {f}} _ {\ text {effect}} = {\ sqrt {(F _ {\ text {effect}} df _ {\ text {effect}} / N)}.}

In einem ausgeglichenen Design (äquivalente Stichprobengrößen über Gruppen hinweg) von ANOVA ist der entsprechende Populationsparameter von f 2 {\ displaystyle f ^ {2}}

SS (μ 1, μ 2,…, μ K) K × σ 2, {\ Anzeigestil {SS (\ mu _ {1}, \ mu _ {2}, \ Punkte, \ mu _ {K})} \ über {K \ times \ sigma ^ {2}}, }

wobei μj den Populationsmittelwert innerhalb der j-ten Gruppe der gesamten K-Gruppen und σ die äquivalenten Populationsstandardabweichungen innerhalb jeder Gruppe bezeichnet. SS ist die Summe der Quadrate in ANOVA.

Cohen „s qEdit

Ein weiteres Maß, das bei Korrelationsunterschieden verwendet wird, ist Cohens q. Dies ist der Unterschied zwischen zwei Fisher-transformierten Pearson-Regressionskoeffizienten. In Symbolen ist dies

q = 1 2 log ⁡ 1 + r 1 1 – r 1 – 1 2 log ⁡ 1 + r 2 1 – r 2 {\ displaystyle q = {\ frac {1} {2}} \ log {\ frac {1 + r_ {1}} {1-r_ {1}}} – {\ frac {1} {2} } \ log {\ frac {1 + r_ {2}} {1-r_ {2}}}

wobei r1 und r2 die zu vergleichenden Regressionen sind. Der erwartete Wert von q ist Null und seine Varianz ist

var ⁡ (q) = 1 N 1 – 3 + 1 N 2 – 3 {\ displaystyle \ operatorname {var} (q) = {\ frac {1} {N_ {1} -3}} + {\ frac {1} {N_ {2} -3}}}

wobei N1 und N2 die Anzahl der Datenpunkte in der ersten bzw. zweiten Regression sind. P. >

Differenzfamilie: Effektgrößen basierend auf Unterschieden zwischen meansEdit

Diagramme der Gaußschen Dichte, die verschiedene Werte veranschaulichen von Cohens d.

Eine (Populations-) Effektgröße θ basierend auf Mitteln berücksichtigt normalerweise die standardisierte mittlere Differenz zwischen zwei Populationen: 78

θ = μ 1 – μ 2 σ, {\ displaystyle \ theta = {\ frac {\ mu _ {1} – \ mu _ {2}} {\ sigma}},}

wobei μ1 der Mittelwert für eine Population ist, μ2 ist Der Mittelwert für die andere Population und σ ist eine Standardabweichung, die auf einer oder beiden Populationen basiert.

In der praktischen Einstellung sind die Populationswerte normalerweise nicht bekannt und müssen aus der Stichprobenstatistik geschätzt werden ns von Effektgrößen basierend auf Mittelwerten unterscheiden sich in Bezug darauf, welche Statistiken verwendet werden.

Diese Form für die Effektgröße ähnelt der Berechnung für eine T-Test-Statistik mit dem kritischen Unterschied, den die T-Test-Statistik enthält ein Faktor von n {\ displaystyle {\ sqrt {n}}}. Dies bedeutet, dass für eine bestimmte Effektgröße das Signifikanzniveau mit der Stichprobengröße zunimmt. Im Gegensatz zur t-Test-Statistik zielt die Effektgröße auf die Schätzung eines Populationsparameters ab und wird von der Stichprobengröße nicht beeinflusst.

Cohen „sd Bearbeiten

Cohen“ sd ist definiert als Differenz zwischen zwei Mitteln geteilt durch eine Standardabweichung für die Daten, dh

d = x 1 – x 2 s = μ 1 – μ 2 s. {\ displaystyle d = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s}} = {\ frac {\ mu _ {1} – \ mu _ {2}} {s}}.}

Jacob Cohen definierte s, die gepoolte Standardabweichung, als (für zwei unabhängige Stichproben) :: 67

s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2 } -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}

wobei die Varianz für eine der Gruppen als

s 1 2 definiert ist = 1 n 1 – 1 ∑ i = 1 n 1 (x 1, i – x ¯ 1) 2, {\ displaystyle s_ {1} ^ {2} = {\ frac {1} {n_ {1} -1} } \ sum _ {i = 1} ^ {n_ {1}} (x_ {1, i} – {\ bar {x}} _ {1}) ^ {2},}

und ähnlich für das andere Gruppe.

Die folgende Tabelle enthält Deskriptoren für Größen von d = 0,01 bis 2,0, wie ursprünglich von Cohen vorgeschlagen und von Sawilowsky erweitert.

Effektgröße d Referenz
Sehr klein 0,01
Klein 0,20
Mittel 0,50
Groß 0,80
Sehr groß 1,20
Riesig 2.0

Andere Autoren wählen eine etwas andere Berechnung der Standardabweichung bei Bezugnahme auf „Cohen“ sd „, wobei der Nenner ohne“ -2 „ist: 14 s = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 {\ displaystyle s = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} { n_ {1} + n_ {2}}}}

Diese Definition von „Cohen“ sd „wird von Hedges und Olkin als Maximum-Likelihood-Schätzer bezeichnet und ist durch einen Skalierungsfaktor mit Hedges“ g verbunden (siehe unten) ).

Bei zwei gepaarten Stichproben betrachten wir die Verteilung der Differenzwerte. In diesem Fall ist s die Standardabweichung dieser Verteilung der Differenzwerte. Dadurch entsteht die folgende Beziehung zwischen der t-Statistik um auf einen Unterschied in den Mitteln der beiden Gruppen und Cohens „sd“ zu testen:

t = X 1 – X 2 SE = X 1 – X 2 SD N = N (X 1 – X 1 2) SD {\ displaystyle t = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SE}}} = {\ frac {{ \ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ frac {\ text {SD}} {\ sqrt {N}}} = {\ frac {{\ sqrt {N}} ({ \ bar {X}} _ {1} – {\ bar {X}} _ {2})} {SD}}}

und

d = X ¯ 1 – X ¯ 2 SD = t N. {\ displaystyle d = {\ frac {{\ bar {X}} _ {1} – {\ bar {X}} _ {2}} {\ text {SD}}} = {\ frac {t} {\ sqrt {N}}}}

Cohen „sd wird häufig zur Schätzung der Stichprobengröße für statistische Tests verwendet. Ein niedrigerer Cohen „sd zeigt die Notwendigkeit größerer Probengrößen an und umgekehrt, wie anschließend zusammen mit den zusätzlichen Parametern des gewünschten Signifikanzniveaus und der statistischen Leistung bestimmt werden kann 1976 schlug Gene V. Glass einen Schätzer für die Effektgröße vor, der nur die Standardabweichung der zweiten Gruppe verwendet: 78 Δ = x 1 – x 2 s 2 {\ displaystyle \ Delta = { \ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2}} {s_ {2}}}

Die zweite Gruppe kann als Kontrollgruppe angesehen werden, und Glass argumentierte, dass es besser wäre, nur die von der Kontrollgruppe berechnete Standardabweichung zu verwenden, wenn mehrere Behandlungen mit der Kontrollgruppe verglichen würden, damit sich die Effektgrößen bei gleichen Mitteln und unterschiedlichen Varianzen nicht unterscheiden würden.

Unter Eine korrekte Annahme gleicher Populationsvarianzen, eine gepoolte Schätzung für σ, ist genauer.

Hedges „gEdit

Hedges“ g, vorgeschlagen von Larry Hedges im Jahr 1981, ist wie die anderen basierten Maßnahmen auf einem standardisierten di fference: 79

g = x ¯ 1 – x ¯ 2 s ∗ {\ displaystyle g = {\ frac {{\ bar {x}} _ {1} – {\ bar {x}} _ {2} } {s ^ {*}}}}

wobei die gepoolte Standardabweichung s ∗ {\ displaystyle s ^ {*}} wie folgt berechnet wird:

s ∗ = (n 1 – 1) s 1 2 + (n 2 – 1) s 2 2 n 1 + n 2 – 2. {\ displaystyle s ^ {*} = {\ sqrt {\ frac {(n_ {1} -1) s_ {1} ^ {2} + (n_ {2} -1) s_ {2} ^ {2}} {n_ {1} + n_ {2} -2}}}.}

Als Schätzer für die Populationseffektgröße θ ist sie jedoch verzerrt. Dennoch kann diese Verzerrung durch Multiplikation mit einem Faktor annähernd korrigiert werden p> g ∗ = J (n 1 + n 2 – 2) g ≈ (1 – 3 4 (n 1 + n 2) – 9) g {\ Anzeigestil g ^ {*} = J (n_ {1} + n_ {2} -2) \, \, g \, \ approx \, \ left (1 – {\ frac {3} {4 (n_ {1} + n_ {2}) – 9}} \ right) \, \, g} J (a) = Γ (a / 2) a / 2 Γ ((a – 1) / 2). {\ displaystyle J (a) = {\ frac {\ Gamma (a / 2)} {{\ sqrt {a / 2 \,}} \, \ Gamma ((a-1) / 2)}}.}

Ψ, standardisierter Effekt des quadratischen MittelwertsEdit

Ein ähnlicher Schätzer für die Effektgröße für mehrere Vergleiche (z. B. ANOVA) ist der standardisierte Effekt des quadratischen Mittelwerts. Dies zeigt im Wesentlichen die Omnibusdifferenz des gesamten Modells, angepasst um den quadratischen Mittelwert, analog zu d oder g. Die einfachste Formel für Ψ, die für eine Einweg-ANOVA geeignet ist, lautet

Ψ = 1 k – 1 ⋅ ⋅ (x ¯ j – X ¯) 2 MS-Fehler {\ displaystyle \ Psi = {\ sqrt {{\ frac {1} {k-1}} \ cdot {\ frac {\ sum ({\ bar {x}} _ {j} – {\ bar {X}}) ^ {2}} {MS _ {\ text {error }}}}}}}

Zusätzlich wurde eine Verallgemeinerung für multifaktorielle Designs bereitgestellt.

Verteilung der Effektgrößen basierend auf meansEdit

Aus der Verteilung möglich, die Erwartung und Varianz der Effektgrößen zu berechnen.

In einigen Fällen werden große Stichprobenannäherungen für die Varianz verwendet. Ein Vorschlag für die Varianz des unverzerrten Schätzers von Hedges ist: 86 σ ^ 2 (g ∗) = n 1 + n 2 n 1 n 2 + (g ∗) 2 2 (n 1 + n 2). { \ displaystyle {\ hat {\ sigma}} ^ {2} (g ^ {*}) = {\ frac {n_ {1} + n_ {2}} {n_ {1} n_ {2}}} + {\ frac {(g ^ {*}) ^ {2}} {2 (n_ {1} + n_ {2})}}.}

Andere MetrikenEdit

Mahalanobis-Abstand (D) ist a multivariate Verallgemeinerung von Cohen „sd, die die Beziehungen zwischen den Variablen berücksichtigt.

Kategoriale Familie: Effektgrößen für Assoziationen zwischen kategorialen VariablenEdit

φ = χ 2 N {\ displaystyle \ varphi = {\ sqrt {\ frac {\ chi ^ {2}} {N}}}

φ c = χ 2 N (k – 1) {\ displaystyle \ varphi _ {c} = {\ sqrt {\ frac {\ chi ^ {2}} {N (k-1)}}}

Phi (φ) Cramérs V (φc)

Häufig verwendete Assoziationsmaße für den Chi-Quadrat-Test sind der Phi-Koeffizient und Cramérs V (manchmal als Cramérs Phi bezeichnet und als φc bezeichnet). Phi ist mit dem Punkt-Biserial-Korrelationskoeffizienten und Cohen „sd verwandt und schätzt das Ausmaß der Beziehung zwischen zwei Variablen (2 × 2). Cramérs V kann mit Variablen mit mehr als zwei Ebenen verwendet werden.

Phi kann berechnet werden, indem die Quadratwurzel der Chi-Quadrat-Statistik geteilt durch die Stichprobengröße ermittelt wird.

In ähnlicher Weise wird Cramérs V berechnet, indem die Quadratwurzel der Chi-Quadrat-Statistik geteilt durch die Stichprobengröße und die Länge der minimalen Dimension genommen wird (k ist die kleinere der Anzahl der Zeilen r oder Spalten c). P. >

φc ist die Interkorrelation der beiden diskreten Variablen und kann für jeden Wert von r oder c berechnet werden. Da jedoch die Chi-Quadrat-Werte dazu neigen, mit der Anzahl der Zellen zuzunehmen, ist es umso wahrscheinlicher, dass V gegen 1 tendiert, je größer der Unterschied zwischen r und c ist, ohne dass ein starker Hinweis auf eine bedeutsame Korrelation vorliegt.

Cramér s V kann auch auf Chi-Quadrat-Modelle mit „Anpassungsgüte“ angewendet werden (dh solche mit c = 1). In diesem Fall fungiert es als Maß für die Tendenz zu einem einzelnen Ergebnis (dh aus k Ergebnissen) In diesem Fall muss r für k verwendet werden, um den Bereich von 0 bis 1 von V beizubehalten. Andernfalls würde die Verwendung von c die Gleichung auf die für Phi reduzieren.

Cohens wEdit

Ein weiteres Maß für die Effektgröße, die für Chi-Quadrat-Tests verwendet wird, ist Cohens w. Dies ist definiert als

w = ∑ i = 1 m (p 1 i – p 0 i) 2 p 0 i {\ displaystyle w = {\ sqrt {\ sum _ {i = 1} ^ {m} {\ frac {(p_ {1i} -p_ {0i}) ^ {2}} {p_ {0i}}}}

Dabei ist p0i der Wert der i-ten Zelle unter H0, p1i der Wert der i-ten Zelle unter H1 und m die Anzahl der Zellen.

Effektgröße w
Klein 0,10
Mittel 0,30
Groß 0,50

Odds RatioEdit

Das Odds Ratio (OR) ist eine weitere nützliche Effektgröße. Es ist angebracht, wenn sich die Forschungsfrage auf den Grad der Assoziation zwischen zwei binären Variablen konzentriert. Betrachten Sie beispielsweise eine Studie zur Rechtschreibfähigkeit. In einer Kontrollgruppe bestehen zwei Schüler die Klasse für jeden, der versagt, sodass die Wahrscheinlichkeit des Bestehens zwei zu eins beträgt (oder 2/1 = 2). In der Behandlungsgruppe bestehen sechs Schüler für jeden, der versagt, so dass die Wahrscheinlichkeit des Bestehens sechs zu eins beträgt (oder 6/1 = 6). Die Effektgröße kann berechnet werden, indem festgestellt wird, dass die Wahrscheinlichkeit, in der Behandlungsgruppe zu bestehen, dreimal höher ist als in der Kontrollgruppe (da 6 geteilt durch 2 3 ist). Daher beträgt das Odds Ratio 3. Die Odds Ratio-Statistiken liegen auf einer anderen Skala als Cohen „sd“, daher ist diese „3“ nicht mit einem Cohen „sd von 3 vergleichbar.

Relative riskEdit

Das relative Risiko (RR), auch Risikoverhältnis genannt, ist einfach das Risiko (Wahrscheinlichkeit) eines Ereignisses relativ zu einer unabhängigen Variablen. Dieses Maß für die Effektgröße unterscheidet sich vom Quotenverhältnis darin, dass es Wahrscheinlichkeiten anstelle von Quoten vergleicht, sich jedoch bei kleinen Wahrscheinlichkeiten asymptotisch letzteren nähert. Unter Verwendung des obigen Beispiels betragen die Wahrscheinlichkeiten für diejenigen in der Kontrollgruppe und in der Behandlungsgruppe 2/3 (oder 0,67) bzw. 6/7 (oder 0,86). Die Effektgröße kann wie oben berechnet werden, jedoch unter Verwendung der Wahrscheinlichkeiten. Daher beträgt das relative Risiko 1,28. Da ziemlich große Erfolgswahrscheinlichkeiten verwendet wurden, gibt es einen großen Unterschied zwischen dem relativen Risiko und dem Quotenverhältnis. Wäre ein Fehler (eine geringere Wahrscheinlichkeit) als Ereignis verwendet worden (anstatt zu bestehen), wäre der Unterschied zwischen den beiden Maßen der Effektgröße nicht so groß.

Obwohl beide Maße nützlich sind, haben sie unterschiedliche statistische Werte Verwendet. In der medizinischen Forschung wird das Odds Ratio häufig für Fall-Kontroll-Studien verwendet, da Quoten, jedoch keine Wahrscheinlichkeiten, normalerweise geschätzt werden. Das relative Risiko wird häufig in randomisierten kontrollierten Studien und Kohortenstudien verwendet, aber das relative Risiko trägt zu einer Überschätzung der Wirksamkeit von Interventionen bei.

RisikodifferenzEdit

Die Risikodifferenz (RD), manchmal auch genannt Absolute Risikominderung ist einfach der Unterschied im Risiko (Wahrscheinlichkeit) eines Ereignisses zwischen zwei Gruppen. Dies ist eine nützliche Maßnahme in der experimentellen Forschung, da RD Ihnen sagt, inwieweit eine experimentelle Intervention die Wahrscheinlichkeit eines Ereignisses oder Ergebnisses verändert.Unter Verwendung des obigen Beispiels betragen die Wahrscheinlichkeiten für diejenigen, die in der Kontrollgruppe und in der Behandlungsgruppe bestanden haben, 2/3 (oder 0,67) bzw. 6/7 (oder 0,86), und daher beträgt die RD-Effektgröße 0,86 – 0,67 = 0,19 (oder 19%). RD ist die überlegene Maßnahme zur Beurteilung der Wirksamkeit von Interventionen.

Cohens hEdit

Hauptartikel: Cohen „sh

Eine Maßnahme, die bei der Leistungsanalyse beim Vergleich verwendet wird zwei unabhängige Proportionen sind Cohens h. Dies ist wie folgt definiert:

h = 2 (arcsin ⁡ p 1 – arcsin ⁡ p 2) {\ displaystyle h = 2 (\ arcsin {\ sqrt {p_ { 1}}} – \ arcsin {\ sqrt {p_ {2}}})}

wobei p1 und p2 die Proportionen der beiden verglichenen Proben sind und arcsin die Arcsinustransformation ist.

Common Language Effect SizeEdit

Um die Bedeutung einer Effektgröße für Personen außerhalb der Statistik einfacher zu beschreiben, wurde die Common Language Effect Size, wie der Name schon sagt, so konzipiert, dass sie im Klartext kommuniziert wird. Es wird verwendet, um einen Unterschied zwischen zwei Gruppen zu beschreiben, und wurde 1992 von Kenneth McGraw und SP Wong vorgeschlagen und benannt. Sie verwendeten das folgende Beispiel (über die Körpergröße von Männern und Frauen): „bei jeder zufälligen Paarung junger Erwachsener Männer und Frauen, die Probabi Die Wahrscheinlichkeit, dass das Männchen größer als das Weibchen ist, beträgt 0,92, oder noch einfacher ausgedrückt: Bei 92 von 100 Blinddaten unter jungen Erwachsenen ist das Männchen größer als das Weibchen „, wenn der Bevölkerungswert des Effekts der gemeinsamen Sprache beschrieben wird Größe.

Der Populationswert für die Größe des gemeinsamen Spracheffekts wird häufig so angegeben, und zwar in Form von Paaren, die zufällig aus der Population ausgewählt wurden. Kerby (2014) stellt fest, dass ein Paar, definiert als Punktzahl in einer Gruppe, gepaart mit einer Punktzahl in einer anderen Gruppe, ein Kernkonzept der Größe des gemeinsamen Spracheffekts ist.

Betrachten Sie als weiteres Beispiel eine wissenschaftliche Studie (möglicherweise zur Behandlung einer chronischen Krankheit wie Arthritis) mit zehn Personen in der Behandlungsgruppe und zehn Personen in einer Kontrollgruppe. Wenn jeder in der Behandlungsgruppe mit jedem in der Kontrollgruppe verglichen wird, gibt es (10 × 10 =) 100 Paare. Am Ende der Studie wird das Ergebnis für jedes Individuum als Punktzahl bewertet (z. B. auf einer Skala für Mobilität und Schmerz im Fall einer Arthritis-Studie), und dann werden alle Punktzahlen zwischen den Paaren verglichen. Das Ergebnis als Prozentsatz der Paare, die die Hypothese unterstützen, ist die gemeinsame Spracheffektgröße. In der Beispielstudie könnte es (sagen wir mal) 0,80 sein, wenn 80 der 100 Vergleichspaare ein besseres Ergebnis für die Behandlungsgruppe als für die Kontrollgruppe zeigen und der Bericht wie folgt lauten könnte: „Wenn ein Patient in Die Behandlungsgruppe wurde mit einem Patienten in der Kontrollgruppe verglichen. In 80 von 100 Paaren zeigte der behandelte Patient ein besseres Behandlungsergebnis. „Der Stichprobenwert, beispielsweise in einer Studie wie dieser, ist ein unvoreingenommener Schätzer des Populationswerts.“ / p>

Vargha und Delaney verallgemeinerten die Größe des gemeinsamen Spracheffekts (Vargha-Delaney A), um Daten auf Ordinalebene abzudecken.

Rang-Biserial-KorrelationEdit

Hauptartikel: Mann –Whitney U-Test § Rang-Biserial-Korrelation

Eine Effektgröße, die sich auf die Effektgröße der gemeinsamen Sprache bezieht, ist die Rang-Biserial-Korrelation. Diese Maßnahme wurde von Cureton als Effektgröße für den Mann-Whitney-U-Test eingeführt Das heißt, es gibt zwei Gruppen, und die Punktzahlen für die Gruppen wurden in Ränge umgewandelt. Die einfache Kerby-Differenzformel berechnet die Rang-Biserial-Korrelation aus der Größe des gemeinsamen Spracheffekts. Wenn f der Anteil der Paare ist, der für die Hypothese günstig ist (die Größe des gemeinsamen Spracheffekts), und wenn u der Anteil der Paare ist, der nicht günstig ist, ist das Rang-Biserial r der einfache Unterschied zwischen den beiden Anteilen: r = f – u. Mit anderen Worten, die Korrelation ist der Unterschied zwischen der Größe des gemeinsamen Spracheffekts und seiner Ergänzung. Wenn beispielsweise die Größe des allgemeinen Spracheffekts 60% beträgt, entspricht das Rang-Biserial r 60% minus 40% oder r = 0,20. Die Kerby-Formel ist gerichtet, wobei positive Werte darauf hinweisen, dass die Ergebnisse die Hypothese stützen.

Wendt hat eine nicht gerichtete Formel für die Rang-Biserial-Korrelation bereitgestellt, sodass die Korrelation immer positiv ist. Der Vorteil der Wendt-Formel besteht darin, dass sie mit Informationen berechnet werden kann, die in veröffentlichten Veröffentlichungen leicht verfügbar sind. Die Formel verwendet nur den Testwert von U aus dem Mann-Whitney-U-Test und die Stichprobengrößen der beiden Gruppen: r = 1 – (2U) / (n1 n2). Beachten Sie, dass U hier gemäß der klassischen Definition als der kleinere der beiden U-Werte definiert ist, die aus den Daten berechnet werden können. Dies stellt sicher, dass 2U < n1n2, da n1n2 der Maximalwert der U-Statistik ist.

Ein Beispiel kann die Verwendung der beiden Formeln veranschaulichen. Betrachten Sie eine Gesundheitsstudie mit zwanzig älteren Erwachsenen, von denen zehn in der Behandlungsgruppe und zehn in der Kontrollgruppe liegen. Daher gibt es zehn mal zehn oder 100 Paare.Das Gesundheitsprogramm verwendet Diät, Bewegung und Nahrungsergänzungsmittel, um das Gedächtnis zu verbessern, und das Gedächtnis wird durch einen standardisierten Test gemessen. Ein Mann-Whitney-U-Test zeigt, dass der Erwachsene in der Behandlungsgruppe in 70 der 100 Paare das bessere Gedächtnis und in 30 Paaren das schlechtere Gedächtnis hatte. Das Mann-Whitney-U ist das kleinere von 70 und 30, also U = 30. Die Korrelation zwischen Gedächtnis und Behandlungsleistung nach der einfachen Kerby-Differenzformel beträgt r = (70/100) – (30/100) = 0,40. Die Korrelation nach der Wendt-Formel ist r = 1 – (2 · 30) / (10 · 10) = 0,40.

Effektgröße für OrdnungsdatenEdit

Cliffs Delta oder d {\ displaystyle d}, ursprünglich von Norman Cliff für die Verwendung mit Ordnungsdaten entwickelt, ist ein Maß dafür, wie oft die Werte in einer Verteilung größer sind als die Werte in einer zweiten Verteilung. Entscheidend ist, dass keine Annahmen über die Form oder Verteilung der beiden Verteilungen.

Die Stichprobenschätzung d {\ displaystyle d} ist gegeben durch:

d = ∑ i, j – mn {\ displaystyle d = {\ frac {\ sum _ {i, j} -} {mn}}}

d {\ displaystyle d} ist linear mit der Mann-Whitney-U-Statistik verbunden, erfasst jedoch die Richtung des Unterschieds in seinem Vorzeichen. Angesichts des Mann-Whitney U {\ displaystyle U}, d {\ displaystyle d} ist:

d = 2 U mn – 1 {\ displaystyle d = {\ frac {2U} {mn}} – 1}

Write a Comment

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.