Upload
meino-wenrich
View
114
Download
0
Embed Size (px)
Citation preview
Unser siebentes Tutorium
Materialien unter:www.esengewald.de.vu
Fragen zur Vorlesung
Welche Fragen gibt es aus der Vorlesung?
1. Aufgabe a
Lineare Quasi-Regression Quasi, weil x mehr als 2 Ausprägungen
hat Linearität gegen die echte, also
saturierte prüfen (mittels Indikatorvariablen oder polynomial parametrisiert)
1. Aufgabe aModel Summary
,652a ,425 ,419 5,4243 ,425 81,142 1 110 ,000
,758b ,575 ,567 4,6843 ,150 38,505 1 109 ,000
Model1
2
R R SquareAdjustedR Square
Std. Error ofthe Estimate
R SquareChange F Change df1 df2 Sig. F Change
Change Statistics
Predictors: (Constant), Gruppea.
Predictors: (Constant), Gruppe, xsqrb.
Coefficientsa
12,156 ,858 14,173 ,000
5,781 ,642 ,652 9,008 ,000
9,858 ,828 11,905 ,000
17,501 1,968 1,972 8,891 ,000
-5,745 ,926 -1,376 -6,205 ,000
(Constant)
Gruppe
(Constant)
Gruppe
xsqr
Model1
2
B Std. Error
UnstandardizedCoefficients
Beta
StandardizedCoefficients
t Sig.
Dependent Variable: outcomea.
1. Aufgabe a
Die saturierte Regression ist hier die einzig echte Regression, denn sie klärt sig. mehr Varianz auf als die lineare
1. Aufgabe b Das Training wirkt auf den ersten
Blick Aber diese Inferenz aus den
Mittelwertsunterschieden ist nicht zulässig Andere Kovariaten können das Ergebniss
verfälschen Aus den Mittelwertsunterschieden ist
nicht auf die Therapiewirkunk zu schließen
1. Aufgabe b Frage ist, wirkt das Training, und nicht
ob es Mittelwertsunterschiede gibt. Kausale Interpretation der
Mittelwertsunterschiede nur unter experimentellen (randomisierten) Bedingungen möglich, oder wenn der Einfluss von Kovariaten zu vernachlässigen ist.
1. Aufgabe b Hat die Kovariate Z hier einen Einfluss?
Kovariate hängt mit outcome und Treatmentvariablen poisitv zusammen Hinweis auf Einfluss von Z
Correlations
1 ,781** ,884**
,000 ,000
112 112 112
,781** 1 ,652**
,000 ,000
112 112 112
,884** ,652** 1
,000 ,000
112 112 112
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
AC Glaube
outcome
Gruppe
AC Glaube outcome Gruppe
Correlation is significant at the 0.01 level (2-tailed).**.
1. Aufgabe c
Gesucht ist also E(Y|X,Z) 3 g(z) Funktionen, da keine lineare
regressive Abhängigkeit von Y von X (siehe a) für x saturiert parametrisieren
1. Aufgabe cModel Summary
,818a ,668 ,653 4,1945Model1
R R SquareAdjustedR Square
Std. Error ofthe Estimate
Predictors: (Constant), zIx_2, zIx_1, Ix_1, AC Glaube,Ix_2
a.
Coefficientsa
11,905 1,688 7,052 ,000
-1,045 ,774 -,523 -1,350 ,180
-9,449 4,647 -,639 -2,033 ,045
3,294 ,923 1,932 3,570 ,001
-7,696 6,480 -,520 -1,188 ,238
2,807 ,992 1,920 2,830 ,006
(Constant)
AC Glaube
Ix_1
zIx_1
Ix_2
zIx_2
Model1
B Std. Error
UnstandardizedCoefficients
Beta
StandardizedCoefficients
t Sig.
Dependent Variable: outcomea.
1. Aufgabe c
Was mit nicht sig. Koeffizienten? Nicht ausschließen Sind wegen hohen Standardfehlern nicht
sig. Diese wiederum sind wegen
Multikollinearität so hoch Siehe Korrelationen zwischen den
Prädiktoren
1. Aufgabe c
MultikollinearitätCorrelations
1 ,280** ,597** ,317** ,615**
,003 ,000 ,001 ,000
112 112 112 112 112
,280** 1 -,556** ,982** -,551**
,003 ,000 ,000 ,000
112 112 112 112 112
,597** -,556** 1 -,545** ,991**
,000 ,000 ,000 ,000
112 112 112 112 112
,317** ,982** -,545** 1 -,541**
,001 ,000 ,000 ,000
112 112 112 112 112
,615** -,551** ,991** -,541** 1
,000 ,000 ,000 ,000
112 112 112 112 112
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
AC Glaube
Ix_1
Ix_2
zIx_1
zIx_2
AC Glaube Ix_1 Ix_2 zIx_1 zIx_2
Correlation is significant at the 0.01 level (2-tailed).**.
1. Aufgabe d
Restriktioin = Einschränkung Hier: g(z) lineare Funktionen von Z Muss nicht sein, da Z mehr als 2
Ausprägungen hat Zusätzliche Variable (z.B. z²) einführen Klärt diese Regression (E(Y|X,Z,Z²)) mehr
Varianz auf, so ist die lineare nicht die echte.
1. Aufgabe e
R² Differenzentest rechnen um zu sehen, ob die bedingte nichtlineare mehr Varianz aufklärt als die bedingte lineare Regression
Polynomial parametrisieren, um R²
1. Aufgabe e
R² Differenzentest rechnen um zu sehen, ob die bedingte nichtlineare mehr Varianz aufklärt als die bedingte lineare Regression
Polynomial parametrisieren, um R² Differenzentest mit SPSS zu rechnen
Dummykodierung R² Test per Hand
1. Aufgabe eModel Summary
,656a ,430 ,419 5,4240 ,430 41,082 2 109 ,000
,814b ,663 ,650 4,2106 ,233 36,940 2 107 ,000
Model1
2
R R SquareAdjustedR Square
Std. Error ofthe Estimate
R SquareChange F Change df1 df2 Sig. F Change
Change Statistics
Predictors: (Constant), xmalz, Gruppea.
Predictors: (Constant), xmalz, Gruppe, xsqr, xsqr_zb.
Coefficientsa
12,342 ,877 14,066 ,000
2,659 3,169 ,300 ,839 ,403
,310 ,308 ,359 1,006 ,317
9,858 ,744 13,244 ,000
-11,979 9,309 -1,350 -1,287 ,201
3,617 1,055 4,198 3,427 ,001
4,578 5,375 1,097 ,852 ,396
-1,368 ,593 -3,376 -2,308 ,023
(Constant)
Gruppe
xmalz
(Constant)
Gruppe
xmalz
xsqr
xsqr_z
Model1
2
B Std. Error
UnstandardizedCoefficients
Beta
StandardizedCoefficients
t Sig.
Dependent Variable: outcomea.
1. Aufgabe e
Ergebnis ist eindeutig Die bedingte lineare Regression ist nicht
linear Y ist von X bezüglich Z bedingt
nichtlinear regressiv abhängig
1. Aufgabe f
Ableiten von Aussagen über bedingte Korrelationen an Hand von standardisierten Regressionskoeffizienten Wie soll das denn gehen??
1. Aufgabe fCoefficientsa
11,905 1,688 7,052 ,000
-1,045 ,774 -,523 -1,350 ,180
-9,449 4,647 -,639 -2,033 ,045
3,294 ,923 1,932 3,570 ,001
-7,696 6,480 -,520 -1,188 ,238
2,807 ,992 1,920 2,830 ,006
(Constant)
AC Glaube
Ix_1
zIx_1
Ix_2
zIx_2
Model1
B Std. Error
UnstandardizedCoefficients
Beta
StandardizedCoefficients
t Sig.
Dependent Variable: outcomea.
1. Aufgabe f In Anlehnung an die einfache lineare
Regression: Korrelation war hier der standardisierte
Steigungskoeffizient Jetzt sind die g – Funktionen die
Steigungskoeffizienten Standardisierte Regressionskoeffizienten einer g-
Funktion betrachten und über die g – Funktionen hinweg vergleichen
Vergleichende Aussagen der bedingten Korrelationen sind möglich
1. Aufgabe fCorrelations
1 -,226
,213
32 32
-,226 1
,213
32 32
1 ,609**
,000
40 40
,609** 1
,000
40 40
1 ,418**
,007
40 40
,418** 1
,007
40 40
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
outcome
AC Glaube
outcome
AC Glaube
outcome
AC Glaube
Gruppe0
1
2
outcome AC Glaube
Correlation is significant at the 0.01 level (2-tailed).**.
1. Aufgabe g
Partialkorrelation Korrelation zwischen zwei Variablen,
bereinigt um den Effekt einer 3. Variablen
Correlations
1,000 -,135
. ,159
0 109
-,135 1,000
,159 .
109 0
Correlation
Significance (2-tailed)
df
Correlation
Significance (2-tailed)
df
Gruppe
outcome
Control VariablesAC Glaube
Gruppe outcome
2. Aufgabe
Siehe Tafel