56
Analisis Regresi Linier ( Lanjutan )

Analisis Regresi Linier ( Lanjutan )

  • Upload
    as1222

  • View
    202

  • Download
    41

Embed Size (px)

Citation preview

Page 1: Analisis Regresi Linier ( Lanjutan )

Analisis Regresi Linier ( Lanjutan )

Page 2: Analisis Regresi Linier ( Lanjutan )

Outline- Regresi Berganda

- Pemeriksaan Regresi : Koef. Determinasi Standar ErrorInterval KepercayaanUji Hipotesis :t test, F test,

- Pelanggaran Asumsi : MulticollinearityHeteroscedasticityOtokorelasi

Page 3: Analisis Regresi Linier ( Lanjutan )

Regresi Berganda

Apakah Konsumsi hanya dipengaruhi oleh Pendapatan saja?

Ada beberapa variabel lain yang berpengaruh, seperti jumlah anggota keluarga, umur anggota keluarga, selera pribadi, dan sebagainya.

Bila dianggap variabel lain perlu diakomodasikan dalam menganalisis konsumsi, maka Regresi Sederhana dikembangkan menjadi Regresi Berganda.

Page 4: Analisis Regresi Linier ( Lanjutan )

MODEL

Yi = 0 + 1X1i + 2X2i + 3X3i + ........+ kXki + ui

i = 1,2,3,......., N (banyaknya observasi)

Contoh Aplikasi:Yi = 0 + 1X1 + 2X2 + 3X3 + ui

Y : KonsumsiX1 : PendapatanX2 : Umur X3 : Jumlah tanggungan

Page 5: Analisis Regresi Linier ( Lanjutan )

Pemeriksaan Regresi

Koefisien Determinasi Standard Error Koefisien Interval Kepercayaan

Uji Hipotesis: Uji t Uji F

Page 6: Analisis Regresi Linier ( Lanjutan )

Pemeriksaan Regresi

Standard Error Prinsip OLS: meminimalkan error. Oleh karena itu, ketepatan dari nilai dugaan sangat ditentukan oleh standard error dari masing-masing penduga. Adapun standard error dirumuskan sebagai berikut:

Se= ∑ Υ− Υ 2

n−2= SST−SSR

n−2= ∑ Υ 2−b∑ ΧΥ

n−2=MSE

Page 7: Analisis Regresi Linier ( Lanjutan )

Pemeriksaan Regresi

Oleh karena merupakan penyimpangan yang terjadi dalam populasi, yang nilainya tidak diketahui, maka biasanya diduga berdasarkan data sampel. Adapun penduganya adalah sebagai berikut : s

u

N i

2 1/2

2

ui2 =

2)ˆ( ii YY ui2 =

Berdasar formula: error yang minimal akanmengakibatkan standar error koefisien yang minimal pula. Berapa batasannya standar error disebut besar atau kecil?

Page 8: Analisis Regresi Linier ( Lanjutan )

Pemeriksaan Regresi

Sulit ditentukan secara absolut. Data jutaan rupiah tentunya akan memiliki standar error yang lebih besar dibanding ratusan rupiah.

Digunakan dengan membuat rasio dengan koefisien regresi.

Rasio inilah yang menjadi acuan pada Uji-t.

Page 9: Analisis Regresi Linier ( Lanjutan )

Interval Kepercayaan j

Apa yang dimaksud Interval kepercayaan? Untuk apa? Formulasi:

bj t/2 s.e(bj)

atau

P(bj - t/2 s.e(bj) ≤ βj ≤ bj + t/2 s.e(bj))= 1-

Page 10: Analisis Regresi Linier ( Lanjutan )

Interval Kepercayaan j

b1 = 0,1022 dan s.e (b1) = 0,0092. Banyaknya observasi (n) = 10; Banyaknya parameter yang diestimasi (k) = 2; Dengan demikian derajat bebas = 10 – 2 = 8; dan tingkat signifikansi 1- = 95 %. Dari tabel t0,025 dengan derajat bebas = 8, diperoleh nilai t = 2,306.

Maka interval kepercayaan untuk β1 adalah :

( 0,1022 2,306 (0,0092) ) atau (0,0810 ; 0,1234) Artinya: Nilai β1 terletak antara 0,0810 dan 0,1234

dengan peluang sebesar 95%.

Page 11: Analisis Regresi Linier ( Lanjutan )

Uji Hipotesis

Pengujian koefisien regresi secara individu. H0 : j = 0H1 : j 0; j = 0, 1, 2........, k

k adalah koefisien slop. Untuk regresi sederhana:

(1) H0 : 0 = 0 (2) H0 : 1 = 0 H1 : 0 0 H1 : 1 0;

Uji-t didefinisikan sebagai berikut:

t =b j−β j

s .e b j j akan diuji apakah sama dengan 0

t =b j

s .e b j

Uji t

Page 12: Analisis Regresi Linier ( Lanjutan )

Uji-t

Nilai t dibandingkan dengan nilai t tabel. Bila ternyata, setelah dihitung t > t/2,df, maka nilai t berada dalam daerah penolakan, sehingga hipotesis nol (j = 0) ditolak pada tingkat kepercayaan (1-) x100%. Dalam hal ini dapat dikatakan bahwa j statistically significance.

Page 13: Analisis Regresi Linier ( Lanjutan )

Uji Hipotesis

Uji-F

Diperuntukkan guna melakukan uji hipotesis koefisien (slop) regresi secara bersamaan.

H0 : 2 = 3 = 4 =............= k = 0H1 : Tidak demikian (paling tidak ada satu slop yang

0)Dimana: k adalah banyaknya variabel bebas.

Regresi sederhana: H0 : 1 = 2 = 3 = 0 H1 : Tidak demikian (paling tidak ada satu slop yang 0)

Pengujian: ANOVA (Analysis of Variance).

Page 14: Analisis Regresi Linier ( Lanjutan )

Uji-F

Observasi: Yi = 0 + 1 Xi + ei Regresi: Ŷi = b1 + b2 Xi (catatan: Ŷi merupakan estimasi dari Yi).

Bila kedua sisi dikurangi maka:

Selanjutnya kedua sisi dikomulatifkan:

SST SSR SSE SST: Sum of Squared Total SSR : Sum of Squared Regression SSE : Sum of Squared Error/Residual

Y Y Y Y ei i

( ) ( )Y Y Y Y ei i i 2 2

( ) ( )Y Y Y Y ei i i 2 2 2

Y

Page 15: Analisis Regresi Linier ( Lanjutan )

Uji F

Tabel ANOVASumber Sum of Square df Mean Squares F HitungRegresi SSR k MSR = SSR/k F =

MSRError SSE n-k-1 MSE=

SSE/(n-k-1) MSETotal SST n-1

Dimana df adalah degree of freedom, k adalah jumlah variabel bebas (koefisien slop), dan n jumlah observasi (sampel).

Bandingkan F Hit dengan Fα(k,n-k-1)

Page 16: Analisis Regresi Linier ( Lanjutan )

Asumsi-asumsi dasar OLS

Pendugaan OLS akan bersifat BLUE (Best Linier Unbiased Estimate) jika memenuhi 3 asumsi utama, yaitu:

Tidak ada multikolinieritas Tidak mengandung Heteroskedastisitas Bebas dari otokorelasi

Page 17: Analisis Regresi Linier ( Lanjutan )

Multikolinieritas

Multikolinieritas: adanya hubungan linier antara regressor. Misalkan terdapat dua buah regressor, X1 dan X2. Jika X1 dapat dinyatakan sebagai fungsi linier dari X2, misal : X1 = X2, maka ada kolinieritas antara X1 dan X2. Akan tetapi, bila hubungan antara X1 dan X2 tidak linier, misalnya X1 = X22 atau X1 = log X2, maka X1 dan X2 tidak kolinier.

Page 18: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

Yi = 0 + 1X1 + 2X2 + 3X3 + ui

Y : KonsumsiX1 : Total PendapatanX2 : Pendapatan dari upahX3 : Pendapatan bukan dari upah

Secara substansi: total pendapatan (X1) = pendapatan dari upah (X2) + pendapatan bukan dari upah (X3). Bila model ini ditaksir menggunakan Ordinary Least Square (OLS), maka i tidak dapat diperoleh, karena terjadi perfect multicollinearity. Tidak dapatnya diperoleh karena ( XT X )-1, tidak bisa dicari.

Page 19: Analisis Regresi Linier ( Lanjutan )
Page 20: Analisis Regresi Linier ( Lanjutan )

Akibat Multikolinieritas

Varians besar (dari taksiran OLS) Interval kepercayaan lebar (variansi besar

Standar Error besar Interval kepercayaan lebar) R2 tinggi tetapi tidak banyak variabel yang

signifikan dari uji t. Terkadang taksiran koefisien yang didapat akan

mempunyai nilai yang tidak sesuai dengan substansi, sehingga dapat menyesatkan interpretasi.

Page 21: Analisis Regresi Linier ( Lanjutan )

Kesalahan Interpretasi“Interpretasi dari persamaan regresi ganda secara implisit bergantung pada asumsi bahwa variabel-variabel bebas dalam persamaan tersebut tidak saling berkorelasi. Koefisien-koefisien regresi biasanya diinterpretasikan sebagai ukuran perubahan variabel terikat jika salah satu variabel bebasnya naik sebesar satu unit dan seluruh variabel bebas lainnya dianggap tetap. Namun, interpretasi ini menjadi tidak benar apabila terdapat hubungan linier antara variabel bebas”

(Chatterjee and Price, 1977).

Page 22: Analisis Regresi Linier ( Lanjutan )
Page 23: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

Model:

Y = 12,8 – 1,414X1 + 0,202 X2

SE (4,696) (1,199) (0,117)t (2,726) (-1,179) (1,721)

R2 = 0,982

R2 relatif tinggi, yaitu 98,2%. Artinya? Uji t tidak signifikan. Artinya? Koefisien X1 bertanda negatif. Artinya?

Page 24: Analisis Regresi Linier ( Lanjutan )

Ilustrasi: Model dipecah

Dampak Pendapatan pada Konsumsi Y = 14,148 + 0,649X1

SE (5,166) (0,037) t (2,739) (17,659)

R2 = 0,975R2 tinggi, Uji t signifikan, dan tanda X1 positif.

Dampak Kekayaan pada Konsumsi Y = 13,587 + 0,0635X2

SE (4,760) (0,003) t (2,854) (19,280)

R2 = 0,979 R2 tinggi, Uji t signifikan, dan tanda X2 positif.

X1 dan X2 menerangkan variasi yang sama. Bila 1 variabel saja cukup, kenapa harus dua?

Page 25: Analisis Regresi Linier ( Lanjutan )

Mendeteksi Multikolinieritas dengan Uji Formal

1. Eigenvalues dan Conditional Index

Aturan yang digunakan adalah: Multikolinieritas ditengarai ada didalam persamaan regresi bila nilai Eigenvalues mendekati 0.

Hubungan antara Eigenvalues dan Conditional Index (CI) adalah sebagai berikut:

CI= max eigenvaluesmin eigenvalues

Jika CI berada antara nilai 10 sampai 30: kolinieritas moderat.

Bila CI mempunyai nilai diatas 30: kolinieritas yang kuat.

Page 26: Analisis Regresi Linier ( Lanjutan )

2. VIF dan Tolerance

VIF j=1

1−R j2

; j = 1,2,……,k

k adalah banyaknya variabel bebas

adalah koefisien determinasi antara variabel bebas ke-j dengan variabel bebas lainnya.

R j2

R j2

R j2

Jika = 0 atau antar variabel bebas tidak berkorelasi, maka nilai VIF = 1.

≠ 0 atau ada korelasi antar variabel bebas, maka nilai VIF > 1. Jika

Oleh karena itu, dapat disimpulkan bahwa kolinieritas tidak ada jika nilai VIF mendekati angka 1

Page 27: Analisis Regresi Linier ( Lanjutan )

Tolerance

VIF ini mempunyai hubungan dengan Tolerance (TOL), dimana hubungannya adalah sebagai berikut:

TOL j=1VIF

= 1−R j2

Variabel bebas dinyatakan tidak multikolinieritas jika TOL mendekati 1

Page 28: Analisis Regresi Linier ( Lanjutan )

Mengatasi multikolinieritas

Melihat informasi sejenis yang ada Tidak mengikutsertakan salah satu variabel yang

kolinier – Banyak dilakukan.– Hati-hati, karena dapat menimbulkan specification bias

yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting.

Mentransformasikan variabel Mencari data tambahan

Page 29: Analisis Regresi Linier ( Lanjutan )
Page 30: Analisis Regresi Linier ( Lanjutan )

Data Heteroskedastisitas

Fakta: hubungan positif antara X dan Y, dimana

nilai Y meningkat searah dengan nilai X. semakin besar nilai variabel bebas (X)

dan variabel bebas (Y), semakin jauh koordinat (x,y) dari garis regresi (Error makin membesar)

besarnya variasi seiring dengan membesarnya nilai X dan Y. Atau dengan kata lain, variasi data yang digunakan untuk membuat model tidak konstan.

Page 31: Analisis Regresi Linier ( Lanjutan )

Pemeriksaan Heteroskedastisitas

1. Metode Grafik Prinsip: memeriksa pola residual (ui

2)

terhadap taksiran Yi. Langkah-langkah:

Run suatu model regresi Dari persamaan regresi, hitung ui

2

Buat plot antara ui2 dan taksiran Yi

Page 32: Analisis Regresi Linier ( Lanjutan )

Pola Grafik

ui2

i

Pengamatan:1.Tidak adanya pola yang sistematis.2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama. 3.Variansi konstan, dan data homoskedastis.

,

Page 33: Analisis Regresi Linier ( Lanjutan )

Pola Adanya Heteroskedastisitas

Pola sistematis

ui2 ui

2

ii

Page 34: Analisis Regresi Linier ( Lanjutan )

Uji Park

Prinsip: memanfaatkan bentuk regresi untuk melihat adanya heteroskedastisitas.

Langkah-langkah yang dikenalkan Park:

1. Run regresi Yi = 0 + 0Xi + ui

2. Hitung ln ui2

3. Run regresi ln ui2 = + ln Xi + vi

4. Lakukan uji-t. Bila signifikan, maka ada

heteroskedastisitas dalam data.

Page 35: Analisis Regresi Linier ( Lanjutan )
Page 36: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

Y = -3,1470 + 5,5653 XSE (0,0305) R2 = 0,9992

slope signifikan: Bila sepatu terjual naik 1 unit, maka bonus akan naik Rp.5.563.

Apakah ada heteroskedastisitas ?

Run regresi, didapat:ln ui

2 = 6,0393 – 2,1116 ln Xi

SE (0,0090) R2 = 0,9995

Menurut uji t, signifikan sehingga dalam model penjualan sepatu vs bonus di atas ada heteroskedastisitas.

Page 37: Analisis Regresi Linier ( Lanjutan )

Uji Goldfeld – Quandt Metode Goldfeld – Quandt sangat populer untuk digunakan, namun

agak merepotkan, terutama untuk data yang besar. Langkah-langkah pada metode ini:

Urutkan nilai X dari kecil ke besar Abaikan beberapa pengamatan sekitar median, katakanlah

sebanyak c pengamatan. Sisanya, masih ada (N – c) pengamatan

Lakukan regresi pada pengamatan 1, dan hitung SSE 1 Lakukan regresi pada pengamatan 2 dan hitung SSE 2. Hitung df = jumlah pengamatan dikurangi jumlah parameter Lakukan uji F sbb.

λ =RSS 2/df 2RSS1/df 1

Bila > F tabel, kita tolak hipotesis yang mengatakan data mempunyai variansi yang homoskedastis

Page 38: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

Ada 30 pengamatan penjualan sepatu dan bonus. Sebanyak 4 pengamatan yang di tengah diabaikan sehingga tinggal 13 pengamatan pertama (Kelompok I) dan 13 pengamatan kedua (Kelompok II).

Regresi berdasarkan pengamatan pada kelompok I:Y = -1,7298 + 5,4199 X R2 = 0,9979 RSS1 = 28192,66 df1 = 11

Regresi berdasarkan pengamatan pada kelompok II:Y = -0,8233 + 5,5110 X R2 = 0,9941RSS2 = 354397,6 df2 = 11

Page 39: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

λ =RSS 2/df 2RSS1/df 1

= 354397,6/11 28192,66/11

= 12,5706

Dari tabel F, didapat F = 2,82 sehingga > F

Kesimpukan: ada heteroskedastisitas dalam data

Page 40: Analisis Regresi Linier ( Lanjutan )

Mengatasi heteroskedastisitas

1. Transformasi dengan LogaritmaTransformasi ini ditujukan untuk memperkecil skala antar variabel bebas. Dengan semakin ‘sempitnya’ range nilai observasi, diharapkan variasi error juga tidak akan berbeda besar antar kelompok observasi. Adapun model yang digunakan adalah:

Ln Yj = β0 + β1 Ln Xj + uj

Page 41: Analisis Regresi Linier ( Lanjutan )

2. Metode Generalized Least Squares (GLS)

Perhatikan model berikut :

Yj = 1 + 2 Xj + uj dengan Var (uj) = j2

Masing-masing dikalikan

1s j

Y j

s j=β1 1

s j +β 2 X j

s j u js j Maka diperoleh transformed model sebagai berikut :

Yi* = 1* + 2Xi* + ui*

Page 42: Analisis Regresi Linier ( Lanjutan )

GLS

Kita periksa dulu apakah ui* homoskedastis ?

E ui 2

σi 2 = 1

σi 2

E u i 2 =1σi 2

σ i2 =1E(ui*2) = konstan

Page 43: Analisis Regresi Linier ( Lanjutan )

Transformasi

Oleh karena mencari j2 hampir tidak pernah diketahui, maka

biasanya digunakan asumsi untuk mendapat nilai j2. Asumsi

ini dapat dilakukan dengan mentransformasikan variabel. Ada beberapa jenis, yaitu:

1X j

1. Transformasi dengan

Asumsi: j2 = E u j2 =σ 2X j

2

Akibat transformasi, model menjadi: Y j

X j

=β0 1X j +β 1 u jX j

atau dapat ditulis dengan: Yi* = 0 X* + 1 + vi

Page 44: Analisis Regresi Linier ( Lanjutan )

Transformasi

Apakah sudah homoskedastis? Perhatikan bukti berikut:

E u j 2

Xj 2 = 1

Xj 2

E u j 2 =1X

j2σ 2 X j 2 =σ 2

E(vi2) = konstan

2. Transformasi dengan 1

X iAsumsi: j

2 = E u j2 =σ 2X j

3. Transformasi dengan E(Yi)

E u j2 =σ 2 [E Y j ]2Asumsi: j

2 =

Page 45: Analisis Regresi Linier ( Lanjutan )

Otokorelasi

Otokorelasi: korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu. Umumnya kasus otokorelasi banyak terjadi pada data time series Kondisi sekarang dipengaruhi waktu lalu. Misal: Tinggi badan, upah, dsbnya.

Salah satu alat deteksi: melihat pola hubungan antara residual (ui) dan variabel bebas atau waktu (X).

Page 46: Analisis Regresi Linier ( Lanjutan )

Mendeteksi Otokorelasi

Pola Autokorelasi

ui ui * * ** * * * * * * * * * ** * * * Waktu/X * ** Waktu/X * * * *

*** *

Gambar nomor (1) menunjukan adanya siklus, sedang nomor (2) menunjukan garis linier. Kedua pola ini menunjukan adanya otokorelasi.

Page 47: Analisis Regresi Linier ( Lanjutan )

Uji Durbin-Watson ( Uji d)

d=∑t=2

N

ut−u t−1 2

∑t=1

N

u t 2

Statistik Uji

Dalam Paket Program SPSS/EViews Sudah dihitungkan

Page 48: Analisis Regresi Linier ( Lanjutan )

Aturan main menggunakan uji Durbin-Watson :

Bandingkan nilai d yang dihitung dengan nilai dL dan dU dari tabel dengan aturan berikut :

Bila d < dL tolak H0; Berarti ada korelasi yang positif atau kecenderungannya = 1

Bila dL d dU kita tidak dapat mengambil kesimpulan apa-apa

Bila dU < d < 4 – dU jangan tolak H0; Artinya tidak ada korelasi positif maupun negatif

Bila 4 – dU d 4 – dL kita tidak dapat mengambil kesimpulan apa-apa

Bila d > 4 – dL tolak H0; Berarti ada korelasi negatif

Page 49: Analisis Regresi Linier ( Lanjutan )
Page 50: Analisis Regresi Linier ( Lanjutan )

Mengatasi Otokorelasi: Metode Pembedaan Umum (Generalized Differences)

Yt = β0 + β1Xt + ut dan ut = ρ ut-1 + vt

Untuk waktu ke- t-1: Yt-1 = β0 + β1Xt-1 + ut-1

Bila kedua sisi persamaan dikali dengan ρ, maka:ρ Yt-1 = ρ β0 + ρ β1Xt-1 + ρ ut-1

Sekarang kita kurangkan dengan persamaan Model Yt - ρ Yt-1 = (β0 - ρ β0) + β1(Xt - ρ Xt-1) + (ut - ρ ut-1)

Persamaan tersebut dapat dituliskan sebagai:Yt* = β0 (1 - ρ) + β1Xt* + vt

Dimana: Yt* = Yt - ρ Yt-1 dan Xt* = Xt - ρ Xt-1

Idealnya kita harus dapat mencari nilai ρ. Tapi dalam banyak kasus, diasumsikan ρ = 1, sehingga:Yt* = Yt - Yt-1Xt* = Xt - Xt-1

Page 51: Analisis Regresi Linier ( Lanjutan )

Pemilihan Model

1. R2 Adjusted

Perhatikan Model:(i) LABA = 5053,712 + 0,049 KREDIT; R2 = 80,6%

(ii) LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT; R2= 87,4%. Model manakah yang lebih baik ditinjau dari koefisien

determinasi-nya?.

Sekarang kita perhatikan kembali formula untuk menghitung R2

R2=SSRSST

=1−SSESST

=1−∑ ui

2

∑ Y i−Y 2

Page 52: Analisis Regresi Linier ( Lanjutan )

R2 Adjusted SST sama sekali tidak dipengaruhi oleh jumlah variabel bebas,

karena formulasinya hanya memperhitungkan variabel terikat SSE dipengaruhi oleh variabel bebas, dimana semakin banyak

variabel bebas, maka nilai SSE cenderung semakin kecil, atau paling tidak tetap. SSE kecil, maka nilai SSR akan besar.

Akibat kedua hal tersebut, maka semakin banyak variabel bebas yang dimasukkan dalam model, maka nilai R2 akan semakin besar.

R2=1−∑ ui

2 / n−k

∑ Y i−Y / n−1

Page 53: Analisis Regresi Linier ( Lanjutan )

Pemilihan Model

2. Akaike Information Criterion (AIC)

AIC=e2k/n∑ ui

2

n=e2k/n

SSEn

ln AIC=2kn ln RSS

n Bila kita membandingkan dua buah regresi atau lebih, maka model yang mempunyai nilai AIC terkecil merupakan model yang lebih baik.

Page 54: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

LABA = 5053,712 + 0,049 KREDIT; SSE = 3,28E+12 LABA = 58260,461 + 0,013 ASET; SSE = 2,1E+12 LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT; SSE =

2,17E+12

ln AIC i =2kn ln RSS

n =2x250 ln 3,28E12

50 =24 ,9868

ln AIC ii=2kn ln RSS

n =2x250 ln 2,1E12

50 =24 ,5409

ln AIC iii=2kn ln RSS

n =2x350 ln 2,17E12

50 =24 ,6137

Page 55: Analisis Regresi Linier ( Lanjutan )

Pemilihan Model

3. Schwarz Information Criterion (SIC)

SIC=nk/n∑ ui

2

n=nk/n

SSEn

ln SIC = kn ln n+ ln RSSn

Sama dengan AIC, model yang mempunyai nilai SIC terkecil merupakan model yang lebih baik.

Page 56: Analisis Regresi Linier ( Lanjutan )

Ilustrasi

ln SIC i= kn ln n+ ln RSSn = 2

50 ln50ln 3,28E+1250 =25 ,06

ln SIC ii= kn ln n+ ln RSSn = 2

50 ln50ln 2,1E1250 =24 ,62

ln SIC iii= kn ln n+ ln RSSn = 3

50 ln50ln 2,17E+1250 =24 ,73