105
STATISTIKA UP FAMNIT, Biopsihologija Zapiski s predavanj Martin Raič NEPOPOLNA PUBLIKACIJA

STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

Embed Size (px)

Citation preview

Page 1: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

STATISTIKA

UP FAMNIT, Biopsihologija

Zapiski s predavanj

Martin Raič

N E P O P O L N A P U B L I K A C I J A

Page 2: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi
Page 3: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

Kazalo

1. Opisna statistika 7

1.1 Tipi statističnih spremenljivk . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Povzemanje ene statistične spremenljivke – univariatna analiza . . . . . . . 10

1.2.1 Imenske spremenljivke . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.2 Urejenostne spremenljivke . . . . . . . . . . . . . . . . . . . . . . . 11

1.2.3 Intervalske spremenljivke: interpolacija . . . . . . . . . . . . . . . . 16

1.2.4 Intervalske spremenljivke: mere centralne tendence . . . . . . . . . 18

1.2.5 Intervalske spremenljivke: mere razpršenosti . . . . . . . . . . . . . 20

1.2.6 Združevanje vrednosti v razrede . . . . . . . . . . . . . . . . . . . . 26

1.2.7 Primerjanje vrednosti razmernostnih spremenljivk . . . . . . . . . . 29

1.3 Mere povezanosti dveh statističnih spremenljivk – bivariatna analiza . . . . 31

1.3.1 Povezanost dveh imenskih spremenljivk . . . . . . . . . . . . . . . . 31

1.3.2 Povezanost dveh intervalskih spremenljivk . . . . . . . . . . . . . . 35

1.3.3 Povezanost intervalske in dihotomne spremenljivke . . . . . . . . . 42

1.3.4 Povezanost intervalske in imenske spremenljivke . . . . . . . . . . . 45

1.3.5 Povezanost dveh urejenostnih spremenljivk . . . . . . . . . . . . . . 47

1.3.6 Povezanost urejenostne in dihotomne spremenljivke . . . . . . . . . 50

1.3.7 Povezanost urejenostne in imenske spremenljivke . . . . . . . . . . 52

2. Teorija verjetnosti 55

2.1 Verjetnostni prostori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

2.1.1 Osnovni pojmi verjetnosti . . . . . . . . . . . . . . . . . . . . . . . 55

2.1.2 Diskretna verjetnost . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2.1.3 Relacije in operacije na dogodkih . . . . . . . . . . . . . . . . . . . 61

2.1.4 Aksiomi Kolmogorova . . . . . . . . . . . . . . . . . . . . . . . . . 63

3

Page 4: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

4 M. RAIČ: STATISTIKA

2.2 Pogojna verjetnost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.2.1 Definicija pogojne verjetnosti . . . . . . . . . . . . . . . . . . . . . 66

2.2.2 Relejni poskusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

2.3 Slučajne spremenljivke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.3.1 Osnovni pojmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.3.2 Navzkrižne porazdelitve . . . . . . . . . . . . . . . . . . . . . . . . 71

2.3.3 Bernoullijeva zaporedja poskusov . . . . . . . . . . . . . . . . . . . 76

2.3.4 Funkcije slučajnih spremenljivk . . . . . . . . . . . . . . . . . . . . 82

2.3.5 Porazdelitve urejenostnih slučajnih spremenljivk . . . . . . . . . . . 83

2.3.6 Porazdelitve intervalskih slučajnih spremenljivk . . . . . . . . . . . 86

2.3.7 Centralni limitni izrek . . . . . . . . . . . . . . . . . . . . . . . . . 92

3. Inferenčna statistika 99

3.1 Verjetnost uspeha poskusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

3.2 Frekvenčna porazdelitev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

3.3 Sredina pri znanem σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

3.4 Sredina pri neznanem σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Page 5: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

Uvod

Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi pojme,ki so motivirani z njimi. Med drugim zajema:

• Zbiranje podatkov, torej kako (pri določenih praktičnih, npr. finančnih omejitvah)pravilno zbrati podatke, od katerih lahko pričakujemo čim natančnejšo informacijoo zadevi, ki nas zanima. Pomemben del te veje je teorija vzorčenja (angl. sampling).

• Povzemanje podatkov – temu pravimo opisna statistika (angl. descriptive statistics).Tudi povzetku podatkov (npr. povprečju) pravimo kar statistika.

• Vrednotenje podatkov – temu pravimo inferenčna statistika. Njeni najpomembnejšiveji sta statistično sklepanje (dajanje sklepov – izjav na podlagi dobljenih podatkov,angl. statistical inference) in statistično odločanje (dajanje navodil, kako ravnati,da bomo v povprečju imeli največjo možno korist, angl. decision theory).

Matematična podlaga za teorijo vzorčenja in inferenčno statistiko je verjetnostni račun.

5

Page 6: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

6 M. RAIČ: STATISTIKA

Page 7: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

1.

Opisna statistika

Podatki so v statistiki vrednosti ene ali več statističnih spremenljivk na statistični množici.Statistično množico sestavljajo enote. Primeri statističnih množic:

• če delamo anketo, množica anketirancev;

• če gledamo vreme po različnih krajih, nabor vremenskih postaj;

• če gledamo spreminjanje cen različnih artiklov s časom, nabor časov (enote so takonpr. 15. januar, 15. februar, 15. marec . . . );

Število enot imenujemo numerus in ga navadno označujemo z n, tudi N .

Statistična spremenljivka je predpis, ki vsaki enoti (potem ko jo pomerimo) priredidoločeno vrednost. Množico vrednosti posamezne spremenljivke imenujemo zaloga vredno-sti. Statistične spremenljivke navadno označujemo z velikimi tiskanimi črkami s koncaabecede, npr. X, Y , Z, njihove vrednosti pa z malimi črkami. Vrednosti statistične spre-menljivke X tako navadno označimo z x1, x2, . . . xn. Tako je xi vrednost spremenljivke Xna i-ti enoti statistične množice.

Primer : vreme po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri:

7

Page 8: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

8 M. RAIČ: STATISTIKA

Postaja oblačnost padavinetemperatura(C)

smervetra

hitrostvetra(km/h)

Kredarica v oblakihposameznesnežinke

−13 ↓ 4

LetališčeEdvarda RusjanaMaribor

pretežnooblačno

– 2 ↓ 11

LetališčeJožeta PučnikaLjubljana

oblačno – 1 ց 4

Letališče Portorož oblačnorahlodežuje

5 ← 22

Ljubljana oblačnorahlodežuje

2 ր 4

Tukaj postaja predstavlja enoto, padavine, oblačnost, temperatura ter smer in hitrostvetra pa so spremenljivke.

1.1 Tipi statističnih spremenljivk

Statistične spremenljivke delimo glede na njihove zaloge vrednosti oziroma glede na to,katere operacije lahko izvajamo na zalogah vrednosti. Ločimo opisne (kvalitativne, atri-butivne) in številske (kvantitativne, numerične) spremenljivke. Opisne spremenljivke senadalje delijo na:

• Imenske (nominalne), pri katerih gledamo le gole vrednosti, na katerih ni defini-ranih nobenih operacij. Primeri: barva, politična stranka, rasa, pasma, skupina.Včasih lahko povemo, katere vrednosti so si blizu oz. sosedne – to je pomembno prizdruževanju vrednosti v razrede.

• Urejenostne (ordinalne), pri katerih lahko povemo, katera vrednost je večja in kateramanjša. Primeri: kakovost razpoloženja, čin, stopnja izobrazbe, trdota minerala,odtenek sivine (kadar ocenjujemo na oko).

Številske spremenljivke pa se delijo na:

• Intervalske, pri katerih lahko definiramo razlike med posameznima vrednostma injih seštevamo, odštevamo ali delimo, medtem ko seštevanje, množenje in deljenjesamih vrednosti a priori ni definirano oz. smiselno. Intervalske spremenljivke nimajovnaprej določenega izhodišča (ničle). Lahko torej recimo povemo, da je razlika medvrednostma a in b dvakratnik razlike med b in c, ni pa recimo smiselno reči, daje vrednost b dvakratnik vrednosti a. Primeri intervalskih spremenljivk: letnica,nadmorska višina (v običajnih okoliščinah), temperatura (v običajnih okoliščinah,

Page 9: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 9

ko jo je smiselno gledati v Celzijevih stopinjah, recimo ko je ne povezujemo z energijomolekul).

• Razmernostne, pri katerih lahko vrednosti same seštevamo, odštevamo in delimo.Le-te imajo naravno izhodišče (ničlo) in lahko recimo povemo, da je vrednost bdvakratnik vredosti a. Primeri: moč motorja, dohodek, odtenek sivine (če jo merimoz instrumentom ali določimo računalniško) in tudi temperatura, kadar jo je smiselnogledati v kelvinih, recimo pri fiziki nizkih temperatur (blizu absolutne ničle), prikinetični teoriji plinov in pri preučevanju zvezd.

Vsako razmernostno spremenljivko lahko gledamo tudi kot intervalsko, vsako intervalskokot urejenostno in vsako urejenostno kot imensko.

Poseben primer statističnih spremenljivk so dihotomne ali tudi binarne, to so take,ki lahko zavzemajo le dve vrednosti, recimo da/ne, za/proti, pravilno/nepravilno, kon-trolna/eksperimentalna skupina. Tudi če je dihotomna spremenljivka opisna, jo lahkovčasih naravno obravnavamo kot številsko, navadno tako, da vrednostma priredimo šte-vili 0 in 1.

Pri primeru z vremenom so padavine, oblačnost in smer vetra imenske spremenljivke,pri katerih lahko povemo, katere vrednosti so si blizu. Temperatura je intervalska, hitrostvetra pa je razmernostna spremenljivka.

Smer in hitrost vetra lahko združimo v razmernostno vektorsko spremenljivko. Tudite so pomembne, a se z njimi ne bomo ukvarjali.

Če bi pri oblačnosti gledali le, koliko neba ni vidnega (meglo bi torej izenačili z oblačno-stjo) in tega ne bi kvantitativno merili (recimo v odstotkih), temveč bi le ločili npr. medjasnim, delno oblačnim, pretežno oblačnim in oblačnim vremenom, bi bila oblačnost ure-jenostna spremenljivka. Delež neba v odstotkih, ki ga zakrivajo oblaki, pa bi bil razmer-nostna spremenljivka.

Iz padavin je malo težje narediti urejenostno spremenljivko, ki ne bi mogla biti tudirazmernostna: težko je namreč primerjati dež in sneg. Najbolj objektivno bi bilo meriti,koliko milimetrov padavin pade recimo na uro: to bi bila razmernostna spremenljivka.

Glavna razlika med urejenostnimi in intervalskimi spremenljivkami je ta, da ne mo-remo primerjati razkorakov med posameznimi vrednostmi. Zato tudi ne moremo računatipovprečij. Dostikrat sicer urejenostno spremenljivko ‘povišamo’ v intervalsko, tako davrednostim priredimo številske vrednosti. Rezultati nadaljnje obdelave pa so lahko zava-jajoči. V nekem podjetju bi lahko imeli naslednjo strukturo izobrazbe:

Nedokončana osnovna šola 70Osnovna šola 5Poklicna srednja šola 2Gimnazija 1Fakulteta 22

Page 10: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

10 M. RAIČ: STATISTIKA

in lahko bi izračunali, da je povprečna izobrazba osnovnošolska. Če pa bi šli fakultetnoizobrazbo podrobneje razčlenjevat, bi recimo dobili:

Nedokončana osnovna šola 70Osnovna šola 5Poklicna srednja šola 2Gimnazija 1Visoka strokovna izobrazba 2Univerzitetna diploma bolonjske 1. stopnje 0Univerzitetna diploma po starih programih 0Univerzitetna diploma bolonjske 2. stopnje 0Magisterij po starem programu 0Doktorat 20

in izračunali, da je povprečna izobrazba poklicna srednja šola.

1.2 Povzemanje ene statistične spremenljivke – uni-

variatna analiza

1.2.1 Imenske spremenljivke

Pri imenski (torej vsaki) statistični spremenljivki lahko povemo, kolikokrat se je pojaviladoločena vrednost. Temu pravimo frekvenca. Relativna frekvenca je frekvenca, deljenas številom enot. Zapis vseh vrednosti skupaj z (relativnimi) frekvencami imenujemofrekvenčna porazdelitev, ki jo lahko predstavimo v obliki tabele:

vrednosti frekvence relativne frekvencea1 f1 f

1

a2 f2 f 2

......

...ak fk f

k

Frekvenca fi je torej število enot, na katerih ima spremenljivka vrednost ai. Število enotz določeno lastnostjo bomo označevali z znakom ♯. Tako lahko s formulo zapišemo:

fi = ♯(X = ai) ; i = 1, 2, . . . k .

Velja še:

f1 + f2 + · · ·+ fk = n , f i =

fin, f

1 + f 2 + · · ·+ f

k = 1 .

Frekvenčno porazdelitev imenskih spremenljivk grafično predstavimo s tortnim diagra-mom (angl. pie chart ali circle graph) ali s histogramom.

Page 11: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 11

Za ročni izris tortnega diagrama potrebujemo kotomer. Kot, ki pripada i-ti vrednosti,je enak f

i · 360.Modus je vrednost z najvišjo frekvenco. Označevali ga bomo z M , pogosta oznaka pa

je tudi Mo ali Mo. Modusov je lahko več.

Modus je ena od mer centralne tendence.

Če vemo, katere vrednosti so si blizu oz. sosedne, lahko definiramo tudi lokalne moduse.Porazdelitev je bimodalna, če ima dva izrazita lokalna modusa, pri čemer enake frekvencena sosednih vrednostih obravnavamo kot en lokalni modus. Porazdelitev je multimodalna,če ima več kot dva izrazita lokalna modusa v prejšnjem smislu.

Včasih modusi, posebej lokalni, za prvotne vrednosti ne odražajo realne slike. To sezgodi takrat, ko je vrednosti veliko, frekvence pa majhne. Če vemo, katere vrednosti so siblizu oz. sosedne, jih lahko združimo v razrede in na njih gledamo frekvenčno porazdelitev.Grobo pravilo je, naj bo razredov približno

√n (korensko pravilo). Več o združevanju v

razrede kasneje.

1.2.2 Urejenostne spremenljivke

Vrednosti urejenostne spremenljivke lahko uredimo po velikosti – razvrstimo v ranžirnovrsto:

x(1) ≤ x(2) ≤ · · · ≤ x(n) .

Ranžirna vrsta je natančno določena z zgornjim pogojem in s tem, da se njena frekvenčnaporazdelitev ujema s frekvenčno porazdelitvijo statistične spremenljivke. Elementu x(i)

pravimo i-ta vrstilna statistika (angl. order statistics).

Rang dane vrednosti je njen položaj v ranžirni vrsti: rang vrednosti x je enak i, če jex = x(i).

Če so vse vrednosti spremenljivke X različne in je vrednost x zavzeta, je njen rangnatančno določen. Označimo ga z R(x). V tem primeru velja:

R(x) = ♯(X ≤ x) = ♯(X < x) + 1 .

Primer : če izmerjene vrednosti:

4, 2, 75, 42, 15, 63

razvrstimo v ranžirno vrsto, dobimo:

2, 4, 15, 42, 63, 75

in velja:

R(2) = 1 , R(4) = 2 , R(15) = 3 , R(42) = 4 , R(63) = 5 , R(75) = 6 .

Rangi ostalih vrednosti (še) niso definirani.

Page 12: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

12 M. RAIČ: STATISTIKA

Če vrednosti spremenljivke niso vse različne, govorimo o vezeh (angl. ties): vez jeskupek dveh ali več enot, na katerih ima spremenljivka enako vrednost. Če so prisotnevezi, rang ni nujno natančno določen.

Primer : naj bo A < B < C < D < E in naj bo dana ranžirna vrsta podatkov:

A, B, B, B, B, C, D, D, D, E .

Očitno je R(A) = 1, R(C) = 6 in R(E) = 10. Rang vrednosti B je lahko 2, 3, 4 ali 5,rang vrednosti D pa 7, 8 ali 9.

Vsem možnim rangom vrednosti x pravimo surovi rangi. Spodnji rang je najnižji,zgornji rang pa najvišji možni surovi rang. Velja:

spodnji rang = ♯(X < x) + 1 ,

zgornji rang = ♯(X ≤ x) .

Spodnji in zgornji rang lahko definiramo za poljubno, ne le zavzeto vrednost. Vezanirang je aritmetična sredina spodnjega in zgornjega ranga in oznaka R(x) bo zadevala toštevilo:

R(x) =spodnji rang+ zgornji rang

2=

♯(X < x) + ♯(X ≤ x) + 1

2.

Tako je v zgornjem primeru R(A) = 1, R(B) = 3.5, R(C) = 6, R(D) = 8 in R(E) = 10.

Če bi namesto A, . . . E imeli števila, npr.:

21, 27, 27, 27, 27, 28, 29, 29, 29, 32 ,

bi veljalo npr. R(27) = 3.5, R(30) = 9

.5, R(20) = 0

.5 in R(40) = 10

.5.

Relativni ali tudi kvantilni rang je definiran po predpisu:

r(x) =R(x)− 1

2

n.

in ne glede na vezi velja:

r(x) =♯(X < x) + ♯(X ≤ x)

2n.

V prejšnjem primeru bi tako veljalo r(27) = 0.3, r(30) = 0

.9, r(20) = 0 in r(40) = 1.

Relativni rang pove položaj posamezne vrednosti v skupini.

Primer : oglejmo si rezultate dveh kolokvijev:

Ambrož 83Blaž 22Cvetka 61Darja 45Emil 49

Florjan 84Gal 86Helena 71Iva 67Jana 67Karmen 88Lev 89Mojca 64

Page 13: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 13

in se vprašajmo, kdo je glede na svoje kolege pisal bolje: Cvetka ali Gal?

Cvetka ima rang 4 in relativni rang 3.5/5 = 0.7, Gal pa ima rang 6 in relativni rang

5.5/8 = 0.6875, kar je skoraj enako.

Pri zapisu frekvenčne porazdelitve urejenostne spremenljivke vrednosti uredimo povelikosti:

a1 < a2 < · · · < ak

ter dodamo še kumulativne frekvence in relativne kumulativne frekvence:

vrednosti frekvencerelativnefrekvence

kumulativnefrekvence

relativnekumulativnefrekvence

F0 = 0 F 0 = 0

a1 f1 f 1 F1 = f1 F

1 = f 1

a2 f2 f 2 F2 = F1 + f2 F

2 = F 1 + f

2

a3 f3 f 3 F3 = F2 + f3 F

3 = F 2 + f

3...

......

......

ak fk f k Fk = Fk−1 + fk = n F

k = F k−1 + f

k = 1

Seveda velja tudi:

F i =

Fi

n.

Primer : ocene s kolokvijev pri predmetu Verjetnost in statistika na univerzitetnem študijumatematike na UL FMF v študijskem letu 2010/11:

ocena fi Fi F i

neg. 25 25 0.391

6 13 38 0.594

7 12 50 0.781

8 7 57 0.891

9 3 60 0.938

10 4 64 1

Iz frekvenčne porazdelitve lahko odčitamo vrstilne statistike, in sicer velja:

x(i) = aj , če je 1 + Fj−1 ≤ i ≤ Fj .

Pri določanju i-te vrstilne statistike moramo torej pogledati prvo kumulativno frekvenco,ki je enaka vsaj i.

Nekaj vrstilnih karakteristik iz prejšnjega primera: x(40) = 7, x(60) = 9, x(61) = 10.

Iz kumulativnih frekvenc lahko odčitamo tudi range: vrednost aj ima surove range od1 + Fj−1 do Fj in vezani rang:

R(aj) =Fj−1 + Fj + 1

2.

Page 14: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

14 M. RAIČ: STATISTIKA

Seveda so vezani rangi definirani tudi za vrednosti, ki niso zavzete: če je a < a1, jeR(a) = 1/2; če je a > ak, je R(a) = n+ 1/2. Za aj−1 < a < aj pa je R(a) = Fj−1 + 1/2.

Rangi ocen pri prejšnjem primeru:

R(neg.) = 13 , R(6) = 32 , R(7) = 44.5 , R(8) = 54 , R(9) = 59 , R(10) = 62

.5 .

Vrednost q je kvantil statistične spremenljivke X za delež p, če velja:

♯(X < q)

n≤ p in

♯(X ≤ q)

n≥ p .

Primer : dana je ranžirna vrsta:

10, 10, 20, 30, 50, 80, 130, 210, 340, 550 .

Kvantil q0.49 mora izpolnjevati pogoja:

♯(X < q0.49) ≤ 4.9 in ♯(X ≤ q0.49) ≥ 4

.9 .

Prvi pogoj izpolnjujejo vrednosti do vključno 50, drugega pa vrednosti od vključno 50naprej. Torej je 50 edini možni kvantil za delež 0.49.

Kvantil q0.5 mora izpolnjevati pogoja:

♯(X < q0.5) ≤ 5 in ♯(X ≤ q0.5) ≥ 5 .

Prvi pogoj izpolnjujejo vrednosti do vključno 80, drugega pa vrednosti od vključno 50naprej. Torej je vsako število iz intervala [50, 80] lahko kvantil za delež 0.5. To je kvantilniinterval za ta delež.

Kvantil q0.1 mora izpolnjevati pogoja:

♯(X < q0.1) ≤ 1 in ♯(X ≤ q0.1) ≥ 1 .

Prvi pogoj izpolnjujejo vrednosti do vključno 10, drugega pa vrednosti od vključno 10naprej. Torej je 10 edini možni kvantil za delež 0.1.

Lastnosti kvantilov:

• Za vsak p ∈ [0, 1] obstaja kvantil dane spremenljivke za delež p.

• Kvantili niso nujno enolično določeni.

• Če sta q′ in q′′ kvantila za isti delež p in velja q′ ≤ q ≤ q′′, je tudi q kvantil za tadelež.

Kvantil za delež p je vrednost s kvantilnim rangom približno p. Velja tudi, da je vrednost,ki ima kvantilni rang p, kvantil za delež p. Sicer pa lahko kvantile (za deleže, ki nisonujno kvantilni rangi) dobimo iz vrstilnih karakteristik, in sicer:

Page 15: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 15

• Kvantil za delež 0 je katero koli število iz (−∞, x(1)].

• Kvantil za delež 1 je katero koli število iz [x(n),∞).

• Če je 0 < p < 1 in je np celo število, je kvantil za delež p katero koli število izintervala [x(np), x(np+1)].

• Če je 0 < p < 1 in np ni celo število, je kvantil za delež p enolično določen, in sicerje enak x(⌈np⌉).

Kvantil za delež p navadno označimo s qp. Pomembni kvantili:

• Kvantilu za delež 1/2 pravimo mediana in jo bomo označevali z m. Pogosta oznakaje tudi Me ali Me. Mediani pravimo tudi srednja vrednost in je mera centralnetendence. Pri dihotomnih spremenljivkah je mediana enaka modusu.

• Kvantila za deleža 1/3 in 2/3 sta prvi in drugi tercil.

• Kvantili za deleže 1/4, 1/2 in 3/4 so kvartili. Drugi kvartil je torej mediana.

• Kvantilom za deleže 0.1, 0.2, . . . 0.9 pravimo decili.

• Kvantilom za deleže 0.01, 0.02, . . . 0.99 pravimo centili ali tudi percentili. 1., 5., 95.in 99. percentil so pomembni v inferenčni statistiki, ker na njih temeljijo dogovorjenipojmi. Pomembni so tudi q0.005, q0.025, q0.975 in q0.995.

Primer : pri ranžirni vrsti:

10, 10, 20, 30, 50, 80, 130, 210, 340, 550

je mediana kar koli iz [x(5), x(6)] = [50, 80] (kar smo že ugotovili), tretji kvartil pa jex(8) = 210.

Vrednost 20 ima kvantilni rang 0.25 in je zato tudi kvantil za delež 0.25; kvantil zata delež je enolično določen. Prav tako pa je enolično določen tudi kvantil za delež 0.26,prav tako je enak 20, vendar 0.26 ni kvantilni rang vrednosti 20.

Pri sodem številu podatkov mediana tipično ni natančno določena:

b b b b b b b b

pri lihem pa je:

b b b b b b b b b

Page 16: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

16 M. RAIČ: STATISTIKA

Še en primer z rezultati 50 meritev, kjer je s sivo označen interval za 9. decil :

Primer : pri ocenah s kolokvijev so vsi kvartili natančno določeni. Prvi kvartil je sicerres na intervalu [x(16), x(17)], mediana na [x(32), x(33)] in tretji kvartil [x(48), x(49)], todax(16) = x(17) = neg., x(32) = x(33) = 6 in x(48) = x(49) = 7, zato lahko zapišemo q1/4 = neg.,m = 6 in q3/4 = 7.

Vrstilne karakteristike lahko grafično predstavimo s škatlo z brki (angl. box plot).Navadno narišemo minimalno vrednost, kvartile in maksimalno vrednost, lahko pa tudikakšne druge karakteristike.

Primer : rezultati kolokvijev iz matematike na univerzitetnem študiju gozdarstva naUL BTF v študijskem letu 2004/05:

0

18

36

54

72

1.2.3 Intervalske spremenljivke: interpolacija

Intervalske spremenljivke lahko vselej ‘degradiramo’ v urejenostne in na njih gledamonpr. kvantile. Kot smo spoznali, le-ti niso vselej enolično določeni. Včasih pa se pokažepotreba, da določimo eno samo vrednost. Pri intervalskih spremenljivkah imamo za todosti več manevrskega prostora. Eden od prijemov, ki so tukaj na voljo, je interpolacija.

Denimo, da opazujemo spreminjanje ene spremenljivke v odvisnosti od druge, npr. odčasa. Ob časih t1 < t2 < . . . tn naj ima spremenljivka x vrednosti x1, x2, . . . xn. Kakšnovrednost pa bi imela ob času t, ki ni zajet v časih t1, t2, . . . tn (vozlih)?

Page 17: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 17

Interpoliramo lahko za tk ≤ t ≤ tk+1 (kar je izven tega, je ekstrapolacija). Primeriinterpolacij:

a) interpolacija z vrednostjo v prejšnjem vozlu: x = xk;

b) interpolacija z vrednostjo v naslednjem vozlu: x = xk+1;

c) interpolacija z minimalno vrednostjo: x = minxk, xk+1;

d) interpolacija z maksimalno vrednostjo: x = maxxk, xk+1;

e) interpolacija z aritmetično sredino: x = (xk + xk+1)/2;

f) linearna interpolacija:

x = xk +xk+1 − xk

tk+1 − tk(t− tk) .

Primer :tk xk

1 53 96 910 7

Interpolirane vrednosti za manjkajoče vmesne cele čase:

tk xk a) b) c) d) e) f)1 5 5 5 5 5 5 5

2 5 9 5 9 7 73 9 9 9 9 9 9 9

4 9 9 9 9 9 95 9 9 9 9 9 96 9 9 9 9 9 9 9

7 9 7 7 9 8 8.5

8 9 7 7 9 8 89 9 7 7 9 8 7

.5

10 7 7 7 7 7 7 7

Interpolacije a)–e) so zelo grobe. Graf za linearno interpolacijo:

Page 18: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

18 M. RAIČ: STATISTIKA

t

x

1 2 3 4 5 6 7 8 9 10

2

4

6

8

10

b

b b

b

Tako lahko interpoliramo range. Črtnemu grafikonu (angl. line chart, line graph)iz linearno interpoliranih relativnih rangov zavzetih vrednosti pravimo ogiva, tudi oživa(angl., fr. ogive, v prvotnem pomenu gotski lok). Pri podatkih:

21, 27, 27, 27, 27, 28, 29, 29, 29, 32 ,

dobimo:

x

r

21 27 28 29 32

0.5

1

b

b

b

b

b

relativni rangi

ogiva

Interpoliramo tudi kvantile, in sicer na mnogo načinov. Interpolirani kvantili imajopomembno vlogo v inferenčni statistiki. Iz ogive dobimo interpolirane range in eno vrstointerpoliranih kvantilov.

1.2.4 Intervalske spremenljivke: mere centralne tendence

Mera centralne tendence za dano statistično spremenljivko nam grobo povedani da vre-dnost, proti kateri se nagibajo vrednosti te spremenljivke na statistični množici.

Dve meri centralne tendence smo že spoznali: pri imenskih spremenljivkah je bil tomodus, pri urejenostnih pa mediana. Pri intervalskih lahko mediano še interpoliramo.

Pri intervalskih spremenljivkah pa kot mero centralne tendence najpogosteje gledamoaritmetično sredino (angl. arithmetic mean):

µ =x1 + x2 + · · ·+ xn

n.

Page 19: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 19

Primer : temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri (v Celzijevihstopinjah):

−13, 2, 1, 5, 2 .Aritmetična sredina:

µ =−13 + 2 + 1 + 5 + 2

5= −0.6

To seveda ni verodostojna ocena za povprečno temperaturo vseh naseljenih krajev vSloveniji, ker vzorec ni reprezentativen, a več o tem kasneje. Verodostojnejša ocena jemediana: m = 2. Če bi temperaturo −13 stopinj, ki je bila izmerjena na Kredarici,zamenjali npr. s temperaturo 0 stopinj, izmerjeno v kakšnem nižje ležečem kraju, bi zapovprečje dobili 2 stopinji, mediana pa se ne bi spremenila.

Včasih je aritmetično sredino lažje izračunati po u-metodi : za poljubno izhodišče uvelja:

µ = u+(x1 − u) + (x2 − u) + · · ·+ (xn − u)

n.

Razlikam xi − u pravimo tudi odkloni (angl. deviations).

Primer :876, 879, 878, 878, 877 .

Če za izhodišče vzamemo u = 876, dobimo:

µ = 876 +0 + 3 + 2 + 2 + 1

5= 876 + 1

.6 = 877

.6 .

Če spremenljivko linearno transformiramo, se enako zgodi tudi z vsemi omenjenimimerami centralne tendence:

Količina Na stari spremenljivki Na novi spremenljivkiVrednost na i-ti enoti xi axi + bModus M aM + bMediana m am+ bAritmetična sredina µ aµ+ b

Pravimo, da mere centralne tendence komutirajo z linearnimi transformacijami. To veljatudi za vrstilne statistike in kvantile, če je a > 0:

Količina Na stari spremenljivki Na novi spremenljivkiVrednost na i-ti enoti xi axi + bi-ta vrstilna statistika x(i) ax(i) + bKvantil za delež p qp aqp + b

Pri a < 0 pa se vrstilne statistike in kvantili zamenjajo:

Količina Na stari spremenljivki Na novi spremenljivkiVrednost na i-ti enoti xi axi + bi-ta vrstilna statistika x(i) ax(n+1−i) + bKvantil za delež p qp aq1−p + b

Page 20: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

20 M. RAIČ: STATISTIKA

Primer : če podatkom876, 879, 878, 878, 877 ,

ki imajo aritmetično sredino 877.6, odštejemo 870, dobimo podatke:

6, 9, 8, 8, 7 ,

ki imajo aritmetično sredino 7.6. Če slednje pomnožimo z 10, dobimo podatke:

60, 90, 80, 80, 70 ,

ki imajo aritmetično sredino 76.

Primer : v anglosaksonskih državah uporabljajo Fahrenheitove stopinje. Zveza med obo-jimi je:

xC = yF⇐⇒ x =5(y − 32)

9⇐⇒ y =

9x

5+ 32

(0F.= −17.78C ustreza hudemu mrazu, 100F .

= 37.78C pa hudi vročini v zmernotoplem podnebju). Temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. urilahko torej zapišemo takole:

Postaja temperatura (C) temperatura (F)Kredarica −13 8

.6

Letališče Edvarda Rusjana Maribor 2 35.6

Letališče Jožeta Pučnika Ljubljana 1 33.8

Letališče Portorož 5 41.0

Ljubljana 2 35.6

Kot smo že izračunali, je povprečna temperatura v stopinjah Celzija:

−13 + 2 + 1 + 5 + 2

5= −0.6 ,

v stopinjah Fahrenheita pa:

8.6 + 35

.6 + 33

.8 + 41

.0 + 35

.6

5=

154.6

5= 30

.92

in to lahko dobimo tudi kot 95· (−0.6) + 32.

1.2.5 Intervalske spremenljivke: mere razpršenosti

Mere razpršenosti povedo, za koliko se posamezne vrednosti med seboj razlikujejo. Ena odpreprostih mer razpršenosti je interkvartilni razmik (angl. interquartile range, midspread,middle fifty):

IQR = q3/4 − q1/4 .

Page 21: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 21

(če kvartila nista natančno določena, ju interpoliramo). Lahko gledamo tudi povprečniabsolutni odklon (average absolute deviation) od primerne mere centralne tendence. Čele-to začasno označimo z u, dobimo količino:

AADu =|x1 − u|+ |x2 − u|+ · · ·+ |xn − u|

n.

Ta količina je najmanjša, če za u vzamemo mediano. Zato je smiselno gledati povprečniabsolutni odmik od mediane:

AADm =|x1 −m|+ |x2 −m|+ · · ·+ |xn −m|

n.

Čeprav mediana ni natančno določena, je zgornja količina vedno natančno določena. Do-stikrat se gleda tudi povprečni absolutni odklon od aritmetične sredine:

AADµ =|x1 − µ|+ |x2 − µ|+ · · ·+ |xn − µ|

n.

Najlepše računske lastnosti pa imajo mere razpršenosti, ki temeljijo na varianci alidisperziji :

var =(x1 − µ)2 + (x2 − µ)2 + · · ·+ (xn − µ)2

n.

Varianca je torej povprečni kvadratni odklon od aritmetične sredine. Lahko jo izračunamotudi po u-metodi:

var =(x1 − u)2 + (x2 − u)2 + · · ·+ (xn − u)2

n− (µ− u)2 .

Od tod se vidi tudi, da je povprečni kvadratni odklon od u najmanjši, če je u = µ.

Primer :8, 8, 9, 11, 11, 13, 14, 14, 14, 37 .

Prvi in tretji kvartil sta natančno določena: q1/4 = 9, q3/4 = 14, torej je IRQ = 5.

Mediana ni natančno določena – je namreč kar koli iz intervala [11, 13]. Toda kar koliiz tega intervala vzamemo za izračun AADm, dobimo isto:

2 · |8− 11|+ |9− 11|+ 2 · |11− 11|+ |13− 11|+ 3 · |14− 11|+ |37− 11|10

= 4.5

2 · |8− 13|+ |9− 13|+ 2 · |11− 13|+ |13− 13|+ 3 · |14− 13|+ |37− 13|10

= 4.5 .

Nadalje velja:

µ = 14 +2 · (−6) + (−5) + 2 · (−3) + (−1) + 23

10= 13

.9 ,

AADµ =1

10

[

2 · |8− 13.9|+ |9− 13

.9|+ 2 · |11− 13

.9|+ |13− 13

.9|+

+ 3 · |14− 13.9|+ |37− 13

.9|]

= 4.68 .

Page 22: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

22 M. RAIČ: STATISTIKA

Končno je še:

var =2 · (8− 14)2 + (9− 14)2 + 2 · (11− 14)2 + (13− 14)2 + (37− 14)2

10−

− (13.9− 14)2 =

= 64.49 .

Interkvartilni razmik in povprečni absolutni odklon sta neposredno primerljiva s po-datki oz. njihovimi razlikami, varianca pa ne. Če podatke linearno transformiramo, se tetri količine transformirajo takole:

Količina Na stari spremenljivki Na novi spremenljivkiVrednost na i-ti enoti xi axi + bInterkvartilni razmik IQR |a| · IQRPovpr. abs. odklon od mediane AADm |a| · AADm

Povpr. abs. odklon od aritm. sredine AADµ |a| · AADµ

Varianca var a2 · var

Primer : zamislimo si, da so podatki iz prejšnjega primera dolžine v centimetrih. Če bijih podali v metrih:

0.08, 0

.08, 0

.09, 0

.11, 0

.11, 0

.13, 0

.14, 0

.14, 0

.14, 0

.37 ,

bi dobili:

m ∈ [0.11, 0.13] , µ = 0

.139 , AADm = 0

.045 , AADµ = 0

.0468 , var = 0

.006449 .

To so zdaj vse dolžine, razen variance, ki je v resnici ploščina. Varianca ni neposrednoprimerljiva s podatki.

Zato računamo standardni odklon (angl. standard deviation), ki je kvadratni korenvariance:

σ =√var .

Varianco zato namesto z var navadno označimo kar s σ2. Standardni odklon je neposrednoprimerljiv s podatki. Pri prejšnjih podatkih bi, če bi računali v centimetrih, dobili:

σ =√64.49

.= 8.03 ,

če bi računali v metrih, pa bi dobili:

σ =√0.006449

.= 0.0803 .

Če podatke linearno transformiramo, se standardni odklon transformira tako kot in-terkvartilni razmik ali povprečni absolutni odklon:

Količina Na stari spremenljivki Na novi spremenljivkiVrednost na i-ti enoti xi axi + bStandardni odklon σ |a|σ

Page 23: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 23

Vse zgoraj omenjene količine preprosto dobimo iz frekvenčnih porazdelitev. Za zgledomenimo izražavo aritmetične sredine:

µ =1

n

(

f1a1 + f2a2 + · · ·+ fkak)

=

= f 1a1 + f

2a2 + · · ·+ f kak =

= u+1

n

(

f1(a1 − u) + f2(a2 − u) + · · ·+ fk(ak − u))

=

= u+ f 1 (a1 − u) + f

2 (a2 − u) + · · ·+ f k (ak − u)

in variance:

σ2 =1

n

(

f1(a1 − µ)2 + f2(a2 − µ)2 + · · ·+ fk(ak − µ)2)

=

= f 1 (a1 − µ)2 + f

2 (a2 − µ)2 + · · ·+ f k (ak − µ)2 =

=1

n

(

f1(a1 − u)2 + f2(a2 − u)2 + · · ·+ fk(ak − u)2)

− (u− µ)2 =

= f 1 (a1 − u)2 + f

2 (a2 − u)2 + · · ·+ f k (ak − u)2 − (µ− u)2 .

Pravimo, da je µ tehtana sredina vrednosti a1, a2, . . . ak z utežmi f 1 , f

2 , . . . f

k . V splošnem

je tehtana sredina vsak izraz zgornje oblike, pri katerem so uteži nenegativne, njihovavsota pa je 1.

Primer : pozitivne ocene s kolokvijev pri predmetu Verjetnost in statistika na univerzite-tnem študiju matematike na UL FMF v študijskem letu 2010/11:

ocena fi6 137 128 79 310 4

Velja:

µ =13 · 6 + 12 · 7 + 7 · 8 + 3 · 9 + 4 · 10

39=

285

39.= 7.31 .

Lahko računamo tudi po u-metodi:

µ = 8 +13 · (−2) + 12 · (−1) + 7 · 0 + 3 · 1 + 4 · 2

39= 8− 27

39.= 7.31 .

Za izračun standardnega odklona je navadno potreben kalkulator. Lahko računamo tako,da damo µ v spomin in vtipkamo:

var =13 · (6− µ)2 + 12 · (7− µ)2 + 7 · (8− µ)2 + 3 · (9− µ)2 + 4 · (10− µ)2

39.= 1.649 ,

σ =√var

.= 1.284 ,

lahko računamo tudi po u-metodi:

var =13 · (−2)2 + 12 · 12 + 7 · 02 + 3 · 12 + 422

39− (8− µ)2

.= 1.649 .

Page 24: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

24 M. RAIČ: STATISTIKA

Večina kalkulatorjev ima vgrajene posebne funkcije za izračun povprečja, variance instandardnega odklona, biti pa moramo previdni, saj obstaja tudi popravljena varianca,ki je pomembna v inferenčni statistiki:

s2 =(x1 − µ)2 + (x2 − µ)2 + · · ·+ (xn − µ)2

n− 1.

Posebej preprosti so izračuni za dihotomne spremenljivke:

• Če spremenljivka zavzame le vrednosti 0 in 1, je aritmetična sredina enaka karrelativni frekvenci vrednosti 1.

• Če spremenljivka zavzame vrednost a z relativno frekvenco q, vrednost b pa z rela-tivno frekvenco p, velja:

AADm = minp, q|b− a| , AADµ = 2pq|b− a| , σ = |b− a|√pq .

Standardizacija je postopek, pri katerem od vrednosti odštejemo aritmetične sredinein jih delimo s standardnim odklonom. Dobimo standardizirane vrednosti :

zi =xi − µ

σ.

Standardizirane vrednosti nam omogočajo primerjavo različnih spremenljivk, recimo naisti enoti. So invariantne za linearne transformacije s pozitivno strmino, t. j. le-te jihohranjajo. Natančneje:

KoličinaNa stari

spremenljivkiNa novi

spremenljivki(a > 0)

Na novispremenljivki

(a < 0)Vrednost na i-ti enoti xi axi + b axi + bStandardizirana vrednost zi zi −zi

Primer :

Xstandardiziranavrednost

83 1.55

22 −1.5061 0

.45

45 −0.3549 −0.15

µ 52 0σ 20 1

Če podatkom odštejemo 22, dobimo:

Page 25: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 25

Xstandardiziranavrednost

61 1.55

0 −1.5039 0

.45

23 −0.3527 −0.15

µ 30 0σ 20 1

in če te vrednosti podvojimo, dobimo:

Xstandardiziranavrednost

122 1.55

0 −1.5078 0

.45

46 −0.3554 −0.15

µ 60 0σ 40 1

Standardizirane vrednosti so ostale enake.

Primer : temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri:

Postaja/karakteristikatemperatura(C)

temperatura(F)

standardiziranavrednost

Kredarica −13 8.6 −1.95

Letališče Maribor 2 35.6 0

.41

Letališče Ljubljana 1 33.8 0

.25

Letališče Portorož 5 41.0 0

.88

Ljubljana 2 35.6 0

.41

µ −0.6 30.92 0

var 40.24 130

.38 1

σ 6.34 11

.42 1

Standardizirane vrednosti so enake, najsi jih računamo v Celzijevih ali Fahrenheitovihstopinjah.

Standardizirana vrednost podobno kot relativni rang pove, kje v skupini je določenpodatek (pri dnu, v sredini, pri vrhu . . . )

Še en primer : spet si oglejmo rezultate dveh kolokvijev:

Page 26: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

26 M. RAIČ: STATISTIKA

Ambrož 83Blaž 22Cvetka 61Darja 45Emil 49

Florjan 84Gal 86Helena 71Iva 67Jana 67Karmen 88Lev 89Mojca 64

in se vprašajmo, kdo je glede na svoje kolege pisal bolje: Cvetka ali Gal?

Pri prvem kolokviju je µ = 52 in σ = 20, torej je Cvetkina standardizirana vrednost:

61− 52

20= 0.45 .

Pri drugem kolokviju pa je µ = 77 in σ = 10, torej je Galova standardizirana vrednost:

86− 77

10= 0.9 .

1.2.6 Združevanje vrednosti v razrede

Kadar je vrednosti veliko, frekvence pa so majhne (če so vrednosti zelo natančno izmerjene,se vsaka od njih tipično pojavi le enkrat), se splača vrednosti združevati v razrede. Pritem obstajajo določena pravila:

• Razredi se ne smejo prekrivati.

• Pri imenskih spremenljivkah, pri katerih vemo, katere vrednosti so bližnje, morajorazredi obsegati bližnje vrednosti.

• Pri urejenostnih spremenljivkah mora vsak razred zajemati vrednosti iz določenegaintervala. Paziti moramo na enoten dogovor, katera krajišča intervalov (spodnja,zgornja) razred vključuje in katerih ne.

• Pri intervalskih spremenljivkah lahko določamo širine razredov. Kadar to delamo,se morajo sosedni intervali stikati: zgornja meja prejšnjega razreda se mora ujematis spodnjo mejo naslednjega. Izbiramo čimbolj realistične meje: če so podatki, kiso na voljo, zaokroženi, poskusimo predvideti, iz katerih realnih vrednosti je lahkobila dobljena posamezna zaokrožena vrednost. Ne gre vedno za najbližjo vrednost– starost se zaokrožuje navzdol.

Ni enotnega pravila, koliko razredov narediti oziroma kako široki naj bodo.

• V splošnem se lahko držimo že omenjenega korenskega pravila, ki ga lahko zdajinterpretiramo tudi tako, da je v posameznem razredu približno

√n enot (kar nanese

približno√n razredov). Le-ti so lahko zelo različnih širin.

Page 27: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 27

• Če želimo dobiti enako široke razrede, Freedman–Diaconisovo pravilo pravi, naj boširina posameznega razreda približno 2 · IQR/ 3

√n.

Primer : razporeditev točk svetovnem pokalu v alpskem smučanju za ženske do7. 3. 2012. V kombinaciji tekmuje 39 smučark. Točke:

180, 125, 120, 110, 79, 63, 62, 56, 55, 50,

47, 45, 40, 39, 36, 32, 31, 28, 24, 22,

21, 20, 18, 18, 17, 16, 14, 13, 13, 9,

8, 6, 5, 4, 3, 3, 2, 1, 1 .

Po korenskem pravilu bi moralo biti v posamezni skupini približno 6 smučark. Takobi bila morda smiselna naslednja razporeditev:

Točke Frekvenca Gostota Rel. gostota[0, 5) 6 1

.200 0

.03077

[5, 15) 7 0.700 0

.01795

[15, 25) 8 0.800 0

.02051

[25, 40) 5 0.333 0

.00855

[40, 60) 6 0.300 0

.00769

[60, 180) 7 0.058 0

.00150

,

Pri različno širokih razredih je smiselno narediti histogram iz gostot frekvenc (angl.frequency densities). Če je fi frekvenca, di pa širina i-tega razreda, je gostota frekvencenjun kvocient, lahko pa definiramo tudi relativno gostoto:

gi =fidi

, gi =f i

di.

Delež enot, katerih vrednosti spremenljivke se nahajajo v določenih razredih, je tako enakploščini ustreznih pravokotnikov v histogramu iz relativnih gostot frekvenc.

Histogram za prejšnjo razdelitev smučark:

Page 28: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

28 M. RAIČ: STATISTIKA

x

gi

20 40 60 80 100 120 140 160 180

0.2

0.4

0.6

0.8

1

1.2

Nazorneje pa bi bilo, če bi zadnjo (najvišjo) skupino razdelili še glede na 100 točk,smučarko z najvišjim rezultatom pa sploh prikazali posebej. Na primer:

Točke Frekvenca Gostota Rel. gostota[0, 5) 6 1

.200 0

.03077

[5, 15) 7 0.700 0

.01795

[15, 25) 8 0.800 0

.02051

[25, 40) 5 0.333 0

.00855

[40, 60) 6 0.300 0

.00769

[60, 100) 3 0.075 0

.00192

[100, 150) 3 0.060 0

.00154

180 1

,

Histogram:

x

gi

20 40 60 80 100 120 140 160 180

0.2

0.4

0.6

0.8

1

1.2 b

Page 29: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 29

Po Freedman–Diaconisovem pravilu pa bi morala biti širina razreda približno:

2 · (50− 9)3√39

.= 24

.18 ,

kar pomeni, da je smiselno, če je širina razredov 25. Dobili bi:

Točke Frekvenca[0, 25) 21[25, 50) 8[50, 75) 5[75, 100) 1[100, 125) 2[125, 150) 1[150, 175) 0[175, 200) 1

.

Histogram:

x

fi

25 50 75 100 125 150 175 200

5

10

15

20

25

1.2.7 Primerjanje vrednosti razmernostnih spremenljivk

Razmernostne spremenljivke se odlikujejo po tem, da lahko poljubni dve vrednosti delimo.Če npr. delimo dva različna decila, dobimo interdecilni količnik. Pogosto je v uporabirazmerje q0.9/q0.1.

Page 30: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

30 M. RAIČ: STATISTIKA

Primer : razporeditev točk svetovnem pokalu v alpskem smučanju za ženske do7. 3. 2012. V kombinaciji tekmuje 39 smučark. Točke:

180, 125, 120, 110, 79, 63, 62, 56, 55, 50,

47, 45, 40, 39, 36, 32, 31, 28, 24, 22,

21, 20, 18, 18, 17, 16, 14, 13, 13, 9,

8, 6, 5, 4, 3, 3, 2, 1, 1 .

Iz q0.9 = 110 in q0.1 = 3 dobimo interdecilni količnik 36.7.

Koeficient dinamike je razmerje med vrednostma razmernostne spremenljivke na dvehstatističnih enotah:

Ks/t =xs

xt

.

indeks pa je koeficient dinamike, pomnožen s 100:

Is/t = 100Ks/t = 100xs

xt

.

Koeficiente dinamike in indekse navadno uporabljamo takrat, ko so enote časi.

Včasih določeno enoto, recimo t0, vzamemo za izhodišče. Takrat koeficientom dina-mike Kt/t0 oziroma indeksom It/t0 pravimo bazni koeficienti dinamike oz. indeksi ali patudi koeficienti dinamike oz. indeksi s stalno osnovo. Vse koeficiente dinamike in indekselahko izpeljemo iz tistih s stalno osnovo:

Ks/t =Ks/s0

Kt/t0

, Is/t = 100Is/s0It/t0

.

Če so enote urejene po velikosti:

t0 < t1 < t2 < · · · < tn

(recimo če gre za čase), pa lahko gledamo verižne koeficiente dinamike:

Kt1/t0 , Kt2/t1 , Kt3/t2 , . . . Ktn/tn−1

oz. indekse:It1/t0 , It2/t1 , It3/t2 , . . . Itn/tn−1

Velja:Ktn/t0 = Kt1/t0 Kt2/t1 · · ·Ktn/tn−1 .

Če so časi enakomerno razmaknjeni, ima smisel računati povprečni koeficient dinamike,ki je geometrična sredina verižnih koeficientov dinamike:

Ktn/t0 =n√

Kt1/t0 Kt2/t1 · · ·Ktn/tn−1 .

Njegov pomen je, da, če bi vse verižne koeficiente dinamike zamenjali s povprečnim, sebazni koeficient dinamike Ktn/t0 ne bi spremenil. Podobno velja tudi za povprečni verižniindeks :

I tn/t0 =n√

It1/t0 It2/t1 · · · Itn/tn−1 .

Page 31: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 31

Primer :xi Kti/t0 Iti/t0 Kti/ti−1

Iti/ti−1

20 1 100 – –25 1

.25 125 1

.25 125

30 1.5 150 1

.2 120

27 1.35 135 0

.9 90

Povprečni koeficient dinamike: 3√1.35

.= 1.105

Povprečni verižni indeks: 110.5.

1.3 Mere povezanosti dveh statističnih spremenljivk

– bivariatna analiza

Gre za to, da želimo za dve statistični spremenljivki, definirani na isti statistični množici,izmeriti, koliko sta odvisni druga od druge.

POZOR! Povezanost dveh statističnih spremenljivk še ne pomeni, da ena od njijuneposredno vpliva na drugo – povezanost ne implicira vzročnosti. Navadno povezanostnastane zaradi tega, ker na obe spremenljivki vpliva neka tretja spremenljivka (lahko zeloposredno), le-to pa je dostikrat težko določiti.

Kvantitativno (številsko) opredeljevanje odvisnosti je odvisno od tipa spremenljivk.

1.3.1 Povezanost dveh imenskih spremenljivk

Porazdelitev dveh imenskih spremenljivk predstavimo s kontingenčno tabelo:

b1 b2 · · · bl

a1 f11 f12 · · · f1l f1·a2 f21 f22 · · · f2l f2·...

....... . .

......

ak fk1 fk2 · · · fkl fk·

f·1 f·2 · · · f·l n

Pri tem so:

• a1, a2, . . . ak vrednosti prve spremenljivke, npr. X;

• b1, b2, . . . bl vrednosti druge spremenljivke, npr. Y ;

• fij navzkrižne frekvence (angl. joint frequencies, cross-frequencies): navzkrižna fre-kvenca fij pove, na koliko enotah je X = ai in hkrati Y = bj ali s formulo:

fij = ♯(X = ai, Y = bj) ;

Page 32: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

32 M. RAIČ: STATISTIKA

• fi· in f·j robne frekvence (angl. marginal frequencies): robne frekvence:

fi· = fi1 + fi2 + · · ·+ fil = ♯(X = ai)

tvorijo frekvenčno porazdelitev spremenljivke X, robne frekvence:

f·j = f1j + f2j + · · ·+ flj = ♯(Y = bj)

pa tvorijo frekvenčno porazdelitev spremenljivke Y . Seveda velja:

n = f1· + f2· + · · ·+ fk· = f·1 + f·2 + · · ·+ f·l .

Definiramo lahko tudi relativne navzkrižne frekvence in relativne robne frekvence:

f ij =

fijn

, f i· =

fi·n

=l

j=1

fij , f ·j =

f·jn

=l

i=k

fij .

Primer : barva oči in barva las

Absolutne frekvence:

oči\lasje blond rdeči rjavi, črni Skupaj

modre 7 2 2 11zelene 4 0 2 6rjave 0 0 9 9

Skupaj 11 2 13 26

Relativne frekvence:

oči\lasje blond rdeči rjavi, črni Skupaj

modre 0.269 0.077 0.077 0.423zelene 0.154 0.000 0.077 0.231rjave 0.000 0.000 0.346 0.346

Skupaj 0.423 0.077 0.500 1.000

Obstaja veliko številskih mer (pokazateljev) povezanosti. Eden najboljših je Cramér-jev koeficient asociiranosti, osnova za njegov izračun pa so teoretične relativne navzkrižnefrekvence:

f ij = f

i· f·j ,

Teoretične relativne frekvence v našem primeru:

oči\lasje blond rdeči rjavi, črni Skupaj

modre 0.179 0.033 0.212 0.423zelene 0.098 0.018 0.115 0.231rjave 0.146 0.027 0.173 0.346

Skupaj 0.423 0.077 0.500 1.000

Page 33: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 33

Cramérjev koeficient asociiranosti pa je definiran s formulo:

V :=

1

mink, l − 1

k∑

i=1

l∑

j=1

(

f ij − f

ij

)2

f ij

.

Pri našem primeru izračunamo:

V =

[(

(0.269− 0

.179)2

0.179

+(0.077− 0

.033)2

0.033

+(0.077− 0

.212)2

0.212

+

+(0.154− 0

.098)2

0.098

+(0.000− 0

.018)2

0.018

+(0.077− 0

.115)2

0.115

+

+(0.000− 0

.146)2

0.146

+(0.000− 0

.027)2

0.027

+(0.346− 0

.173)2

0.173

)]1/2.=

.= 0.55 .

Cramérjev koeficient asociiranosti lahko izračunamo tudi iz (absolutnih) frekvenc. Za tanamen najprej izračunamo teoretične (absolutne) frekvence:

fij = nf ij =

fi·f·jn

in velja:

V =

χ2

n(

mink, l − 1) ,

kjer je χ2 Pearsonova statistika hi kvadrat (angl. chi-squared):

χ2 = nk

i=1

l∑

j=1

(

f ij − f

ij

)2

f ij

=k

i=1

l∑

j=1

(fij − fij)2

fij

Teoretične absolutne frekvence pri prejšnji tabeli barv oči in las so:

oči\lasje blond rdeči rjavi, črni Skupaj

modre 4.65 0.84 5.50 11zelene 2.54 0.46 3.00 6rjave 3.81 0.69 4.50 9

Skupaj 11 2 13 26

Velja χ2 .= 15

.62.

Lastnosti Cramérjevega koeficienta asociiranosti:

• Velja 0 ≤ V ≤ 1.

• Če staX in Y neodvisni in je dovolj podatkov, je V blizu 0: več kot je podatkov, boljnatančno to velja. Kasneje pri inferenčni statistiki se bomo naučili, kako postavitimejo.

Page 34: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

34 M. RAIČ: STATISTIKA

• Koeficient V je maksimalen (enak 1) natanko tedaj, ko spremenljivki natančnodoločata druga drugo (sta popolnoma povezani).

Kvalitativno opredeljevanje koeficienta asociiranosti je precej subjektivne narave. Tu sebomo držali naslednjih dogovorov:

• do 0.2: neznatna povezanost;• od 0.2 do 0.4: nizka povezanost;• od 0.4 do 0.7: zmerna povezanost;• od 0.7 do 0.9: visoka povezanost;• od 0.9 do 1: zelo visoka povezanost.

Pri primeru z barvo oči in las sta torej spremenljivki zmerno povezani.

Če sta obe spremenljivki dihotomni (lahko zavzameta le dve vrednosti) in je njunaporazdelitev podana s kontingenčno tabelo:

b1 b2

a1 A Ba2 C D

,

je izražava Cramérjevega koeficienta asociiranosti preprostejša:

V =|AD −BC|

(A+ B)(C +D)(A+ C)(B +D).

Več informacije pa nam da predznačena vrednost:

φ =AD −BC

(A+ B)(C +D)(A+ C)(B +D).

• Če je φ > 0, to pomeni, da se enote, na katerih prva spremenljivka zavzame prvovrednost, nagibajo k temu, da tudi druga spremenljivka zavzame prvo vrednost;nasprotno se enote, na katerih prva spremenljivka zavzame drugo vrednost, nagibajok temu, da tudi druga spremenljivka zavzame drugo vrednost.

• Če je φ < 0, to pomeni, da se enote, na katerih prva spremenljivka zavzame prvovrednost, nagibajo k temu, da druga spremenljivka zavzame drugo vrednost; na-sprotno se enote, na katerih prva spremenljivka zavzame drugo vrednost, nagibajok temu, da tudi druga spremenljivka zavzame prvo vrednost.

Primer : rezultati ankete z dvema vprašanjema:

1. Ali verjamete v horoskop?

2. Ali verjamete v NLP-je?

Page 35: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 35

so zbrani v naslednji tabeli:

Horoskop\NLP vsaj malo ne Skupaj

vsaj malo 5 7 12ne 6 9 15

Skupaj 11 16 27

Velja φ =5 · 9− 7 · 6√12 · 15 · 11 · 16

.= 0.017.

Gre torej za neznatno pozitivno povezanost.

1.3.2 Povezanost dveh intervalskih spremenljivk

Povezanost dveh intervalskih spremenljivk lahko merimo s Pearsonovim korelacijskimkoeficientom. Če vrednosti prve označimo z x1, . . . xn, vrednosti druge pa z y1, . . . yn,najprej izračunamo kovarianco:

K = K x,y :=(x1 − µx)(y1 − µy) + (x2 − µx)(y2 − µy) + · · ·+ (xn − µx)(yn − µy)

n,

kjer sta µx in µy aritmetični sredini naših spremenljivk:

µx =x1 + x2 + · · ·+ xn

n, µy =

y1 + y2 + · · ·+ ynn

.

Če je kovarianca pozitivna, pravimo, da sta spremenljivki pozitivno korelirani. Če jenegativna, sta negativno korelirani. Če je enaka nič, sta nekorelirani.

Kovarianco lahko računamo tudi po u-metodi: za poljubna u in v velja:

K x,y =(x1 − u)(y1 − v) + (x2 − u)(y2 − v) + · · ·+ (xn − u)(yn − v)

n− (µx − u)(µy − v) .

Lahko jo računamo tudi iz kontingenčne tabele:

K x,y =1

n

k∑

i=1

l∑

j=1

fij(ai − µx)(bj − µy) =

=k

i=1

l∑

j=1

f ij(ai − µx)(bj − µy) =

=1

n

k∑

i=1

l∑

j=1

fij(ai − u)(bj − v)− (µx − u)(µy − v) =

=k

i=1

l∑

j=1

f ij(ai − µx)(bj − µy)− (µx − u)(µy − v)

Page 36: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

36 M. RAIČ: STATISTIKA

Varianca statistične spremenljivke je njena kovarianca same s seboj.

Če preučujemo več spremenljivk hkrati (multivariatna analiza), je pomembna kovari-ančna matrika:

K =

K11 K12 . . . K1n

K21 K22 . . . K2n...

.... . .

...Kn1 Kn2 . . . Knn

S Kij smo tu označili kovarianco i-te in j-te spremenljivke. V multivariatni analizi jeanaliza matrik (ki temelji na linearni algebri) ključnega pomena.

Pearsonov korelacijski koeficient je definiran s formulo:

r = rx,y =K x,y

σx σy

,

kjer sta σx in σy standardna odklona naših spremenljivk:

σx =

(x1 − µx)2 + (x2 − µx)2 + · · ·+ (xn − µx)2

n,

σy =

(y1 − µy)2 + (y2 − µy)2 + · · ·+ (yn − µy)2

n.

Lastnosti Pearsonovega korelacijskega koeficienta:

• Definiran je, če nobena od spremenljivk ni konstantna.

• Velja −1 ≤ r ≤ 1.

• Če sta X in Y neodvisni in je dovolj podatkov, je r blizu 0 (kasneje pri inferenčnistatistiki se bomo naučili, kako postaviti mejo).

• Pearsonov korelacijski koeficient je maksimalen (enak 1), če je katera koli od spre-menljivk naraščajoča linearna funkcija druge.

• Pearsonov korelacijski koeficient je minimalen (enak −1), če je katera koli od spre-menljivk padajoča linearna funkcija druge.

Pearsonov korelacijski koeficient meri stopnjo linearne povezanosti med statističnima spre-menljivkama.

Absolutna vrednost Pearsonovega korelacijskega koeficienta (|r|) je v grobem primer-ljiva s Cramérjevim koeficientom asociiranosti. Še več, za par dihotomnih spremenljivkse to dvoje celo ujema, ne glede na to, kateri dve (različni) števili priredimo vrednostmaposamezne spremenljivke (ki nista nujno številski – lahko sta le imenski). Če gledamopar urejenostnih dihotomnih spremenljivk in če številske vrednosti priredimo v skladu zurejenostjo, velja r = φ.

Page 37: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 37

Zato je smiselno, če tudi Pearsonov korelacijski koeficient enako kvalitativno oprede-ljujemo kot pri Cramérjev koeficient, s tem da lahko sedaj povemo tudi smer povezanosti:vrednost r = −0.6 torej pomeni zmerno negativno koreliranost.Kvadratu korelacijskega koeficienta (r2) pravimo determinacijski koeficient. Njegovo

kvalitativno opredeljevanje je torej naslednje:

• do 0.04: neznatna povezanost;• od 0.04 do 0.16: nizka povezanost;• od 0.16 do 0.49: zmerna povezanost;• od 0.49 do 0.81: visoka povezanost;• od 0.81 do 1: zelo visoka povezanost.

Primer : vremenska napoved temperatur za naslednjih nekaj dni

dan jutranja dnevnapetek 14 19sobota 12 20nedelja 10 21ponedeljek 11 22torek 12 21

Grafično lahko to ponazorimo z diagramom razpršenosti (tudi razsevni diagram, angl.scatter plot, scattergraph):

jutranja

dnevna

10 11 12 13 14

19

20

21

22

b

b

b

b

b

b

Izračun Pearsonovega korelacijskega koeficienta:

xi yi xi − 10 yi − 20 (xi − 10)2 (yi − 20)2 (xi − 10)(yi − 20)14 19 4 −1 16 1 −412 20 2 0 4 0 210 21 0 1 0 1 011 22 1 2 1 4 012 21 2 1 4 1 2

Vsota 9 3 25 7 2Povprečje 1

.8 0

.6 5 1

.4 0

.4

Page 38: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

38 M. RAIČ: STATISTIKA

Kovarianca: K.= 0− 1

.8 · 0.6 = −1.08.

Standardna odklona: σx =√5− 1

.82

.= 1.327, σy =

√1.4− 0

.62

.= 1.020

Pearsonov korelacijski koeficient: r.=

−1.081.327 · 1.020

.= −0.80.

Determinacijski koeficient: 0.64.Jutranja in dnevna temperatura sta torej visoko negativno povezani: pri višji jutranjitemperaturi lahko pričakujemo nižjo dnevno.

Pri takšni napovedi, kot je ta (za nekaj zaporednih dni) ima pri korelaciji verjetnonejvečjo težo vpliv oblačnosti, ki viša jutranjo, a niža dnevno temperaturo. Pri napovediza daljše obdobje bi bila korelacija bistveno drugačna.

Še en primer : med 20 študenti izvedemo anketo z dvema vprašanjema:

1. Koliko ur na dan preživiš na računalniku?

2. Koliko ur na dan preživiš zunaj s prijatelji?

Rezultati ankete so zbrani v naslednji kontingenčni tabeli (vrstice so ure na računalniku,stolpci pa ure s prijatelji):

X \ Y 1 2 3 4 5 fi·

1 1 1 0 0 1 32 2 2 2 0 1 73 3 1 1 0 0 54 0 1 1 1 0 35 1 1 0 0 0 2f·j 7 6 4 1 2 20

Gre za intervalski spremenljivki, zato je smiselno gledati Pearsonov korelacijski koeficient.Najprej izračunamo povprečja:

µx =1 · 3 + 2 · 7 + 3 · 5 + 4 · 3 + 5 · 2

20= 2.7 ,

µy =1 · 7 + 2 · 6 + 3 · 4 + 4 · 1 + 5 · 2

20= 2.25 .

Anketiranci so, kot trdijo, torej v povprečju na dan preživeli 2.7 ure za računalnikom in2.25 ure s prijatelji.

Kot naslednji korak bomo izračunali standardna odklona. Če gremo računat po u-metodi in vzamemo u = 3 (za x) in v = 2 (za y), dobimo:

σ2x =

1

20

[

(1− 3)2 · 3 + (2− 3)2 · 7 + (3− 3)2 · 5 + (4− 3)2 · 3 + (5− 3)2 · 2]

−− (2.7− 3)2 = 1

.41 ,

σ2y =

1

20

[

(1− 2)2 · 7 + (2− 2)2 · 6 + (3− 2)2 · 4 + (4− 2)2 · 1 + (5− 2)2 · 2]

−− (2.25− 2)2 = 1

.5875 ,

Page 39: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 39

od koder dobimo σx.= 1.1874 in σy

.= 1.2600.

Kovarianca:

K x,y =1

20

[

(−2) · (−1) · 1 + (−2) · 0 · 1 + (−2) · 1 · 0 + (−2) · 2 · 0 + (−2) · 3 · 1 +

+ (−1) · (−1) · 2 + (−1) · 0 · 2 + (−1) · 1 · 2 + (−1) · 2 · 0 + (−1) · 3 · 1 ++ 0 · (−1) · 3 + 0 · 0 · 1 + 0 · 1 · 1 + 0 · 2 · 0 + 0 · 2 · 0 ++ 1 · (−1) · 0 + 1 · 0 · 1 + 1 · 1 · 1 + 1 · 2 · 1 + 1 · 2 · 0 +

+ 2 · (−1) · 1 + 2 · 0 · 1 + 2 · 1 · 0 + 2 · 2 · 0 + 2 · 2 · 0]

− (2.7− 3) · (2.25− 2) =

= −0.225 .

Pearsonov korelacijski koeficient: r.=

−0.2251.1874 · 1.2600

.= −0.15. Gre torej za neznatno

negativno povezanost.

Še nekaj primerov diagramov razpršenosti z različnimi korelacijskimi koeficienti :

To so rezultati tistih 52 študentov, ki so v študijskem letu 2010/11 na biopsihologijipisali oba kolokvija iz statistike:

x

y

r = 0.58

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

bb

b

b

bb

b

b

b b

b

b

b

b

b

b

b

b

b

b

b

b

bb

b

b

To so naključno generirani podatki, a naključnost je nastavljena tako, da so nekoreli-rani.

Page 40: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

40 M. RAIČ: STATISTIKA

x

y

r = 0

b

b

b

b

b

b

b

b

b

b

bbb

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

bb

b

bb

b

b

b bb

b

b

b

b

b

bb

b

bb

b

b

bbb

bb

b

b

b

b

bb

b

b

bb

bb

b

b

bb b

b

bb

b

b

b

bbb

b

b

bb bb

b

b

b

b

Ti podatki so visoko pozitivno korelirani.

x

y

r = 0.9

b

b

b

bb

b

b

b

b

b

b

b

b

b

bb

b

b b

b

b

b

b

b

b

b

b

b

bb

b

b

bb

b

b

bb

b

b

b

b

b

b

b

bb

b

bb

b

bb

b

b

b

bbb

bb

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b bbb

b

b

bb

b b

b

b

bb

b

b

b

b

Skrajni primer je korelacija 1, ko gre za linearno odvisnost.

x

y

r = 1b

bb bb

b

b

b

b

b b

b

bbb

b

b b

bbb

b

b

b

b

b

bb

b

b

Korelacija je lahko tudi negativna:

x

y

r = −0.5

b

b

b

b

b

b

b b

b

b

b

b

b

b

b

b

b

b

b

bb

b

b b

b

b

b

b

b

b

b

b

b

b

b

bb

bb

b

b

b

b

b

bb

b

b

b

b

b

b

b

b

b

b

b

b

b

bb

b

b

b

b

bb

b

b

bb

b

b

b

b

b

b

b

b

b

b

b

b b

b

b

b

b bb

b

bb

bbb

bb

b

b

Page 41: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 41

Tukaj je korelacija enaka −1:

x

y

r = −1

bb b bb

b

bbb

bbb b bb

bb

bbb b

bb

b

b

b

bb

bb

Še en primer nekoreliranih podatkov:

x

y

r = 0

bb

b

b

b

b

b

b

b

b

b

b

b b

b

b

b

bb

b

b

bb

b

b

b

b

b

b

bb

b

bb

b

b

b

bb b

b

b

b

b

bb

b

b

b

b b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

b

bb

b

b

b

b

b

bb

b

b

b

b

b

b b

b

b

b

b

bb

b

b

b

b

bb

bb

b

b

Tukaj se y deterministično izraža z x, podatki pa so nekorelirani.

x

y

r = 0

bbbbbbbbbbbbb bb bb bb b bb b b b b b b b b b b b b b b b b b

bbbbbbbbbbbbbbbbbbbbbbbb b b b b b b b b b b b b b b b b b

b b bb bb bb bbbbbbbbbbbb

Page 42: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

42 M. RAIČ: STATISTIKA

1.3.3 Povezanost intervalske in dihotomne spremenljivke

Podatke, kjer sta na isti statistični množici definirani intervalska spremenljivka (recimoU) in dihotomna spremenljivka (recimo S), lahko predstavimo bodisi kot:

u1, u2, . . . uN

s1, s2, . . . sN

bodisi podatke razdelimo glede na vrednost dihotomne spremenljivke. Če le-ta zavzamevrednosti a in b, lahko podatke, na katerih druga spremenljivka zavzame vrednost a,predstavimo z:

x1, x2, . . . xm ,

podatke, na katerih druga spremenljivka zavzame vrednost b, pa z:

y1, y2, . . . yn .

Še drugače, gledati dve spremenljivki, od katerih je druga dihotomna, na eni statističnimnožici, je ekvivalentno gledanju prve spremenljivke na dveh različnih statističnih množi-cah (dihotomna spremenljivka nam statistično množico razdeli na dve skupini).

Primer : pri nekem izpitu gledamo rezultat in spol:

Ime Rezultat (ui) Spol (si)Jan 22 MKarmen 39 ŽBarbara 73 ŽKristina 34 ŽDomen 52 MKatja 34 ŽAljaž 39 MRok 52 MSabina 38 ŽDiana 53 ŽJerica 59 ŽTilen 43 M

Rezultate lahko ločimo po spolih:

Ženske: x1 = 39 , x2 = 73 , x3 = 34 , x4 = 34 , x5 = 38 , x6 = 53 , x7 = 59 .

Moški: y1 = 22 , y2 = 52 , y3 = 39 , y4 = 52 , y5 = 43 .

Prikaz s pikami:

Ženske: b bbb

b b b

Moški: b bbb

b

Page 43: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 43

Če sta a in b numerični vrednosti, lahko izračunamo Pearsonov korelacijski koeficient.Brž ko je a > b, je le-ta enak:

rpb =µx − µy

σ

√mn

m+ n,

ne glede na to, koliko sta vrednosti a in b dejansko enaki. Zato ni nujno, da je dihotomnaspremenljivka numerična, lahko je le imenska. Koeficient za ta primer imenujemo točkovnibiserialni korelacijski koeficient (angl. point biserial correlation coefficient).

Oznaka σ se tu nanaša na celostni standardni odklon, t. j. standardni odklon spre-menljivke U :

σ =

(u1 − µ)2 + (u2 − µ)2 + · · ·+ (uN − µ)2

N=

=

(x1 − µ)2 + (x2 − µ)2 + · · ·+ (xm − µ)2 + (y1 − µ)2 + (y2 − µ)2 + · · ·+ (yn − µ)2

N,

µ pa je aritmetična sredina vseh podatkov:

µ =u1 + u2 + · · ·+ uN

N,

Pri našem primeru je:

µx.= 47

.14 , µy = 41

.6 , µ

.= 44

.83 , σ2 .

= 169.8 , σ

.= 13

.03 ,

torej je:

rpb.=

47.14− 41

.6

13.03

√7 · 5

7 + 5.= 0.2097 .

Kvalitativno opredeljevanje točkovnega biserialnega koeficienta je enako kot pri Pear-sonovem: gre torej za nizko povezanost v korist žensk. Ali drugače, ženske so pisale maloboljše kot moški.

Aritmetična sredina vseh podatkov je enaka tehtani sredini aritmetičnih sredin posa-meznih skupin:

µ =m

m+ nµx +

n

m+ nµy .

z utežema, ki sta sorazmerni z velikostma skupin, ki ju predstavljata.

Kvadrat celostnega standardnega odklona, torej celostno (celotno, totalno) varianco,pa lahko zapišemo kot vsoto:

σ2 = σ2W + σ2

B ,

kjer je:

σ2W =

m

m+ nσ2x +

n

m+ nσ2y

varianca znotraj skupin (angl. within groups) ali tudi nepojasnjena varianca (angl. une-xplained variance, pooled variance) in:

σ2B =

mn

(m+ n)2(µx − µy)

2

Page 44: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

44 M. RAIČ: STATISTIKA

varianca med skupinama (angl. between groups ali tudi pojasnjena varianca (angl. ex-plained variance). To je tisti del variance, ki jo pojasnjuje skupina, v kateri je podatek.

Na zgornji in splošnejših razčlenitvah variance temelji analiza variance (angl. analysisof variance, ANOVA), ki je pomemben del inferenčne statistike. Malo kasneje bomoomenili posplošitev na več skupin.

Kvadrat točkovnega biserialnega korelacijskega koeficienta (točkovni biserialni deter-minacijski koeficient) predstavlja delež pojasnjene variance ali tudi moč učinka (angl.strength of effect, effect size), saj velja:

r2pb =σ2B

σ2=

σ2B

σ2W + σ2

B

.

Njegovo kvalitativno opredeljevanje je torej enako kot pri determinacijskem koeficientu.

Pri našem primeru je recimo:

µ.= 44

.83

.=

7

12· 47.14 + 5

12· 41.6 .

Varianca med skupinama (varianca, pojasnjena s spolom), je enaka:

σ2B =

7 · 5(7 + 5)2

(47.14− 41

.6)2

.= 7.5 .

Nadalje je:σ2x.= 191

.3 , σx

.= 13

.83 , σ2

y.= 121

.8 , σy

.= 11

.04 .

in varianca znotraj skupin (nepojasnjena varianca) je enaka:

σ2W

.=

7

12· 191.3 + 5

12· 121.8 .

= 162.3 .

Opazimo, da je res σ2 .= 169

.8 = 7

.5 + 121

.8

.= σ2

B + σ2W. Delež pojasnjene variance je

enak:7.5

169.8

.= 0.04398

.= 0.20972 .

Če sta obe spremenljivki dihotomni, velja rpb = φ.

Kot mero za povezanost intervalske in dihotomne spremenljivke lahko gledamo tudistandardizirano razliko povprečij (angl. standardized mean difference) ali tudi Cohenovkoeficient :

d =µx − µy

σW

Točkovni biserialni in Cohenov koeficient nam dajeta isto informacijo, saj se izražata drugz drugim:

rpb =d

d2 + (m+n)2

mn

, d =m+ n√

mn

r√1− r2

.

Page 45: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 45

Nudita pa dva različna pogleda: točkovni biserialni korelacijski koeficient je osredotočenbolj na povezanost, Cohenov koeficient pa bolj na razliko.

V našem primeru je:

d.=

47.14− 41

.6√

162.3

.= 0.435 .

1.3.4 Povezanost intervalske in imenske spremenljivke

Podatke, kjer sta na isti statistični množici definirani intervalska spremenljivka (recimoX) in imenska spremenljivka (recimo S), lahko spet predstavimo bodisi kot:

x1, x2, . . . xn

s1, s2, . . . sn

bodisi podatke razdelimo glede na vrednost imenske spremenljivke. Če le-ta zavzamevrednosti a1, a2, . . . ak, podatke preindeksiramo v:

x11, x12, . . . x1n1 : vrednosti spremenljivke X, kjer je S = a1

x21, x22, . . . x2n2 : vrednosti spremenljivke X, kjer je S = a2...

xk1, xk2, . . . xkn2 : vrednosti spremenljivke X, kjer je S = ak

Seveda velja n1 + n2 + · · ·+ nk = n.

Še drugače, na eni statistični množici gledati dve spremenljivki, od katerih je drugaimenska, ki zavzame k vrednosti, je ekvivalentno gledanju prve spremenljivke na k razli-čnih statističnih množicah (imenska spremenljivka nam statistično množico razdeli na kskupin).

Merjenje povezanosti med intervalsko in imensko spremenljivko temelji na analizi va-riance (natančneje, v našem kontekstu je to analiza variance z enojno klasifikacijo). Spetoznačimo z µ aritmetično sredino na celotni statistični množici:

µ =x1 + x2 + · · ·+ xn

n,

z µ1, µ2, . . . µk pa aritmetične sredine na posameznih skupinah:

µi =xi1 + xi2 + · · ·+ xini

ni

,

Tedaj je µ tehtana sredina aritmetičnih sredin µi:

µ =n1

nµ1 +

n2

nµ2 + · · ·+

nk

nµk .

Celostna varianca:

σ2 =(x1 − µ)2 + (x2 − µ)2 + · · ·+ (xn − µ)2

n

Page 46: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

46 M. RAIČ: STATISTIKA

spet razpade na nepojasnjeno in pojasnjeno varianco:

σ2 = σ2W + σ2

B ,

kjer je nepojasnjena varianca ali varianca znotraj skupin tehtana sredina posameznihvarianc v skupinah:

σ2i =

(xi1 − µi)2 + (xi2 − µi)

2 + · · ·+ (xini− µi)

2

ni

,

σ2W =

n1

nσ21 +

n2

nσ22 + · · ·+

nk

nσ2k ,

pojasnjena varianca ali varianca med skupinami pa je tehtana sredina kvadratov odklonovaritmetičnih sredin posameznih skupin od celostne aritmetične sredine:

σ2B =

n1

n(µ1 − µ)2 +

n2

n(µ2 − µ)2 + · · ·+ nk

n(µk − µ)2 .

Lahko jo izračunamo tudi po u-metodi:

σ2B =

n1

n(µ1 − u)2 +

n2

n(µ2 − u)2 + · · ·+ nk

n(µk − u)2 − (µ− u)2 .

Zgoraj definirane variance so posplošitve varianc, ki smo jih gledali pri povezanosti inter-valske in dihotomne spremenljivke. Tako povezanost intervalske in imenske spremenljivkespet merimo z deležem pojasnjene variance oz. močjo učinka:

η2 =σ2B

σ2,

Delež pojasnjene variance kvalitativno opredeljujemo enako kot determinacijski koeficient:če je pojasnjenih 25% variance (η2 = 0

.25), to pomeni zmerno povezanost.

Če je intervalska spremenljivka dihotomna, se delež pojasnjene variance ujema s kva-dratom Cramérjevega koeficienta asociiranosti: η2 = V 2. Če sta torej obe spremenljivkidihotomni, velja η2 = φ2.

Primer : želimo izmeriti povezavo med pogostnostjo zahajanja v kino in najbolj prilju-bljeno zvrstjo filma. Za ta namen izvedemo anketo z dvema vprašanjema:

1. Kolikokrat na mesec greš v kino?

2. Katera zvrst filma ti je najbolj všeč?

(a) Komedija.

(b) Akcija.

(c) Romantični film.

(d) Drama.

(e) Grozljivka.

Page 47: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 47

Pogostnost zahajanja v kino je intervalska, zvrst filma pa imenska spremenljivka. Rezul-tati ankete so naslednji:

zvrst filma\št. obiskov kina 0 1 2 Skupaj Povprečje

komedija 4 2 2 8 0.75akcija 0 1 0 1 1

romantični 0 3 1 4 1.25drama 4 1 2 7 0.7143grozljivka 0 0 0 0 –

Skupaj 8 7 5 20 0.85

Celostna varianca:

σ2 =8 · (0− 0

.85)2 + 7 · (1− 0

.85)2 + 5 · (2− 0

.85)2

20= 0.6275 .

Varianca med skupinami (pojasnjena varianca):

σ2B =

8 · (0.75− 0.85)2 + 1 · (1− 0

.85)2 + 4 · (1.25− 0

.85)2 + 7 · (0.7143− 0

.85)2

20.=

.= 0.0436 .

Delež pojasnjene variance:

η2.=

0.0436

0.6275

.= 0.069 .

Različnost najljubših zvrsti filma torej pojasni 6.9% variance števila obiskov kina. Topomeni nizko povezanost.

1.3.5 Povezanost dveh urejenostnih spremenljivk

Povezanost dveh urejenostnih spremenljivk merimo s Spearmanovim ali Kendallovim ko-relacijskim koeficientom. Računanje slednjega je nekoliko bolj zapleteno, zato se bomoposvetili le prvemu.

Splošni pristop pri urejenostnih spremenljivkah je, da uporabimo metode za intervalskespremenljivke na rangih. Spearmanov korelacijski koeficient je definiran natanko v temduhu: to je Pearsonov koeficient, izračunan za vezane range. Če z R(x)

1 , R(x)2 , . . . R

(x)n ozna-

čimo vezane range spremenljivke X, z R(y)1 , R

(y)2 , . . . R

(y)n pa vezane range spremenljivke Y

po enotah, se kovarianca rangov izraža s formulo:

KR(x),R(y) =

(

R(x)1 − R

)(

R(y)1 − R

)

+(

R(x)2 − R

)(

R(y)2 − R

)

+ · · ·+(

R(x)n − R

)(

R(y)n − R

)

n

kjer je:

R =n+ 1

2

Page 48: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

48 M. RAIČ: STATISTIKA

povprečni rang (ker je le-ta celo število ali pa celo število in pol, u-metoda tu ni tolikosmiselna). Nato izračunamo še standardna odklona rangov:

σR(x) =

(

R(x)1 − R

)2+(

R(x)2 − R

)2+ · · ·+

(

R(x)n − R

)2

n,

σR(y) =

(

R(y)1 − R

)2+(

R(y)2 − R

)2+ · · ·+

(

R(y)n − R

)2

n,

Če ni vezi, velja kar:

σR(x) = σR(y) =

n2 − 1

12.

Spearmanov korelacijski koeficient torej definiramo po formuli:

ρ = ρx,y :=KR(x),R(y)

σR(x) σR(y)

Seveda lahko zgornje količine izračunamo tudi iz kontingenčne tabele. Če z R(x)(a) ozna-čimo vezani rang vrednosti a glede na spremenljivko X, z R(y)(b) označimo vezani rangvrednosti b glede na spremenljivko Y , velja:

KR(x),R(y) =1

n

k∑

i=1

l∑

j=1

fij(

R(x)(ai)− R)(

R(y)(bj)− R)

,

σR(x) =

1

n

k∑

i=1

fi·(

R(x)(ai)− R)2

,

σR(y) =

1

n

l∑

j=1

f·j(

R(y)(bj)− R)2

.

Spearmanov korelacijski koeficient je primerljiv s Pearsonovim in ga tudi enako kvali-tativno opredeljujemo. Če sta obe spremenljivki dihotomni, se Spearmanov in Pearsonovkoeficient ujemata. Nasploh ima Spearmanov korelacijski koeficient podobne lastnosti kotPearsonov:

• Definiran je, če nobena od spremenljivk ni konstantna.

• Velja −1 ≤ ρ ≤ 1.

• Če sta X in Y neodvisni in je dovolj podatkov, je ρ blizu 0 (kasneje pri inferenčnistatistiki se bomo naučili, kako postaviti mejo).

• Spearmanov korelacijski koeficient je maksimalen (enak 1), če je katera koli odspremenljivk strogo naraščajoča (a ne nujno linearna) funkcija druge.

Page 49: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 49

• Spearmanov korelacijski koeficient je minimalen (enak −1), če je katera koli odspremenljivk strogo padajoča (a ne nujno linearna) funkcija druge.

Spearmanov korelacijski koeficient torej meri stopnjo monotone povezanosti.

Tudi Kendallov korelacijski koeficient (τ) je primerljiv s Spearmanovim.

Primer : želimo izmeriti povezavo med zadovoljstvom s telesno težo in subjektivnim vpli-vom medijev. Za ta namen izvedemo anketo z dvema vprašanjema, pri katerih imamonaslednje izbire:

1. Ali ste zadovoljni s svojo težo?

(a) Da.

(b) Srednje.

(c) Ne.

2. V kolikšni meri mediji vplivajo na vašo samopodobo?

(a) Sploh ne vplivajo.

(b) Srednje vplivajo, z njimi se primerjam.

(c) Močno vplivajo, sam(a) sebi se zdim grd(a).

Obe spremenljivki (zadovoljstvo s telesno težo in vpliv medijev) sta tako urejenostni.Rezultati ankete so predstavljeni v naslednji kontingenčni tabeli:

Zad. s težo\Vpliv medijev ga ni srednji močan Skupaj

da 8 1 0 9srednje 2 1 0 3ne 2 4 2 8

Skupaj 12 6 2 20

Povprečni rang: R = 10.5.

Rangi posameznih odgovorov in njihovi odmiki od povprečnega:

ai R(x)(ai) R(x)(ai)− Rda 5 -5.5srednje 11 0.5ne 16.5 6

bj R(y)(bj) R(y)(bj)− Rda 6.5 -4srednje 15.5 5ne 19.5 9

Standardna odklona rangov:

σR(x) =

1

20

(

9 · (−5.5)2 + 3 · 0.52 + 8 · 62)

= 5.296 ,

σR(y) =

1

20

(

12 · (−4)2 + 6 · 52 + 2 · 92)

= 5.020 .

Page 50: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

50 M. RAIČ: STATISTIKA

Kovarianca rangov:

KR(x),R(y) =1

20

[

8 · (−5.5) · (−4) + 1 · (−5.5) · 5 + 0 · (−5.5) · 9 +

+ 2 · 0.5 · (−4) + 1 · 0.5 · 5 + 0 · 0.5 · 9 +

+ 2 · 6 · (−4) + 4 · 6 · 5 + 2 · 6 · 9]

=

= 16.35 .

Spearmanov korelacijski koeficient:

ρ.=

16.35

5.296 · 5.020

.= 0.615 .

Gre torej za zmerno povezanost.

1.3.6 Povezanost urejenostne in dihotomne spremenljivke

Povezanost urejenostne in dihotomne spremenljivke se da meriti s Spearmanovim korela-cijskim koeficientom (izbrani vrstni red vrednosti dihotomne spremenljivke vpliva le napredznak). Vendar pa je navadno boljša mera povezanosti Herrnstein–Vargha–Delaneyjevkoeficient.

Za izračun tega koeficienta potrebujemo ranžirno vrsto vseh vrednosti prve (urejeno-stne) spremenljivke. Označimo z R(a) vezani rang vrednosti a glede na to ranžirno vrsto.Nato podatke razdelimo glede na vrednosti druge (dihotomne spremenljivke), nastanetadve skupini. Če so:

x1, x2, . . . xm

vrednosti prve spremenljivke v prvi skupini,

y1, y2, . . . yn

pa vrednosti prve spremenljivke v drugi skupini, je Herrnstein–Vargha–Delaneyjev koefi-cient definiran s predpisom:

A :=R(x1) +R(x2) + · · ·+R(xm)− m(m+1)

2

mn=

= 1− R(y1) +R(y2) + · · ·+R(yn)− n(n+1)2

mn.

(navadno računamo po tisti različici, kjer je treba sešteti manj rangov).

Lastnosti Herrnstein–Vargha–Delaneyjevega korelacijskega koeficienta:

• Definiran je vedno.

• Velja 0 ≤ A ≤ 1.

Page 51: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 51

• Če sta vrednost urejenostne spremenljivke in skupina neodvisni ter je dovolj podat-kov, je A blizu 1/2 (kasneje pri inferenčni statistiki se bomo naučili, kako postavitimejo).

• Koeficient A je minimalen (enak 0), če so vse vrednosti iz prve skupine(x1, . . . xm) strogo manjše od vseh vrednosti iz druge skupine (y1, . . . yn).

• Koeficient A je maksimalen (enak 1), če so vse vrednosti iz prve skupine(x1, . . . xm) strogo večje od vseh vrednosti iz druge skupine (y1, . . . yn).

Herrnstein–Vargha–Delaneyjev koeficient A ni neposredno primerljiv s Spearmanovimkoeficientom ρ (t. j. Spearmanovim koeficientom urejenostne spremenljivke in skupine,če prvo skupino postavimo na prvo, drugo pa na drugo mesto), pač pa je ρ v grobemprimerljiv z 2A− 1, A pa je v grobem primerljiv z (ρ+ 1)/2. Zato je smiselno naslednjekvalitativno opredeljevanje:

• od 0 do 0.05: vrednosti iz prve skupine so skoraj vse manjše od vrednosti iz drugeskupine;• od 0

.05 do 0.15: vrednosti iz prve skupine so precej manjše od vrednosti iz druge

skupine;• od 0

.15 do 0.3: vrednosti iz prve skupine so zmerno manjše od vrednosti iz druge

skupine;• od 0

.3 do 0

.4: vrednosti iz prve skupine so malo manjše od vrednosti iz druge

skupine;• od 0

.4 do 0.5: vrednosti iz prve skupine so neznatno manjše od vrednosti iz druge

skupine;• od 0

.5 do 0

.6: vrednosti iz prve skupine so neznatno večje od vrednosti iz druge

skupine;• od 0.6 do 0.7: vrednosti iz prve skupine so malo večje od vrednosti iz druge skupine;• od 0

.7 do 0

.85: vrednosti iz prve skupine so zmerno večje od vrednosti iz druge

skupine;• od 0

.85 do 0

.95: vrednosti iz prve skupine so precej večje od vrednosti iz druge

skupine;• od 0

.95 do 1: vrednosti iz prve skupine so skoraj vse večje od vrednosti iz druge

skupine.

Koeficienta A in ρ ne nudita iste informacije:

• Koeficient A opisuje, v kolikšni meri skupina določa nabor surovih rangov znotrajnje: skrajni vrednosti pomenita, da so vrednosti v eni skupini vse na eni strani, vdrugi skupini pa vse na drugi strani ranžirne vrste, medtem ko so vrednosti znotrajposamezne skupine lahko različne.

• Koeficient ρ pa opisuje, v kolikšni meri skupina določa vezane range znotraj nje:skrajni vrednosti pomenita, da so vse vrednosti znotraj posamezne skupine enake(vendar v obeh skupinah različne, sicer ni definiran).

Page 52: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

52 M. RAIČ: STATISTIKA

Primer : gledamo povezavo med končnim uspehom v 4. letniku srednje šole in spolom.Rezultati so naslednji:

uspeh\spol moški ženski Skupaj Kumulativno Vezani rangnezadosten 0 0 0 0 –zadosten 2 1 3 3 2dober 4 2 6 9 6.5

prav dober 4 4 8 17 13.5odličen 2 1 3 20 19

Skupaj 12 8 20

Povprečni rang: 10.5.

Če A vzamemo v korist moških, dobimo:

A =2 · 2 + 4 · 6.5 + 4 · 13.5 + 2 · 19− 12·13

2

12 · 8 =

= 1− 1 · 2 + 2 · 6.5 + 4 · 13.5 + 1 · 19− 8·92

12 · 8 =

.= 0.458 .

Moški so bili torej neznatno slabši od žensk.

1.3.7 Povezanost urejenostne in imenske spremenljivke

Povezanost urejenostne in imenske spremenljivke merimo s Kruskal–Wallisovim deležempojasnjene variance. V skladu s splošno filozofijo obravnave urejenostnih spremenljivk jeto delež pojasnjene variance za vezane range. Gre torej za vrsto analize variance.

Če torej imenska spremenljivka S zavzame vrednosti a1, a2, . . . ak, lahko range ureje-nostne spremenljivke indeksiramo takole:

R11, R12, . . . R1n1 : rangi na enotah, kjer je S = a1

R21, R22, . . . R2n2 : rangi na enotah, kjer je S = a2...

Rk1, Rk2, . . . Rkn2 : rangi na enotah, kjer je S = ak

Seveda velja n1 + n2 + · · ·+ nk = n.

Spet je povprečni rang vedno enak R =n+ 1

2, celostna varianca pa je enaka:

σ2 =1

n

k∑

i=1

ni∑

j=1

(Rij − R)2

Page 53: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 53

in če ni vezi, je σ2 =n2 − 1

12. Če zdaj z R1, R2, . . . Rk označimo povprečne range na

posameznih skupinah:

Ri =Ri1 +Ri2 + · · ·+Rini

ni

,

je pojasnjena varianca rangov enaka:

σ2B =

n1

n(R1 − R)2 +

n2

n(R2 − R)2 + · · ·+ nk

n(Rk − R)2 .

Kruskal–Wallisov delež pojasnjene variance (moč učinka) pa je enak:

η2KW =σ2B

σ2,

Primer : želimo izmeriti povezavo med počutjem in barvo zgornjega dela oblačila. Za tanamen vzamemo 20 anketirancev in:

• Jih povprašamo, kako se počutijo, pri čemer jim damo na voljo 5-stopenjsko lestvico.To je urejenostna spremenljivka.

• Si ogledamo barvo njihovega zgornjega oblačila. Barve razdelimo v štiri kategorije:temne (črna, rjava, siva, temno modra, vijoličasta), bela, svetle (rumena, rdeča,roza, oranžna, zelena, svetlo modra), pisane. To je imenska spremenljivka.

Rezultati ankete:

počutje\barva temna bela svetla pisana Skupaj Kum. Rang

zelo slabo 0 0 0 0 0 0 –slabo 2 0 1 0 3 3 2nevtralno 4 1 1 4 10 13 8.5kar dobro 4 1 0 1 6 19 16.5odlično 1 0 0 0 1 20 20

Skupaj 11 2 2 5 20Povprečje 11.27 12.5 5.25 10.1

Celostni povprečni rang:20 + 1

2= 10

.5.

Povprečni rangi po skupinah v zadnji vrstici tabele so dobljeni na naslednji način:

R1 =1

11

[

2 · 2 + 4 · 8.5 + 4 · 16.5 + 1 · 20]

.= 11

.27 ,

R2 =1

2

[

1 · 8.5 + 1 · 16.5]

.= 12

.5 ,

R3 =1

2

[

1 · 2 + 1 · 8.5]

.= 5.25 ,

R4 =1

5

[

4 · 8.5 + 1 · 16.5]

.= 10

.1 .

Page 54: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

54 M. RAIČ: STATISTIKA

Celostna varianca:

σ2 =1

20

[

3 · (2− 10.5)2 + 10 · (8.5− 10

.5)2 + 6 · (16.5− 10

.5)2 + 1 · (20− 10

.5)2

]

= 28.15 .

Varianca znotraj skupin (pojasnjena varianca):

σ2B

.=

1

20

[

11·(11.27−10.5)2+2·(12.5−10.5)2+2·(5.25−10.5)2+5·(10.1−10.5)2]

.= 3.525 .

Kruskal–Wallisov delež pojasnjene variance:

η2KW.=

3.525

28.15

.= 0.125 .

Gre torej za nizko povezanost.

Page 55: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

2.

Teorija verjetnosti

2.1 Verjetnostni prostori

2.1.1 Osnovni pojmi verjetnosti

Pojem verjetnost (angl. probability) v praksi navadno interpretiramo kot predvideni (oce-njeni, pričakovani) delež poskusov, pri katerih se zgodi določen dogodek.

Primer : stavek:

‘Verjetnost, da boste pri statistiki dobili oceno 10, je 9%’

si navadno razlagamo kot:

‘Ocenjujemo, da bo 9% takih, kot ste vi, pri statistiki dobilo oceno 10.’

Take ocene dostikrat temeljijo na podatkih iz preteklosti, včasih pa tudi na simetrijiali fizikalnih dejstvih.

Primer : če je kovanec simetričen, domnevamo, da je pošten, kar pomeni, da cifra in grbpadeta z enako verjetnostjo, t. j. 1/2. Niso pa vsi kovanci vedno pošteni, še zlasti ne, čekovanec zavrtimo in čakamo, da se prevrne. Bolje je, če kovanec vržemo v zrak, tako dase velikokrat zavrti.

Zapišimo zdaj to malo splošneje. Poskus je realizacija natančno določenih pogojev,pri katerih opazujemo enega ali več dogodkov. Po realizaciji poskusa mora biti za vsakdogodek jasno, ali se je zgodil ali ne. To ponazorimo z diagramom:

poskus dogodek

55

Page 56: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

56 M. RAIČ: STATISTIKA

pri čemer pikčasta puščica pomeni, da je to, na kar kaže, znano šele po realizaciji poskusa.

Pri prejšnjih dveh primerih je bil poskus opravljen izpit (v tiste, ki odnehajo, se tu nebomo spuščali) in met kovanca. Pri kovancu je smiselno obravnavati dogodka ‘pade grb’in ‘pade cifra’, pri izpitu pa je dogodkov, ki jih je smiselno obravnavati, več, npr. ‘dobimo10’, ‘dobimo 6’, ‘dobimo več kot 7’ itd.

Ali se je dani dogodek zgodil ali ne, izvemo šele po realizaciji poskusa. Navadno paželimo kaj izračunati, še preden izvedemo poskuse. Zato je smiselno vzpostaviti pojem, napodlagi katerega lahko a priori (že pred izvedbo poskusa) opredelimo, ali se je posamezendogodek zgodil ali ne. To vlogo igra pojem izida: če poznamo izid, moramo za vsakdogodek vedeti, ali se je zgodil ali ne. Po realizaciji poskusa pa moramo vedeti tudi,kateri izid se je zgodil (kako se je izšel poskus). To prikažemo z diagramom:

poskus izid dogodek

pri čemer pikčasta puščica spet pomeni, da je to, na kar kaže, znano šele po realizacijiposkusa, neprekinjena puščica pa, da je znano a priori, že vnaprej.

Teorija verjetnosti se gradi od izidov naprej: vsi možni izidi sestavljajo množico, do-godki pa so njene podmnožice. Množico izidov bomo označevali z Ω.

Primer : pri metu kovanca je množica izidov Ω = c, g, možni dogodki pa so štirje:∅ = , c, g in c, g = Ω. Prvi dogodek je nemogoč, drugi pa gotov.

Primer : pri metu standardne kocke je smiselno postaviti:

Ω = b , bb , b

bb , b

bbb , b

bbbb , b

bb

bbb .

Možnih dogodkov je 26 = 64 (za vsak izid imamo dve možnosti – ali je v izbranem dogodkuali pa ga ni notri). Oglejmo si naslednjih šest:

A = pade natanko šest pik = bbb

bbb ,

B = pade najmanj pet pik = bbbbb , b

bb

bbb ,

C = pade liho število pik = b , bbb , b

b

b

bb ,

D = pade manj kot šest pik = b , bb , b

bb , b

bbb , b

bbbb ,

E = pade največ šest pik = b , bb , b

bb , b

bbb , b

bbbb , b

bb

bbb = Ω

D = pade več kot šest pik = = ∅ .

(2.1.1)

Dogodek F je nemogoč, dogodek E pa je gotov.

Pripomnimo naj, da za dogodke ne moremo vedno proglasiti vseh podmnožic prostoraizidov, temveč le določeno družino podmnožic, ki mora imeti posebne lastnosti. Več otem v nadaljevanju.

V teoriji je verjetnost preslikava, ki vsakemu dogodku A priredi število P(A) iz in-tervala [0, 1], njegovo verjetnost. Omenili smo, da verjetnost navadno interpretiramo kot

Page 57: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 57

oceno za delež poskusov. V teoriji zahtevamo, da ima verjetnost določene lastnosti, kijih ima tudi delež. To so tako imenovani aksiomi Kolmogorova, ki jih bomo predstavili vnadaljevanju.

Primer : pri poštenem kovancu so verjetnosti vseh možnih dogodkov enake:

P(∅) = 0 , P(c) = 1

2, P(g) = 1

2, P(c, g) = 1 .

Primer verjetnosti pri nepoštenem (pristranskem) kovancu:

P(∅) = 0 , P(c) = 0.7 , P(g) = 0

.3 , P(c, g) = 1 .

2.1.2 Diskretna verjetnost

Omenili smo že, da je v teoriji verjetnost nekaj, kar se obnaša podobno kot delež. No, čeverjetnost izida (dogodka) kar definiramo kot delež poskusov, ki se izidejo na predpisaninačin (pri katerih se zgodi dani dogodek), velja:

• Verjetnost vsakega izida je število iz intervala [0, 1].

• Verjetnost vsakega dogodka je vsota verjetnosti izidov, ki jih dani dogodek zajema.

• Vsota verjetnosti vseh izidov je enaka 1.

Če torej v tem primeru poznamo verjetnosti posameznih izidov, poznamo tudi verjetnostidogodkov. To nam da navdih za naslednjo splošnejšo, bolj teoretično definicijo verjetnosti.

Verjetnostna funkcija (angl. probability mass function, pmf ) na danem prostoru izidovΩ je predpis, ki vsakemu izidu ω ∈ Ω priredi število iz intervala [0, 1], ki ga bomo navadnooznačevali s p(ω) in mu rekli verjetnost izida. Vsota verjetnosti vseh izidov mora biti 1:

ω∈Ω

p(ω) = 1 .

Če je Ω = ω1, ω2, . . . ωn, kjer so vsi izidi ω1, . . . ωn različni, zgornji zapis pomeni:

p(ω1) + p(ω2) + · · ·+ p(ωn) = 1 .

Primer : pri poštenem kovancu je p(c) = p(g) = 12, pri prejšnjem primeru pristranskega

kovanca pa je p(c) = 0.7 in p(g) = 0

.3.

Verjetnostno funkcijo lahko zapišemo z verjetnostno shemo, ki je zapis oblike:(

ω1 ω2 · · · ωn

p1 p2 · · · pn

)

,

Page 58: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

58 M. RAIČ: STATISTIKA

kjer so ω1, ω2, . . . ωn vsi možni izidi, t. j. Ω = ω1, ω2, . . . ωn. Verjetnostna shema je vkanonični obliki, če so vse vrednosti ω1, ω2, . . . ωn različne. Tako zapisana verjetnostnashema definira verjetnostno funkcijo po predpisu:

p(ω1) = p1, p(ω2) = p2, . . . p(ωn) = pn .

Verjetnostna shema poštenega kovanca:

(

c g1/2 1/2

)

.

Primer verjetnostne sheme pristranskega kovanca:

(

c g0.7 0.3

)

.

Primer :

(

c g0.5 0.3

)

,

(

c g0.8 0.3

)

in

(

c g1.2 −0.2

)

niso verjetnostne sheme: pri prvi je

vsota verjetnosti manjša od 1, pri drugi večja od 1, pri tretji pa je sicer enaka 1, averjetnosti niso iz intervala [0, 1].

Včasih ima smisel, da se vrednosti v verjetnostni shemi ponavljajo. V tem primeruvrednost verjetnostne funkcije dobimo s seštevanjem:

p(ω) =∑

i;ωi=ω

pi .

in tako lahko vsako verjetnostno shemo zapišemo v kanonični obliki.

Primer : verjetnostna shema:(

a b a c b0.1 0.2 0.3 0.1 0.3

)

je ekvivalentna verjetnostni shemi v kanonični obliki:(

a b c0.4 0.5 0.1

)

.

Diskretni verjetnostni prostor je množica izidov Ω skupaj z verjetnostno funkcijo.Verjetnost dogodka A z verjetnostno funkcijo definiramo kot:

P(A) :=∑

ω∈A

p(ω) .

Za enostavne dogodke (t. j. tiste, ki vsebujejo en sam izid) velja:

P(ω) = p(ω) .

Če je verjetnostna funkcija podana z verjetnostno shemo (v kanonični ali nekanoničniobliki), velja:

P(A) =∑

i;ωi∈A

pi .

Page 59: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 59

Torej za vsako verjetnostno shemo velja p1+p2+ · · ·+pn = 1. Velja tudi, da vsaka shemazgornje oblike, v kateri je 0 ≤ pi ≤ 1 za vse i in še p1 + p2 + · · · + pn = 1, predstavljaverjetnostno shemo neke verjetnostne funkcije.

Primer : poštena kocka ima verjetnostno shemo:(

bb

b

bbb

b

b

b

b

b

b

b

bb

bbb

bbb

1/6 1/6 1/6 1/6 1/6 1/6

)

.

in verjetnosti dogodkov iz (2.1.1) so enake:

P(A) =1

6, P(B) =

2

6=

1

3, P(C) =

3

6=

1

2, P(D) =

5

6, P(E) = 1 , P(F ) = 0 .

Pri pošteni kocki so vsi izidi enako verjetni. V splošnem, če verjetnostni prostorvsebuje n enako verjetnih izidov, je p(ω) = 1/n za vse ω. Verjetnosti dogodkov se potemizražajo kot razmerja:

P(A) =♯(A)

n=

♯(A)

♯(Ω).

Pri pošteni kocki lahko rečemo tudi, da je število pik izbrano na slepo iz množice1, 2, 3, 4, 5, 6. Splošno, slepa izbira (angl. by chance, uniformly at random) pomeni, daso vse možnosti, ki jih lahko izberemo, enako verjetne.

Pri slepi izbiri je torej verjetnost dogodka kar delež izidov, ki so zajeti v tem dogodku.To spomninja na motivacijo za verjetnost iz podrazdelka 2.1.1, kjer je verjetnost ocena zadelež poskusov, pri katerih se zgodi dani dogodek. No, če verjetnost dejansko definiramokar kot delež poskusov, to pomeni, da smo privzeli, da je poskus izbran na slepo.

Seveda pa ni nujno, da so vsi izidi enako verjetni.

Primer : pri nepošteni kocki z verjetnostno shemo:(

bb

b

bbb

b

b

b

b

b

b

b

bb

bbb

bbb

0.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

(2.1.2)

so verjetnosti prej omenjenih dogodkov enake:

P(A) = p( bbb

bbb

) = 0.35 , P(B) = p( b

b

b

bb ) + p( b

bb

bbb

) = 0.5 ,

P(C) = p( b ) + p( bbb ) + p( b

bbbb ) = 0

.35 ,

P(D) = p( b ) + p( bb ) + p( b

bb ) + p( b

bbb ) + p( b

bbbb ) = 0

.65 ,

P(E) = 1 , P(F ) = 0 .

Posvetimo se zdaj še malo slepi izbiri. Pomembna primera sta slepo vlečenje z vrača-njem in brez vračanja. Slepo vlečenje r elementov z vračanjem iz dane množice pomeni,da so vse urejene r-terice (a1, a2, . . . ar) izvlečenih elementov enako verjetne (ločimo to-rej različne vrstne rede vlečenja). Slepo vlečenje brez vračanja pa pomeni, da so enakoverjetne vse tiste r-terice, ki imajo vse elemente različne.

Page 60: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

60 M. RAIČ: STATISTIKA

Primer : Iz množice kart as, kralj, dama, fant na slepo izvlečemo dve karti. Kolikšna jeverjetnost, da bo med njima vsaj ena dama?

Odgovor je odvisen od tega, ali vlečemo z vračanjem ali brez. Če vlečemo z vračanjem,verjetnostni prostor sestavlja naslednjih 16 enako verjetnih izidov:

AA AK AQ AJKA KK KQ KJQA QK QQ QJJA JK JQ JJ

kjer prva črka pomeni prvo, druga pa drugi izvlečeno karto, in kjer se držimo standardnihkratic A za asa, K za kralja, Q za damo in J za fanta. Vsaj eno damo izvlečemo prinatanko pri natanko 7 izidih. Verjetnost tega dogodka je torej 7/16 = 0

.4375.

Če pa vlečemo brez vračanja, verjetnostni prostor sestavlja le naslednjih 12 enakoverjetnih izidov:

AK AQ AJKA KQ KJQA QK QJJA JK JQ

in vsaj eno damo izvlečemo pri natanko 6 izidih (in v tem primeru je to isto kot reči, daizvlečemo natanko eno damo). Verjetnost tega dogodka je zdaj torej 6/12 = 1/2 = 0

.5.

Slepo vlečenje je pomembno v statistiki, kjer mu pravimo enostavno slučajno vzorčenjes ponavljanjem ali brez, naboru izvlečenih elementov pa vzorec. Na statistični množicivelikosti n obstaja nr možnih vzorcev s ponavljanjem in:

n(n− 1)(n− 2) · · · (n− r + 1)

vzorcev brez ponavljanja.

Pri statističnem sklepanju vrstni red vlečenja navadno ni pomemben (podobno kot tudini bil pomemben pri dogodku, da je vsaj ena izvlečena karta dama). Če pri vzorčenju brezponavljanja zanemarimo vrstni red, se ohrani, da so vsi vzorci enako verjetni (kar pa nires pri vzorčenju s ponavljanjem). Vzorcev brez ponavljanja brez informacije o vrstnemredu pa je:

n(n− 1)(n− 2) · · · (n− r + 1)

r!=

(

n

r

)

.

Izrazu na desni pravimo binomski simbol. Le-ta v verjetnosti igra zelo pomembno vlogo.

Primer izračuna binomskega koeficienta:

(

10

3

)

=10 · 9 · 81 · 2 · 3 = 120.

Velja pa tudi

(

10

7

)

= 120.

Page 61: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 61

Nasploh velja

(

n

r

)

=

(

n

n− r

)

. Čisto vseeno je namreč, ali povemo, katerih r elemen-

tov smo vzeli v vzorec ali pa katerih n− r nismo vzeli.

2.1.3 Relacije in operacije na dogodkih

• Pravimo, da je A način dogodka B, če vsi izidi, ki so v dogodku A, pripadajo tudidogodku B. Pišemo A ⊆ B ali tudi B ⊇ A. Posebej velja, da je vsak dogodek tudinačin samega sebe: A ⊆ A.

• Unija (tudi vsota) dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, ki so vA ali v B. Unijo označujemo z A ∪ B, v starejši literaturi tudi z A+ B.

• Presek (tudi produkt) dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, kiso v A in hkrati v B. Presek označujemo z A ∩B, v starejši literaturi tudi z AB.

• Razlika dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, ki so v A, ne patudi v B. Razliko bomo označevali z A \B, možna pa je tudi oznaka A− B.

• Dogodka A in B sta nezdružljiva, če je A ∩ B = ∅.

• Dogodka A in B sta si nasprotna, če sta nezdružljiva in je A ∪ B = Ω. Pravimotudi, da je dogodek A nasproten dogodku B oziroma B nasproten dogodku A.

• Dogodek, ki je (v danem prostoru izidov) nasproten danemu dogodku A, je en samin mu pravimo tudi komplement dogodka A. Označevali ga bomo z A, možna pa jetudi oznaka Ac.

Primer : Če spet vzamemo standardno kocko in dogodke (2.1.1), velja:

• A je način dogodka B in C je način dogodka D: A ⊆ B, C ⊆ D.

• B ∪ C = b , bbb , b

bbbb , b

bb

bbb .

• B ∩ C = bbbbb .

• B \ C = bbb

bbb = A.

• C \B = b , bbb .

• Dogodka A in C sta nezdružljiva, prav tako dogodka A in D.

• Dogodka A in D sta si nasprotna: D = A, A = D.

Page 62: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

62 M. RAIČ: STATISTIKA

Nasploh veljajo naslednje zveze:

A = Ω \ AA = A

A \B = A ∩ B

A ∪ B = A ∩ B

A ∩ B = A ∪ B .

Zadnjima dvema zvezama pravimo de Morganova zakona.

Verjetnost, definirana s pomočjo verjetnostne funkcije, ima naslednje lastnosti:

• Za vsak dogodek A je 0 ≤ P(A) ≤ 1.

• P(∅) = 0, P(Ω) = 1.

• Če je A način dogodka B, je P(A) ≤ P(B). Primer: pri dogodkih (2.1.1) na nepo-šteni kocki (2.1.2) je A ⊆ B in P(A) = 0

.35 ≤ 0

.5 = P(B).

• P(A) = 1−P(A). Primer: pri dogodkih (2.1.1) na nepošteni kocki (2.1.2) je P(D) =P(A) = 0

.65 = 1− P(A).

• Če sta dogodka A in B nezdružljiva, velja P(A ∪ B) = P(A) + P(B). Primer: pridogodkih (2.1.1) na nepošteni kocki je P(A) = 0

.35, P(C) = 0

.35 in P(A ∪ C) =

0.7 = P(A) + P(C).

Nasploh pa verjetnost unije ni vsota verjetnosti.

Primer : pri dogodkih (2.1.1) na nepošteni kocki (2.1.2) velja:

P(B) = 0.15 + 0

.35 = 0

.5 ,

P(C) = 0.05 + 0

.15 + 0

.15 = 0

.35 ,

P(B ∪ C) = 0.05 + 0

.15 + 0

.15 + 0

.35 = 0

.7 ,

medtem ko je P(B) + P(C) = 0.85. Ko namreč seštejemo P(B) + P(C), verjetnost izidab

b

b

bb , ki tvori presek B ∩C, štejemo dvakrat. Če želimo dobiti P(B ∪C), ga moramo nazajodšteti.

Tako dobimo formulo za verjetnost unije v splošnem:

P(A ∪ B) = P(A) + P(B)− P(A ∩ B) .

Page 63: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 63

2.1.4 Aksiomi Kolmogorova

Včasih želimo gledati tudi verjetnost, ki se je ne da opisati z verjetnostno funkcijo alipa bi bilo to nenaravno. V tem primeru definiramo verjetnost neposredno na dogodkih.Žal pa se izkaže, da tega ne moremo vedno storiti na vseh podmnožicah prostora izidovΩ, temveč le na določeni družini podmnožic. Pojem dogodka bomo omejili na izbranodružino, za katero bomo zahtevali, da je σ-algebra.

Družina podmnožic F dane množice Ω je σ-algebra, če velja:

• ∅ ∈ F .

• Če je A ∈ F , je tudi A ∈ F .

• Za poljubno zaporedje dogodkov A1, A2, A3, . . . mora biti tudi A1 ∪ A2 ∪ A3 ∪· · · ∈ F . Slednji dogodek sestavljajo vsi izidi, ki so v vsaj enem izmed dogodkovA1, A2, A3, . . ..

Če je F σ-algebra, mora veljati tudi:

• Ω ∈ F , saj je Ω = ∅.

• Za poljubna A,B ∈ F mora biti A ∪B ∈ F , saj je A ∪ B = A ∪ B ∪ ∅ ∪ ∅ ∪ · · · .

• Za poljubna A,B ∈ F mora biti A ∩B ∈ F , saj je A ∩ B = A ∪ B.

Verjetnost (ali verjetnostna mera) na σ-algebri F , ki jo sestavljajo določene pod-množice množice izidov Ω (dogodki), je predpis, ki vsakemu dogodku A priredi število, kiga označimo s P(A) in mu pravimo verjetnost dogodka A. Pri tem mora veljati:

• 0 ≤ P(A) ≤ 1 za vsak dogodek A.

• P(∅) = 0, P(Ω) = 1.

• Če sta dogodka A in B nezdružljiva, mora biti P(A ∪ B) = P(A) + P(B).

• Za poljubno zaporedje dogodkov A1 ⊆ A2 ⊆ A3 ⊆ · · · mora veljati:

P(A1 ∪ A2 ∪ A3 ∪ · · · ) = limn→∞

P(An) .

Zgornjim pravilom pravimo aksiomi Kolmogorova. Prvim trem pravilom bomo rekliosnovni aksiomi verjetnosti.

Množico izidov skupaj z verjetnostno mero imenujemo verjetnostni prostor.

Vsaka verjetnost, definirana s pomočjo verjetnostne funkcije, izpolnjuje aksiome Kol-mogorova, pri čemer so lahko dogodki kar vse podmnožice prostora izidov Ω. Diskretniverjetnostni prostori so torej poseben primer verjetnostnih prostorov, definiranih z aksiomiKolmogorova. Zato je na mestu naslednja definicija.

Page 64: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

64 M. RAIČ: STATISTIKA

Verjetnostna mera je diskretna, če izvira iz verjetnostne funkcije. Natančneje, to jetedaj, ko so dogodki kar vse podmnožice prostora izidov Ω in ko obstaja taka funkcijap : Ω → [0, 1], da za vsak dogodek A velja:

P(A) =∑

ω∈A

p(ω) .

Verjetnostna funkcija p je natančno določena, saj velja p(ω) = P(ω). Zato lahkoekvivalentno definiramo, da je verjetnostna mera diskretna, če so dogodki kar vse pod-množice prostora izidov Ω in če za vsak dogodek A velja:

P(A) =∑

ω∈A

P(ω) .

Diskretne verjetnostne mere so torej tiste, pri katerih je verjetnost določena že na eno-stavnih dogodkih. Velja tudi, da je verjetnostna mera P iskkretna natenko tedaj, ko jep(ω) := P(ω) verjetnostna funkcija, t. j. ko je ∑ω∈Ω p(ω) = 1.

Verjetnost, definirana s pomočjo aksiomov Kolmogorova, ima vse lastnosti, ki smo jihnanizali za diskretne verjetnostne mere:

• P(A) = 1 − P(A): to velja zato, ker sta dogodka A in A nezdružljiva, njuna unijapa je gotov dogodek Ω, ki ima verjetnost 1.

• Če je A ⊆ B, je P(A) ≤ P(B): to velja zato, ker je v tem primeru B = A∪(B\A) inkar sta dogodkaA inB\A nezdružljiva, mora veljati P(B) = P(A)+P(B\A) ≥ P(A).

• P(A∪B) = P(A)+P(B)−P(A∩B): to velja zato, ker je A∪B unija nezdružljivihdogodkov A in B \ A, B pa je unija nezdružljivih dogodkov B \ A in A ∩B. Sledi:

P(A ∩B) = P(A) + P(B \ A)P(B) = P(B \ A) + P(A ∩ B)

Če enačbi odštejemo in uredimo, dobimo prej omenjeno zvezo.

• Če so A1, A2, . . . An paroma nezdružljivi (t. j. poljubna dva z različnima indeksomasta nezdružljiva), velja:

P(A1 ∪ A2 ∪ · · · ∪ An) = P(A1) + P(A2) + · · ·+ P(An) .

Trditev velja tudi za neskončno zaporedje paroma nezdružljivih dogodkov:

P(A1 ∪ A2 ∪ · · · ) = P(A1) + P(A2) + · · · ,

kjer je vrednost izraza na desni, ki mu pravimo vrsta, definirana kot limita del-nih vsot. Zgornja formula je (ob privzetju ostalih) ekvivalentna zadnjima dvemaaksiomoma Kolmogorova.

Page 65: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 65

Iz zadnje lastnosti sledi, da je vsaka verjetnostna mera na končnem ali števno nesko-nčnem verjetnostnem prostoru diskretna.

Primer nediskretne verjetnostne mere. Avtobus vozi na 10 minut. Pridemo na slepo napostajo. Kolikšna je verjetnost, da bomo čakali več kot 7 minut?

Za prostor izidov tu postavimo interval (0, 10]. Posamezen izid naj recimo predstavljačas, ki je minil od odhoda zadnjega avtobusa, na katerega nismo mogli priti (izid 10pomeni, da je ob istem času kot mi prišel avtobus in nas je voznik ravno še spustil noter).Dogodek, da čakamo več kot 7 minut, ustreza intervalu (0, 3]. Torej je verjetnost tegadogodka enaka 30%.

Kako smo dobili zadnji rezultat? Tako, da smo dolžino intervala (0, 3] delili z dolžinocelotnega intervala (0, 10]. Če je torej dogodek I ⊆ (0, 10] interval, je njegova verjetnostenaka:

P(I) =dolžina(I)

10.

Interval je lahko odprt, zaprt ali polodprt. Lahko je tudi izrojen, torej ena sama točka.To ustreza vprašanju, kolikšna je verjetnost, da bomo čakali natanko 7 minut (niti delčkasekunde več niti delčka sekunde manj). Ker je dolžina ena same točke enaka nič, jetudi verjetnost dogodka, da bomo čakali natanko 7 minut, enaka nič (takim dogodkompravimo skoraj nemogoči). Od tod sledi tudi, da ta verjetnostna mera ni diskretna, sajje pripadajoča funkcija p povsod enaka nič in zato ne more biti verjetnostna funkcija.

Prejšnji primer je primer slepe izbire, definirane splošnejše. Za slepo izbiro iz končnemnožice smo že definirali, da je to takrat, ko so vse možnosti enako verjetne. Z drugimibesedami, če Ω končna množica, je izid izbran na slepo, če za vsak dogodek A velja

P(A) =♯(A)

♯(Ω).

Slepa izbira iz intervala na realni osi, ravninskega lika ali prostorskega telesa pa po-meni, da je:

P(A) =mera(A)

mera(Ω),

kjer je mera dolžina (za intervale na realni osi), ploščina (za ravninske like) oziromaprostornina (za prostorska telesa).

Primer : na slepo izberemo točko iz trikotnika v ravnini z vodoravno osnovnico:

in zanima nas verjetnost, da je izbrana točka na več kot polovici višine trikotnika.Dogodek A je prikazan kot osenčeno območje:

Page 66: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

66 M. RAIČ: STATISTIKA

Dogodek A je trikotnik s polovično osnovnico in polovično višino trikotnika, ki pona-zarja cel verjetnostni prostor Ω, torej je njegova ploščina četrtina ploščine trikotnika Ω.Sledi P(A) = 1/4.

2.2 Pogojna verjetnost

2.2.1 Definicija pogojne verjetnosti

Pogojna verjetnost dogodka A glede na dogodek B, P(A | B), je verjetnost, če vemo,da se je zgodil B. Privzemimo za hip, da je verjetnost dogodka definirana kar kot deležposkusov, pri katerih se zgodi dani dogodek, torej: t. j.

P(A) =število poskusov, pri katerih se zgodi A

število vseh poskusov,

je smiselno definirati:

P(A | B) =število poskusov, pri katerih se zgodi A, med tistimi, pri katerih se zgodi B

število poskusov, pri katerih se zgodi B

Velja:

P(A | B) =število poskusov, pri katerih se zgodita A in B

število poskusov, pri katerih se zgodi B=

=

število poskusov, pri katerih se zgodita A in B

število vseh poskusovštevilo poskusov, pri katerih se zgodi B

število vseh poskusov

=

=P(A ∩ B)

P(B).

Slednje vzamemo za definicijo pogojne verjetnosti v splošnem, ko verjetnost ni nujno deležposkusov:

P(A | B) :=P(A ∩B)

P(B).

Omenili smo že, da definicija verjetnosti z deležem poskusov pomeni slepo izbiro po-skusa. No, če gre za slepo izbiro, t. j. če so vsi izidi enako verjetni, to pomeni:

P(A | B) =♯(A ∩ B)

♯(B).

Page 67: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 67

Primer : Vzemimo pošteno kocko in dogodka iz (2.1.1):

B = pade najmanj pet pik = b

b

b

bb , b

bb

bbb ,

D = pade manj kot šest pik = b , bb , b

bb , b

bbb , b

bbbb ,

Tedaj velja P(B | D) = 1/5 = 0.2.

Če pa kocka ni poštena, temveč sledi porazdelitveni shemi (2.1.2):

(

bb

b

bbb

b

b

b

b

b

b

b

bb

bbb

bbb

0.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

,

velja P(B | D) =0.15

0.05 + 0

.15 + 0

.15 + 0

.15 + 0

.15

=0.15

0.65

.= 0.231.

Pri neodvisnih dogodkih se pogojna verjetnost ujema z brezpogojno: če sta A in Bneodvisna, velja:

P(A | B) =P(A ∩ B)

P(B)=

P(A)P(B)

P(B)= P(A) .

2.2.2 Relejni poskusi

Dostikrat poznamo določene pogojne verjetnosti, želeli pa bi izračunati brezpogojno ver-jetnost. To se dogaja pri relejnih poskusih, ki potekajo v več fazah. Recimo, da se vprvi fazi lahko zgodi dogodek A, v drugi pa dogodek B. Tedaj navadno po naravi stvaripoznamo P(A) in P(B | A), brezpogojno verjetnost P(A ∩ B) pa izračunamo po formuli:

P(A ∩ B) = P(A)P(B | A) .

Primer : Žena pošlje moža na trg po glavo solate, ki jo prodajata dve branjevki, Franckain Micka. Verjetnost, da mož kupi solato pri Francki, je 40%, da kupi pri Micki, pa 60%.Francka ima 10%, Micka pa 20% nagnitih glav solate. Privzamemo, da Francka in Mickaizbirata solato na slepo.

Tukaj gre za dvofazni relejni poskus: v prvi fazi mož izbira branjevko, v drugi pabranjevka izbira solato.

Žena si zastavlja naslednja vprašanja:

1. Najprej jo zanima verjetnost, da bo mož prinesel domov nagnito glavo solate.

2. Nato gre z mislimi še malo dlje in se vpraša po verjetnosti, da bo šel k Micki in tamkupil nagnito glavo solate.

3. Končno se mož vrne domov – z nagnito glavo solate. Sedaj se žena vpraša po pogojniverjetnosti, da je solato kupil pri Micki.

Page 68: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

68 M. RAIČ: STATISTIKA

Zaenkrat znamo dogovoriti na drugo vprašanje: če je G dogodek, da mož prinesedomov nagnito gnilo solate, M pa dogodek, da kupi solato pri Micki, vemo:

P(M) = 0.6 , P(G |M) = 0

.2 .

Odgovor na iskano vprašanje je:

P(M ∩G) = P(M)P(G |M) = 0.6 · 0.2 = 0

.12 .

Za odgovor na prvo in tretje vprašanje pa potrebujemo še malo teorije.

Dogodki H1, H2, . . . Hn tvorijo popoln sistem dogodkov ali tudi razčlenitev (angl. par-tition) prostora izidov, če so paroma nezdružljivi, njihova unija pa je gotov dogodek. Zdrugimi besedami, vsak izid pripada natanko enemu izmed dogodkov H1, H2, · · ·Hn.

Če je H1, H2, . . . Hn popoln sistem dogodkov in A poljuben dogodek, so tudi dogodkiH1 ∩ A,H2 ∩ A, . . . Hn ∩ A paroma nezdružljivi, njihova unija pa je dogodek A. Sledi:

P(A) = P(H1 ∩ A) + P(H2 ∩ A) + · · ·+ P(Hn ∩ A)

oziroma:

P(A) = P(H1)P(A | H1) + P(H2)P(A | H2) + · · ·+ P(Hn)P(A | Hn) .

Zgornji formuli pravimo izrek o polni verjetnosti (angl. law of total probability). Uporabenje pri dvofaznih relejnih poskusih. Dogodki H1, H2, . . . Hn predstavljajo vse možnosti zaprvo fazo poskusa, zato jim pravimo tudi hipoteze, dogodek A pa se nanaša na drugo fazoposkusa.

Sedaj lahko odgovorimo na prvo ženino vprašanje. Če z F označimo še dogodek, damož kupi solato pri Francki, dogodka F in M sestavljata popoln sistem dogodkov. Velja:

P(F ) = 0.4 , P(G |M) = 0

.1 .

Po izreku o polni verjetnosti velja:

P(G) = P(F )P(G | F ) + P(M)P(G |M) = 0.4 · 0.1 + 0

.6 · 0.2 = 0

.16 .

Preostane še tretje vprašanje. Tu skušamo iz druge faze poskusa, ki je opazljiva (angl.observable) – žena opazi nagnito glavo solate, rekonstruirati prvo fazo, ki ni opazljiva– žena ne ve, pri kateri branjevki je mož kupil solato. V splošnem kontekstu nas torejzanimajo pogojne verjetnosti neopazljivih hipotez glede na opaženo drugo fazo poskusa,t. j. P(Hi | A). Po definiciji pogojne verjetnosti je:

P(Hi | A) =P(Hi ∩H)

P(A)=

P(Hi)P(A | Hi)

P(A).

Če v imenovalec vstavimo izrek o polni verjetnosti, dobimo Bayesovo formulo:

P(Hi | A) =P(Hi)P(A | Hi)

P(H1)P(A | H1) + P(H2)P(A | H2) + · · ·+ P(Hn)P(A | Hn).

Page 69: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 69

Bayesova formula torej potrebuje brezpogojne verjetnosti dogodkov Hi, ki jim pravimotudi apriorne verjetnosti (apriorne so zato, ker se nanašajo na čas pred realizacijo drugefaze poskusa), da pa nam pogojne verjetnosti, ki jim pravimo tudi aposteriorne verjetnosti(ker se nanašajo na čas po realizaciji druge faze poskusa).

Odgovor na tretje vprašanje pri našem primeru je torej:

P(M | G) =P(M)P(G |M)

P(F )P(F |M) + P(M)P(G |M)=

0.6 · 0.2

0.4 · 0.1 + 0

.6 · 0.2 = 0

.75 .

Dogodek, da mož kupi solato pri Micki, ima torej apriorno verjetnost 0.6, njegova apo-steriorna verjetnost glede na dano opažanje pa je 0.75.

Na Bayesovi formuli temelji cela veja statistike, ki ji pravimo Bayesova statistika. Tase razlikuje od klasične inferenčne statistike po tem, da potrebuje apriorne verjetnosti zatisto, kar nas zanima. Klasična statistika ne privzema nikakršnih apriornih verjetnosti,zato pa so tudi njeni rezultati šibkejše narave.

2.3 Slučajne spremenljivke

2.3.1 Osnovni pojmi

Ideja slučajne spremenljivke je, da je to število ali kakšna druga vrednost, ki ni nata-nčno določena, je pa v zvezi z njo smiselno gledati verjetnost. Pač pa postane natančnodoločena, ko enkrat realiziramo poskus. Z drugimi besedami, če poznamo izid poskusa,poznamo vrednosti vseh slučajnih spremenljivk. Tako je smiselno postaviti naslednjodefinicijo:

Slučajna spremenljivka z vrednostmi v množici M je predpis, ki vsakemu izidu priredidoločeno vrednost v M , torej preslikava iz Ω v M .

Slučajne spremenljivke označujemo tako kot statistične, torej navadno z velikimi ti-skanimi črkami. Statistična spremenljivka postane slučajna spremenljivka, če slučajno(npr. na slepo) izberemo en element iz statistične množice.

Tako kot statistične tudi slučajne spremenljivke ločimo po tipu (torej po strukturi, kije definirana na množici M) na imenske, urejenostne, intervalske in razmernostne, polegtega pa imamo še dihotomne slučajne spremenljivke.

Tudi veliko drugih pojmov iz opisne statistike, torej definirane za statistične spremen-ljivke, je možno definirati tudi za slučajne spremenljivke. Osnovno vodilo pri tem je, najpojma sovpadata, če je slučajna spremenljivka dobljena iz statistične s slepo izbiro enote.

Primer . Briškula se igra s 40 kartami, ki jih tvorijo vse možne kombinacije 4 barv (špada– meč, kopa – pokal, bašton – palica in denar) in 10 moči (2, 4, 5, 6, 7, fant – F, kaval –C, kralj – R, trojka – 3 in as – A). Moč določa, katera karta pobere, če gre za isto barvo.Poleg tega ima vsaka karta glede na moč tudi svojo vrednost in vrednosti se na koncuseštejejo.

Page 70: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

70 M. RAIČ: STATISTIKA

Komplet kart je tako statistična množica, prejšnji pojmi pa statistične spremenljivkena njej:

• Barva je imenska spremenljivka (vsaj dokler ni znan adut – briškula).

• Moč je urejenostna spremenljivka: 2 < 4 < 5 < 6 < 7 < F < C < R < 3 < A).

• Vrednost je razmernostna spremenljivka. Enaka je 0 za liše (moči 2, 4, 5, 6, 7), 2za fante, 3 za kavale, 4 za kralje, 10 za trojke in 11 za ase.

Lahko pa s kupa slučajno izberemo eno karto (ali pa gledamo aduta spodaj). V temprimeru postane množica kart verjetnostni prostor, barva, moč in vrednost pa slučajnespremenljivke.

Če barvo označimo z B, moč z M in vrednost z V ter gledamo izid–karto ω, ki naj bošpadni fant (fant pri mečih), velja:

B(ω) = špada , M(ω) = fant , V (ω) = 2 .

Porazdelitev slučajne spremenljivke pove, katere vrednosti zavzame s kolikšnimi verje-tnosti. V splošnem porazdelitev opišemo tako, da za vse množice A iz določene σ-algebrepovemo P(X ∈ A), t. j. verjetnost, da X pripada množici A. Toda če je X definirana nadiskretnem verjetnostnem prostoru, je dovolj povedati točkaste verjetnosti P(X ∈ x) zavse možne vrednosti x, saj velja:

P(X ∈ A) =∑

x∈A

P(X = x) .

Za slučajno spremenljivko, za katero velja zgornja formula (in torej lahko njeno porazde-litev opišemo s točkastimi verjetnostmi), pravimo, da je diskretna oz. diskretno porazde-ljena. Pravimo tudi, da je njena porazdelitev diskretna.

Porazdelitev diskretne slučajne spremenljivke lahko opišemo s porazdelitveno shemo,ki odgovarja verjetnostni shemi. Če X lahko zavzame vrednosti a1, a2, . . . ak, ki so vserazlične, in če je P(X = a1) = p1, P(X = a2) = p2, . . .P(X = ak) = pk, pišemo:

X ∼(

a1 a2 · · · akp1 p2 · · · pk

)

.

Seveda velja p1 + p2 + · · · pk = 1.

Če vrednosti a1, . . . ak niso vse različne, moramo seštevati. V vsakem primeru veljaP(X ∈ A) =

i;ai∈Api.

Primer : Če na slepo izberemo karto pri briškuli, so porazdelitve njene barve, moči in

Page 71: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 71

vrednosti podane s shemami:

B ∼(

špada bašton kopa denar1040

1040

1040

1040

)

=

(

špada bašton kopa denar14

14

14

14

)

,

M ∼(

2 4 5 6 7 fant kaval kralj trojka as110

110

110

110

110

110

110

110

110

110

)

,

V ∼(

0 0 0 0 0 2 3 4 10 11110

110

110

110

110

110

110

110

110

110

)

=

(

0 2 3 4 10 1112

110

110

110

110

110

)

Verjetnost dogodka, da bo vrednost karte manjša of 4, je enaka:

P(V < 4) = P(V = 0) + P(V = 2) + P(V = 3) =1

2+

1

10+

1

10=

7

10.

Verjetnost dogodka, da bo vrednost karte strogo med 3 in 7, pa je enaka:

P(3 < V < 7) = P(V = 4) =1

10.

Diskretna porazdelitev je enakomerna na množici a1, a2, . . . ak, če so vse vrednostia1, a2, . . . ak enako verjetne, druge vrednosti pa niso zavzete. To pa lahko povemo tudidrugače: slepa izbira stvari, ki je definirana kot vrednost slučajne spremenljivke, iz danemnožice pomeni, da je porazdelitev te slučajne spremenljivke enakomerna na tej množici.

Pri prej omenjenih slučajnih spremenljivkah pri briškuli sta tako barva B in moč Mporazdeljeni enakomerno, vrednost V pa ne. Slepa izbira karte pri briškuli torej pomenislepo izbiro barve iz množice špada, bašton, kopa, denar, in slepo izbiro moči iz množice2, 4, 5, 6, 7, fant, kaval, kralj, trojka, as, ne pomeni pa slepe izbire vrednosti.Modus diskretne slučajne spremenljivke je tista njena vrednost, kjer je njena verjetno-

stna funkcija največja. Modusov je lahko tudi več.

Primer : porazdelitev s shemo:(

0 2 3 4 10 1112

110

110

110

110

110

)

ima modus 0. Porazdelitev s shemo:(

0 1 2 30.125 0

.375 0

.375 0

.125

)

ima dva modusa (1 in 2). Pri enakomerni porazdelitvi pa so kar vse vrednosti modusi.

2.3.2 Navzkrižne porazdelitve

Podobno kot smo pri opisni statistiki gledali povezanost med dvema statističnima spre-menljivkama, moramo tudi v verjetnosti dostikrat hkrati gledati dve ali več slučajnih

Page 72: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

72 M. RAIČ: STATISTIKA

spremenljivk. Če sta na istem verjetnostnem prostoru definirani dve slučajni spremen-ljivkiX in Y , je njuna navzkrižna ali skupna porazdelitev (angl. joint distribution) opišemoz navzkrižnimi verjetnostmi P(X ∈ A, Y ∈ B), pri diskretnih slučajnih spremenljivkahpa je dovolj povedati navzkrižne točkaste verjetnosti P(X = a, Y = b).

Primer : iz dobro premešanega kupa 10 kart za briškulo ene same barve na slepo vzamemodve karti. Označimo z V1 vrednost prve, z V2 pa druge izvlečene karte. Če jemljemo zvračanjem, je možnih 100 enako verjetnih izidov in navzkrižno porazdelitev slučajnihspremenljivk V1 in V2 lahko predstavimo s tabelo:

V2 = 0 V2 = 2 V2 = 3 V2 = 4 V2 = 10 V2 = 11

V1 = 0 14

120

120

120

120

120

V1 = 2 120

1100

1100

1100

1100

1100

V1 = 3 120

1100

1100

1100

1100

1100

V1 = 4 120

1100

1100

1100

1100

1100

V1 = 10 120

1100

1100

1100

1100

1100

V1 = 11 120

1100

1100

1100

1100

1100

Izračunajmo še verjetnost dogodka, da je skupna vrednost obeh kart manjša od 4. Velja:

P(V1 + V2 < 4) = P(V1 = 0, V2 = 0) + P(V1 = 0, V1 = 2) + P(V1 = 0, V2 = 3) +

+ P(V1 = 2, V2 = 0) + P(V1 = 3, V2 = 0) =

=9

20= 0.45.

Če pa jemljemo brez vračanja, imamo 90 enako verjetnih izidov in navzkrižno poraz-delitev predstavlja tabela:

V2 = 0 V2 = 2 V2 = 3 V2 = 4 V2 = 10 V2 = 11

V1 = 0 29

118

118

118

118

118

V1 = 2 118

0 190

190

190

190

V1 = 3 118

190

0 190

190

190

V1 = 4 118

190

190

0 190

190

V1 = 10 118

190

190

190

0 190

V1 = 11 118

190

190

190

190

0

in velja P(V1 + V2 < 4) =4

9.= 0.444.

Če imamo podano navzkrižno porazdelitev slučajnih spremenljivk X in Y , poznamotudi porazdelitvi posamičnih slučajnih spremenljivk. Pravimo jima robni porazdelitvi, topa zato, ker ju v diskretnem primeru dobimo s seštevanjem navzkrižnih verjetnosti, te

Page 73: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 73

pa navadno zapišemo na rob tabele. Če lahko Y zavzame vrednosti b1, b2, . . . bm (vserazlične), velja:

P(X = ai) = P(X = ai, Y = b1) + P(X = ai, Y = b2) + · · ·+ P(X = ai, Y = bn) .

Z navzkrižnimi porazdelitvami je povezana še ena različica slepe izbire. Če izbiramodve stvari, ki sta definirani kot vrednosti dveh slučajnih spremenljivk X in Y , pri čemerlahko X zavzame vrednosti a1, . . . am (vse različne), Y pa vrednosti b1, . . . bn (pravtako vse različne), pravimo, da X in Y izberemo na slepo in neodvisno, če so vsi dogodki:

X = a1, Y = b1, X = a1, Y = b2, · · · X = a1, Y = bn,X = a2, Y = b1, X = a2, Y = b2, · · · X = a2, Y = bn,

......

. . ....

X = am, Y = b1, X = am, Y = b2, · · · X = am, Y = bn,

enako verjetni, torej če ima vsak izmed njih verjetnost1

mn.

Podobno definiramo tudi slepo in neodvisno izbiro treh ali več stvari.

Poseben primer slepe in neodvisne izbire je vlečenje s ponavljanjem: če izvlečemo dvaelementa, slučajna spremenljivka X predstavlja prvi, slučajna spremenljivka Y pa drugiizvlečeni element. Tedaj imata X in Y isto zalogo vrednosti. Ni pa to nujno.

Primer : neodvisno vržemo pošten kovanec in pošteno standardno kocko, kar pomeni,da na slepo in neodvisno izberemo grb oz. cifro na kovancu in eno izmed šestih stranikocke. Če X predstavlja stran kovanca, Y pa stran kocke, dobimo naslednjo navzkrižnoporazdelitev:

Y = b Y = b

b Y = bbb Y = b

b

b

b Y = b

b

b

bb Y = b

bb

bbb

X = cifra 112

112

112

112

112

112

X = grb 112

112

112

112

112

112

Recimo zdaj, da dobimo za cifro na kovancu dva evra in za vsako piko na kocki en evro.Dogodek, da skupaj dobimo vsaj 6 evrov, lahko tedaj zapišemo v obliki:

X = cifra, Y = bbbb ∪ X = cifra, Y = b

bbbb ∪ X = cifra, Y = b

bb

bbb ∪ X = grb, Y = b

bb

bbb

in njegova verjetnost je enaka4

12=

1

3.

Primer : če na slepo izvlečemo karto iz kupa pri briškuli, to pomeni tudi, da na slepo inneodvisno izberemo njeno moč in barvo. Naj bo A dogodek, da izvlečemo figuro (kralja,kavala ali fanta) B pa dogodek, da izvlečemo denar ali kopo. Tedaj velja:

P(A) =12

40=

3

10= 0.3

P(B) =20

40=

2

4=

1

2= 0.5

P(A ∩ B) =6

40=

3

20= 0.15 .

Page 74: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

74 M. RAIČ: STATISTIKA

Opazimo, da je P(A ∩ B) = P(A)P(B).

Opažanja iz zgornjega primera lahko posplošimo na naslednji dve pomembni ugotovi-tvi:

• Če dve ali več slučajnih spremenljivk izbiramo na slepo in neodvisno, je tudi posame-zna slučajna spremenljivka izbrana na slepo (z drugimi besedami, ima enakomernoporazdelitev).

• Če sta X in Y izbrani na slepo in neodvisno ter je A dogodek, ki je enolično določenz X (pišemo tudi A ∈ σ(X)), B pa je dogodek, ki je enolično določen z Y (pišemotudi B ∈ σ(Y )), velja P(A ∩ B) = P(A)P(B).

Slednje opažanje pa vodi v pojem neodvisnosti dogodkov. To je posplošitev primera,ko dogodka izhajata iz slepe in neodvisne izbire tako kot zgoraj.

Dogodka A in B sta neodvisna, če velja P(A ∩ B) = P(A)P(B).

Neodvisnost je navadno nekaj, iz česar izhajamo, kar privzamemo a priori. Včasih padobimo neodvisnost tudi kar tako.

Primer : pri pošteni kocki sta naslednja dogodka iz (2.1.1):

B = pade najmanj pet pik = bbbbb , b

bb

bbb ,

C = pade liho število pik = b , bbb , b

bbbb ,

neodvisna. Velja namreč B ∩ C = bbbbb in:

P(B) =1

3, P(C) =

1

2, P(B ∩ C) =

1

6= P(B)P(C) .

Neodvisnost lahko izrazimo s pomočjo pogojne verjetnosti: če je P(B) > 0, sta A inB neodvisna natanko tedaj, ko je P(A | B) = P(A). To lahko interpretiramo kot ‘A jeneodvisen od B’.

Pri neodvisnosti je pomembno naslednje dejstvo: če sta dogodka A in B neodvisna,to velja tudi za dogodka A in B. To lahko tudi dokažemo:

• Ker sta A ∩B in A ∩ B = A \B nezdružljiva z unijo A, veljaP(A) = P(A ∩ B) + P(A ∩ B).

• P(A ∩ B) = P(A)− P(A ∩ B) = P(A)− P(A)P(B) = P(A)(

1− P(B))

== P(A)P(B).

To pomeni, da je neodvisnost dogodkov A in B ekvivalentna neodvisnosti katerih kolidogodkov A in B, kjer je A = A ali A = A in B = B ali B = B.

Neodvisnost dogodkov motivira neodvisnost slučajnih spremenljivk.

Page 75: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 75

Slučajni spremenljivki X in Y sta neodvisni, če sta kateri koli dogodek, ki je natančnodoločen z X, in kateri koli dogodek, ki je natančno določen z Y , neodvisna.

Za diskretni slučajni spremenljivki X in Y se da dokazati, da sta neodvisni natankotedaj, ko za poljubna relevantna a in b velja P(X = a, Y = b) = P(X = a)P(Y = b).

Za enakomerno porazdeljene slučajne spremenljivke (slepo izbiro) pa se da dokazatinaslednje: X in Y sta izbrani na slepo in neodvisno natanko tedaj, ko sta X in Y vsakazase izbrani na slepo in ko sta neodvisni. Tako formulacija ‘na slepo in neodvisno’ dobismisel.

Primer : pri slepem vlečenju s ponavljanjem sta prvi in drugi izvlečeni element neodvisna.To pa ne velja za vlečenje brez ponavljanja.

Primer : če na slepo izvlečemo karto iz kupa pri briškuli, sta tudi njena vrednost in barvaneodvisni, čeprav vrednost ni porazdeljena enakomerno.

Primer : slučajni spremenljivki X ∼(

1 20.4 0.6

)

in Y ∼(

1 2 30.2 0.5 0.2

)

sta neodvisni

natanko tedaj, ko je njuna navzkrižna porazdelitev podana s tabelo:

Y = 1 Y = 2 Y = 3

X = 1 0.12 0

.2 0

.08 0

.4

X = 2 0.18 0

.3 0

.12 0

.6

0.3 0

.5 0

.2 1

Pojem neodvisnosti lahko posplošimo tudi na več dogodkov in slučajnih spremenljivk,a pri dogodkih moramo biti nekoliko previdni. Izkaže se, da ima smisel definirati, da sodogodki A1, A2, . . . An neodvisni, če veljajo vse zveze oblike:

P(A1 ∩ A2 ∩ · · · An) = P(A1)P(A2) · · ·P(An) ,

kjer za vsak i lahko postavimo bodisi Ai = Ai bodisi Ai = Ai. V tem primeru se namrečneodvisnost ohrani, če določene dogodke izločimo. Če so recimo A, B in C neodvisni, statudi A in B neodvisna.

Primer : vržemo dva poštena in neodvisna kovanca in si oglejmo naslednje dogodke:

A := prvič pade cifraB := drugič pade cifraC := prvič in drugič pade enako

Za verjetnostni prostor lahko tedaj postavimo Ω = cc, cg, gc, gg in vsi štirje izidi soenako verjetni. Velja:

A = cc, cg , B = cc, gc , C = cc, gg ,A ∩ B = A ∩ C = B ∩ C = A ∩ B ∩ C = cc

Page 76: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

76 M. RAIČ: STATISTIKA

in še:

P(A) = P(B) = P(C) =1

2,

P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = P(A ∩ B ∩ C) =1

4,

od koder dobimo, da sta dogodka A in B neodvisna, prav tako tudi A in C ter B in C.Dogodki A, B in C pa so odvisni.

Primer : na slepo izberemo en element iz množice A,K,Q, J, 10, 9, 8, 7, ki naj bo karverjetnostni prostor. Definirajmo naslednje dogodke:

F := A,K,Q, J ,G := A, 9, 8, 7 ,H := A,K,Q, 10 .

Dogodki F , G in H niso neodvisni, čeprav velja P(F ∩G ∩H) = P(F )P(G)P(H).

Pri slučajnih spremenljivkah pa je posplošitev bolj premočrtna: slučajne spremen-ljivke X1, X2, . . . Xn so neodvisne, če za vse možne nabore dogodkov A1, A2, . . . An, kjerje dogodek Ai enolično določen z Xi, velja:

P(A1 ∩ A2 ∩ · · · ∩ An) = P(A1)P(A2) · · ·P(An) .

Pri diskretnih slučajnih spremenljivkah pa je dovolj, da se množijo točkaste verjetnosti:

P(X1 = a1, X2 = a2, . . . Xn = an) = P(X1 = a1)P(X2 = a2) · · ·P(Xn = an) .

2.3.3 Bernoullijeva zaporedja poskusov

Bernoullijevo zaporedje poskusov je zaporedje slučajnih poskusov, pri čemer pri vsakemgledamo, ali uspe ali ne uspe. Pri tem morajo biti poskusi neodvisni (t. j. dogodki,da posamezen poskus uspe, morajo biti neodvisni) in vsak poskus mora uspeti z enakoverjetnostjo, ki jo bomo označevali s p.

Primer . mečemo pošteno kocko, meti so neodvisni. Če je poskus met kocke, uspešenposkus pa je met, pri katerem pade šestica, dobimo Bernoullijevo zaporedje poskusov.

Recimo, da pod temi pogoji petkrat vržemo pošteno kocko.

• Verjetnost, da šestica pade v prvem metu, je 16

.= 0.167.

• Verjetnost, da šestica pade v petem metu, je 16

.= 0.167.

• Verjetnost, da šestica pade v prvem in petem metu, je 16· 16=

1

36.= 0.0278.

Page 77: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 77

• Verjetnost, da šestica pade vsaj enkrat v petih metih, ni 56. Verjetnosti dogodkov,

da v posameznem metu pade šestica, namreč ne smemo kar sešteti, ker ti dogodkiniso paroma nezdružljivi. Pač pa si lahko pomagamo z nasprotnim dogodkom, ki je

dogodek, da šestica ne pade v nobenem metu. Njegova verjetnost je

(

5

6

)5.= 0.402.

Verjetnost dogodka, da šestica pade vsaj enkrat, pa je potemtakem 1 −(

5

6

)5.=

0.598.

• Verjetnost dogodka, da šestica pade v prvem in samo v prvem metu, je 16·(

5

6

)4.=

0.0804.

• Verjetnost dogodka, da šestica pade natanko enkrat, je vsota verjetnosti dogodkov,da pade v posameznem metu, sicer pa ne. Te verjetnosti lahko seštevamo, ker so

dogodki paroma nezdružljivi. Torej je verjetnost danega dogodka enaka 5·16·(

5

6

)4.=

0.402.

• Verjetnost dogodka, da šestica pade natanko dvakrat, je vsota verjetnosti, da padenatanko v i-tem in j-tem metu, po vseh možnih neurejenih parih i, j, kjer sta iin j različna, t. j.:

1, 2 , 1, 3 , 1, 4 , 1, 5 , 2, 3 , 2, 4 , 2, 5 , 3, 4 , 3, 5 , 4, 5 .

Teh neurejenih parov je toliko, kot je vseh možnih izbir dveh elementov izmed

petih, torej

(

5

2

)

= 10. Za vsak par i, j je verjetnost, da pade šestica natanko v

i-tem in j-tem metu, enaka

(

1

6

)2 (5

6

)3.= 0.0161. Iskana verjetnost je torej enaka

10 ·(

1

6

)2

·(

5

6

)3.= 0.161.

• Verjetnost dogodka, da šestica pade manj kot trikrat, je:(

5

6

)5

+ 5 · 16·(

5

6

)4

+ 10 ·(

1

6

)2

·(

5

6

)3.= 0.965 .

Primer : če kocko vržemo 10-krat in želimo izračunati verjetnost dogodka, da šestica padenatanko trikrat, moramo prešteti vse možne izbire treh metov, v katerih pade šestica. Teh

izbir je

(

10

3

)

= 120, iskana verjetnost pa je enaka:

(

10

3

)

·(

1

6

)3

·(

5

6

)7.= 0.155 .

Page 78: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

78 M. RAIČ: STATISTIKA

V splošnem lahko vsakemu Bernoullijevemu zaporedju n poskusov priredimo slučajnospremenljivko S, ki pove število uspelih poskusov. Za k = 0, 1, . . . n velja:

P(S = k) =

(

n

k

)

pk(1− p)n−k ,

kjer je p verjetnost, da posamezen poskus uspe. Zgornji obrazec imenujemo Bernoullijevaformula, porazdelitvi tako definirane slučajne spremenljivke S pa pravimo binomska po-razdelitev. Pišemo S ∼ Bi(n, p). Ta zapis je po definiciji ekvivalenten veljavnosti zgornjeformule za vse k = 0, 1, . . . n.

Če je torej S ∼ Bi(5, 1/6), je npr. P(S = 2).= 0.161, P(S < 3)

.= 0.965,

P(S = 5/2) = 0 in P(S < 6) = 1.

Če pa bi 5-krat neodvisno vrgli pošten kovanec in gledali število grbov, bi imelo le-toporazdelitev Bi(5, 1/2). Nekaj histogramov:

Bi(5, 1/2)

0 1 2 3 4 5

0.1

0.2

0.3Bi(180, 1/2)

50 100 150 200

0.02

0.04

0.06

Bi(5, 1/6)

0 1 2 3 4 5

0.1

0.2

0.3

0.4Bi(180, 1/6)

50 100 150 200

0.02

0.04

0.06

0.08

Za velike n je verjetnosti pri binomski porazdelitvi Bi(n, p) brez sodobnih pripomočkovtežko računati. Zato so že zgodaj iznašli približne obrazce. Najširše uporabni sta Lapla-ceovi približni formuli.

Naj bo S ∼ Bi(n, p). Laplaceova lokalna formula pravi:

P(S = k) ≈ 1

σ√2π

e−(k−np)2/(2σ2) ,

kjer je σ =√

np(1− p). Produkt np je pričakovana vrednost, σ pa je standardni odklonbinomske porazdelitve. Natančnejšo definicijo bomo navedli v podrazdelku 2.3.6, v gro-bem pa lahko rečemo, da pri slučajni spremenljivki S lahko pričakujemo vrednosti blizu

Page 79: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 79

np, in sicer z odmiki reda velikosti σ. Slednja vrednost je tudi glavno merilo za natančnostobrazca: večji kot je σ, natančnejši je obrazec. Razumno natančnost dosežemo pri σ ≥ 5.Toda to velja za napako glede na največjo točkasto verjetnost. Če pa natančnost merimoz relativno napako, mora biti še absolutna razlika |k − np| majhna v primerjavi s σ4/3

(razumno natančnost dosežemo pri |k − np| ≤ σ4/3).

Primer : 180-krat vržemo pošteno kocko, meti so neodvisni. Če z S označimo število

šestic, je S ∼ Bi(180, 1/6). Velja σ =

180 · 16· 56

= 5. Nekaj primerov približnih

izračunov:

• P(S = 30) ≈ 1

5√2π

e0.= 0.07979. Točen rezultat: 0.07956.

• P(S = 35) ≈ 1

5√2π

e−1/2 .= 0.04839. Točen rezultat: 0.04640.

• P(S = 25) ≈ 1

5√2π

e−1/2 .= 0.04839. Točen rezultat: 0.05072.

• P(S = 20) ≈ 1

5√2π

e−2 .= 0.01080. Točen rezultat: 0.01079.

• P(S = 15) ≈ 1

5√2π

e−9/2 .= 0.00089. Točen rezultat: 0.00052.

Pri zadnjem primeru je absolutna napaka še vedno majhna v primerjavi z maksimalnoverjetnostjo P(S = 30), relativna napaka pa je velika: velja |k − np| = 15, medtem ko jeσ4/3 .

= 8.55.

Laplaceova integralska formula pa pravi:

P(a < S < b) ≈ P(a ≤ S ≤ b) ≈ Φ

(

b− np

σ

)

− Φ

(

a− np

σ

)

,

kjer je Φ Gaussov verjetnostni integral :

Φ(x) =1√2π

∫ x

0

e−t2/2 dt .

To je specialna funkcija: je pomembna, ne da pa se izraziti z elementarnimi funkcijami.Njene vrednosti lahko odčitavamo iz tabel. Graf:

Page 80: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

80 M. RAIČ: STATISTIKA

x

Φ(x)

1 2 3−1−2−3

1/2

−1/2

Na grafu so razvidne naslednje lastnosti funkcije Φ:

• Φ(0) = 0;

• limx→∞

Φ(x) =1

2;

• limx→−∞

Φ(x) = −1

2;

• Φ(−x) = −Φ(x) (lihost).

Pripomnimo naj, da definicije funkcije Φ v literaturi zelo variirajo, zato se mora bralecvselej prepričati, kako je ta funkcija v posameznem viru definirana.

Tudi za natančnost Laplaceove integralske formule je merilo standardni odklon σ: večjikot je, natančnejša je. Razumno natančnost spet dosežemo pri σ ≥ 5. Pomembno pa jetudi, da večjo natančnost dosežemo, če sta a in b na polovici med dvema zaporednimacelima številoma. To je skupaj s pogojem, da je vsaj ena od absolutnih razlik |a− np| in|b− np| majhna v primerjavi s σ4/3, tudi jamstvo za majhno relativno napako (razumnonatančnost spet dosežemo pri |a− np| ≤ σ4/3 ali |b− np| ≤ σ4/3).

Primer : če je spet S ∼ Bi(180, 1/6), gremo lahko računat:

P(25 ≤ S ≤ 35) ≈ Φ(1)− Φ(−1) = 2Φ(1).= 0.6827 .

Ker je 25 ≤ S ≤ 35 = 24 < S < 36, lahko isto verjetnost približno računamo tudikot:

P(24 ≤ S ≤ 36) ≈ Φ(1.2)− Φ(−1.2) = 2Φ(1

.2)

.= 0.7699 .

Najnatančnejša aproksimacija pa pride, če jo računamo kot:

P(24.5 < S < 35

.5) ≈ Φ(1

.1)− Φ(−1.1) = 2Φ(1

.1)

.= 0.7287 .

Točen rezultat: 0.7292.

Še en primer izračuna:

P(S < 20) = P(−∞ < S < 19.5) ≈ Φ(−2.1)− Φ(−∞) =

1

2− Φ(2

.1)

.= 0.0179 .

Page 81: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 81

Točen rezultat: 0.0142.

Za spodnjo mejo smo tukaj postavili −∞. To je najenostavneje, čeprav bi se bralcumorda zdela naravnejša spodnja meja 0. Toda razlika je zanemarljiva, saj bi se Φ(∞) =0.5 zamenjal s Φ(6)

.= 0.499999999013.

Laplaceova integralska formula pove, da je binomska porazdelitev za vslike σ približnonormalna. Normalna ali tudi Gaussova porazdelitev s sredino µ in standardnim odklonomσ, kjer je µ ∈ R in σ > 0, je določena z lastnostjo, da slučajna spremenljivka X, ki imato porazdelitev, zadošča:

P(a < X < b) = P(a ≤ X ≤ b) = Φ

(

b− µ

σ

)

− Φ

(

a− µ

σ

)

.

Pišemo X ∼ N(µ, σ). Tako lahko Laplaceovo integralsko formulo zapišemo kot približnoujemanje porazdelitev:

Bi(n, p) ≈ N(

np,√

np(1− p))

.

Za σ = 0 dobimo degenerirano normalno porazdelitev: če je X ∼ N(µ, 0), to pomeni, daje X = µ z verjetnostjo 1.

Standardna normalna porazdelitev pa je porazdelitev N(0, 1). Za X ∼ N(0, 1) torejvelja P(a < X < b) = P(a ≤ X ≤ b) = Φ(b)− Φ(a).

Primer : če je X ∼ N(50, 20), je:

• P(35 < X < 80) = P(35 ≤ X < 80) = P(25 < X ≤ 80) = P(35 ≤ X ≤ 80) =Φ(1.5) + Φ(0

.75)

.= 0.7066;

• P(X < 0) = 12− Φ(2

.5)

.= 0.0062.

Histogram porazdelitve celoštevilske slučajne spremenljivke, katere porazdelitev je pri-bližno normalna, ima obliko Gaussove krivulje:

µ

σ σ

Slučajna spremenljivka, porazdeljena normalno N(µ, σ), se:

• z verjetnostjo približno 68% nahaja med µ− σ do µ+ σ;

• z verjetnostjo približno 95% nahaja med µ− 2σ do µ+ 2σ;

• z verjetnostjo približno 99.7% nahaja med µ− 3σ do µ+ 3σ.

Page 82: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

82 M. RAIČ: STATISTIKA

2.3.4 Funkcije slučajnih spremenljivk

Iz slučajne spremenljivke X in funkcije f dobimo novo slučajno spremenljivko f(X), kiizidu ω priredi vrednost f(X(ω)). Če ima X diskretno porazdelitev, podano s shemo:

(

a1 a2 · · · akp1 p2 · · · pk

)

,

je tudi f(X) diskretna, njeno porazdelitev pa določa shema:(

f(a1) f(a2) · · · f(ak)p1 p2 · · · pk

)

.

Toda tudi če so vrednosti a1, . . . ak vse različne, vrednosti f(a1), . . . f(ak) niso nujno raz-lične. Če hočemo torej dobiti točkaste verjetnosti (verjetnostno funkcijo), moramo vsplošnem seštevati.

Primer . Naj bo:

X ∼(

1 2 3 4 5 60.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

in Y = (X − 2)2. Tedaj sicer lahko pišemo:

X ∼(

4 1 0 1 4 90.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

,

toda verjetnost P(Y = 4) ni enaka niti 0.05 niti 0.15, temveč 0.05 + 0.15 = 0

.2. Porazde-

litvena shema, iz katere lahko točkaste verjetnosti neposredno razberemo, je:

X ∼(

0 1 4 90.05 0

.3 0.2 0.35

)

.

Lahko gledamo tudi funkcije več slučajnih spremenljivk.

Primer . Slučajni spremenljivki X in Y naj imata navzkrižno porazdelitev:

Y = 1 Y = 2 Y = 3

X = 1 0 0.25 0.15 0.4X = 2 0.25 0.25 0.1 0.6

0.25 0.5 0.25

Tedaj je njuna vsota X + Y funkcija obeh slučajnih spremenljivk in velja:

X + Y ∼(

3 4 50.5 0.4 0.1

)

.

Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kotX in Y , t. j.:

Page 83: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 83

Y ′ = 1 Y ′ = 2 Y ′ = 3

X ′ = 1 0.1 0.2 0.1 0.4X ′ = 2 0.15 0.3 0.15 0.6

0.25 0.5 0.25

je X ′+Y ′ ∼(

2 3 4 50.1 0.35 0

.4 0.15

)

, čeprav sta robni porazdelitvi v obeh primerih enaki.

Nauk : za izračun porazdelitve funkcije dveh ali več slučajnih spremenljivk potrebu-jemo navzkrižno porazdelitev.

2.3.5 Porazdelitve urejenostnih slučajnih spremenljivk

Eden temeljnih pojmov pri urejenostnih slučajnih spremenljivkah je kumulativna poraz-delitvena funkcija:

FX(x) = P(X ≤ x) .

Primer : za X ∼(

1 2 3 4 5 60.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

je npr.:

FX(2) = P(X = 1) + P(X = 2) = 0.2 ,

FX(1.9) = P(X = 1) = 0

.05 ,

FX(0) = 0 ,

FX(6) = 1 ,

FX(1000) = 1 .

Graf:

x

FX(x)

1 2 3 4 5 6

0.2

0.4

0.6

0.8

1

Page 84: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

84 M. RAIČ: STATISTIKA

Če urejenostna slučajna spremenljivka X zavzame vrednosti v množici, ki se da ureje-nostno vložiti v realna števila, je s kumulativno porazdelitveno funkcijo njena porazdelitevnatančno določena. Velja namreč:

P(X < x) = FX(x−) = lim

y↑xFX(y)

ter za a ≤ b še:

P(a ≤ X ≤ b) = P(X ≤ b)− P(X < a) = FX(b)− FX(a−) ,

P(a < X ≤ b) = P(X ≤ b)− P(X ≤ a) = FX(b)− FX(a) ,

P(a ≤ X < b) = P(X < b)− P(X < a) = FX(b−)− FX(a

−) ,

P(a < X < b) = P(X < b)− P(X ≤ a) = FX(b−)− FX(a) .

Velja tudi:P(X = x) = P(X ≤ x)− P(X < x) = FX(x)− F (x−) .

Točkasta verjetnost je torej enaka skoku kumulativne porazdelitvene funkcije v dani točki.

Kumulativna porazdelitvena funkcija F ima naslednje lastnosti:

• Je naraščajoča, a ne nujno strogo: če je a ≤ b, je F (a) ≤ F (b).

• limx→−∞ F (x) = 0 in limx→∞ F (x) = 1.

• Je z desne zvezna: limy↓x F (y) = F (x+) = F (x).

Velja tudi, da je vsaka funkcija z zgornjimi lastnostmi kumulativna porazdelitvena funkcijaneke slučajne spremenljivke.

Kumulativna porazdelitvena funkcija slučajne spremenljivke, ki zavzame kvečjemukončno mnogo vrednosti, je stopničasta. To pa ni res za vsako kumulativno porazdelitvenofunkcijo. Kumulativna porazdelitvena funkcija standardne normalne porazdelitve je takoF (x) = 1

2+ Φ(x). Graf:

x

F (x)

1 2 3−1−2−3

1/2

1

Page 85: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 85

Kvantil slučajne spremenljivke za verjetnost p je vrednost q, za katero velja:

P(X < q) ≤ p in P(X ≤ q) ≥ p .

To je posplošitev kvantila spremenljivke na statistični množici: slednji je kvantil poraz-delitve slučajne spremenljivke, ki jo dobimo tako, da enoto na populaciji izberemo naslepo.

Kvantile lahko grafično določimo iz grafa kumulativne porazdelitvene funkcije: v sko-kih graf dopolnimo z ustreznimi navpičnimi daljicami in kvantil za verjetnost p je vsakaabscisa točke na dobljeni črti, ki ima ordinato enako p. Gledamo torej presečišča dopol-njenega grafa z ustrezno vodoravnico.

Primer . Če je X ∼(

1 2 3 4 5 60.05 0

.15 0

.15 0

.15 0

.15 0

.35

)

, je kvantil slučajne spremen-

ljivke X za verjetnost 0.3 natančno določen, in sicer je enak 3:

• Velja P(X < 3) = 0.2 ≤ 0

.3 in P(X ≤ 3) = 0

.35 ≥ 0

.3.

• Brž ko je x < 3, je P(X ≤ x) ≤ 0.2 < 0

.3, zato x ni ustrezni kvantil.

• Brž ko je x > 3, je P(X < x) ≥ 0.35 > 0

.3, zato x ni ustrezni kvantil.

Podobno je tudi prvi kvartil lahko enak le 3. Mediana pa ni natančno določena, lahko jekar koli iz intervala [4, 5].

Primer : kumulativna porazdelitvena funkcija števila šestic pri 5 metih poštene kockeskupaj s kumulativno porazdelitveno funkcijo ustrezne aproksimativne normalne poraz-delitve:

x

FX(x)

1 2 3 4 5 6

0.2

0.4

0.6

0.8

1

Primer : kumulativna porazdelitvena funkcija števila šestic pri 180 metih poštene kockeskupaj s kumulativno porazdelitveno funkcijo ustrezne aproksimativne normalne poraz-delitve:

Page 86: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

86 M. RAIČ: STATISTIKA

x

FX(x)

10 20 30 40

0.2

0.4

0.6

0.8

1

2.3.6 Porazdelitve intervalskih slučajnih spremenljivk

Eden temeljnih pojmov pri intervalskih slučajnih spremenljivkah je matematično upanjeali tudi pričakovana vrednost. Le-to sicer ni vselej definirano, lahko pa ga izračunamoza vsako slučajno spremenljivko, ki zavzame le končno mnogo vrednosti. Matematičnoupanje slučajne spremenljivke:

X ∼(

a1 a2 · · · akp1 p2 · · · pk

)

je definirano kot:E(X) := a1p1 + a2p2 + · · ·+ akpk .

Pri tem ni nujno, da so vse vrednosti a1, a2, . . . ak različne. Izkaže se, da je matematičnoupanje neodvisno od sheme, s katero podamo porazdelitev.

Matematično upanje je posplošitev aritmetične sredine: aritmetična sredina spremen-ljivke, definirane na določeni statistični množici, je matematično slučajne spremenljivke,ki nastane, če enoto iz množice izberemo na slepo.

Matematično upanje je mera centralne tendence: v grobem lahko rečemo, da lahko prirealizacijah slučajne spremenljivke X pričakujemo vrednosti blizu E(X).

Primer : za X ∼(

1 2 3 4 5 60.1 0.15 0

.15 0

.15 0

.15 0

.3

)

je:

E(X) = 1 · 0.1 + 2 · 0.15 + 3 · 0.15 + 4 · 0.15 + 5 · 0.15 + 6 · 0.3 = 4 .

Neposredno iz porazdelitvene sheme se da izračunati tudi matematično upanje po-ljubne funkcije slučajne spremenljivke. Velja namreč:

E[

f(X)]

= f(a1)p1 + f(a2)p2 + · · ·+ f(ak)pk .

Page 87: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 87

Primer . Naj bo spet X ∼(

1 2 3 4 5 60.1 0.15 0

.15 0

.15 0

.15 0

.3

)

in Y = (X − 4)2. Tedaj

lahko E(Y ) izračunamo na dva načina. Lahko upoštevamo, da je

Y ∼(

0 1 4 90.15 0

.3 0.45 0

.1

)

in zato:

E(Y ) = 0 · 0.15 + 1 · 0.3 + 4 · 0.45 + 9 · 0.1 = 3

ali pa:

E(Y ) = (1− 4)2 · 0.1 + (2− 4)2 · 0.15 + (3− 4)2 · 0.15 + (4− 4)2 · 0.15 ++ (5− 4)2 · 0.15 + (6− 4)2 · 0.3 =

= 3 .

Matematično upanje lahko izmenjamo z linearno funkcijo. Velja namreč:

E(kX + n) = k E(X) + n .

To pa ne velja kar za vsako funkcijo: v splošnem je E[

f(X)]

6= f(

E(X))

.

Primer . Naj bo spet X ∼(

1 2 3 4 5 60.1 0.15 0

.15 0

.15 0

.15 0

.3

)

in Z = 10X+1000. Tedaj

lahko E(Z) spet izračunamo na dva načina. Lahko upoštevamo, da je

Z ∼(

1010 1020 1030 1040 1050 10600.1 0

.15 0

.15 0

.15 0

.15 0

.3

)

in zato:

E(Z) = 1010 · 0.1 + 1020 · 0.15 + 1030 · 0.15 + 1040 · 0.15 + 1050 · 0.15 + 1060 · 0.3 = 1040

ali pa preprosto izračunamo E(Z) = 10 · 4 + 1000 = 1040.

Če pa postavimo Y = (X − 4)2, smo v prejšnjem primeru izračunali, da je E(Y ) = 3,medtem ko je (4− 4)2 = 0.

Izmenljivost matematičnega upanja je temelj za u-metodo, ki jo poznamo že iz raču-nanja aritmetične sredine: za poljuben u ∈ R velja:

E(X) = u+ E(X − u) .

Primer : za X ∼(

490 500 5200.1 0

.3 0

.6

)

lahko izračunamo:

E(X) = 500 + (−10) · 0.1 + 20 · 0.6 = 511 .

Matematično upanje je tudi aditivno: za slučajni spremenljivki velja:

E(X + Y ) = E(X) + E(Y ) .

Matematično upanje vsote je torej določeno že z robnima porazdelitvama, čeprav to nevelja za samo porazdelitev vsote.

Page 88: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

88 M. RAIČ: STATISTIKA

Primer . Slučajni spremenljivki X in Y naj imata navzkrižno porazdelitev:

Y = 1 Y = 2 Y = 3

X = 1 0 0.25 0.15 0.4X = 2 0.25 0.25 0.1 0.6

0.25 0.5 0.25

Iz robnih porazdelitev dobimo:

E(X) = 1 · 0.4 + 2 · 0.6 = 1.6 ,

E(Y ) = 1 · 0.25 + 2 · 0.5 + 3 · 0.25 = 2 .

Nadalje je X + Y ∼(

3 4 50.5 0.4 0.1

)

in posledično:

E(X + Y ) = 3 · 0.5 + 4 · 0.4 + 5 · 0.1 = 3.6 = 1

.6 + 2 .

Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kotX in Y , t. j.:

Y ′ = 1 Y ′ = 2 Y ′ = 3

X ′ = 1 0.1 0.2 0.1 0.4X ′ = 2 0.15 0.3 0.15 0.6

0.25 0.5 0.25

je seveda prav tako E(X ′) = 1.6 in E(Y ′) = 2. Vsota je sicer drugače porazdeljena:

X ′ + Y ′ ∼(

2 3 4 50.1 0.35 0

.4 0.15

)

, toda spet je:

E(X ′ + Y ′) = 2 · 0.1 + 3 · 0.35 + 4 · 0.4 + 5 · 0.15 = 3.6 = 1

.6 + 2 .

Zaenkrat smo matematično upanje definirali le za slučajne spremenljivke, ki zavzamejokončno mnogo vrednosti. Da se ga smiselno posplošiti na veliko slučajnih spremenljivk,ne pa na vse. Omenimo naj, da za X ∼ N(µ, σ) velja E(X) = µ.

Za intervalske spremenljivke na statističnih množicah smo definirali tudi varianco.Varianca slučajne spremenljivke je definirana kot:

var(X) = E

[

(

X − E(X))2]

.

Izkaže pa se, da velja tudi:

var(X) = E(X2)−(

E(X))2

,

kar često pride prav pri računanju peš. Uporaba te formule za računalnik pa je lahkonevarna, ker je formula lahko numerično nestabilna: majhne napake pri računanju vodijov velike napake pri končnem rezultatu. To je zato, ker se lahko zgodi, da se dve velikikoličini odštejeta v majhno količino.

Page 89: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 89

Primer . Varianco slučajne spremenljivke X ∼(

1 2 3 4 5 60.1 0.15 0

.15 0

.15 0

.15 0

.3

)

lahko

izračunamo na vsaj dva načina. Prvič, ker vemo, da je E(X) = 4, je var(X) = E[

(X −4)2

]

= 3. Drugič, lahko izračunamo:

E(X2) = 1 · 0.1 + 4 · 0.15 + 9 · 0.15 + 16 · 0.15 + 25 · 0.15 + 36 · 0.3 = 19

in posledično var(X) = 19− 16 = 3.

Varianca je mera razpršenosti: v grobem pove, za koliko se realizirane vrednostislučajne spremenljivke X lahko razlikujejo. Natančneje, je mera za kvadrate teh razlik.Za varianco velja:

var(aX + b) = a2 var(X) + b .

Primer : za X ∼(

1 2 3 4 5 60.1 0.15 0

.15 0

.15 0

.15 0

.3

)

in Z = 10X + 1000 velja var(Z) =

100 var(X) = 300. Opazimo še, da bi se, če bi šli računat var(Z) = E(Z2) −(

E(Z))2,

odšteli dve količini z vrednostjo približno milijon.

Ker varianca ni neposredno primerljiva z vrednostmi slučajne spremenljivke, je spetugodno uvesti standardni odklon:

σ(X) =√

var(X) .

Velja σ(aX + b) = |a|σ(X). Za slučajni spremenljivki iz prejšnjega primera je takoσ(X) =

√3

.= 1.732 in σ(Z) =

√300 = 10

√3

.= 17

.32.

Standardni odklon slučajne spremenljivke, porazdeljene normalno N(µ, σ), je enak σ.Tako je uporaba znaka σ za drugi parameter pri normalni porazdelitvi in za standardniodklon konsistentna.

Neobčutljivost variance za prištetje deterministične količine vodi v izpeljavo u-metodeza varianco:

var(X) = E[

(X − u)2]

−(

E(X − u))2

.

Primer . Naj bo Z ∼(

3 4 50.5 0.4 0.1

)

. Če izberemo u = 4, dobimo:

E(Z − u) = (−1) · 0.5 + 1 · 0.1 = −0.4E[

(Z − u)2]

= (−1)2 · 0.5 + 12 · 0.1 = 0.6

var(Z) = 0.6− 0

.16 = 0

.44 .

Varianca je tudi aditivna, vendar ne v tolikšni splošnosti kot matematično upanje.Enakost:

var(X + Y ) = var(X) + var(Y )

Page 90: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

90 M. RAIČ: STATISTIKA

velja, če sta X in Y neodvisni, v splošnem pa ne. Tako recimo račun:

var(2X) = var(X +X) = var(X) + var(X) = 2 var(X)

ni pravilen, ker ne velja druga enakost: X in X namreč nista neodvisni, brž ko X niskoraj gotovo konstantna. Pravilno je var(2X) = 4 var(X).

Primer . Spet vzemimo slučajni spremenljivki X in Y z navzkrižno porazdelitvijo:

Y = 1 Y = 2 Y = 3

X = 1 0 0.25 0.15 0.4X = 2 0.25 0.25 0.1 0.6

0.25 0.5 0.25

pri kateri pride X + Y ∼(

3 4 50.5 0.4 0.1

)

. Velja var(X) = 0.24, var(Y ) = 0

.5 in var(X +

Y ) = 0.44 6= var(X) + var(Y ).

E(X + Y ) = 3 · 0.5 + 4 · 0.4 + 5 · 0.1 = 3.6 = 1

.6 + 2 .

Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kotX in Y , t. j.:

Y ′ = 1 Y ′ = 2 Y ′ = 3

X ′ = 1 0.1 0.2 0.1 0.4X ′ = 2 0.15 0.3 0.15 0.6

0.25 0.5 0.25

je seveda prav tako var(X ′) = 0.24 in var(Y ′) = 0.5 in izX ′+Y ′ ∼

(

2 3 4 50.1 0.35 0

.4 0.15

)

dobimo var(X ′+Y ′) = 0.74. Tega pa ne bi bilo treba računati, saj sta X ′ in Y ′ neodvisni,

zato je var(X ′ + Y ′) = 0.24 + 0

.5 = 0

.74.

Primer . Bernoullijevemu zaporedju slučajnih poskusov, pri katerih vsak uspe z verjetno-stjo p, lahko priredimo zaporedje slučajnih spremenljivk X1, X2, . . . na naslednji način:

Xi =

1 ; i-ti poskus uspe0 ; i-ti poskus ne uspe

.

Tedaj so te slučajne spremenljivke neodvisne, vsota prvih n, S = X1+X2+ · · ·+Xn, pa jenatančno število uspelih med prvimi n poskusi, torej je S ∼ Bi(n, p). Ni težko izračunati,da je E(Xi) = p in var(Xi) = p(1− p). Sledi E(S) = np in var(S) = np(1− p).

Sklep: za vsako slučajno spremenljivko S ∼ Bi(n, p) je E(S) = np in var(S) = np(1−p). To je zato, ker sta matematično upanje in varianca odvisna le od porazdelitve sučajnespremenljivke, ne pa tudi od njene konstrukcije.

Page 91: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 91

Zdaj lahko Laplaceovo integralsko formulo pogledamo še drugače: če gre n proti ne-skončno, p pa ostane stran od 0 in 1, je binomska porazdelitev približno normalna zustreznim matematičnim upanjem in varianco.

Kovarianca slučajnih spremenljivk X in Y je definirana kot:

K (X, Y ) = E

[

(

X − E(X))(

Y − E(Y ))]

.

Tudi kovarianca je posplošitev kovariance spremenljivk na statistični množici. Velja tudi:

K (X, Y ) = E(XY )− E(X)E(Y )

in celo:K (X, Y ) = E

[

(X − u)(Y − v)]

− E(X − u)E(Y − v) .

Primer . Za slučajni spremenljivki X in Y z navzkrižno porazdelitvijo:

Y = 1 Y = 2 Y = 3

X = 1 0 0.25 0.15 0.4X = 2 0.25 0.25 0.1 0.6

0.25 0.5 0.25

velja:

E(XY ) = 1 · 1 · 0 + 1 · 2 · 0.25 + 1 · 3 · 0.15 + 2 · 1 · 0.25 + 2 · 2 · 0.25 + 2 · 3 · 0.1 = 3.05 ,

torej:K (X, Y ) = 3

.05− 1

.6 · 2 = −0.15 .

Za slučajni spremenljivki s kovarianco nič pravimo, da sta nekorelirani. Slučajni spre-menljivki X in Y sta torej nekorelirani natanko tedaj, ko je E(XY ) = E(X)E(Y ). Po-ljubni neodvisni slučajni spremenljivki sta nekorelirani, obratno pa ne velja nujno.

Primer : pri navzkrižni porazdelitvi:

Y = −1 Y = 0 Y = 1

X = −1 0.1 0 0.1 0.2X = 0 0 0.6 0 0.6X = 1 0.1 0 0.1 0.2

0.2 0.6 0.2

sta X in Y nekorelirani, saj je E(X) = E(Y ) = E(XY ) = 0. Nista pa neodvisni, saj jenpr. P(X = −1, Y = 0) = 0, medtem ko je P(X = −1)P(Y = 0)

.= 0.12.

Page 92: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

92 M. RAIČ: STATISTIKA

A že če sta X in Y nekorelirani, velja var(X + Y ) = var(X) + var(Y ). V splošnemnamreč velja formula:

var(X + Y ) = var(X) + 2K (X, Y ) + var(Y ) .

Korelacijski koeficient med slučajnima spremenljivkama X in Y je tako kot za spre-menljivke na statističnih množicah definiran s predpisom:

r(X, Y ) =K (X, Y )

σ(X) σ(Y ).

Tudi pri slučajnih spremenljivkah velja −1 ≤ r(X, Y ) ≤ 1 in korelacijski koeficient lahkokvalitativno opredeljujemo na enak način kot pri statističnih spremenljivkah.

Primer . Za slučajni spremenljivki X in Y z navzkrižno porazdelitvijo:

Y = 1 Y = 2 Y = 3

X = 1 0 0.25 0.15 0.4X = 2 0.25 0.25 0.1 0.6

0.25 0.5 0.25

velja:

r(X, Y ) =−0.15√0.24√0.5

.= −0.433 .

Gre torej za zmerno negativno korelacijo.

2.3.7 Centralni limitni izrek

Pri binomski porazdelitvi Bi(n, p) smo videli, da je, ko je n velik, p pa dovolj stran od 0 ali1 blizu normalni (Gaussovi) z ustreznim matematičnim upanjem in varianco. Videli smotudi, da se da binomska porazdelitev zapisati kot vsota neodvisnih slučajnih spremenljivk.To velja tudi za splošnejše vsote.

Centralni limitni izrek (ohlapna formulacija): slučajna spremenljivka S, ki je vsotaveliko neodvisnih slučajnih spremenljivk z dovolj lepimi porazdelitvami, od katerih nobenaposebej ne izstopa, je porazdeljena približno normalno N(µ, σ), kjer je µ = E(S) in σ2 =var(S). Velja torej:

P(a < S < b) ≈ P(a ≤ S ≤ b) ≈ Φ

(

b− µ

σ

)

− Φ

(

a− µ

σ

)

.

Z drugimi besedami, porazdelitev količine, ki nastopi kot rezultat veliko majhnih neodvi-snih slučajnih vplivov, ki se med seboj seštevajo, sledi Gaussovi krivulji.

Page 93: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 93

Primer . Loterija izda srečko, ki stane 1 evro. Srečka z verjetnostjo 5% zadene 10 evrov,z verjetnostjo 45% zadene 1 evro (v tem primeru torej kupec dobi povrnjen vložek), zverjetnostjo 50% pa ne zadene nič. Zanima nas dobiček loterije, če proda določeno številoneodvisnih srečk (to vsaj približno velja, če igralec srečko napiše sam).

Pri n prodanih srečkah lahko dobiček zapišemo kot vsoto S = X1 + X2 + · · · + Xn,kjer so X1, . . . Xn neodvisne s porazdelitvijo:

(

−9 0 10.05 0

.45 0

.5

)

.

Če loterija proda 10 srečk, porazdelitev dobička S prikazuje naslednji histogram:

−90 −80 −70 −60 −50 −40 −30 −20 −10 10

Če loterija proda 50 srečk, je histogram naslednji:

−50 −40 −30 −20 −10 10 20 30 40 50

Pri 100 prodanih srečkah pa je naslednji:

Page 94: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

94 M. RAIČ: STATISTIKA

−70 −60 −50 −40 −30 −20 −10 10 20 30 40 5050

Izračunajmo za ta primer približno verjetnost, da ima loterija izgubo! Velja:

E(Xi) = 0.05 , var(Xi) = 4

.5475 , σ(Xi)

.= 2.1325 ,

torej:E(S) = 5 , var(S) = 454

.75 , σ(S)

.= 21

.325 ,

od koder dobimo:

P(S < 0) = P(−∞ < S < −0.5) ≈ Φ

(−0.5− 5

21.325

)

− Φ(−∞).=

1

2− Φ(0

.2579)

.= 0.3982 .

Točen rezultat: 0.376765.

Lahko pa se vprašamo tudi, najmanj koliko srečk mora loterija prodati, če naj boverjetnost, da ima izgubo, največ 5%. Če loterija proda n srečk, je E(S) = 0

.05n in

σ(S) =√4.5475n, torej je:

P(S < 0) ≈ Φ

(−0.5− 0.05n√

4.5475n

)

+1

2.

Izraz v ulomku pa je za nadaljnjo obravnavo nekoliko zapleten, zato si privoščimo, dazanemarimo tudi člen 0.5. Dobimo:

P(S < 0) ≈ 1

2− Φ

(

0.05

n

4.5475

)

.

Rešiti moramo torej neenačbo:

1

2− Φ

(

0.05

n

4.5475

)

≤ 0.05

oziroma:

Φ

(

0.05

n

4.5475

)

≥ 0.45 .

Ker je Φ(1.645).= 0.45, je pogoj za število srečk približno:

0.05

n

4.5475

≥ 1.645 ,

kar velja za n ≥ 4923 (zaokrožili smo navzgor). Točna verjetnost izgube pri 4923 prodanihsrečkah pa je nekoliko večja, 0.05117. Pri 5000 prodanih srečkah pa je verjetnost izgube0.04987. Histogram:

Page 95: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 95

−200−100 100 200 300 400 500 600 700

Prikažimo še grafe kumulativnih porazdelitvenih funkcij dobička prodanih srečk skupaj spripadajočimi normalnimi slučajnimi spremenljivkami:

n = 10

−40 −30 −20 −10 10 20 30

0.2

0.4

0.6

0.8

1

n = 50

−50 −40 −30 −20 10 10 20 30 40 50

0.2

0.4

0.6

0.8

1

Page 96: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

96 M. RAIČ: STATISTIKA

n = 100

−70 −60 −50 −40 −30 −20 10 10 20 30 40 50 60

0.2

0.4

0.6

0.8

1

n = 500

−140−120−100 −80 −60 −40 −20 20 40 60 80 100 120 140

0.2

0.4

0.6

0.8

1

n = 5000

−200 100 100 200 300 400 500 600 700

0.2

0.4

0.6

0.8

1

Veliko podatkov pa ne pomeni vedno (približno) normalne porazdelitve. Spodaj soprikazani rezultati 963 drugih kolokvijev iz predmeta Verjetnost in statistika za študenteračunalništva na Univerzi v Ljubljani v letih od 1997 do 2010:

Page 97: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 97

10 20 30 40 50 60 70 80 90 100

5

10

15

20

25

Relativne kumulativne frekvence skupaj z normalno aproksimacijo (µ.= 58

.02, σ

.=

25.31):

10 20 30 40 50 60 70 80 90 100

0.2

0.4

0.6

0.8

1

Page 98: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

98 M. RAIČ: STATISTIKA

Page 99: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

3.

Inferenčna statistika

Pri opisni statistiki se osredotočimo le na podatke, ki jih imamo (na to, kar opazimo)in poskusimo narediti smiseln povzetek. Pri inferenčni statistiki pa gledamo podatkekot del nečesa večjega, česar ne poznamo v celoti. Tipičen primer je vzorec iz populacije:vrednosti statistične spremenljivke na vzorcu poznamo, na celotni populaciji pa ne. To pani edina možnost. Regresijska analiza se npr. ukvarja z napovedjo dogajanja v prihodnostina podlagi podatkov iz preteklosti.

V splošnem gre pri inferenčni statistiki za to, da opazimo X, želeli pa bi povedati kaj oY (statistično sklepati). Pri tem sta X in Y slučajni spremenljivki na istem verjetnostnemprostoru, ki pa nima nujno znane porazdelitve. Temu pravimo statistični model. Če jeporazdelitev vendarle znana, modelu pravimo bayesovski. S takimi modeli se ukvarjabayesovska statistika. Tako jo imenujemo zato, ker temelji na Bayesovi formuli (glejpodrazdelek 2.2.2).

Omenili bomo tri vrste sklepanja:

• Točkasto ocenjevanje, pri katerem sestavimo algoritem, ki nam za vsako opažanje Xvrne oceno Y ≈ Y . Pri tem mora biti količina Y opazljiva (deterministično določenaz opažanjemX), želeli pa bi narediti čim manjšo napako. Količini Y pravimo cenilkaza Y .

• Intervalsko ocenjevanje, pri katerem poskusimo Y umestiti v opazljiv interval, npr.Ymin < Y < Ymax. Seveda morata biti meji intervala Ymin in Ymax opazljivi. Če o Ynimamo popolne informacije, izjava Ymin < Y < Ymax tipično ni vedno pravilna, dapa se kontrolirati verjetnost tega statističnega sklepa. Želimo doseči dvoje:

– Širina intervala naj bo čim manjša.

– Verjetnost, da je res Ymin < Y < Ymax (verjetnost pokritosti), naj bo v vsakemprimeru vsaj β.

Parametru β pravimo stopnja zaupanja. Tipični stopnji zaupanja sta β = 0.95 in

β = 0.99.

99

Page 100: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

100 M. RAIČ: STATISTIKA

• Testi značilnosti, pri katerem o Y postavimo neko hipotezo (domnevo), npr. Y = y0.Tej hipotezi navadno pravimo ničelna hipoteza in jo označimo s H0. Nasprotjeničelne hipoteze je alternativna hipoteza in jo navadno označimo s H1. Test za vsakoopažanje pove, ali ničelno hipotezo zavrnemo in sprejmemo alternativno hipotezoali pa ne naredimo ničesar. Želimo doseči dvoje:

– H0 naj se zavrne v čimveč primerih, ko ne velja.

– Verjetnost dogodka, da ničelno hipotezo zavrnemo, čeprav velja, naj bo v vsa-kem primeru največ α.

Parametru α pravimo stopnja značilnosti. Če ničelno hipotezo zavrnemo pri stopnjiznačilnosti α = 0

.05, pravimo, da so odstopanja statistično značilna. če pa jo

zavrnemo pri α = 0.01, pa, da so statistično zelo značilna.

Primer : Delova anketa pred predčasimi volitvami v Državni zbor jeseni 2011 samo sprikazom, kaj je kaj, brez računanja.

3.1 Verjetnost uspeha poskusa

Dano je Bernoullijevo zaporedje n poskusov z verjetnostjo uspeha p. Opazimo, da uspek poskusov.

Točkasta ocena za p (cenilka): p =k

n.

Konstrukcij intervala zaupanja je veliko, tu bomo uporabili Agresti–Coullovo konstruk-cijo. Najprej izračunamo c := z(1+β)/2, kjer je za kvantil standardne normalne porazdelitveza verjetnost a. Z drugimi besedami, Φ(za) = a− 1

2. Tabela nekaj kvantilov, pomembnih

v statistiki:a za0.95 1

.64

0.975 1

.96

0.99 2

.33

0.995 2

.58

Nato izračunamo:

n = n+ c2 , p =k + c2

2

n, q = 1− p .

Interval zaupanja:

p− c

pq

n< p < p− c

pq

n

Opomba. Ta interval nam sicer ne zagotavlja v vsakem primeru verjetnosti pokritostivsaj β, toda verjetnost pokritosti se pri vsakem p bliža β, ko se n veča. Bližanje je šehitrejše, če gledamo povprečno verjetnost pokritosti, ko p preteče določen interval. Le-taje zelo blizu β že za majhne n (od 10 naprej).

Page 101: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 101

Opomba. Še vedno je v dokaj splošni uporabi Waldov interval zaupanja, ki je enakeoblike kot zgornji, le z n, p in q = 1−p namesto n, p in q. Toda ta interval da zadovoljivopovprečno verjetnost pokritosti šele za razmeroma velike n.

Testiranje hipoteze, da je p = p0. Naj bo q0 := 1− p0.

Če alternativna hipoteza trdi, da je p 6= p0 (dvostranski test), ničelno hipotezo zavr-nemo, če je:

|k − np0| − 12√

np0q0=

p− p0√p0q0

√n

− 1

2√np0q0

≥ z1−α/2 .

Če alternativna hipoteza trdi, da je p > p0 (enostranski test v desno), ničelno hipotezozavrnemo, če je:

k − np0 − 12√

np0q0=

p− p0√p0q0

√n− 1

2√np0q0

≥ z1−α/2 .

Če alternativna hipoteza trdi, da je p < p0 (enostranski test v levo), ničelno hipotezozavrnemo, če je:

k − np0 +12√

np0q0=

p− p0√p0q0

√n+

1

2√np0q0

≤ −z1−α/2 .

Primeri :

• loterijska srečka, ki naj bi zadela z verjetnostjo 1/2: 2 dobitni od 8 pri α = 0.05,

4 dobitne od 16 pri α = 0.05, 4 dobitne od 16 pri α = 0

.01.

• poštenost kovanca: 4 grbi od 16 pri α = 0.05.

To je primer Z-testa za testno statistikok − np0√np0q0

=p− p0√p0q0

√n in popravkom

1

2√np0q0

.

Z-test za testno statistiko Z in popravkom c ima tri različice.

• Pri dvostranski različici ničelno hipotezo zavrnemo, če je |Z| − c ≥ z1−α/2.

• Pri enostranski različici v desno ničelno hipotezo zavrnemo, če je Z − c ≥ z1−α.

• Pri enostranski različici v levo ničelno hipotezo zavrnemo, če je Z + c ≤ −z1−α.

3.2 Frekvenčna porazdelitev

Točkasta ocena porazdelitve

(

a1 a2 · · · akp1 p2 · · · pk

)

: pi = f i .

Porazdelitev lahko testiramo s testom hi kvadrat s testno statistiko:

χ2 =k

i=1

(fi − npi)2

npi= n

k∑

i=1

(pi − pi)2

pi

Page 102: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

102 M. RAIČ: STATISTIKA

s k−1 prostostimi stopnjami, in sicer z enostransko različico v desno. Enostranska različicatesta hi hvadrat za testno statistiko χ2 z df prostostnimi stopnjami pri stopnji značilnostiα pomeni, da hipotezo zavrnemo, če je χ2 ≤ χ2

1−α(df). Na desni je kvantil porazdelitve hikvadrat z df prostostnimi stopnjami za verjetnost 1− α. Le-te lahko odčitamo iz tabele.

3.3 Sredina pri znanem σ

Izmerimo X1, X2, . . . Xn, ki so neodvisne in porazdeljene normalno N(µ, σ), kjer σ po-znamo.

Cenilka za µ:

µ = µvz = X =X1 +X2 + · · ·+Xn

n.

Interval zaupanja:

µ− z(1+β)/2σ√n< µ < µ+ z(1+β)/2

σ√n.

Testiranje: z Z-testom za testno statistikoµ− µ

σ

√n.

Interval zaupanja in testiranje sta robustna, kar pomeni, da sta za dovolj velike nvsaj približno legitimna, tudi če porazdelitev ni normalna – da le obstajata matematičnoupanje in varianca.

3.4 Sredina pri neznanem σ

Izmerimo X1, X2, . . . Xn, ki so neodvisne in porazdeljene normalno N(µ, σ), σ pa zdaj nepoznamo. Cenilka za µ je enaka kot pri znanem σ. Tu je na mestu omeniti še cenilko zaσ, ki pa je:

σ = σvz

n

n− 1=

(X1 − µ)2 + (X2 − µ)2 + · · · (Xn − µ)2

n− 1.

Interval zaupanja:

µ− t(1+β)/2(n− 1)σ√n< µ < µ+ t(1+β)/2(n− 1)

σ√n,

kjer je tp(df) kvantil Studentove porazdelitve z df prostostnimi stopnjami za verjetnostp. Le-te lahko odčitamo iz tabel.

µ testiramo s T -testom z n− 1 prostostnimi stopnjami za testno statistikoµ− µ

σ

√n.

T -test z df prostostnimi stopnjami za testno statistiko Z ima spet tri različice.

• Pri dvostranski različici ničelno hipotezo zavrnemo, če je |T | ≥ t1−α/2(df).

Page 103: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

M. RAIČ: STATISTIKA 103

• Pri enostranski različici v desno ničelno hipotezo zavrnemo, če je T ≥ t1−α(df).

• Pri enostranski različici v levo ničelno hipotezo zavrnemo, če je T ≤ −t1−α(df).

Page 104: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

104 M. RAIČ: STATISTIKA

Page 105: STATISTIKAvaljhun.fmf.uni-lj.si/~raicm/Poucevanje/BPSt/Predavanja.pdf · 2012-08-12 · Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi

Literatura

[1] A. Ferligoj: Osnove statistike na prosojnicah. Ljubljana, 1997.

[2] R. Jamnik: Matematična statistika. DZS, Ljubljana, 1980.

[3] R. Jamnik: Verjetnostni račun. ZOTKS, Ljubljana, 1987.

[4] R. Jamnik: Verjetnostni račun in statistika. DMFA, Ljubljana, 1995.

[5] M. Hladnik: Verjetnost in statistika, zapiski s predavanj. FRI, Ljubljana, 2002.

[6] J. A. Čibej: Matematika: kombinatorika, verjetnostni račun, statistika. DZS, Lju-bljana, 1994.

[7] J. Sagadin: Osnovne statistične metode za pedagoge. FF, Ljubljana, 1992.

[8] M. Blejec: Uvod v statistiko. EF, Ljubljana, 1996.

[9] L. Pfajfar: Statistika 1. EF, Ljubljana, 2005.

[10] F. Arh, L. Pfajfar: Statistika 1 z zgledi. EF, Ljubljana, 2005.

[11] A. Jurišic: Verjetnostni račun in statistika. Dosegljivo na:http://lkrv.fri.uni-lj.si/~ajurisic/stat10/

[12] B. Petz: Osnovne statističke metode. Liber, Zagreb, 1985.

[13] J. A. Rice: Mathematical Statistics and Data Analysis. Thomson/Brooks/Cole, Bel-mont, 2007.

[14] A. Ferligoj: Naloge iz statističnih metod. Ljubljana, 1981.

[15] F. Arh, L. Pfajfar: Statistika 1. Zbirka rešenih izpitnih nalog. EF, Ljubljana, 2002.

[16] M. R. Spiegel: Schaum’s outline of theory and problems of statistics. New York,1999.

105