21
Štatistika – druhá časť (použitá literatúra je na požiadanie k dispozícii u autorky týchto učebných textov) Analýza závislostí medzi 2 premennými /skúmanie štatistických súvislostí je súčasťou tzv. bivariačnej analýzy/ ide o štatistickú („voľnú“), nie matematickú (funkčnú) závislosť! Prostredníctvom analýzy závislostí (súvislostí) sa zisťuje, či existuje nenáhodný vzťah medzi dvoma premennými (sledovanými na jednej skupine probandov, t. j. v rámci jedného výberového súboru). Analýza závislostí smeruje k číselnému vyjadreniu tesnosti (významnosti) štatistického vzťahu medzi premennými pomocou tzv. korelačných, resp. kontingenčných koeficientov. Konkrétny postup závisí v prvom rade od typu premenných vstupujúcich do analýzy (podrobnejšie o postupoch analýzy závislostí → pozri ďalej); ak ide o premenné: kardinálne → vyčísľuje sa najčastejšie Pearsonov korelačný koeficient r; ordinálne → vyčísľuje sa Spearmanov korelačný koeficient R (príp. Kendalov koeficient); nominálne → vyčísľuje sa napríklad Cramerov kontingenčný koeficient V. Treba pripomenúť, že prostredníctvom vyčíslenia spomínaných koeficientov možno získať len odhad miery tesnosti štatistických vzťahov (ako ostatne všade v rámci inferenčnej štatistiky). Koeficienty totiž vyčísľujeme na základe analýzy premenných v rámci výberového súboru, teda ide len o bodový odhad koeficientov pre celú danú populáciu (základný súbor). Ako minimálny rozsah výberového súboru (ak chceme naše zistenie zovšeobecniť pre základný súbor) sa odporúča n = 40. KORELAČNÝ POČET / KORELAČNÁ ANALÝZA V rámci korelačného počtu skúmame dve premenné (buď 2 kardinálne, 2 ordinálne alebo jednu kardinálnu a jednu ordinálnu) z hľadiska toho, či je medzi nimi preukázateľná súvislosť, ako aj akého druhu (lineárna-nelineárna, aká tesná) je táto súvislosť. Charakter štatistického vzťahu medzi dvoma premennými nám môže priblížiť grafické dvojrozmerné (máme dve osi) zachytenie premenných prostredníctvom tzv. bodových grafov / diagramov („scatter plots“). V toto grafickom zobrazení sú usporiadané dvojice hodnôt premenných (každú jednu dvojicu tvoria hodnoty dvoch premenných „namerané“ u jedného probanda) nanášané ako body do súradnicového systému s dvoma osami: jedna os predstavuje jednu premennú (napr. X) a jej hodnoty a druhá os druhú premennú (napr. Y) a jej hodnoty. Konkrétne hodnoty oboch premenných nám teda udávajú „miesto“ (súradnice) bodu, ktorý danú usporiadanú dvojicu hodnôt modeluje. Príklad bodového diagramu je na nasledujúcom obrázku.

Statistika 2.Cast

Embed Size (px)

DESCRIPTION

statistika 2

Citation preview

Page 1: Statistika 2.Cast

Štatistika – druhá časť

(použitá literatúra je na požiadanie k dispozícii u autorky týchto učebných textov)

Analýza závislostí ∗∗∗∗ medzi 2 premennými

/skúmanie štatistických súvislostí je súčasťou tzv. bivariačnej analýzy/

∗∗∗∗ ide o štatistickú („voľnú“), nie matematickú (funkčnú) závislosť!

Prostredníctvom analýzy závislostí (súvislostí) sa zisťuje, či existuje nenáhodný vzťah medzi dvoma

premennými (sledovanými na jednej skupine probandov, t. j. v rámci jedného výberového súboru). Analýza

závislostí smeruje k číselnému vyjadreniu tesnosti (významnosti) štatistického vzťahu medzi

premennými pomocou tzv. korelačných, resp. kontingenčných koeficientov. Konkrétny postup závisí

v prvom rade od typu premenných vstupujúcich do analýzy (podrobnejšie o postupoch analýzy závislostí →

pozri ďalej); ak ide o premenné:

• kardinálne → vyčísľuje sa najčastejšie Pearsonov korelačný koeficient r;

• ordinálne → vyčísľuje sa Spearmanov korelačný koeficient R (príp. Kendalov koeficient);

• nominálne → vyčísľuje sa napríklad Cramerov kontingenčný koeficient V.

Treba pripomenúť, že prostredníctvom vyčíslenia spomínaných koeficientov možno získať len odhad

miery tesnosti štatistických vzťahov (ako ostatne všade v rámci inferenčnej štatistiky). Koeficienty totiž

vyčísľujeme na základe analýzy premenných v rámci výberového súboru, teda ide len o bodový odhad

koeficientov pre celú danú populáciu (základný súbor). Ako minimálny rozsah výberového súboru (ak

chceme naše zistenie zovšeobecniť pre základný súbor) sa odporúča n = 40.

KORELAČNÝ POČET / KORELAČNÁ ANALÝZA

V rámci korelačného počtu skúmame dve premenné (buď 2 kardinálne, 2 ordinálne alebo jednu

kardinálnu a jednu ordinálnu) z hľadiska toho, či je medzi nimi preukázateľná súvislosť, ako aj akého druhu

(lineárna-nelineárna, aká tesná) je táto súvislosť.

Charakter štatistického vzťahu medzi dvoma premennými nám môže priblížiť grafické dvojrozmerné

(máme dve osi) zachytenie premenných prostredníctvom tzv. bodových grafov / diagramov („scatter

plots“). V toto grafickom zobrazení sú usporiadané dvojice hodnôt premenných (každú jednu dvojicu tvoria

hodnoty dvoch premenných „namerané“ u jedného probanda) nanášané ako body do súradnicového systému

s dvoma osami: jedna os predstavuje jednu premennú (napr. X) a jej hodnoty a druhá os druhú premennú

(napr. Y) a jej hodnoty. Konkrétne hodnoty oboch premenných nám teda udávajú „miesto“ (súradnice) bodu,

ktorý danú usporiadanú dvojicu hodnôt modeluje. Príklad bodového diagramu je na nasledujúcom obrázku.

Page 2: Statistika 2.Cast

Obrázok: bodový diagram usporiadaných dvojíc hodnôt dvoch premenných

Regresná analýza

S korelačnou analýzou úzko súvisí ďalší štatistický postup, ktorým je tzv. regresná analýza.

V rámci nej ide o modelovanie vzťahov medzi premennými pomocou regresných priamok (ak ide

o lineárny∗∗∗∗ vzťah), resp. regresných kriviek (ak ide o nelineárny vzťah).

∗∗∗∗ lineárny → priamočiary; týkajúci sa len jedného smeru; majúci tvar alebo smer priamky; jednoznačný

vzťah (dá sa jednoznačne predpokladať, že s rastúcimi hodnotami jednej premennej budú „priamočiaro“ rásť

/klesať/ hodnoty druhej premennej)

Grafické zobrazenie vzťahov v regresnej analýze je zhodné s vyššie spomínaným grafickým zachytením

premenných v korelačnej analýze. Navyše je tu skupinou bodov, ktoré modelujú usporiadané dvojice hodnôt

premenných, „preložená“ priamka, resp. krivka, ktorá čo možno najlepšie aproximuje (približuje) priebeh

vzťahu medzi skúmanými premennými (ak nie je možné takúto „približnú“, modelovú priamku alebo krivku

nájsť, poukazuje to na neexistenciu závislosti medzi premennými).

Na nasledujúcom obrázku sú zachytené štyri rôzne situácie, ktoré môžu nastať pri grafickom zobrazení

vzťahov medzi premennými:

o prvá situácia naznačuje neexistenciu závislosti;

o druhá situácia naznačuje existenciu lineárnej závislosti pozitívnej (teda pozitívny korelačný vzťah →

hodnoty jednej premennej s rastom hodnôt druhej premennej taktiež rastú);

o tretia situácia naznačuje existenciu lineárnej závislosti negatívnej (teda negatívny korelačný vzťah →

hodnoty jednej premennej s rastom hodnôt druhej premennej – naopak – klesajú);

o štvrtá situácia naznačuje existenciu nelineárnej závislosti (vzťah nie je možné aproximovať priamkou,

ale krivkou)

82

84

86

88

90

92

94

84 86 88 90 92 94

premenná X

prem

enná

Y

Page 3: Statistika 2.Cast

Obrázok Grafické zachytenie rôznych štatistických vzťahov medzi dvoma premennými

V regresnej aj korelačnej analýze nám teda rovnako ide o skúmanie vzťahu medzi premennými. Rozdiel

medzi nimi spočíva v tom, že kým v rámci korelačnej analýzy sa predpokladá len určité „spojenie“ –

súvislosť medzi skúmanými premennými, ale nie ich vzájomné pôsobenie na seba, v regresnej analýze už

usudzujeme priamo aj o vplyve jednej premennej (tzv. nezávislej) na druhú (tzv. závislú). Regresná

analýza sa zaoberá predovšetkým tým, že vychádzajúc zo zisteného vzťahu medzi premennými predpovedá

na základe „správania“ nezávislej premennej to, ako sa bude „správať“ závislá premenná (musí však byť

zrejmé, ktorá premenná je nezávislá a ktorá závislá a či vôbec má pri daných premenných takého ponímanie

závislosti-nezávislosti zmysel!). Za pomoci regresnej analýzy možno teda na základe poznania hodnoty

jednej premennej odhadnúť hodnotu druhej premennej.

Vyššie popísaná regresná analýza (s jednou nezávislou a jednou závislou premennou) sa označuje ako

jednoduchá regresná analýza. Existujú totiž aj také postupy regresnej analýzy, ktoré predpokladajú a skúmajú

vplyv dvoch alebo aj viacerých nezávislých premenných na závislú premennú – tu už ide o tzv. viacnásobnú

regresnú analýzu.

1) Postup pri analýze závislosti kardinálnych (metrických, intervalových) premenných →

parametrická korelácia

Ak chceme zistiť, či existuje štatistický vzťah (závislosť) medzi dvoma kardinálnymi premennými,

pričom sú splnené podmienky (parametre), že obe premenné majú normálne rozdelenie a dá sa

predpokladať, že pôjde o lineárnu závislosť, použijeme ako štatistický ukazovateľ vzťahu parametrický

žiadna závislosť

lineár. štatistic. závisl.- pozit.

lineár. štat. závislosť- negat.

štat. závislosť nelineárna

Y Y

Y Y

X X

X X

Page 4: Statistika 2.Cast

Pearsonov korelačný koeficient (r). Ak nie sú splnené vyššie uvedené podmienky (normalita rozdelenia,

linearita vzťahu), použitie Pearsonovho koeficientu nie je vhodné → musíme použiť (aj pri kardinálnych

premenných) neparametrický Spearmanov (resp. iný poradový) koeficient /pozri ďalej pri analýze závislosti

ordinálnych premenných/.

Výpočet Pearsonovho korelačného koeficientu sa odvíja od toho, že v prípade normálneho rozdelenia

premenných sú tieto charakterizované svojím priemerom a smerodajnou odchýlkou (spomínané

charakteristiky preto figurujú aj vo vzorci pre výpočet koeficientu).

Dôležitým ukazovateľom prípadného vzťahu medzi dvoma premennými je spoločné kolísanie

(premenlivosť) hodnôt týchto premenných (či už „súhlasné“: s rastom hodnôt jednej rastú i hodnoty druhej;

alebo „nesúhlasné“: s rastom hodnôt jednej klesajú hodnoty druhej). Toto spoločné kolísanie hodnôt dvoch

premenných sa označuje ako kovariancia (ko-variancia → „spolu-menlivosť“). Kovarianciu možno chápať,

a teda aj vyčísliť, ako spoločný rozptyl dvoch sledovaných premenných:

sx.y = 1n

)APy).(APx(n

1i

yixi

−−∑=

, kde AP je aritmetický priemer hodnôt príslušnej premennej, za xi

a yi sa postupne dosádzajú konkrétne jednotlivé hodnoty premenných a n je veľkosť nášho výberového

súboru (počet osôb v našej vzorke).

/pozn.: všimnite si paralelu so vzorcom pre rozptyl jednej premennej: s2 = 1n

)APx).(APx(n

1i

xixi

−−∑= /

Pearsonov korelačný koeficient r je vlastne normovanou (štandardizovanou) kovarianciou dvoch

premenných (kovarianciou vydelenou súčinom smerodajných odchýlok týchto premenných), teda:

r = yx

y,x

s.s

s, kde sx,y je kovariancia, sx je smerodajná odchýlka jednej premennej a sy

smerodajná odchýlka druhej premennej.

Koeficient r nadobúda hodnoty od –1 do 1 (vrátane), pričom hodnoty koeficientu blížiace sa k 1 (resp. k

–1) poukazujú na existenciu veľmi silného korelačného vzťahu (silnej závislosti) medzi skúmanými

premennými a hodnoty blížiace sa (z oboch strán) k nule poukazujú na neexistenciu lineárneho vzťahu medzi

premennými (len lineárneho – tzn. že nelineárna závislosť ešte stále medzi nimi byť môže). Záporný

korelačný koeficient (ak je jeho absolútna hodnota dostatočne vysoká) poukazuje na existenciu negatívneho

(„nesúhlasného“) korelačného vzťahu; kladný koeficient (ak je jeho absolútna hodnota dostatočne vysoká) na

existenciu pozitívneho („súhlasného“) korelačného vzťahu medzi dvoma premennými.

Interpretácia korelačných koeficientov

Interpretácia korelačného koeficientu je veľmi dôležitá (cieľom korelačnej analýzy ako takej nie je len

číselné vyjadrenie koeficientov, ale práve ich logický a zmysluplný výklad; ostatne – všade v štatistike je to

tak). Či štatistický vzťah medzi dvoma premennými možno považovať za významný (či ide o „tesnú“

Page 5: Statistika 2.Cast

závislosť medzi premennými), závisí aj na veľkosti (rozsahu) nášho výberového súboru (pri väčšom

výberovom súbore môže poukazovať aj nižšia absolútna hodnota koeficientu na významný vzťah, kým pri

menšom súbore nám ani relatívne vysoká absolútna hodnota koeficientu nemusí postačiť na podporenie

predpokladu o existencii závislosti medzi premennými). Vyčíslené koeficienty (ich absolútne hodnoty) sa

preto porovnávajú s tabuľkou. V tejto tabuľke sú stanovené minimálne hodnoty korelačných koeficientov,

pri ktorých sa ešte dá predpokladať významný štatistický vzťah, pričom je zohľadnená aj veľkosť

výberových súborov, pre ktoré boli konkrétne koeficienty počítané. V tabuľke sa okrem toho berie tiež do

úvahy tzv. hladina významnosti α, ktorá sa udáva desatinným číslom ako 1 – spoľahlivosť, s ktorou chceme

o potenciálnom vzťahu medzi dvoma premennými vyvodzovať závery. V prípade, že chceme dosiahnuť

spoľahlivosť 95%, hladina významnosti α bude 1 – 0,95 = 0,05 → vtedy môžeme hovoriť – ak absolútna

hodnota nami vyčísleného koeficientu dosiahne, resp. prekročí tabuľkovú kritickú minimálnu hodnotu –

o štatisticky významnom korelačnom vzťahu medzi premennými; v prípade, že chceme dosiahnuť

spoľahlivosť 99%, hladina významnosti α bude 1 – 0,99 = 0,01 → vtedy môžeme hovoriť – ak absolútna

hodnota nami vyčísleného koeficientu dosiahne, resp. prekročí tabuľkovú kritickú minimálnu hodnotu –

o štatisticky vysoko významnom korelačnom vzťahu medzi premennými.

Skutočnými „úskaliami“ interpretácie korelačných koeficientov sú situácie, keď sa nám potvrdí (na

základe porovnania nášho koeficientu s tabuľkovou kritickou hodnotou) významnosť vzťahu, a predsa –

logicky – nemôže ísť o skutočný vzťah medzi premennými. Hodnota korelačného koeficientu totiž môže byť

vysoká aj v prípade, že závislosť medzi premennými je čisto náhodná. Ako pekný príklad takéhoto

náhodného vzťahu uvádza H. Swoboda (1977) súvislosť medzi rastom cien akcií na burze so skracovaním sa

priemernej dĺžky sukní žien (absolútna hodnota vyčísleného korelačného koeficientu bola vraj veľmi vysoká

– pritom tieto dve premenné logicky evidentne spolu nesúvisia...). Nasledujúci obrázok to vtipne ilustruje.

Obrázok: Ilustrácia náhodného korelačného vzťahu medzi cenami akcií na burze a dĺžkou sukní (zdroj:

Swodoba, 1977, s. 304)

Page 6: Statistika 2.Cast

Rovnako problematické z hľadiska interpretácie korelačných koeficientov môžu byť zdanlivé vzťahy

medzi premennými. Ide o takú súvislosť medzi dvoma premennými, za ktorou stojí nejaká ďalšia premenná,

ktorá vôbec nebola zahrnutá ani zohľadnená v procese korelačnej analýzy. Ako príklad uvádza – opäť veľmi

vtipne – H. Swoboda (1977) súvislosť (zdanlivú) medzi rastom príjmov pastorov a rastom cien alkoholu

(skôr než by sme „skĺzli“ k interpretácii tohto kvázi-vzťahu tým, že si snáď pastori zvyšujú svoju životnú

úroveň predajom alkoholu, treba si uvedomiť, že za rastom oboch premenných môže byť napr. taká ďalšia

premenná, akou je inflácia, ktorá má za následok rast príjmov i cien všeobecne...).

Nakoniec treba ešte dôrazne upozorniť na to, že ani štatisticky preukázaný korelačný vzťah sám osebe

nevypovedá nič o príčino-dôsledkových súvislostiach. Logicky sa síce môžeme pokúsiť nájsť kauzalitu

(príčinnosť) medzi skúmanými premennými, medzi ktorými sa preukázal významný štatistický vzťah,

samotná korelačná analýza nám však žiadne argumenty pre kauzálne vzťahy nemôže poskytnúť.

V sociálnych vedách, resp. vedách o človeku sa môžu kauzálne vzťahy v pravom zmysle slova preukázať len

na základe seriózne realizovaného kontrolovaného experimentu, nikdy nie len na základe korelačnej, či

akejkoľvek inej štatistickej analýzy premenných!

2) Postup pri analýze závislosti ordinálnych (poradových) premenných → neparametrická

korelácia

Ak chceme zistiť, či existuje štatistický vzťah (závislosť) medzi dvoma ordinálnymi premennými (resp.

medzi jednou kardinálnou a jednou ordinálnou premennou, alebo medzi dvoma kardinálnymi premennými,

z ktorých aspoň jedna nespĺňa podmienky pre použitie parametrického Pearsonovho koeficientu), použijeme

ako štatistický ukazovateľ vzťahu napr. neparametrický Spearmanov korelačný koeficient (R). Spearmanov

korelačný koeficient je nezávislý od tvaru rozdelenia premenných (t. j. nemusí ísť o normálne rozdelené

premenné) a má schopnosť podporiť aj predpoklad o nelineárnom vzťahu medzi dvoma premennými.

Výpočet Spearmanovho korelačného koeficientu sa odvíja od toho, že každej hodnote premennej možno

priradiť poradie (pri opakujúcich sa hodnotách → priemerné poradie týchto rovnakých hodnôt: postup pri

určovaní priemerných poradí je popísaný v texte „Spracovanie údajov v exeli“). Toto poradie udáva miesto

konkrétnej hodnoty v rade hodnôt danej premennej usporiadaných od najmenšej po najväčšiu (ak ide

o ordinálne premenné, hodnoty premennej ako také sú vlastne poradiami; ak ide o kardinálnu premennú,

skutočné namerané hodnoty /napr. skóre/ sa poradiami nahrádzajú). Prostredníctvom vyčíslenia

Spearmanovho koeficientu R sa vlastne hodnotí rozdiel medzi poradím hodnoty jednej premennej (napr. X)

a poradím hodnoty druhej premennej (napr. Y) v rámci každej usporiadanej dvojice hodnôt premenných.

Spearmanov korelačný koeficient R sa počíta podľa nasledujúceho vzorca:

Page 7: Statistika 2.Cast

R = 1 – )1n.(n²

D².6n

1i

∑=

, kde D je rozdiel medzi poradiami navzájom si prislúchajúcich hodnôt jednej a

druhej premennej, t. j.: D = poradie xi – poradie yi, pričom xi a yi tvoria usporiadanú dvojicu (t. j. obe boli

zistené u toho istého probanda); n je veľkosť (rozsah) nášho výberového súboru (počet probandov,

u ktorých sa sledovali skúmané premenné).

Spearmanov koeficient R nadobúda hodnoty od –1 do 1 (vrátane), pričom ich význam je rovnaký ako

u Pearsonovho korelačného koeficientu → hodnoty koeficientu blížiace sa k 1 (resp. k –1) poukazujú na

existenciu veľmi silného korelačného vzťahu (silnej závislosti) medzi skúmanými premennými a hodnoty

blížiace sa (z oboch strán) k nule poukazujú na neexistenciu vzťahu medzi premennými. Záporný korelačný

koeficient poukazuje na existenciu negatívneho („nesúhlasného“) korelačného vzťahu; kladný koeficient na

existenciu pozitívneho („súhlasného“) korelačného vzťahu medzi dvoma premennými.

Pre n (rozsah súboru) od 8 vyššie možno na posúdenie Spearmanovho koeficientu použiť tú istú

tabuľku kritických hodnôt ako pre Pearsonov korelačný koeficient (aj spôsob jeho posudzovania je

analogický). Rovnako aj pre interpretáciu Spearmanovho koeficientu platí všetko to, čo bolo uvedené vyššie

v súvislosti s interpretáciou Pearsonovho koeficientu (tie isté „úskalia“ interpretácie).

3) Postup pri analýze súvislosti nominálnych (kvalitatívnych) premenných → kontingencia

(kontingencia: z lat.; spojenie, stretnutie → t. j. spoločný výskyt)

Posúdenie súvislosti (závislosti) nominálnych premenných robíme v dvoch základných krokoch:

1. výpočet χ2-štatistiky, podľa ktorej usudzujeme, či vôbec existuje alebo neexistuje medzi premennými

súvislosť (ide o tzv. χ2-test nezávislosti);

2. výpočet tzv. Cramerovho V-koeficientu kontingencie (V je z intervalu od 0 do 1), na základe hodnoty

ktorého usudzujeme o miere súvislosti (t. j. aká tesná je súvislosť).

Analýza súvislosti (resp. závislosti) nominálnych premenných je vo svojej podstate (v tom, o čo ide)

analogická ku korelačnej analýze. Samotný jej proces je však postavený na úplne odlišnom princípe –

nemôže totiž vychádzať z priemerov a smerodajných odchýlok (ako pri kardinálnych premenných), ani

z poradí (ako pri ordinálnych premenných), a tak vychádza z rozdelenia početností daných nominálnych

premenných. Ide vlastne o analýzu čiastkových početností jednej premennej podľa druhej – t. j. početnosť

jednej premennej je roztriedená podľa foriem (úrovní) druhej premennej. Tieto čiastkové početnosti

zachytávajú tzv. kontingenčné tabuľky.

Kontingenčná tabuľka má určitý počet riadkov (r) a určitý počet stĺpcov (s), podľa toho, koľko foriem,

resp. úrovní nadobúda prvá – riadková – premenná (napr. Y ⇒ počet riadkov) a koľko druhá – stĺpcová –

Page 8: Statistika 2.Cast

premenná (napr. X ⇒ počet stĺpcov). Hovoríme o kontingenčnej tabuľke typu r x s („r-krát-s“). Všeobecná

verzia kontingenčnej tabuľky typu r x s je na nasledujúcom obrázku.

FORMY/ÚROVNE PREMENNÝCH

X1 X2 .... Xs RIADKOVÉ SÚČTY

Y1 n1,1 n1,2 ... n1,s n1, . Y2 n2,1 n2,2 ... n2,s n2, . .... ... ... ... ... ... Yr nr,1 nr,2 ... nr,s nr, .

STĹPCOVÉ SÚČTY n. ,1 n. ,2 ... n. ,s n

Obrázok: Všeobecná kontingenčná tabuľka r x s

(r je počet riadkov, s je počet stĺpcov; Xi, Yi sú formy premenných, nr,s sú príslušné čiastkové

početnosti daných riadkov a stĺpcov; n je celkový počet osôb, resp. pozorovaní)

Postup pri analýze súvislosti dvoch nominálnych premenných:

• zostavenie kontingenčnej tabuľky s empirickými (skutočnými, aktuálnymi) početnosťami;

• zostavenie kontingenčnej tabuľky s očakávanými (teoretickými) početnosťami podľa:

n

nnon

srsr

., = , kde onr,s je očakávaná početnosť príslušného riadku a stĺpca;

• výpočet χ2-štatistiky podľa: χ2 =∑∑r s

s,r

sr,r,s

on

)²n- (on

1 1

(alebo pomocou funkcií CHITEST a CHIINV

v exceli) + jej posúdenie∗;

• výpočet Cramerovho V-koeficientu kontingencie podľa: V =)1m.(n

2

χ , kde m je menšie

z r (počet riadkov), s (počet stĺpcov) + jeho posúdenie → napr. podľa Cohenovej škály:

0,1 – 0,3 → malá súvislosť

0,3 – 0,5 → stredná súvislosť

nad 0,5 → značná súvislosť.

∗ vypočítanú χ2-štatistiku môžeme posúdiť dvoma spôsobmi:

1. porovnaním hodnoty χ2-štatistiky s tabuľkovou kritickou hodnotou → ak platí, že χ2 > χ2krit., tak

možno predpokladať existenciu súvislosti medzi premennými pri zvolenej hladine významnosti;

v opačnom prípade hovoríme o neexistencii súvislosti (kritickú hodnotu χ2 v tabuľke vyhľadáme pre

zvolenú hladinu významnosti α = 0,05, resp. α = 0,01 a pre príslušný počet stupňov voľnosti

υ = (r-1).(s-1) /t. j. počet foriem riadkovej premennej zmenšený o 1 krát počet foriem stĺpcovej

premennej zmenšený o 1/; hodnota χ2-štatistiky je tým väčšia, čím väčšie sú rozdiely medzi

empirickými a očakávanými početnosťami, t. j. čím väčšie sú tieto rozdiely, tým skôr bude medzi

Page 9: Statistika 2.Cast

skúmanými premennými súvislosť (χ2-testom nezávislosti sa vlastne skúma to, či formy jednej

premennej nejako „ovplyvnia“, narušia výskyt foriem druhej premennej);

2. porovnaním pravdepodobnostnej hodnoty p so zvolenou hladinou významnosti α → ak platí, že

p < α, tak možno predpokladať existenciu súvislosti medzi premennými pri zvolenej hladine

významnosti; v opačnom prípade hovoríme o neexistencii súvislosti (p-hodnotu vypočíta exel po

zadaní funkcie CHITEST, resp. dá sa vyčísliť aj s pomocou iných štatistických softvérov; ide vlastne

o prevedenie χ2-hodnoty do pravdepodobnostnej mierky, kde p udáva pravdepodobnosť toho, že sa

pomýlim, ak sa prikloním k predpokladu, že existuje súvislosť medzi premennými: preto len ak je

dostatočne malá (t. j. pravdepodobnosť omylu je mizivá) môžem súvislosť predpokladať.

Treba pripomenúť, že χ2-test nezávislosti (χ2-štatistiku) možno použiť len, ak je aspoň 80%

čiastkových očakávaných početností väčších ako 4 a ak ani jedna očakávaná početnosť nie je nulová.

V prípade, že táto podmienka nie je splnená, je nutné zlúčiť niektoré riadky alebo stĺpce tak, aby sme

toto dosiahli (pri dostatočne veľkom výberovom súbore býva táto podmienka zväčša splnená).

Testovanie hypotéz

Testovanie hypotéz je jednou z najdôležitejších oblastí inferenčnej štatistiky (i. š. → usudzuje sa

o vlastnostiach populácie /základného súboru/ na základe preskúmania daných vlastností vo výberovom

súbore). Závery vyplývajúce z testovania hypotéz sú vždy len pravdepodobnostnými úsudkami: tvrdiť niečo

s istotou na základe štatistického testovania nemožno.

Štatistická hypotéza je predpoklad, ktorého formulácia je viazaná na konkrétny štatistický test (na

rozdiel od výskumnej hypotézy, ktorej formulácia vychádza z riešeného výskumného problému). V rámci

štatistického testovania sa testuje vždy tzv. nulová hypotéza H0 (voči alternatívnej hypotéze H1). Na

základe štatistického testovania nulovú hypotézu H0 buď nezamietneme alebo zamietneme. Zamietnuť

nulovú hypotézu možno len vtedy, ak sú s ňom údaje o sledovanej premennej získané na výberovom súbore

nezlučiteľné (presnejšie: sú zlučiteľné, „súhlasia“ s nulovou hypotézou len s veľmi malou

pravdepodobnosťou, t. j. je málo pravdepodobné, že by sme „namerali“ práve také údaje, ak by nulová

hypotéza mala platiť). V prípade zamietnutia nulovej hypotézy sa prikláňame k predpokladu, že platí

alternatívna hypotéza H1: hovoríme, že zamietame H0 v prospech H1.

Štatistický test možno chápať ako nástroj, za pomoci ktorého sa rozhodujeme (na základe údajov z

výberového súboru) medzi nezamietnutím H0 a zamietnutím H0 v prospech H1. Spočíva vo výpočte tzv.

testovacej štatistiky, ktorej hodnota sa potom posudzuje z hľadiska pravdepodobnosti-nepravdepodobnosti

toho, že bude taká, akú sme ju vypočítali, v prípade, že by mala platiť H0 (t. j. nakoľko by bola nami

vypočítaná hodnota testovacej štatistiky pravdepodobná, keby platila H0 → ak by mala byť len veľmi málo

pravdepodobná: H0 môžeme zamietnuť).

Page 10: Statistika 2.Cast

Pri testovaní hypotéz sa môžeme dopustiť dvoch typov chýb: tzv. chyby 1. druhu a chyby 2. druhu.

Chybu 1. druhu urobíme, ak zamietneme nulovú hypotézu napriek tomu, že je správna. Chybu 2.

druhu urobíme, ak nezamietneme nulovú hypotézu napriek tomu, že je nesprávna. Obe chyby bývajú

udávané v podobe miery rizika danej chyby vyjadrenej pravdepodobnostným číslom (napr. ak riziko chyby 1.

druhu je 5%, miera tohto rizika sa udáva ako 0,05).

Miera (pravdepodobnosť) ohrozenia chybou 1. druhu býva označovaná ako hladina významnosti,

resp. symbolom α. Výskumník si veľkosť α volí sám: konkrétna α teda vyjadruje mieru ochoty výskumníka

zmieriť sa s rizikom, že zamietne H0, aj keď je správna. Potom číslo (1 – α) môžeme chápať ako mieru

spoľahlivosti, s ktorou chce výskumník zamietnuť H0 v prospech H1.

Miera (pravdepodobnosť) ohrozenia chybou 2. druhu býva označovaná symbolom β. Väčšinou

v štatistickom spracovávaní údajom nejako zjavne nefiguruje, t. j. výskumník si jej veľkosť nevolí. Riziko

chyby 2. druhu (β) môže výskumník znížiť výberom vhodného štatistického testu. Taktiež s rastom rozsahu

výberového súboru (n) sa miera rizika chyby 2. druhu zmenšuje. Číslo (1 – β) možno chápať ako silu testu

(aplikovaného na údaje výberového súboru s určitým rozsahom).

Medzi mierou rizika chyba 1. druhu a mierou rizika chyby 2. druhu je, žiaľ, vzťah nepriamej úmernosti

(t. j. čím menšiu α si výskumník zvolí, s tým väčšou β musí počítať a naopak).

Štatistické testy hypotéz možno v zásade rozdeliť na tzv. parametrické a tzv. neparametrické testy

(analogicky ako sme mali parametrický a neparametrický koeficient korelácie v časti o analýze závislostí

dvoch premenných).

Parametrické testy možno použiť, len ak testujeme medziskupinové rozdiely v kardinálnej premennej.

Do vzorca pre výpočet testovacej štatistiky totiž vstupujú také charakteristiky premennej, ako sú aritmetický

priemer, smerodajná odchýlka, resp. rozptyl (ktoré možno vyčísliť práve len pre kardinálne premenné). Ďalej

musí byť splnená aj podmienka normality rozdelenia sledovanej premennej. Ak táto podmienka nie je

splnená, použitie parametrických testov nie je vhodné → mali by sme použiť (aj pri kardinálnych

premenných) neparametrické testovacie postupy.

Neparametrické testy sú teda nezávislé od typu rozdelenia premennej: možno ich použiť aj ak kardinálna

premenná nemá normálne rozdelenie, ako aj v prípade, že testujeme potenciálne medziskupinové rozdiely

v ordinálnej premennej. Do vzorca pre výpočet testovacej štatistiky tu najčastejšie vstupujú poradia (buď

priamo ako úrovne ordinálnej/poradovej premennej, alebo – v prípade kardinálnej premennej – ako poradia,

ktoré možno priradiť hodnotám, ktoré táto premenná nadobúda).

Pre neparametrické postupy je v porovnaní s parametrickými charakteristická menšia sila testu. S ich

použitím je spojené väčšie riziko, že nezamietneme nulovú hypotézu napriek tomu, že je nesprávna (t. j. sú

menej citlivé voči odchýlkam našich údajov od nulovej hypotézy); ide o vyššie spomínané riziko chyby 2.

druhu (β). Ak teda testujeme potenciálne medziskupinové rozdiely v kardinálnej premennej,

uprednostňujeme – ak je to možné (ak je splnená podmienka normality rozdelenia) – parametrické postupy,

pretože sú takpovediac „silnejšie“.

Page 11: Statistika 2.Cast

Základné kroky pri testovaní hypotéz

1. formulácia H0 a H1

H0 je zvyčajne predpoklad o neexistencii rozdielu (rozdiel je nulový, resp. rozdiel je zanedbateľný, je len

čisto náhodný → preto: nulová hypotéza).

H1 je alternatíva voči H0, t. j. je to predpoklad o existencii rozdielu. Ak je formulovaná len ako

predpoklad o existencie nešpecifického rozdielu (teda v zmysle že prvý parameter sa nerovná druhému

parametru), hovoríme o obojstrannej alternatíve /obojstranne formulovanej alternatívnej hypotéze/ →

nezáleží na tom, či je rozdiel v zmysle „je väčší než“ alebo v zmysle „je menší než“; zahŕňa obe tieto

„strany“. Ak je formulovaná ako predpoklad o existencie špecifického rozdielu (teda v zmysle že prvý

parameter je väčší /menší/ než druhý parameter), hovoríme o jednostrannej alternatíve /jednostranne

formulovanej alternatívnej hypotéze/ → tu už ide o to, aby bol rozdiel práve v zmysle „je väčší než“ /„je

menší než“/; jednostranná alternatíva pripúšťa rozdiel len do jednej zo „strán“.

Výskumníkovi väčšinou „ide“ o zamietnutie nulovej hypotézy v prospech alternatívnej hypotézy („chce“

uprednostniť predpoklad o existencii medziskupinového rozdielu v nejakej premennej pred predpokladom

o jeho neexistencii), hoci sú, samozrejme, situácie keď toto neplatí (takouto výnimkou je napr. overovanie

predpokladu o normalite rozdelenia premennej – tu by výskumník „radšej uprednostnil“ predpoklad

o neexistencii rozdielu medzi skúmaným rozdelením a normálnym rozdelením premennej).

2. zvolenie prijateľnej miery rizika chyby 1. druhu, t. j. hladiny významnosti (α)

Práve preto, že výskumníkovi väčšinou „ide“ o zamietnutie nulovej hypotézy, mal by si mieru rizika

chyby 1. druhu (t. j. rizika zamietnutia nulovej hypotézy napriek tomu, že je správna) voliť čo najmenšiu.

Štandardne sa vo vedách o človeku používajú dve základné úrovne miery tohto rizika: 5-percentná (t. j. α =

0,05) a 1-percentná (t. j. α = 0,01). Pomocou štatistického softvéru možno mieru rizika chyby 1. druhu pre

konkrétny štatistický test a konkrétne údaje vyčísliť veľmi presne (označuje sa ako p-hodnota, „significance“

– významnosť, resp. „probability“, t. j. pravdepodobnosť chyby 1. druhu), táto sa potom porovnáva so

zvolenou α (t. j. s mierou rizika, ktoré je ešte výskumník ochotný pripustiť).

3. výpočet testovacej štatistiky (testovacieho kritéria)

Testovaciu štatistiku počítanú podľa príslušného vzorca pre ten-ktorý test (ako bola napr. aj štatistika χ2

pre χ2-test nezávislosti v časti o analýze súvislosti nominálnych premenných) možno chápať ako mieru

nezlučiteľnosti údajov získaných na našom výberovom súbore s nulovou hypotézou (čím vyššia je jej

absolútna hodnota, tým skôr môžeme H0 považovať za nesprávnu). Je teda základným východiskom pre

úvahy o výslednom odporučení/neodporučení zamietnutia H0 v prospech H1.

Ak počítame testovaciu štatistiku (t.š.) „ručne“ podľa príslušného vzorca, treba ju následne porovnať

s tabuľkovou kritickou hodnotou daných štatistík (t.š.krit.) berúc do úvahy zvolenú hladinu významnosti

a rozsah nášho konkrétneho súboru (ten sa premietne do tzv. stupňov voľnosti označovaných symbolom υ).

Ak platí, že t.š. > t.š.krit., možno predpokladať nesprávnosť nulovej hypotézy o neexistencii rozdielu (teda sa

Page 12: Statistika 2.Cast

dá predpokladať, že rozdiel existuje). V opačnom prípade (t.š. < t.š.krit) zostávame pri predpoklade

o platnosti H0 (teda že rozdiel neexistuje).

Ak testujeme štatistickú hypotézu pomocou štatistického softvéru, program nám „vyhodí“ testovaciu

štatistiku už prevedenú do „pravdepodobnostnej miery“ (t. j. vyčísli nám hneď rovno

pravdepodobnosť/riziko toho, že by sme sa pri zamietnutí H0 dopustili omylu; ide vlastne o chybu 1. druhu

v danom konkrétnom prípade testovania). Takto vyjadrená testovacia štatistika sa zvykne nazývať p-hodnota

(ako už bolo vyššie naznačené) a býva označovaná písmenom p. Samotný proces testovania je však založený

na tom istom princípe, ako porovnávanie testovacích štatistík s tabuľkovými kritickými hodnotami (program

taktiež „niekde v pozadí“ – „sám pre seba“ počíta testovaciu štatistiku, nám ju však rovno vyjadrí ako riziko

chyby 1. druhu pri našom konkrétnom rozsahu výberu), pričom však máme situáciu uľahčenú: nemusíme

totiž porovnávať testovaciu štatistiku v kritickou hodnotou prácne vyhľadanou v tabuľke kritických hodnôt,

ale stačí nám posúdiť vyčíslené riziko chyby 1. druhu (teda riziko neadekvátneho zamietnutia H0). Toto

posudzujeme tak, že ho porovnáme s nami zvolenou hladinou významnosti α (teda mierou rizika omylu,

ktorú sme ako výskumníci ešte ochotní pripustiť). Ak je pravdepodobnosť chyby 1. druhu (t. j. riziko

zamietnutia H0, aj keď je správna) v našom konkrétnom prípade veľmi malá (menšia ako 0,05), resp. úplne

mizivá (menšia ako 0,01), môžeme odporučiť zamietnutie H0 v prospech H1. Porovnávame teda softvérom

vyčíslenú p-hodnotu s nami zvolenou α, a ak platí: p < α, možno kľudne (s nepatrným rizikom omylu)

predpokladať nesprávnosť nulovej hypotézy o neexistencii rozdielu (a teda predpokladať, že rozdiel existuje).

V opačnom prípade (p > α) musíme však zostať pri predpoklade o platnosti H0 (teda že rozdiel neexistuje),

lebo riziko, že sa pomýlime a zamietneme správnu nulovú hypotézu je pre nás príliš vysoké.

4. interpretácia výsledku (odporučenie vo vzťahu k H0)

Postup pri interpretácii výsledkov štatistického testovania bol vlastne naznačený už v predchádzajúcom

kroku → či H0 zamietneme v prospech H1 alebo nie, závisí od výsledku porovnania hodnoty testovacej

štatistiky s kritickou hodnotou, resp. porovnania p-hodnoty s hladinou významnosti α. Ak nám hodnota

testovacej štatistiky (resp. p-hodnota) umožní H0 zamietnuť na zvolenej hladine významnosti α = 0,05 (t. j. p

je už menšie ako 0,05, ale ešte väčšie ako 0,01), možno tento výsledok označiť ako štatisticky významný

(resp. signifikantný). Ak nám hodnota testovacej štatistiky (resp. p-hodnota) umožní H0 zamietnuť na

zvolenej hladine významnosti α = 0,01 (t. j. p je už menšie aj ako 0,01), možno tento výsledok označiť ako

štatisticky vysoko významný (resp. vysoko signifikantný).

Treba si však uvedomiť, že štatistická významnosť nevypovedá vôbec nič o vedeckej alebo praktickej

dôležitosti výsledku testovania, resp. nášho výskumu → vzťahuje sa len k samotnému procesu štatistického

testovania, nie k nášmu konkrétnemu výskumnému problému (t. j. aj keď výsledok štatistického testovania

interpretujeme ako vysoko signifikantný, neznamená to ešte, že sme „vyskúmali“ niečo prevratné).

Vyjadrenia o výsledkoch štatistického testovania by nikdy nemali mať formu „silných tvrdení“ typu:

„štatisticky sme potvrdili platnosť teórie“, „hypotézu sme dokázali“ a pod., vhodnejšie je voliť skôr

„opatrnejšiu“ formuláciu v zmysle „na základe štatistického testovania možno predpokladať, že...“,

Page 13: Statistika 2.Cast

„štatistická analýza našich údajov podporuje predpoklad o...“, „danú hypotézu možno po štatistickom

testovaní akceptovať“ a pod.

Testovanie rozdielov v parametroch

(testy významnosti rozdielov v parametroch)

Prehľad o testoch významnosti rozdielov v parametroch (ako sú napr. priemer, rozptyl) si možno utvoriť

na základe nasledujúceho rozdelenia testov podľa testových situácií. Ďalej budú podrobnejšie popísané len

parametrické testovacie postupy, ničmenej základný princíp testovania je analogický aj u neparametrických

testov.

I. Testovanie rozdielov medzi dvoma skupinami

1. testovanie významnosti rozdielov medzi dvoma rozptylmi: parametrický F-test

2. testovanie významnosti rozdielov medzi dvoma priemermi:

a/ parametrický t-test pre dva nezávislé výbery (Studentov t-test) / neparametrický Mannov-

Whitneyov U-test (resp. Wilcoxonov dvojvýberový test)

b/ parametrický párový t-test (t-test pre závislé výbery) / neparametrický Wilcoxonov

jednovýberový test

II. Testovanie rozdielov medzi viacerými skupinami → testovanie významnosti rozdielov medzi

viacerými priemermi: parametrická ANOVA (analýza rozptylu) / neparametrický Kruskalov-Wallisov

test

Parametrické testy

F-test

Ak máme dva výberové súbory a chceme porovnať rozptyly sledovanej normálne rozdelenej kardinálnej

premennej v týchto výberoch (t. j. či ich možno pokladať za zhruba rovnaké alebo nie), vhodným

štatistickým testom je F-test. Nulovú hypotézu H0 v rámci tohto testovania symbolicky vyjadrujeme

nasledovne:

H0: σ1² = σ2² (teda: rozdiel medzi prvým a druhým rozptylom je nulový, resp. rozdiel je nevýznamný, len

čisto náhodný).

Alternatívna hypotéza má zväčša formu obojstrannej alternatívy, teda:

H1: σ1² nerovná sa σ2² (teda: medzi rozptylmi existuje nenáhodný rozdiel; nie sú rovnaké).

(pre zaujímavosť: vzorec pre výpočet testovacej štatistiky má tvar: F = ²²

2

1

ss

, kde s1² je rozptyl prvého

výberového súboru a s2² je rozptyl druhého výberového súboru; do čitateľa zlomku treba dať väčší z oboch

rozptylov).

Page 14: Statistika 2.Cast

Ak je vypočítaná hodnota F-štatistiky väčšia ako kritická tabuľková∗ F-hodnota, t. j. F > Fkrit., resp. ak je

softvérom vyčíslená p-hodnota menšia ako nami zvolená hladina významnosti α, t. j. p < α, zamietam nulovú

hypotézu H0 o neexistencii rozdielu medzi rozptylom prvého a rozptylom druhého výberu v prospech

alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi sledovanými rozptylmi.

∗ v tabuľkách vyhľadáme kritickú F-hodnotu pre 2

α , pretože alternatívnu hypotézu máme sformulovanú

ako obojstrannú alternatívu (t. j. ak sme si ako výskumníci zvolili hladinu významnosti napr. α = 0,05,

kritickú F-hodnotu hľadáme v tabuľkách tzv. F-rozdelenia pre α = 0,025); ďalej treba zobrať do úvahy aj

rozsahy našich dvoch výberových súborov (n1 a n2), ktoré sa premietnu do tzv. stupňov voľnosti

označovaných symbolom υ /„ný“/, pričom υ1 = n1 – 1 a υ2 = n2 – 1 (kritickú hodnotu hľadáme teda aj pre

príslušné stupne voľnosti)

T-testy

Ak máme dva výberové súbory (prípadne jeden a ten istý výberový súbor, ale premennú sledujeme

a „meriame“ za odlišných okolností či s určitým časovým posunom) a chceme porovnať aritmetické priemery

sledovanej normálne rozdelenej kardinálnej premennej v týchto výberoch (t. j. či ich možno pokladať za

zhruba rovnaké alebo nie), použijeme niektorý z t-testov. Ako už bolo naznačené existuje viacero modifikácií

t-testov → vhodnú modifikáciu (vhodný „druh“) t-testu si výskumník volí podľa testovacej situácie.

V prvom prípade môže byť táto situácia taká, že máme jednoducho dva nezávislé výberové súbory, ktoré

sa nijak navzájom neovplyvňujú, nepôsobia na seba (z hľadiska hodnôt sledovanej premennej v týchto

súboroch): napr. súbor chlapcov a súbor dievčat. Vtedy je vhodným testovacím nástrojom (ako už samotný

jeho názov naznačuje) tzv. t-test pre dva nezávislé výbery. Aj pre takúto situáciu však ešte existujú dve

modifikácie t-testu pre dva nezávislé výbery, a to: t-test pre dva nezávislé výbery s rovnakým rozptylom*

: t-test pre dva nezávislé výbery s nerovnakým rozptylom*

* zisťujeme to F-testom

V druhom prípade môže byť testovacia situácia taká, že máme v podstate len jeden jediný výberový

súbor, v ktorom kardinálnu premennú sledujeme a „meriame“ za odlišných okolností či s určitým časovým

posunom; táto premenná je vlastne zisťovaná dvakrát. Hodnoty premennej získané v rámci týchto dvoch

meraní sú teda „spárované“, tvoria usporiadané dvojice (u jedného probanda „nameriame“ dve hodnoty tej

istej premennej). Testuje sa tak vlastne rozdiel nie medzi dvoma výbermi, ale medzi dvoma situáciami: napr.

rozdiel v premennej, ktorej hodnoty boli „namerané“ jednak v situácii pred nejakým experimentálnym

zásahom a jednak v situácii po ňom, alebo – jednoducho – hodnoty boli „namerané“ napr. ráno a večer.

Vtedy je vhodným testovacím nástrojom tzv. párový t-test (niekedy sa označuje aj ako t-test pre dva závislé

výbery).

Nulovú hypotézu H0 v rámci tohto testovania (bez ohľadu na to, o ktorú modifikáciu t-testu ide)

symbolicky vyjadrujeme nasledovne:

Page 15: Statistika 2.Cast

H0: AP1 = AP2 (teda: rozdiel medzi prvým a druhým priemerom je nulový, resp. rozdiel je nevýznamný,

len čisto náhodný).

Alternatívna hypotéza môže mať formu obojstrannej alternatívy alebo aj jednostranných alternatív, teda:

buď H1: AP1 nerovná sa AP2 (teda: medzi priemermi existuje nenáhodný rozdiel; nie sú rovnaké),

alebo H1: AP1 < AP2, resp. AP1 > AP2 (teda: prvý priemer je významne menší, resp. väčší ako druhý

priemer).

(pre zaujímavosť: vzorec pre výpočet testovacej štatistiky v rámci t-testu pre 2 výbery s rovnakým rozptylom

má tvar: t =

21

11

21

nnsnsn

.

.

APAP

²² 22.+

− , kde AP1 a AP2 sú výberové priemery, n1 je rozsah prvého výberového

súboru, n2 je rozsah druhého výberového súboru, s1² a s2² sú výberové rozptyly;

vzorce pre výpočet testovacej štatistiky v rámci t-testu pre 2 výbery s nerovnakým rozptylom a pre výpočet

testovacej štatistiky v rámci párového t-testu tu nie sú uvedené – v prípade záujmu ich možno nájsť

v odbornej štatistickej literatúre)

Ak je vypočítaná hodnota t-štatistiky väčšia ako kritická tabuľková∗ t-hodnota, t. j. t > tkrit., resp. ak je

softvérom vyčíslená p-hodnota menšia ako nami zvolená hladina významnosti α, t. j. p < α, zamietam nulovú

hypotézu H0 o neexistencii rozdielu medzi priemerom prvého a priemerom druhého výberu (resp. medzi

priemerom v prvej a priemerom v druhej situácii, ak ide o párový t-test) v prospech alternatívnej hypotézy H1

o existencii nenáhodného (významného) rozdielu medzi sledovanými priemermi.

∗ za účelom posúdenia hodnoty t-štatistiky vypočítanej v rámci t-testu pre dva výbery s rovnakým

rozptylom vyhľadáme v tabuľkách tzv. t-rozdelenia kritickú t-hodnotu pre 2

α , ak máme alternatívnu

hypotézu sformulovanú ako obojstrannú alternatívu, alebo pre α, ak máme alternatívnu hypotézu

sformulovanú ako jednostrannú alternatívu; taktiež treba zobrať do úvahy aj rozsahy našich dvoch výberov

(n1 a n2), ktoré sa spoločne premietnu do stupňov voľnosti υ, pričom υ = n1 – 1 + n2 – 1 (kritickú hodnotu

hľadáme teda pre túto jednu hodnotu stupňov voľnosti)

Analýza rozptylu (ANOVA – „analysis of variance“)

Ak máme viacero (tri a viac) výberových súborov /skupín/ a chceme porovnať aritmetické priemery

sledovanej normálne rozdelenej kardinálnej premennej v týchto výberoch (t. j. či ich možno pokladať za

zhruba rovnaké alebo nie), použijeme jednoduchú analýzu rozptylu (tzv. „one-way anova“ –

jednovchodová analýza rozptylu: výberové súbory sú zostavené na základe jedného kritéria – napr. podľa

najvyššieho dosiahnutého vzdelania). Tento postup možno využiť aj na posúdenie závislosti medzi

nominálnou premennou (podľa jej foriem si zostavím skupiny) a kardinálnou premennou (ide vlastne o to

isté, ako je testovanie rozdielov v premennej medzi viacerými skupinami, len je to inak sformulovaný

problém). Existujú aj zložitejšie postupy analýzy rozptylu pre situácie, keď si výskumník zostavuje skupiny

Page 16: Statistika 2.Cast

na základe dvoch alebo viacerých kritérií (napr. vzdelania a zároveň aj pohlavia), vtedy hovoríme

o dvojvchodovej, resp. viacvchodovej analýze rozptylu.

Nulovú hypotézu H0 v rámci tohto testovania (pre k skupín) symbolicky vyjadrujeme nasledovne:

H0: AP1 = AP2 = AP3 = ... = APk (teda: rozdiely medzi priemermi sú nulové, resp. rozdiely je

nevýznamné, len čisto náhodné).

Alternatívna hypotéza H1 je potom predpokladom toho, že aspoň niektorá z dvojíc sledovaných priemerov

nie je rovnaká (existuje významný, nenáhodný rozdiel minimálne medzi niektorými dvoma výberovými

priemermi).

Prípadní záujemcovia o vzorec pre výpočet a spôsob posudzovanie testovacej štatistiky pre analýzu

rozptylu môžu siahnuť po odborne štatistickej literatúre.

Softvérom vyčíslená p-hodnota (p) v rámci analýzy rozptylu sa posudzuje analogicky ako pri vyššie

uvedených štatistických postupoch testovania hypotéz: ak je menšia ako nami zvolená hladina významnosti

α, t. j. p < α, zamietam nulovú hypotézu H0 o neexistencii rozdielu medzi výberovými priemermi v prospech

alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi aspoň dvoma zo

sledovaných výberových priemerov.

Testovanie rozdielov v rozdeleniach premennej

(testy významnosti rozdielov rozdelení)

Ak máme dva (resp. aj viaceré) výberové súbory /skupiny/ a chceme testovať významnosť rozdielu medzi

nimi v nejakej nominálnej premennej, musíme siahnuť po niektorom z testov rozdielov v rozdeleniach

početností premennej. Totiž jediné, čo môžeme pri tomto type premenných kvantifikovať (číselne vyjadriť)

sú čiastkové početnosti (či už absolútne alebo relatívne) jednotlivých foriem daných premenných; teda napr.

pri nominálnej premennej najvyššie ukončené vzdelanie môžeme číselne vyjadriť len to, koľko (resp. aký

podiel) probandov z nášho výskumného súboru dosiahlo základné, koľko stredoškolské a koľko

vysokoškolské vzdelanie (nakoľko ide o nominálnu premennú, nie je možné vypočítať priemer, rozptyl

a pod., ani zostaviť nejaký usporiadaný rad foriem tejto premennej a na základe pozícii týchto foriem im

priradiť zodpovedajúce poradia). V rámci tohto testovania robíme teda porovnanie dvoch (resp. viacerých)

rozdelení početností jednej nominálnej premennej u rôznych skupín (výberových súborov). Vhodným

štatistickým testom je v takomto prípade napr. χ2-test homogenity rozdelení (ide v podstate o ten istý test, s

ktorým sme sa stretli /pod názvom χ2-test nezávislosti/, keď sme overovali závislosť medzi nominálnymi

premennými, len tu je problém sformulovaný inak: overujeme existenciu rozdielu medzi skupinami, nie

závislosť dvoch premenných). Aj podmienky pre použitie χ2-testu homogenity sú analogické s podmienkami

pre použitie χ2-testu nezávislosti: aspoň 80% čiastkových očakávaných početností by malo byť väčších

ako 4 a ani jedna očakávaná početnosť nemôže nulová.

Nulovú hypotézu H0 v rámci tohto testovania môžeme sformulovať nasledovne:

H0: neexistuje rozdiel medzi zostavenými skupinami probandov v rozdelení (početností) premennej

(teda: premenná je v našich výberových súboroch rozdelená približne rovnako).

Page 17: Statistika 2.Cast

Alternatívna hypotéza H1 je potom predpokladom toho, že aspoň niektorá z dvojíc sledovaných

rozdelení premennej sa nenáhodne líši (t. j. existuje významný rozdiel minimálne medzi dvoma zo

sledovaných rozdelení početnosti našej premennej).

Testovaciu štatistiku χ2 v rámci tohto testu počítame podľa rovnakého vzorca ako v rámci χ2-testu

nezávislosti (pozri v časti o analýze súvislostí nominálnych premenných) a analogicky aj posudzujeme jej

hodnotu: ak je vypočítaná hodnota χ2-štatistiky väčšia ako kritická tabuľková∗ χ2-hodnota, t. j. χ2 > χ2krit.,

resp. ak je softvérom vyčíslená p-hodnota pri χ2-teste menšia ako nami zvolená hladina významnosti α, t. j. p

< α, zamietam nulovú hypotézu H0 o neexistencii rozdielu medzi výberovými rozdeleniami premennej

v prospech alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi aspoň dvomi

zo sledovaných výberových rozdelení početností premennej.

∗ v tabuľkách tzv. χ2-rozdelenia vyhľadáme kritickú χ2-hodnotu pre zvolenú hladinu významnosti α = 0,05

a príslušný počet stupňov voľnosti (υ), pričom υ = (r – 1) . (s – 1), kde r je počet skupín (výberových

súborov), ktoré porovnávam, a teda aj počet riadkov (bez „súčtových riadkov“) v kontingenčnej tabuľke a s

je počet foriem, ktoré nadobúda sledovaná nominálna premenná, a tým pádom aj počet stĺpcov

v kontingenčnej tabuľke.

Spomínaný χ2-test homogenity rozdelení spadá do nasledujúcej skupiny testov, ktoré bývajú súhrnne

označované ako testy zhody.

Testy zhody

Testami zhody sa vo všeobecnosti overuje, či existuje zhoda alebo nie medzi dvoma rozdeleniami

premennej.

V prvom rade môžeme skúmať, či existuje zhoda medzi dvoma empirickými (skutočne zistenými)

rozdeleniami premennej. Tu môžno (okrem iných) použiť vyššie popísaný χ2-test homogenity.

V druhom rade môžeme skúmať, či existuje zhoda sledovaného empirického rozdelenia premennej

s nejakým teoretickým modelom (teoretickým rozdelením). Do tejto kategórie spadajú i tzv. testy normality.

Testy normality rozdelenia

(normalitu testujem zväčša u kardinálnych premenných)

V prípade testovania normality (bez ohľadu na konkrétny test, ktorý použijeme) je nulová hypotéza

nasledovná:

H0: nie je významný rozdiel medzi naším (testovaným – empirickým) a normálnym rozdelením (tzn.

naša premenná má približne normálne rozdelenie).

Alternatívna hypotéza je potom: H1: rozdiel medzi empirickým rozdelením a normálnym rozdelením je

významný (tzn. naša premenná nemá normálne rozdelenie).

Page 18: Statistika 2.Cast

Pri testovaní normality „chce“ výskumník uprednostniť (nezamietnuť) H0 pred H1 (na rozdiel od

testovania hypotéz o rozdieloch), preto sa α volí minimálne 0,05 (resp. aj väčšiu – až do 0,2). Takáto voľba

hladiny významnosti má za cieľ nedopustiť príliš veľké riziko β (riziko, že nezamietneme nulovú hypotézu

napriek tomu, že je nesprávna): vyplýva to z toho, že medzi mierou rizika chyby 1. druhu a mierou rizika

chyby 2. druhu je vzťah nepriamej úmernosti (ak by sme teda zvolili veľmi malú α, mohlo by dôjsť

k nežiaducemu zvýšeniu rizika β.

K najčastejšie používaným testom normality vo vedách o človeku patria:

• Shapiro-Wilkov test normality (používa sa, ak n ≤ 50)

• Kolmogorovov-Smirnovov test normality (dá sa použiť aj pre ordinálne premenné, ale väčšinou sa

používa na testovanie normality kardinálnych premenných ako kritérium pre rozhodnutie o tom, či

použijem parametrický alebo neparametrický postup).

V rámci skúmania, či existuje zhoda empirického rozdelenia premennej s nejakým teoretickým modelom,

ak si teoretický model stanovujeme sami, možno opäť použiť χ2-test, ktorý tentoraz „vystupuje“ pod názvom

χ2-test dobrej zhody. Postup aj interpretácia získanej testovacej štatistiky, resp. p-hodnoty je opäť

analogický ako pri predchádzajúcich typoch χ2-testov (situácia je jednoduchšia o to, že si nemusíte podľa

vzorca vyčíslovať jednotlivé očakávané početnosti, tie vychádzajú z Vašich teoretických predpokladov). Aj

podmienky pre jeho použitie sú analogické: aspoň 80% čiastkových očakávaných početností by malo byť

väčších ako 4 a ani jedna očakávaná početnosť nemôže nulová + k tomuto sa ešte pridáva aj podmienka

o rozsahu nášho výberového súboru, ktorý by mal byť väčší ako 40: n > 40).

Pomocou χχχχ²-test dobrej zhody teda zisťujeme, či sa rozdelenie nominálnej premennej (t. j. čiastkové

početnosti jej foriem) líšia alebo nelíšia od nejakého teoretického predpokladu (napr. že formy premennej

nadobúdajú zhruba rovnaké čiastkové početnosti alebo že čiastkové početnosti foriem premennej sú v

nejakom konkrétnom pomere, ktorý si určíme sami).

Faktorová analýza

→ patrí medzi viacrozmerné štatistické postupy

Jednotlivé premenné (získané výskumom) nemusia byť navzájom nezávislé – t. j. niektoré sú vo

vzájomnom korelačnom vzťahu. Práve pomocou faktorovej analýzy možno v súbore premenných

identifikovať určité všeobecnejšie charakteristiky, ktoré vysvetľujú túto vzájomnú korelovanosť

niektorých premenných. Tieto zovšeobecňujúce charakteristiky identifikované faktorovou analýzou sa

zvyknú označovať pojmom faktory alebo pojmom dimenzie.

Faktorová analýza teda vychádza z existencie korelácií medzi sledovanými premennými (premennými

môžu byť napr. aj jednotlivé položky v jednorozmernom dotazníku, t. j. dotazníku zameranom na jednu

charakteristiku, vlastnosť, schopnosť človeka) a z predpokladu, že v rámci týchto premenných pôsobia

Page 19: Statistika 2.Cast

nezávislé faktory, ktoré prispievajú k realizácii daných korelácii. Jej základnou myšlienkou je redukcia

nadbytočných informácii obsiahnutých vo viacerých korelovaných premenných.

Faktory teda možno chápať ako latentné (skryté) matematicky zostrojiteľné všeobecné premenné,

ktoré vysvetľujú vlastnosti komplexu pôvodných premenných.

V procese faktorovej analýzy sa odhadujú tzv. faktorové záťaže (náboje, nasýtenia) jednotlivých

(pôvodných) premenných pre ten-ktorý vygenerovaný faktor. Faktorové záťaže sú vlastne vyjadrením

korelácií medzi jednotlivými premennými a získanými faktormi. Na základe hodnôt faktorových záťaží

možno teda pre každý faktor určiť skupinu premenných, ktoré s ním najtesnejšie korelujú. A naopak –

prostredníctvom faktorových záťaží sa priradí identifikovanému faktoru miera vplyvu na každú z

jednotlivých premenných. Premenné s najvyššími faktorovými záťažami pre ten-ktorý faktor sú smerodajné

aj pri interpretácii tohto faktora.

Ďalšou úlohou faktorovej analýzy je odhad faktorového skóre t. j. hodnoty, ktorú nadobúda ten-ktorý

identifikovaný faktor u jednotlivca (objektu výskumného súboru). Ide o skóre celého faktoru (t. j. viacerých

pôvodných premenných spoločne). S faktormi takto kvantifikovanými prostredníctvom faktorových skóre

možno pracovať v ďalšej štatistickej analýze namiesto početnejších pôvodných premenných.

Faktory možno zo súboru pôvodných premenných extrahovať viacerými metódami (metódu hlavných

komponentov, metóda základných osí atď.). Jednoznačne odporučiť sa žiadna z nich nedá, treba heuristicky

odskúšať viaceré a následne zvážiť, ktorá mi poskytla najzmysluplnejšie faktorové riešenie. Počet faktorov

môže ale nemusí byť dopredu známy (samotné údaje umožňujú ich adekvátny počet odvodiť v procese

analýzy).

Rotácia faktorov

Stáva sa, že vyextrahované faktory (slabo) korelujú s väčším počtom pôvodných premenných, čo

prakticky znemožňuje ich interpretáciu. Tento problém možno riešiť tzv. rotáciou faktorov. Ide o takú

transformáciu získaných faktorov (faktory si možno predstaviť geometricky ako osi pravouhlého

súradnicového systému), aby boli pôvodné premenné faktorovo čo najčistejšie (geometricky – čo najbližšie

k osiam predstavujúcim naše faktory). Ideálnym výsledkom takejto rotácie (pootočenia súradnicového

systému s faktormi ako osami) je, že každý faktor relatívne vysoko koreluje s malým počtom pôvodných

premenných, čo umožňuje lepšiu interpretáciu faktorov. Nerotované faktorové riešenie teda slúži k získaniu

počiatočného počtu faktorov; následnou rotáciou možno získanú faktorovú štruktúru sprehľadniť.

Existuje niekoľko rotačných techník, ktoré sú zo štatistického pohľadu rovnako dobré. Odporúča sa

použiť ten spôsob, ktorý poskytuje najjednoduchšie interpretovateľné výsledky. Snáď najčastejšie

používanou rotačnou metódou je metóda varimax (rozptyl maximalizujúca rotácia) minimalizujúca počet

premenných, ktoré vysoko korelujú s jednotlivými dimenziami. Rotačná metóda quartimax zase

minimalizuje počet faktorov potrebných na vysvetlenie každej premennej. Equamax je rotačnou metódou,

Page 20: Statistika 2.Cast

ktorá kombinuje predchádzajúce dve, t. j. minimalizuje tak počet premenných vysokokorelovaných s jedným

faktorom, ako aj počet faktorov potrebných na vysvetlenie premennej.

Po vytvorení faktorového riešenia úlohy je vhodné získané faktorové dimenzie popísať a

pomenovať.

Pre ilustráciu použitia FA je ďalej uvedený ako príklad výsledok faktorovej analýzy motivátorov

v nemenovanej akciovej spoločnosti (ide o výsledok spracovania údajov zo skutočného výskumu

uskutočneného v rámci diplomovej práce autorky učebných textov).

Jednotlivé motivátory boli u zamestnancov tejto spoločnosti zisťované prostredníctvom dotazníka:

úlohou probandov bolo prosto uviesť, či má na neho ten-ktorý z ponúknutých motivátorov motivačný účinok

alebo nie (odpovediam „áno“ bolo priradené skóre 1 a odpovediam „nie“ skóre 0). Nasledujúca tabuľka

zachytáva faktorové záťaže jednotlivých motivátorov pre každý z vyextrahovaných faktorov (pozn. faktory

boli pomenované dodatočne – nie je to výsledok FA). Všimnite si, že len motivátory s vysokými absolútnymi

hodnotami faktorových záťaží (u toho-ktorého faktora) možno považovať za premenné „sýtiace“ ten-ktorý

faktor. Za tabuľkou je uvedený stručný slovný popis získaných faktorov.

Tabuľka faktorových záťaží motivátorov vo faktoroch vyextrahovaných pomocou FA

motivátory (pôvodné premenné)

f. ambicióz-nosti

f. opierania sa o autoritu

f. orientácie na výkon

f. finanč. ohodnotenia

f. motivač. stretnutí

1 - jasné ciele 0,724 0,192 -0,161 0,201 0,120 2 - motivačné stretnutia 0,024 0,186 0,137 0,259 0,652 3 - ocenenie výsledkov n. 0,199 0,770 0,267 -0,052 -0,001 4 - spätná väzba 0,210 0,456 0,678 0,067 -0,180 5 - záujem nadriadeného 0,030 0,763 -0,087 0,086 0,198 6 - finančné odmeňovanie 0,222 0,063 0,201 0,744 -0,045 7 - objektívnosť nadriaden. 0,028 0,642 0,308 0,440 -0,141 8 - obava zo sankcií -0,210 -0,050 0,596 0,232 0,369 9 - osobnosť nadriadeného 0,224 0,544 -0,060 0,335 -0,110 10 - vzdelávanie, rozvoj 0,779 -0,076 0,184 -0,063 -0,163 11 - pracovný postup 0,776 0,334 -0,023 -0,074 0,072 12 - nárast mzdy -0,167 0,062 0,053 0,675 0,101 13 - benefity -0,201 0,170 0,075 0,319 -0,693 14 - účasť na rozhodovaní 0,808 0,123 0,005 0,004 0,247 15 - dôsledky chýb 0,002 -0,024 0,846 0,093 0,040 variabilita vysvetlená faktorovou dimenziou

17,9% 15,6% 12,3% 10,7% 8,4%

Prvý faktor by sme mohli interpretovať ako faktor ambicióznosti prejavujúcej sa v záujme

o spoluúčasť na rozhodovaní a o pracovný postup. S tým súvisí aj motivovateľnosť možnosťou vzdelávania

či osobného rozvoja a – do istej miery – aj jasne stanovenými cieľmi.

Druhý faktor sme pomenovali ako faktor opierania sa o autoritu. Je sýtený takými motivátormi, ako sú

ocenenie výsledkov nadriadeným, osobný záujem, osobnosť a objektívnosť nadriadeného.

Tretí faktor charakterizuje najmä tzv. negatívna motivácia (dôsledky prípadných chýb, obava zo

sankcií). Keďže najväčší náboj v nej má motivátor uvedomovanie si dôsledkov prípadných chýb

Page 21: Statistika 2.Cast

a nedostatkov, ktorý má jasný súvis s potrebou podávania čo najlepšieho výkonu a istou uvedomelosťou

vzťahujúcou sa na svoju prácu, označujeme ho ako faktor orientácie na výkon. S tým korešponduje aj ďalší

motivátor výrazný v rámci tohto faktora – spätná väzba o podávaných výkonoch.

Štvrtý faktor – pomenovaný ako faktor finančného ohodnotenia – je sýtený motivátormi finančné

odmeňovanie dosiahnutých cieľov a nárast mzdy.

Piaty faktor sme nazvali faktorom motivačných stretnutí podľa jediného motivátora, ktorý ho kladne

sýti, a tým sú kolektívne motivačné stretnutia. Treba podotknúť, že do tohto faktora sa premietol aj motivátor

poskytovanie benefitov, ale ako svoj opačný pól – tzn. nezáujem o benefity (zamestnanecké výhody).