Pojmy

 

Náhodné veličiny

Za náhodné veličiny označujeme proměnné, u kterých nejsme schopni určit hodnotu. Opačně, proměnné, u kterých hodnotu známe nebo je daná, označujeme za nenáhodné.

Typy proměnných

Při statistické analýze potřebujeme u každé proměnné určit její typ. Můžeme se setkat s několika způsoby klasifikace proměnných, v našem textu popisujeme přístup, který za hlavní kritérium považuje typy vztahů mezi hodnotami. Podle Řezánkové a kol. (2001) u tohoto hlediska rozlišujeme proměnné:

  • Nominální. Hodnotou je číslo nebo text. U těchto proměnných můžeme provádět jen rozdělení četností, případně operaci porovnání. Příklad: student absolvoval motorický test „běh na 50 m“ s výkonem 7,4 s a motorický test „leh-sed s výsledkem 50 opakování za minutu. Číselné hodnoty 7,4 a 50 určují jen odlišné výsledků motorických testů, nic jiného se vyčíst nedá
  • Ordinální znaky umožňuje provádět srovnání a tím určit pořadí. V případě textových proměnných je nutné tyto převést na čísla. Příklad: v dotaznících vyjadřujeme míru souhlasu s daným tvrzením. Svou kondicí hodnotím jako: vynikající – velmi dobrou – dobrou – slabou – špatnou. Výroky respondentů můžeme určit pořadí, jak který respondent souhlasí s tvrzením. Však netvrdíme, že rozdíl mezi odpověďmi vynikající a velmi dobrou je stejný jako mezi slabou a špatnou.
  • Intervalové kromě porovnání můžeme provádět operaci součtu a rozdílu. Příklad: výška a hmotnost jedince. Naměříme-li u batolete výšku v cm po čtyřech měsících hodnoty 60, 62, 64, 66, znamená to, že každým měsícem dítě vyrostlo o 2 cm.
  • Poměrové znaky umožňují interpretovat kromě operace rovnosti, uspořádání a rozdílu ještě operace podílu a součinu. Příklad: zaběhne-li atlet 100 m za 11 s a druhý atlet za 22 s, je možné pro­hlásit, že první je dvakrát rychlejší než druhý.

Nominální a ordinální proměnné jsou souhrnně označovány jako kvalitativní; intervalové a poměrové proměnné jsou souhrnně označovány jako kvantitativní (numerické, kardinální). Kvantitativní proměnné můžeme podle jiného hlediska dělit na

  • diskrétní, které nabývají pouze celočíselných obměn (počet permanentek do posilovny), a
  • spojité (metrické), jež mohou nabývat libovolných hodnot z určitého intervalu (věk respondenta, výkon ve vrhu koulí).

Nominální, ordinální a kvantitativní diskrétní proměnné můžeme souhrnně označit jako kategoriální (obměny těchto proměnných nazýváme kategoriemi).

Důležitá jsou primární data, každou transformací původních dat do skupin, kategorií, intervalů ztrácíme informace v nich obsažené. Pro statistickou analýzu jsou původní data nejvhodnější.

Členění datové matice ze provést zejména horizontálně. Rozčlenění souboru do skupin je někdy dáno a cílem je porovnání skupin (analýza rozptylu), jindy je hledání rozčleněné samotným cílem analýzy (shluková analýza). Data budeme předkládat ve formě datové matice typu n ´ p, kde řádky reprezentují případy, objekty, testované osoby. Sloupce představují proměnné, tedy jednotlivé zkoumané vlastnosti.

Odhady a testy hypotéz

Statistická hypotéza je předpoklad o hodnotě neznámého parametru nebo o zákonu rozdělení sledované veličiny. Statistické hypotézy jsou tedy domněnky o populaci, jejichž pravdivost lze ověřovat prostřednictvím statistických testů.

Hypotézu, jejíž platnost ověřujeme, nazýváme testovanou (nulovou) hypotézou a značíme ji H (H0). Proti testované hypotéze stanovíme alternativní hypotézu A (H1), která hypotézu H popírá. Testování sledované hypotézy H proti alternativní hypotéze A je postup, podle něhož na základě náhodného výběru rozhodneme mezi dvěma tvrzeními – sledovanou hypotézou H a alternativní hypotézou A. Testové kritériem je statistika T(X), jejíž rozdělení známe. Testy (výběrové statistiky) jsou náhodné veličiny (funkce náhodného výběru), pomocí kterých na základě výsledků z náhodného výběru rozhodneme, zda má být ověřovaná hypotéza zamítnuta či nikoliv.

Kritický obor Wa, je interval, který je ohraničený tzv. kritickými hodnotami, což jsou kvantily rozdělení příslušného testového kritéria. Kritický obor Wa tvoří doplněk k 100 (1-α) %-nímu intervalu spolehlivosti. Jestliže hodnota testové statistiky T(X) ∈ Wa, potom hypotézu H zamítáme (Seberová, Sebera, 1999).

Výsledkem testování je buď zamítnutí hypotézy H ve prospěch alternativy A či nezamítnutí hypotézy H. Skutečnost, že hypotézu H nezamítáme, neznamená že naměřená data tuto hypotézu potvrzují, ale pouze to, že ji nevyvracejí.

Číslo a se nazývá hladina statistické významnosti testu. Hladina statistické významnosti a tedy určuje pravděpodobnost, že testovací charakteristika padne mimo obor přijetí. Obvykle nabývá hodnot od 0,001 do 0,15 v závislosti na povaze zkoumaného problému (tedy nemusí to být jen hodnota 0,05, jak je v mnoha učebních textech doporučováno).

Při testování hypotéz se můžeme dopustit chyby dvěma způsoby: Buď zamítneme hypotézu, která platí – to je chyba prvního druhu a - nebo naopak tuto hypotézu nezamítneme, i když je nesprávná – v tomto případě se jedná o chybu druhého druhu b.

Mezi základní nedostatky statistické významnosti patří:

  • použití je možné jen v případě reprezentativního vzorku pomocí náhodného výběru.
  • závislost a na počtu pozorování (měření, respondentů)
  • statisticky významné neznamená důležité

Tab. 1 Možné výsledky testování hypotézy

Skutečnost

Rozhodnutí

nezamítáme H

zamítáme H

Hypotéza H platí

správné rozhodnutí
pravděpodobnost = 1-α

chyba I. druhu
pravděpodobnost = α

Platí alternativa A

chyba II. druhu
pravděpodobnost = β

správné rozhodnutí
pravděpodobnost = 1-β
(síla testu)

  • Jestliže snížíme α, zvýší se β
  • Snížení chyby II. druhu bez toho abychom ovlivnili chybu I. druhu je možné pouze zvýšením rozsahu výběru.

Věcná významnost

  • „selský rozum“, neboli logické stanovení např. rozdílu, který budeme považovat vzhledem k povaze problému za významný. Úsudek vychází z předchozích zkušeností, ale i z chyb měření
  • používání nestatistického hodnocení velikosti rozdílu či vztahu ve výzkumných výsledcích, tzv. „size of effect“, zvláště pomocí tzv. koeficientu h2 (eta2) jakožto podílu, resp. procenta vysvětleného rozptylu (např. u ANOVY). h2 = SSb / SST, kde SSb je meziskupinový součet čtverců a SST je celkový součet čtverců
  • Např. ke kvantifikování velikosti účinku, tj. k hodnocení věcné významnosti je možné použít Cohenův koeficient účinku d. Jednou z hlavních výhod koeficientu je jeho nezávislost na rozsahu výběru. Platí pro něj konvenční hodnoty, jež usnadňují rozhodnutí, kdy lze hovořit o velkém efektu. Pokud je d větší než 0,8, je efekt velký; pro d z intervalu 0,5 – 0,8 je efekt střední; efekt pod hodnotou 0,2 lze považovat za malý.

Tab. 2 Možné výsledky při srovnání statistické a věcné testování hypotézy

 

věcná

statistická

ano

ne

ano

jednoznačné potvrzení

spíše nepřijmout,
výsledek může být ovlivněn
velkým výběrem souboru dat

ne

spíše nepřijmout,
výsledek je neprůkazný,
může být náhodným jevem

jednoznačné potvrzení

Postup při práci s hypotézami by měl vypadat následovně: 1. nejprve zhodnotit věcnou významnost jak absolutně (v jednotkách měření), tak i relativně k podílu vlivu ostatních faktorů (např. pomocí w2), a jen jde-li o randomizovaný výzkum pak 2. použít statistickou významnost a jakožto riziko zobecnění.

Testování statistické významnosti pak probíhá tak, že vypočítáme hodnotu testové statistiky, porovnáme ji s kritickými hodnotami (kvantily), odpovídajícími hladině významnosti a, a rozhodneme o zamítnutí či nezamítnutí hypotézy H. Při testování pomocí statistických programů se používá jiný postup: Spočte se hodnota testové statistiky a k ní nejmenší kritický obor, při kterém bychom ještě mohli na základě této hodnoty zamítnout hypotézu H0 proti dané alternativě. Hladina významnosti, odpovídající tomuto kritickému oboru, se nazývá minimální hladina významnosti (p-hodnota). Pokud je p > a, pak hypotézu H0 nezamítáme.V opačném případu, kdy p £ a, pak hypotézu H0 zamítáme.

Problémy ověřování normality

Předpoklad normality je často vyžadován pro použití většiny statistických metod. U vícerozměrných statistik se jedná o vícerozměrné normální rozdělení sledovaných proměnných, jehož lze (někdy) dosáhnout v případě nesplnění transformací dat, resp. je možnost použít neparametrické metody. K ověření normality lze použít grafické posouzení nebo testy: chí-kvadrát dobré shody, Kolmogorov-Smirnovov a Shapiro-Wilksův test. Tyto testy jsou neparametrické.

  • Chí-kvadrát test dobré shody je založen na srovnání očekávaných a skutečných četností ve třídách.
  • U Kolmogorov-Smirnovova testu je testovým kritériem maximální rozdíl mezi předpo­kládanou (teoretickou) plně specifikovanou distribuční funkcí a výběrovou (empirickou) distribuční funkcí, jejichž, hodnoty určujeme jako kumulativní relativní četnosti ve výběru.
  • Shapiro-Wilkův test porovnává naměřené hodnoty s kvantily normovaného normálního rozdělení pro pravděpodobnosti výběro­vé distribuční funkce. Ve srovnání v testem K-S má větší sílu neboli menší pravděpodobnost chyby II. druhu.
  • Grafické posouzení jednorozměrné normality. Lze použít u max. závislosti 2 proměnných, při větším počtu proměnných jsou grafy již hůře zobrazitelné a hůře interpretovatelné
  1. Histogram rozdělení četností, který by se v ideálním případě blížil Gaussově křivce.
  2. Q-Q diagram, kde se na ose vynášejí kvantily sledované funkce s kvantily normálního rozdělení

Výhodou grafického posouzení je přesnější určení důvodů porušení normality (několik odlehlých hodnot, resp. rozdělení je opravdu zcela odlišné od normálního).

Q-Q diagramy pro normální rozdělení umožňují posoudit více než jen optické posouzení normality a existenci odlehlých pozorování. Průběh bodů indikuje i odchylky od předpokládané šikmosti a špičatosti: Průběh:

  1. konkávní ukazuje kladnou šikmost s větší variabilitou vyšších hodnot,
  2. konvexní ukazuje zápornou šikmost s větší variabilitou nižších hodnot,
  3. konkávně konvexní naznačuje rozdělení s dlouhými konci, menší špičatost.
  4. konvexně konkávní naznačuje rozdělení s krátkými konci, větší špičatost.

Obr. 1 Vztah histogramu a Q-Q grafu pro různá narušení normality
a) kladné sešikmení, b) záporné sešikmení. c) nižší špičatost, d) vyšší špičatost
(Hebák a kol., Vícerozměrné statistické metody 1, s. 104)

Transformace

Jak bylo uvedeno výše, jednou z možností, jak si pomocí, pokud data nesplňují podmínku normality, je provést transformaci na rozdělení normální nebo jemu blízké. Je zřejmé, že půjde o nelineární transformaci, neboť lineární transformace by zachovala pů­vodní tvar rozdělení. Použitelné algoritmy jsou:

a) odmocninová transformace t = √x, mají-li data charakter četností

b) logitová transformace , jde-li o podíly (relativní četnosti)

c) logaritmická transformace t = ln x, mají-li data charakter logaritmicko-normálnímu rozdělení

V mnoha případech výše uvedené transformace nepomohou a musí se vyzkoušet náročnější způsoby. Např. Boxův-Coxův systém transformací nebo plošnou (nelineární) transformací.

Vícerozměrné normální rozdělení

Mnoho statistických metod vyžaduje splnění podmínka normality, přesněji sledované proměnné musí splňovat podmínku normality. Ze zkušeností s reálnými daty vyplývá, že podmínka normality nebývá vždy splněna, resp. mnohdy není vůbec lehké najít data, která by podmínku normality splňovala.

Pro naše potřeby nadefinujme normalitu jako simultánního normálního rozdělení dvou a více náhodných veličin. Mnohé statistické metody vycházejí z předpokladu, že dala byla vybrána z vícerozměrného normálního rozdělení. Vícerozměrné normální rozdělení je rozšířením jednorozměrného normálního rozdělení pro případ p ≥ 2 náhodných veličin. Náhodný vektor x má více­rozměrné normální rozdělení, má-li jeho hustota pravděpodobnosti tvar

,


kde m je vektor p středních hodnot veličin X1, X2, …, Xp,

E je kovarianční mati­ce C(x) a -∞ < xj < ∞, j = 1, 2, …, p.

Dvourozměrné normální rozdělení je případem p-rozměrného normálního rozdělení pro p = 2. Jeho charakteristické tvar je znázorněn na obr. 2.

Obr. 2. Charakteristický tvar dvourozměrného normálního rozdělení

Srovnání rozptylů K normálních rozdělení

Pro K ≥ 2 výběrů jedné veličiny X s normálním rozdělením uvažujme střední hodnoty označené jako µ1, µ2, …, µk a rozptyly,

testujeme hypotézu H:

 

vyjadřující že aspoň v jednom případě rov­nost neplatí, se označuje za test homoskedasticity.

Zamítnutí hypotézy na hladině významnosti znamená nestejné rozptyly veličiny X. Tento jev, heteroskedasticita, má pro mnohé statistické postupy závažné důsledky. Některé statistické procedury, jsou založeny na předpokladu homoskedasticity (např. regresní analýza či analýza rozptylu), jsou citlivé na nestejnou variabilitu ve skupinách pozorování. Jedním z univerzálních testů je Bartlettův test.

Parametrické – neparametrické (testy, data)

Parametrické:

  • testy normality nezamítnou hypotézu o normálním rozložení dat
  • mají vyšší sílu testu (schopnost rozpoznal platnost alternativní hypotézy) než testy neparametrické
  • při zamítnutí hypotézy o normalitě dat je možné provést buď transformaci dat a přiblížit se tak normalitě nebo přejít na neparametrické testy

Neparametrické testy

  • Lze použít při malém rozsahu dat, nezávisle na rozdělení nebo pokud tvar rozdělení nelze upravit transformacemi
  • Síla testu klesá z důvodu ztráty původní informace o datech, která jsou nahrazena jejich pořadím, proto pořadové statistiky.