W jednoczynnikowej analizie wariancji, jak sama nazwa wskazuje, mamy do czynienia tylko z jednym czynnikiem. Chcemy sprawdzić, czy jakiś pojedynczy czynnik ma wpływ na mierzoną zmienną zależną.
Przy czym zakłada się, że czynnik (zmienna niezależna) przyjmuje tutaj formę grup różniących się między sobą pod względem wartości czynnika.
Przykład: Badacz chciał sprawdzić, czy uczniowie klas: Va, Vb czy Vc różnią się między sobą pod względem wyników w nauce. W tym celu porównał ze sobą oceny na koniec roku uczniów z badanych klas.
W tym przypadku czynnikiem jest rodzaj klasy. Badacza interesuje, czy taki czynnik jak przynależność (uczęszczanie) do danej klasy ma wpływ na osiągnięcia w nauce uczniów. Istotne statystycznie wyniki testu jednoczynnikowej analizy wariancji (statystyka F) wskazują, że dany czynnik ma wpływ na zmienną zależną, co oznacza, że różne wartości czynnika (w przykładzie: klasy) zmieniają wartości zmiennej zależnej - mają wpływ na zmianę wartości tej zmiennej (w przykładzie: wyniki w nauce).
Ponadto, jednoczynnikową analizę wariancji często traktuje się jako "rozszerzenie" testów t-Studenta. Testy te mają ograniczenie do badania różnic pomiędzy jedynie dwiema grupami. Analiza wariancji nie ma takich ograniczeń. Jeżeli chcemy porównać ze sobą więcej niż dwie grupy stosujemy wtedy jednoczynnikową analizę wariancji, zamiast trzykrotnego użycia testu t-Studenta.
Jednakże, istotny wynik testu F (analizy wariancji) nie informuje nas jeszcze między którymni z badanych grup są różnice. Dostarcza nam informację, że pewne grupy różnią się między sobą (albo też, że zaobserwowano wpływ danego czynnika na zmienną zależną). Aby stwierdzić, między którymi grupami są istotne statystycznie różnice (może zdarzyć się tak, że z badanych 4 grup, będzie istotna statystycznie różnica jedynie pomiędzy 1 i 2 grupą) należy wykonać porównania wielokrotne, tzw. "post-hoc".
Jednoczynnikowa analiza wariancji Wasze opinie