W analizie regresji liniowej wyznacza się dwa główne współczynniki,współczynnik b - niestandaryzowany współczynnik regresji oraz współczynnik Beta - standaryzowany współczynnik regresji. W artykule na temat idei analizy regresji liniowej przedstawiliśmy ogólny zarys idei współczynnika b. Miara ta określa kąt nachylenia prostej regresji względem osi X.
Z praktycznego punktu widzenia współczynnik b w analizie regresji służy nam do wyprowadzenia wzoru na prognozę wartości zmiennej zależnej (objaśnianej). Jego wartość wraz z wyrazem wolnym podstawiamy do wzoru na linię prostą:
y = bx + a.
Posłużmy się przykładem.
Posłużmy się przykładem.
Badacz przeprowadził analizę regresji liniowej w celu sprawdzenia czy na podstawie wieku badanych osób można przewidywać to na ile często chodzą oni w miesiącu do kina. Model analizy regresji okazał się być istotny statystycznie. Obliczył on, że współczynnik b, czyli współczynnik dla predyktora (wieku) wyniósł -0,12 oraz obliczył wartość dla wyrazu wolnego = 7,98. Mógł zatem zapisać następujące równanie regresji liniowej:
Y (częstość chodzenia do kina w miesiącu) = -0,12*(wiek badanej osoby) + 7,98
Przedstawiony powyżej wzór stanowi wzór regresji liniowej. Jeżeli badacz chce przewidzieć jak często kolejna osoba chodzi do kina (w miesiącu) podstawia jego wiek do wzoru i wylicza wartość. Na przykład, dla osoby w wieku 40 lat otrzymamy wynik = -0,12*40 + 7,98 = 3,2 razy w miesiącu. To właśnie stanowi rezultat prognozowania zmiennej zależnej na podstawie predyktora.
Jak opisaliśmy powyżej, współczynnik b w modelu regresji liniowej jest niezbędny dla wyprowadzenia wzoru regresji czyli dla wyliczania wartości naszych przyszłych prognoz. Wielkość tego współczynnika jest uzależniona od skali zmiennej zależnej. Dlatego też współczynnik b nazywany jest niestandaryzowanym współczynnikiem. Oznacza to, że porównywanie różnych współczynników b w modelu / modelach regresji nie ma żadnego sensu! Współczynnik ten służy temu, aby wyprowadzić wzór modelu regresji, równania regresji.
Jego standaryzowaną postacią jest współczynnik Beta (ß). Współczynnik Beta pozwala nam porównywać ze sobą ważność predyktorów w modelu (w przypadku analizy regresji wielokrotnej). Przyjmuje on wartości od -1 do 1, gdzie wartości bliskie 0 oznaczają bardzo słabą zależność pomiędzy predyktorem a zmienną zależną. Interpretacja współczynnika Beta jest podobna do interpretacji współczynnika korelacji. Wartości powyżej 0 informują, że wzrostowi wartości predyktora (zmiennej objaśniającej) towarzyszy wzrost wartości zmiennej zależnej (objaśnianej), w przypadku wartości poniżej 0 na odwrót.
Co więcej możemy porównywać wielkości współczynników przy poszczególnych predyktorach, predyktor ze współczynnikiem Beta = 0,65 będzie bardziej istotny w modelu (w prognozowaniu wartości zmiennej zależnej) niż predyktor ze współczynnikiem np. 0,32. Standaryzowanie współczynnika B pozwala nam na porównywanie ze sobą predyktorów, ponieważ zniesiony zostaje "efekt nierównej skali" zmiennej (inna jest skala dla wieku, od 0 do 120 lat a inna dla np. dochodów: od 0 do ....).
Z matematycznego punktu widzenia współczynnik Beta uzyskujemy z następującego wzoru:
współczynnik Beta = (współczynnik B * odchylenie standardowe dla predyktora) / odchylenie standardowe dla zmiennej zależnej
Jak widać standaryzacja współczynnika b polega na odniesieniu jego wartości do wielkości odchyleń standardowych predyktora i zmiennej zależnej. Z tego powodu znosimy efekt skali pomiarowej.
Podsumowując, współczynniki b dostarczają nam wartości do równania regresji a co za tym idzie umożliwiają nam predykcję zmiennej zależnej. Współczynniki Beta pozwalają nam porównać ze sobą poszczególne wielkości współczynników regresji.
Współczynniki regresji liniowej Wasze opinie