Metody Komputerowej Analizy Danych
Metody komputerowej analizy danych, Statistica 5.5 - Ćwiczenia 8
Regresja wielokrotna cz. 2
zmienne objaśniające dla modeli którymi się zajmujemy (modele regresyjne)
badany wpływ pewnych zmiennych na zachowanie się Y
w modelach regresyjnych ocenia się wpływ czynników na zmienną zależną - dla modeli ekonometrycznych tworzone jest sprzężenie zwrotne - celem manipulacji
zmienne objaśniające zależą od ustawień nie od losu
formalnie jednak zasady budowy modeli regresyjnych i ekonometrycznych to to samo
test darvina - watsona
należy jednak mieć inne założenia co do zmiennych objaśniających
Dla modelu y = α0 + α1 x1 + α2 x2 + ...
+ αk xk
α to parametry populacyjne - tyczą sie całej populacji wiec dla próbki może być inaczej
Budownictwo
po lewej zmienne:
po prawej zmienne:
pytanie - od czego zależy stan gałęzi budownictwa
kombinacje parametrów α wykonuje się w ramach budowy/oceny modelu - działania na macierzach
założenia do MNK po raz kolejny
Regresja wielokrotna | dane | nie powinno być wśród
zmiennych objaśniających zależności (katalizy) | należy ocenić stopień skorelowania
Statystyki podstawowe | korelacje - każdy - każdy
Wyszło, że skorelowanie zmiennych pomiedzy sobią jest silne
Dla MNK liczba pomiarów nie może być mniejsza od liczby szacowanych parametrów
W wynikach p oznacza poziom istotności dla różnicy parametrów od zera - nie potrzebne w modelu
Dla R2 bliskiego |1| mamy bardzo dobre wpasowanie się w model
Przy wyrzucaniu zmiennych R^2 nie powinno się zmniejszać, można wyrzucać dotacje czy dochody indywidualne (budownictwo) - usuwamy kolejne zmienne i patrzymy czy pozostałe w sensowny i stosowny sposób opisują daną zmienną zależną tworząc sensowny model.
wyłącz domyślną
analizę | metoda | krokowa, postępująca (dołączanie potrzebnych zmiennych), wsteczna (eliminacja
z maksymalnego modelu)
Tworzymy modele z jak najmniejszą liczbą zmiennych objaśniających. Jest wtedy przejrzystszy.