Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Modelowanie ekonometryczne

Podobne prezentacje


Prezentacja na temat: "Modelowanie ekonometryczne"— Zapis prezentacji:

1 Modelowanie ekonometryczne
dr Grzegorz Szafrański pokój B106 Konsultacje wtorek

2 Testowanie modelu Testowanie istotności parametrów
test tStudenta i test łącznej istotności F Testy normalności składnika losowego test Jarque-Berra Testowanie autokorelacji składnika losowego test Durbina-Watsona Testy jednorodności wariancji test Goldfelda-Quandta

3 wiele zmiennych objaśniających:
Testowanie precyzji ocen parametrów, czyli istotności zmiennych objaśniających wiele zmiennych objaśniających: yt=b0 + b1x1t + b2x2t bkxkt + et t=1,2,...,T Założenia o składniku losowym (potrzebne do testu): E(et) = 0, D(et) = s, et ~ N(0, s2) Test tStudenta Porównujemy wartość bezwzględną statystyki t dla danej zmiennej z wartością krytyczną ta z tablicy wartości krytycznych dla T-k-1 stopni swobody przy ustalonym poziomie istotności (np. a=0,01). Ho: b1 = 0 nie ma podstaw do odrzucenia hipotezy zerowej, gdy |t |<ta H1: b1 <> 0 odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej (myląc się raz na 100 prób), gdy |t | ta Jeśli parametr statystycznie różni się od 0, to mówimy, że zmienna przy nim stojąca jest statystycznie istotna.

4 Testowanie łącznej istotności zmiennych objaśniających
wiele zmiennych objaśniających : yt=b0 + b1x1t + b2x2t bkxkt + et t=1,2,...,T Założenia o składniku losowym (podobne jak w teście t): E(et) = 0, D(et) = s, et ~ N(0, s2) Test F (test Walda) Porównujemy wartość statystyki F = (T-k-1)R2 / k(1-R2) dla danej zmiennej z wartością krytyczną statystyki Fishera-Snedecora z odpowiednio k i (T-k-1) stopniami swobody przy ustalonym niskim poziomie istotności (np. a=0,01). Ho: b1 = b2 = ...= bk =0 nie ma podstaw do odrzucenia hipotezy zerowej, gdy F < Fa H1: | b1 | + | b2 | |bk | <>0 odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej (myląc się raz na 100 prób), gdy F > Fa Wybór hipotezy alternatywnej oznacza, że przynajmniej jedna ze zmiennych ma istotny wpływ na zmienną objaśnianą.

5 Testowanie normalności składnika losowego
Do wielu hipotez potrzebujemy test o normalności składnika losowego Testowanie odchyleń rozkładu od normalności Ho: et ~ N(0, s2) H1: et nie pochodzi z rozkładu normalnego (jeżeli W > c22st. swobody) Test normalności Jarque-Bera opiera się na 2 założeniach: rozkład normalny nie jest skośny i nie jest leptokurtyczny (kurtoza = 3).

6 Założenia estymatora klasycznej MNK
E(et) =0 macierz wariancji-kowariancji D2(et)= s2I Zmienne X są nielosowe (w powtarzanych próbach przyjmują ustalone wartości) Zwykle przyjmuje się również postać rozkładu zmiennej et ~ N(0, s2I)

7 Autokorelacja et = r et-1 + nt
Przy niespełnionym założeniu cov(ei , ej) = 0 dla ij możemy powiedzieć, że występuje jakiś regularny wzorzec zmian w składniku losowym (nazwiemy go autokorelacją). Oczywiście nie obserwujemy et tylko reszty et i to w nich szukamy śladów autokorelacji. Najpopularniejszym założeniem w tych poszukiwaniach autokorelacji jest założenie o schemacie autokorelacji pierwszego rzędu AR(1). Sprawdzamy, czy dla składnika losowego nie można zbudować następującej zależności: et = r et-1 + nt ,gdzie -1<r<1 jest współcz. autokorelacji, a nt jest składnikiem losowym (i.i.d.)

8 Dodatnia autokorelacja
+ - t u ˆ 1

9 Ujemna autokorelacja

10 Brak autokorelacji Tylko w tej sytuacji estymator MNK parametrów modelu jest najlepszy (czyli ma najmniejszą wariancję).

11 Formalny test, test Durbina-Watsona
et = et-1 + vt , gdzie vt  N(0, v2). H0 :  = 0 H1 :  > 0 albo  < 0 (w zależności od r wyliczonego z próby) Statystyka testowa liczona jest na ogół ze wzoru: lub

12 Wyniki testu DW Aby stosować ten test, trzy warunki muszą być spełnione (wyraz wolny, nielosowe iksy, brak opóźnień zmiennej objaśnianej)

13 Heteroskedastyczność
f(y|x) y . . E(y|x) = b0 + b1x . x1 x2 x3 x

14 Skutki dla estymatora

15 Testy heteroskedastyczności
Testy Breuscha-Pagana i White’a służą do sprawdzenia konkretnej postaci heteroskedastyczności (wariancja x zależy od zmiennych objaśniających) H0: Var(u|x1, x2,…, xk) = s2 lub inaczej H0: E(u2|x1, x2,…, xk) = E(u2) = s2 Stąd równanie do testowania: u2 = f(x1, x2, ..., xk)

16 czyli test mnożnika Lagrange’a
Do opisu kwadratu reszt MNK w regresji pomocniczej test B-P wykorzystuje zmienne objaśniające z oryginalnego modelu, a test White’a dodatkowo wykorzystuje kwadraty i iloczyny zmiennych x. Testujemy za pomocą statystyki F łączną istotność zmiennych objaśniających w regresji pomocniczej: xj, xj2, xjxh Odrzucamy H0, gdy wartość statystyki testu T*R2 jest zbyt duża (ma rozkład Chi2 z tyloma stopniami swobody, ile jest zmiennych objaśniających w regresji pomocniczej.

17 Test jednorodności wariancji
Czy wariancja składnika losowego jest taka sama w dwóch podpróbach? Ho: s1 = s2 H1: s1 > s2 Dzielimy próbę na 2 rozłączne podpróby i stosujemy test Goldfelda-Quandta. Statystyka z próby przy założeniu hipotezy zerowej ma rozkład F (czyli nie powinna przekraczać wartości krytycznej tego rozkładu):


Pobierz ppt "Modelowanie ekonometryczne"

Podobne prezentacje


Reklamy Google