Modelowanie ekonometryczne

Slides:



Advertisements
Podobne prezentacje
Test zgodności c2.
Advertisements

Weryfikacja klasycznych teorii struktury kapitału za pomocą ekonometrycznego modelu regresji wielorakiej Arkadiusz Guzanek Instytut Ekonomii i Zarządzania.
Jednorównaniowe modele zmienności
Metody ekonometryczne
Metody ekonometryczne
BUDOWA MODELU EKONOMETRYCZNEGO
Test zgodności Joanna Tomanek i Piotr Nowak.
Metody ekonometryczne
Metody ekonometryczne
Metody ekonometryczne
KWESTIA ENDOGENICZNOŚCI
Wykład 11 Analiza wariancji (ANOVA)
Testy nieparametryczne
Jednoczynnikowa analiza wariancji (ANOVA)
Hipotezy statystyczne
Analiza wariancji jednoczynnikowa
Metoda najmniejszych kwadratów dla jednej zmiennej objaśniającej
Testowanie hipotez statystycznych
Analiza współzależności cech statystycznych
dr hab. Ryszard Walkowiak prof. nadzw.
Ekonometria szeregów czasowych
i jak odczytywać prognozę?
Ekonometria. Co wynika z podejścia stochastycznego?
Analiza reszt w regresji
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Analiza wariancji jednoczynnikowa.
Irena Woroniecka EKONOMIA MENEDŻERSKA - dodatek do W2
Prognozowanie z wykorzystaniem modeli ekonometrycznych
Prognozowanie (finanse 2011)
Hipotezy statystyczne
Finanse 2009/2010 dr Grzegorz Szafrański pokój B106 Termin konsultacji poniedziałek:
Kilka wybranych uzupelnień
Ekonometria stosowana
Ekonometria stosowana
Ekonometria stosowana
Ekonometryczne modele nieliniowe
Seminarium licencjackie Beata Kapuścińska
Konwergencja gospodarcza
Testowanie hipotez statystycznych
Ekonometryczne modele nieliniowe
D. Ciołek EKONOMETRIA – wykład 1
Ekonometria stosowana
D. Ciołek Analiza danych przekrojowo-czasowych – wykład 3
D. Ciołek Analiza szeregów przekrojowo-czasowych – wykład 2
D. Ciołek EKONOMETRIA – wykład 5
D. Ciołek EKONOMETRIA – wykład 3
1 D. Ciołek Analiza danych przekrojowo-czasowych – wykład 7 Analiza danych przekrojowo-czasowych Wykład 7: Testowanie integracji dla danych panelowych.
Ekonometria Metody estymacji parametrów strukturalnych modelu i ich interpretacja dr hab. Mieczysław Kowerski.
Testowanie hipotez Jacek Szanduła.
Badanie własności składnika losowego dr hab. Mieczysław Kowerski
Treść dzisiejszego wykładu l Weryfikacja statystyczna modelu ekonometrycznego –błędy szacunku parametrów, –istotność zmiennych objaśniających, –autokorelacja,
Monte Carlo, bootstrap, jacknife. 2 Literatura Bruce Hansen (2012 +) Econometrics, ze strony internetowej :
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
STATYSTYKA – kurs podstawowy wykład 7 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Ekonometria Wykład 1 Uwarunkowania modelowania ekonometrycznego. Uogólniona metoda najmniejszych kwadratów dr hab. Mieczysław Kowerski.
Ekonometria WYKŁAD 3 Piotr Ciżkowicz Katedra Międzynarodowych Studiów Porównawczych.
Ekonometria stosowana Heteroskedastyczność składnika losowego Piotr Ciżkowicz Katedra Międzynarodowych Studiów Porównawczych.
Weryfikacja hipotez statystycznych „Człowiek – najlepsza inwestycja”
Treść dzisiejszego wykładu l Szeregi stacjonarne, l Zintegrowanie szeregu, l Kointegracja szeregów.
Modele nieliniowe sprowadzane do liniowych
Ekonometria WYKŁAD 7 Piotr Ciżkowicz Katedra Międzynarodowych Studiów Porównawczych.
Metody ekonometryczne dla NLLS
Testy nieparametryczne
Ekonometria stosowana
Statystyka matematyczna
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
Monte Carlo, bootstrap, jacknife
Korelacja i regresja liniowa
Zapis prezentacji:

Modelowanie ekonometryczne dr Grzegorz Szafrański pokój B106 www.gszafranski.of.pl Konsultacje wtorek 11.30-13.00

Testowanie modelu Testowanie istotności parametrów test tStudenta i test łącznej istotności F Testy normalności składnika losowego test Jarque-Berra Testowanie autokorelacji składnika losowego test Durbina-Watsona Testy jednorodności wariancji test Goldfelda-Quandta

wiele zmiennych objaśniających: Testowanie precyzji ocen parametrów, czyli istotności zmiennych objaśniających wiele zmiennych objaśniających: yt=b0 + b1x1t + b2x2t + ... + bkxkt + et t=1,2,...,T Założenia o składniku losowym (potrzebne do testu): E(et) = 0, D(et) = s, et ~ N(0, s2) Test tStudenta Porównujemy wartość bezwzględną statystyki t dla danej zmiennej z wartością krytyczną ta z tablicy wartości krytycznych dla T-k-1 stopni swobody przy ustalonym poziomie istotności (np. a=0,01). Ho: b1 = 0 nie ma podstaw do odrzucenia hipotezy zerowej, gdy |t |<ta H1: b1 <> 0 odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej (myląc się raz na 100 prób), gdy |t | ta Jeśli parametr statystycznie różni się od 0, to mówimy, że zmienna przy nim stojąca jest statystycznie istotna.

Testowanie łącznej istotności zmiennych objaśniających wiele zmiennych objaśniających : yt=b0 + b1x1t + b2x2t + ... + bkxkt + et t=1,2,...,T Założenia o składniku losowym (podobne jak w teście t): E(et) = 0, D(et) = s, et ~ N(0, s2) Test F (test Walda) Porównujemy wartość statystyki F = (T-k-1)R2 / k(1-R2) dla danej zmiennej z wartością krytyczną statystyki Fishera-Snedecora z odpowiednio k i (T-k-1) stopniami swobody przy ustalonym niskim poziomie istotności (np. a=0,01). Ho: b1 = b2 = ...= bk =0 nie ma podstaw do odrzucenia hipotezy zerowej, gdy F < Fa H1: | b1 | + | b2 | + ... + |bk | <>0 odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej (myląc się raz na 100 prób), gdy F > Fa Wybór hipotezy alternatywnej oznacza, że przynajmniej jedna ze zmiennych ma istotny wpływ na zmienną objaśnianą.

Testowanie normalności składnika losowego Do wielu hipotez potrzebujemy test o normalności składnika losowego Testowanie odchyleń rozkładu od normalności Ho: et ~ N(0, s2) H1: et nie pochodzi z rozkładu normalnego (jeżeli W > c22st. swobody) Test normalności Jarque-Bera opiera się na 2 założeniach: rozkład normalny nie jest skośny i nie jest leptokurtyczny (kurtoza = 3).

Założenia estymatora klasycznej MNK E(et) =0 macierz wariancji-kowariancji D2(et)= s2I Zmienne X są nielosowe (w powtarzanych próbach przyjmują ustalone wartości) Zwykle przyjmuje się również postać rozkładu zmiennej et ~ N(0, s2I)

Autokorelacja et = r et-1 + nt Przy niespełnionym założeniu cov(ei , ej) = 0 dla ij możemy powiedzieć, że występuje jakiś regularny wzorzec zmian w składniku losowym (nazwiemy go autokorelacją). Oczywiście nie obserwujemy et tylko reszty et i to w nich szukamy śladów autokorelacji. Najpopularniejszym założeniem w tych poszukiwaniach autokorelacji jest założenie o schemacie autokorelacji pierwszego rzędu AR(1). Sprawdzamy, czy dla składnika losowego nie można zbudować następującej zależności: et = r et-1 + nt ,gdzie -1<r<1 jest współcz. autokorelacji, a nt jest składnikiem losowym (i.i.d.)

Dodatnia autokorelacja + - t u ˆ 1

Ujemna autokorelacja

Brak autokorelacji Tylko w tej sytuacji estymator MNK parametrów modelu jest najlepszy (czyli ma najmniejszą wariancję).

Formalny test, test Durbina-Watsona et = et-1 + vt , gdzie vt  N(0, v2). H0 :  = 0 H1 :  > 0 albo  < 0 (w zależności od r wyliczonego z próby) Statystyka testowa liczona jest na ogół ze wzoru: lub

Wyniki testu DW Aby stosować ten test, trzy warunki muszą być spełnione (wyraz wolny, nielosowe iksy, brak opóźnień zmiennej objaśnianej)

Heteroskedastyczność f(y|x) y . . E(y|x) = b0 + b1x . x1 x2 x3 x

Skutki dla estymatora

Testy heteroskedastyczności Testy Breuscha-Pagana i White’a służą do sprawdzenia konkretnej postaci heteroskedastyczności (wariancja x zależy od zmiennych objaśniających) H0: Var(u|x1, x2,…, xk) = s2 lub inaczej H0: E(u2|x1, x2,…, xk) = E(u2) = s2 Stąd równanie do testowania: u2 = f(x1, x2, ..., xk)

czyli test mnożnika Lagrange’a Do opisu kwadratu reszt MNK w regresji pomocniczej test B-P wykorzystuje zmienne objaśniające z oryginalnego modelu, a test White’a dodatkowo wykorzystuje kwadraty i iloczyny zmiennych x. Testujemy za pomocą statystyki F łączną istotność zmiennych objaśniających w regresji pomocniczej: xj, xj2, xjxh Odrzucamy H0, gdy wartość statystyki testu T*R2 jest zbyt duża (ma rozkład Chi2 z tyloma stopniami swobody, ile jest zmiennych objaśniających w regresji pomocniczej.

Test jednorodności wariancji Czy wariancja składnika losowego jest taka sama w dwóch podpróbach? Ho: s1 = s2 H1: s1 > s2 Dzielimy próbę na 2 rozłączne podpróby i stosujemy test Goldfelda-Quandta. Statystyka z próby przy założeniu hipotezy zerowej ma rozkład F (czyli nie powinna przekraczać wartości krytycznej tego rozkładu):