Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Zajęcia Wykład Laboratorium komputerowe
Zaliczenie EGZAMIN (50%) Aktywność na zajęciach (50%) Na egzaminie obowiązują wszystkie informacje przekazane w czasie wykładów (np. slajdy). Aktywność na zajęciach (50%) dodatkowe zadania co tydzień praca domowa na kolejne zajęcia obecności warunkiem zaliczenia: 2 nieobecności = ocena 2 (ndst) Kontakt: dserwa@sgh.waw.pl Konsultacje: szczegóły na stronie
Tematy wykładów Warunkowa wartość oczekiwana i liniowe odwzorowanie (warunkowa wartość oczekiwana, iteracyjne oczekiwania, model regresji, wariancja błędów regresji, najlepsza liniowa aproksymacja) Metoda najmniejszych kwadratów – ujęcie algebraiczne (estymator najmniejszych kwadratów, macierz odwzorowań, analiza wariancji, błędy predykcji, istotne obserwacje) Model regresji liniowej (model regresji liniowej, teoria Gaussa-Markowa, miary dopasowania, macierz kowariancji oszacowań, błędy standardowe) Teorie asymptotyczne w metodzie najmniejszych kwadratów (granice asymptotyczne, prawo wielkich liczb, zbieżność z prawdopodobieństwem, zbieżność prawie na pewno, zbieżność z dystrybuantą) Modele regresji z restrykcjami - sposoby estymacji, własności (metoda najmniejszych kwadratów z warunkami pobocznymi, restrykcje wykluczające, estymator najmniej odległości, błędy specyfikacji, asymptotyczny rozkład) Testowanie hipotez statystycznych (hipotezy, test statystyczny, błąd 1 rodzaju, błąd 2 rodzaju, moc testu) Metody Monte Carlo, bootstrap, jacknife (symulacja Monte Carlo, estymatory średniej, estymatory wariancji, przedziały ufności, rozkłady symetryczne) Endogeniczność, uogólniona metoda momentów, metoda zmiennych instrumentalnych (UMM, MZI, endogeniczność, test warunków identyfikujących, macierz wag) Modele regresji nieparametrycznej – estymator jądrowy i funkcje sklejane (regresja nieparametryczna, estymator jądrowy, lokalnie liniowy estymator, funkcje sklejane, addytywnie rozłączne modele) Metoda największej wiarygodności, metoda empirycznej wiarygodności (model regresji normalnej, MNW, macierz informacji Fishera, nieparametryczna wiarygodność, estymator empirycznej wiarygodności)
Literatura Literatura podstawowa: Literatura uzupełniająca Bruce Hansen (2017) Econometrics, University of Wisconsin Departament of Economics, (książka dostępna na stronie: http://www.ssc.wisc.edu/~bhansen/econometrics/Econometrics.pdf) Literatura uzupełniająca James D.Hamilton (1994) Time Series Analysis, Princeton University Press; G.Chow (1995) Ekonometria, PWN; artykuły z czasopism naukowych wybrane przez wykładowcę
Literatura do wykładu 1 Bruce Hansen (2017) Econometrics, rozdział 2
Plan Funkcja warunkowej wartości oczekiwanej (CEF) Iterowane oczekiwania Własności CEF Liniowa funkcja CEF Najlepszy liniowy predyktor Liniowe odwzorowanie Przyczynowość w modelu regresji
Warunkowa wartość oczekiwana Wartość oczekiwana zmiennej losowej Funkcja warunkowej wartości oczekiwanej (conditional expectation function, CEF):
Warunkowa wartość oczekiwana Przykład:
Warunkowa wartość oczekiwana Dyskretne zmienne warunkowe: Ciągłe zmienne warunkowe:
Warunkowa wartość oczekiwana Zapis macierzowy: Zmienna losowa, bo warunkowa na zmiennych losowych Funkcja zależna od argumentu , bo
Rozkład warunkowy Niech - łączny rozkład zmiennych Rozkład brzegowy zmiennej Dla każdego takiego, że warunkowy rozkład względem zdefiniowany jako:
Warunkowa wartość oczekiwana Funkcja CEF dla ciągłych zmiennych: Funkcja tak zdefiniowana istnieje jeśli
Prawo iterowanych oczekiwań Proste prawo iterowanych oczekiwań Dla zmiennych dyskretnych: Dla zmiennych ciągłych:
Prawo iterowanych oczekiwań Teoria „warunkowania”
Błąd funkcji warunkowej wartości oczekiwanej Błąd CEF zdefiniowany jako : czyli Własności błędu CEF (CEF error): (wykorzystano teorię „warunkowania”) (wykorzystano prawo iterowanych oczekiwań) To nie są restrykcje tylko własności: „mean independence”
Własności błędów CEF Własności Wariancja błędu CEF: 4. własność: błąd CEF nieskorelowany z żadną funkcją regresorów Wariancja błędu CEF: 3. Własność implikuje:
Własności CEF CEF najlepszym predyktorem (w sensie błędu średniokwadratowego) Dowód (wykorzystuje własność 4):
Wariancja warunkowa Jeżeli to wariancja warunkowa względem zdefiniowana jako: Analogicznie dla błędu regresji (CEF):
Własności błędu CEF Warunkowe odchylenie standardowe: Wariancja (bezwarunkowa) błędu CEF: Często w praktyce zakłada się, że:
Własności błędu CEF Homoskedastyczność i heteroskedastyczność:
Wpływ regresorów na * Wpływ krańcowych zmian regresora na warunkową wartość oczekiwaną : I uwzględniając zmienne binarne:
Wpływ regresorów na * Wektor efektów krańcowych (regression derivative): Wpływ krańcowej zmiany x na warunkową wartość oczekiwaną y przy założeniu, że wszystkie inne zmienne w regresji bez zmian Wpływ krańcowej zmiany x na y tylko gdy błąd regresji nie reaguje na zmiany x
Liniowa funkcja warunkowej wartości oczekiwanej Regresja liniowa (linear CEF model / linear regression)
Nieliniowa funkcja warunkowej wartości oczekiwanej Przykład funkcji kwadratowej: Efekty krańcowe: Lepiej interpretować grupowy niż indywidualny wpływ zmiennych mierzy efekt interakcji
Najlepszy liniowy predyktor Przybliżenie nieznanej CEF za pomocą liniowego predyktora Liniowy predyktor to funkcja dla Założenia: oznacza długość wektora
Najlepszy liniowy predyktor Błąd średnio-kwadratowy zdefiniowany jako: Definicja: najlepszy liniowy predyktor
Najlepszy liniowy predyktor Błąd średnio-kwadratowy można zapisać Warunek pierwszego rzędu na minimalizację
Najlepszy liniowy predyktor Wzór na najlepszy liniowy predyktor - liniowe odwzorowanie (linear projection): Błąd odwzorowania: Regresja (najlepszy predyktor + błąd):
Własności liniowego odwzorowania
Własności liniowego odwzorowania Kowariancja błędu i regresorów: Wariancja błędu: Rozpiszmy: gdy jest stała
CEF liniowe odwzorowanie Liniowa funkcja CEF jest najlepszym liniowym odwzorowaniem, ponieważ . Odwrotna zależność – niekoniecznie, ponieważ trudniej spełnić .
Najlepsza liniowa aproksymacja Średnio-kwadratowy błąd aproksymacji: Najlepsza liniowa aproksymacja minimalizuje ten błąd: Stąd: …czyli identycznie jak w liniowym odwzorowaniu
Przyczynowość Zwykle interesuje nas efekt x na y Niech dany będzie model: obserwowalne zmienne, nieobserwowalne czynniki
Przyczynowość Ponieważ interesuje nas efekt zmian przy ustalnoych wartościach to: Przykład: (treatment effect) Efekt jest losowy i jest funkcją
Przyczynowość Obserwujemy tylko realizacje Dlatego trudno mierzyć indywidualne efekty Można mierzyć uśredniony efekt zagregowany:
Przyczynowość Chcemy z regresji poznać efekt uśredniony, czyli z wnioskować o Z funkcji mamy: Krańcowa zmiana:
Przyczynowość Wniosek: Efekt krańcowy w regresji równy uśrednionemu efektowi przyczynowemu, gdy , czyli gdy nie zależy od :
Przyczynowość Wniosek: Jeśli czynniki nieobserowalne niezależne od (pod warunkiem regresorów ), to pochodna z regresji mierzy Słabsze założenie niż niezależność i
Dziękuję
Najprostszy model regresji Niech Regresja tylko ze stałą:
Standaryzowany błąd CEF Standaryzowany błąd regresji: I jego własności: „Mean-variance specification”:
Podzbiory regresorów Niech Wtedy:
Podzbiory regresorów Wyliczmy parametry
Model z losowymi parametrami parametry są losowe i różne dla różnych obiektów, niezależne od przykład: wielkość inwestycji jako i stopa zwrotu z inwestycji jako daje dochód Niech: i Wtedy: Czyli liniowa funkcja CEF:
Model z losowymi parametrami Własności:
Brakujące zmienne w modelu Prawdziwy model: Obserwujemy tylko: Wyliczamy:
Brakujące zmienne w modelu Wniosek: chyba że: lub Obciążenie spowodowane nieuwzględnieniem ważnej zmiennej w modelu (omitted variable bias) różnica między i , czyli