Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
1
Wprowadzenie do teorii ekonometrii
Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
2
Zajęcia Wykład Laboratorium komputerowe
3
Zaliczenie EGZAMIN (50%) Aktywność na zajęciach (50%)
Na egzaminie obowiązują wszystkie informacje przekazane w czasie wykładów (np. slajdy). Aktywność na zajęciach (50%) dodatkowe zadania co tydzień praca domowa na kolejne zajęcia obecności warunkiem zaliczenia: nieobecności = ocena 2 (ndst) Kontakt: Konsultacje: szczegóły na stronie
4
Tematy wykładów Warunkowa wartość oczekiwana i liniowe odwzorowanie (warunkowa wartość oczekiwana, iteracyjne oczekiwania, model regresji, wariancja błędów regresji, najlepsza liniowa aproksymacja) Metoda najmniejszych kwadratów – ujęcie algebraiczne (estymator najmniejszych kwadratów, macierz odwzorowań, analiza wariancji, błędy predykcji, istotne obserwacje) Model regresji liniowej (model regresji liniowej, teoria Gaussa-Markowa, miary dopasowania, macierz kowariancji oszacowań, błędy standardowe) Teorie asymptotyczne w metodzie najmniejszych kwadratów (granice asymptotyczne, prawo wielkich liczb, zbieżność z prawdopodobieństwem, zbieżność prawie na pewno, zbieżność z dystrybuantą) Modele regresji z restrykcjami - sposoby estymacji, własności (metoda najmniejszych kwadratów z warunkami pobocznymi, restrykcje wykluczające, estymator najmniej odległości, błędy specyfikacji, asymptotyczny rozkład) Testowanie hipotez statystycznych (hipotezy, test statystyczny, błąd 1 rodzaju, błąd 2 rodzaju, moc testu) Metody Monte Carlo, bootstrap, jacknife (symulacja Monte Carlo, estymatory średniej, estymatory wariancji, przedziały ufności, rozkłady symetryczne) Endogeniczność, uogólniona metoda momentów, metoda zmiennych instrumentalnych (UMM, MZI, endogeniczność, test warunków identyfikujących, macierz wag) Modele regresji nieparametrycznej – estymator jądrowy i funkcje sklejane (regresja nieparametryczna, estymator jądrowy, lokalnie liniowy estymator, funkcje sklejane, addytywnie rozłączne modele) Metoda największej wiarygodności, metoda empirycznej wiarygodności (model regresji normalnej, MNW, macierz informacji Fishera, nieparametryczna wiarygodność, estymator empirycznej wiarygodności)
5
Literatura Literatura podstawowa: Literatura uzupełniająca
Bruce Hansen (2017) Econometrics, University of Wisconsin Departament of Economics, (książka dostępna na stronie: Literatura uzupełniająca James D.Hamilton (1994) Time Series Analysis, Princeton University Press; G.Chow (1995) Ekonometria, PWN; artykuły z czasopism naukowych wybrane przez wykładowcę
6
Literatura do wykładu 1 Bruce Hansen (2017) Econometrics, rozdział 2
7
Plan Funkcja warunkowej wartości oczekiwanej (CEF)
Iterowane oczekiwania Własności CEF Liniowa funkcja CEF Najlepszy liniowy predyktor Liniowe odwzorowanie Przyczynowość w modelu regresji
8
Warunkowa wartość oczekiwana
Wartość oczekiwana zmiennej losowej Funkcja warunkowej wartości oczekiwanej (conditional expectation function, CEF):
9
Warunkowa wartość oczekiwana
Przykład:
10
Warunkowa wartość oczekiwana
Dyskretne zmienne warunkowe: Ciągłe zmienne warunkowe:
11
Warunkowa wartość oczekiwana
Zapis macierzowy: Zmienna losowa, bo warunkowa na zmiennych losowych Funkcja zależna od argumentu , bo
12
Rozkład warunkowy Niech - łączny rozkład zmiennych
Rozkład brzegowy zmiennej Dla każdego takiego, że warunkowy rozkład względem zdefiniowany jako:
13
Warunkowa wartość oczekiwana
Funkcja CEF dla ciągłych zmiennych: Funkcja tak zdefiniowana istnieje jeśli
14
Prawo iterowanych oczekiwań
Proste prawo iterowanych oczekiwań Dla zmiennych dyskretnych: Dla zmiennych ciągłych:
15
Prawo iterowanych oczekiwań
Teoria „warunkowania”
16
Błąd funkcji warunkowej wartości oczekiwanej
Błąd CEF zdefiniowany jako : czyli Własności błędu CEF (CEF error): (wykorzystano teorię „warunkowania”) (wykorzystano prawo iterowanych oczekiwań) To nie są restrykcje tylko własności: „mean independence”
17
Własności błędów CEF Własności Wariancja błędu CEF:
4. własność: błąd CEF nieskorelowany z żadną funkcją regresorów Wariancja błędu CEF: 3. Własność implikuje:
18
Własności CEF CEF najlepszym predyktorem (w sensie błędu średniokwadratowego) Dowód (wykorzystuje własność 4):
19
Wariancja warunkowa Jeżeli to wariancja warunkowa względem zdefiniowana jako: Analogicznie dla błędu regresji (CEF):
20
Własności błędu CEF Warunkowe odchylenie standardowe:
Wariancja (bezwarunkowa) błędu CEF: Często w praktyce zakłada się, że:
21
Własności błędu CEF Homoskedastyczność i heteroskedastyczność:
22
Wpływ regresorów na * Wpływ krańcowych zmian regresora na warunkową wartość oczekiwaną : I uwzględniając zmienne binarne:
23
Wpływ regresorów na * Wektor efektów krańcowych (regression derivative): Wpływ krańcowej zmiany x na warunkową wartość oczekiwaną y przy założeniu, że wszystkie inne zmienne w regresji bez zmian Wpływ krańcowej zmiany x na y tylko gdy błąd regresji nie reaguje na zmiany x
24
Liniowa funkcja warunkowej wartości oczekiwanej
Regresja liniowa (linear CEF model / linear regression)
25
Nieliniowa funkcja warunkowej wartości oczekiwanej
Przykład funkcji kwadratowej: Efekty krańcowe: Lepiej interpretować grupowy niż indywidualny wpływ zmiennych mierzy efekt interakcji
26
Najlepszy liniowy predyktor
Przybliżenie nieznanej CEF za pomocą liniowego predyktora Liniowy predyktor to funkcja dla Założenia: oznacza długość wektora
27
Najlepszy liniowy predyktor
Błąd średnio-kwadratowy zdefiniowany jako: Definicja: najlepszy liniowy predyktor
28
Najlepszy liniowy predyktor
Błąd średnio-kwadratowy można zapisać Warunek pierwszego rzędu na minimalizację
29
Najlepszy liniowy predyktor
Wzór na najlepszy liniowy predyktor - liniowe odwzorowanie (linear projection): Błąd odwzorowania: Regresja (najlepszy predyktor + błąd):
30
Własności liniowego odwzorowania
31
Własności liniowego odwzorowania
Kowariancja błędu i regresorów: Wariancja błędu: Rozpiszmy: gdy jest stała
32
CEF liniowe odwzorowanie
Liniowa funkcja CEF jest najlepszym liniowym odwzorowaniem, ponieważ Odwrotna zależność – niekoniecznie, ponieważ trudniej spełnić
33
Najlepsza liniowa aproksymacja
Średnio-kwadratowy błąd aproksymacji: Najlepsza liniowa aproksymacja minimalizuje ten błąd: Stąd: …czyli identycznie jak w liniowym odwzorowaniu
34
Przyczynowość Zwykle interesuje nas efekt x na y
Niech dany będzie model: obserwowalne zmienne, nieobserwowalne czynniki
35
Przyczynowość Ponieważ interesuje nas efekt zmian
przy ustalnoych wartościach to: Przykład: (treatment effect) Efekt jest losowy i jest funkcją
36
Przyczynowość Obserwujemy tylko realizacje
Dlatego trudno mierzyć indywidualne efekty Można mierzyć uśredniony efekt zagregowany:
37
Przyczynowość Chcemy z regresji poznać efekt uśredniony, czyli z wnioskować o Z funkcji mamy: Krańcowa zmiana:
38
Przyczynowość Wniosek: Efekt krańcowy w regresji równy uśrednionemu efektowi przyczynowemu, gdy , czyli gdy nie zależy od :
39
Przyczynowość Wniosek:
Jeśli czynniki nieobserowalne niezależne od (pod warunkiem regresorów ), to pochodna z regresji mierzy Słabsze założenie niż niezależność i
40
Dziękuję
41
Najprostszy model regresji
Niech Regresja tylko ze stałą:
42
Standaryzowany błąd CEF
Standaryzowany błąd regresji: I jego własności: „Mean-variance specification”:
43
Podzbiory regresorów Niech Wtedy:
44
Podzbiory regresorów Wyliczmy parametry
45
Model z losowymi parametrami
parametry są losowe i różne dla różnych obiektów, niezależne od przykład: wielkość inwestycji jako i stopa zwrotu z inwestycji jako daje dochód Niech: i Wtedy: Czyli liniowa funkcja CEF:
46
Model z losowymi parametrami
Własności:
47
Brakujące zmienne w modelu
Prawdziwy model: Obserwujemy tylko: Wyliczamy:
48
Brakujące zmienne w modelu
Wniosek: chyba że: lub Obciążenie spowodowane nieuwzględnieniem ważnej zmiennej w modelu (omitted variable bias) różnica między i , czyli
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.