Metody Ekonometryczne

 0    71 flashcards    fisza92
download mp3 print play test yourself
 
Question język polski Answer język polski
Model ekonometryczny
start learning
układ równań wiążących określone wielkości ekonomiczne
Model liniowy
start learning
model, w którym wszystkie równania są liniowe
Zmienna endogeniczna
start learning
zmienna, której wartości określane są w modelu, w szczególności zmienna taka może być zmienną objaśnianą w pewnym równaniu modelu, a objaśniającą w innym równaniu tego modelu
Zmienna egzogeniczna
start learning
zmienna, której wartości określane są poza modelem; oznacza to, że nie ma takiego równania, w którym zmienna ta jest objaśnianą
Postać strukturalna
start learning
postać modelu, w której przedstawione są rzeczywiste relacje między zmiennymi; do zapisu strukturalnego wykorzystuje się najczęściej zapis macierzowy
Model symptomatyczny
start learning
modele, w których rolę zmiennych objaśniających pełnią zmienne skorelowane ze zmiennymi objaśnianymi, ale nie wyrażają one przyczyn zmienności zmiennych objaśnianych
Model autoregresyjny
start learning
model, w którym uwzględnione jest opóźnienie zmiennej objaśniającej oraz fakt, że zmienna objaśniania może zależeć od swoich przeszłych realizacji
Model dynamiczny/statyczny
start learning
Dynamiczny - zmienne opóźnione/zmienna czasowa występuje Statyczny - nie występuje
Model prosty
start learning
między zmiennymi łącznie współzależnymi nie występują powiązania
Model rekurencyjny
start learning
model, w którym zakłada się istnienie powiązań między zmiennymi endogenicznymi nieopóźnionymi, ale niemających charakteru sprzężeń zwrotnych (powiązania jednokierunkowe)
Model o równaniach łącznie współzależnych
start learning
Występują sprzężenia zwrotne (przynajmniej jedno) - powiązania dwustronne między zmiennnymi łącznie współzależnymi
Postać strukturalna modelu wielorównaniowego-opisz składowe
start learning
BYt+ҐZt=εt B- macierz parametrów strukturalnych przy zmiennych łącznie współzależnych o wymiarach MxM, gdzie M to liczba zmiennych współzależnych w modelu Yt-obserwacje dokonane na zmiennych łącznie współzależnych (macierz o wymiarach Mx1) Ґ-macierz parametrów strukturalnych przy zmiennych z góry ustalonych (macierz o wymiarach MxK), gdzie K to liczba zmiennych z góry ustalonych Zt - macierz obserwacji dokonanych na zmiennych z góry ustalonych o wymiarach Kx1
Jak w zależności od budowy macierzy B w zapisie strukturalnym modelu wielorównaniowego zależy klasyfikacja ze względu na powiązania między zmiennymi łącznie współzaleznymi?
start learning
Macierz B diagonalna - model prosty Macierz B trójkątna - model rekurencyjny (powiązania jednostronne) Macierz B w pozostałych przypadkach - model o równaniach łącznie współzależnych
Zmienna czasowa
start learning
zmienna, której wartości odpowiadają kolejnym numerom momentów czasu, w jakich mierzono wartości zmiennej objaśnianej
Model zupełny
start learning
model, w którym liczba równań jest równa liczbie zmiennych endogenicznych nieopóźnionych
Model jest identyfikowalny kiedy...
start learning
... jeżeli jest możliwe wyznaczenie (niekoniecznie jednoznaczne) wartości parametrów tego równania na podstawie znajomości parametrów postaci zredukowanej modelu. (jeżeli wszystkie jego równania są identyfikowalne)
Zmienne łącznie współzależne
start learning
zmienne endogeniczne nieopóźnione
Postać zredukowana modelu
start learning
postać, w której zmienne objaśniane są opisane tylko przy użyciu funkcji wartości zmiennych z góry ustalonych
Szereg czasowy
start learning
realizacja procesu stochastycznego w konkretnej próbie
Dane przekrojowe
start learning
dane, które wyrażają stan zjawiska w ustalonym czasie, ale w odniesieniu do różnych obiektów
Zmienne współliniowe
start learning
zmienne pomiędzy którymi występuje korelacja
Estymacja
start learning
uogólnienie wyników badania próby na całą populację
Identyfikacja
start learning
Proces przekształcania postaci zredukowanej modelu do postaci strukturalnej
Postać końcowa modelu wielorównaniowego
start learning
postać, w której zmienne endogeniczne wyrażone są jako liniowe funkcje zmiennych egzogenicznych. Inaczej mówiąc, postać ta różni się od postaci zredukowanej tym, że z prawych stron równań modelu wyeliminowano opóźnione zmienne endogeniczne (jeśli takie były).
Ograniczenie zerowe a priori
start learning
Ile zmiennych nie występuje w danym równaniu, a występuje w modelu
Co lepiej przedstawia postać strukturalna, a co postać zredukowana modelu wielorównaniowego?
start learning
Postać strukturalna - ekonomiczna treść zależności między zmiennymi (umożliwia interpretację ekonomiczną) Postać zredukowana - umożliwia estymację parametrów
Model jest identyfikowalny, jeśli...
start learning
jeżeli wszystkie jego równania są identyfikowalne
Model (lub równanie) jest jednoznacznie identyfikowalny...
start learning
... jeżeli przekształcenie postaci zredukowanej w strukturalną jest jednoznaczne.
Warunek konieczny identyfikalności równania
start learning
m1-1<=k2 M-1<=m2+k2 Liczba zmiennych łącznych współzależnych występujących w równaniu pomniejszona o 1 musi być co najwyżej równa liczbie zmiennych z góry ustalonych nie występujących w równaniu.
Co znaczą oznaczenia: M=m1+m2 K=k1+k2
start learning
M - liczba zmiennych łącznie współzależnych m1 (m2)- liczba zmiennych łącznie współzależnych (NIE) występujących w danym równaniu k1 (k2)- liczba zmiennych z góry ustalonych (NIE) występujących w danym równaniu
Warunek dostateczny identyfikalności i-tego równania?
start learning
macierz utworzona ze współczynników przy zmiennych występujących w innych równaniach modelu i równocześnie nie występujących w i-tym równaniu była rzędu M-1
Jeśli spełniony jest warunek dostateczny, kiedy możemy mówić o jednoznacznej a kiedy o niejednoznacznej identyfikalności równania?
start learning
Jeżeli ten warunek jest spełniony i liczba zmiennych, które nie występują w tym równaniu (i występują w modelu) jest równa m-1, to równanie jest jednoznacznie identyfikowalne, zaś jeśli jest większa, to równanie jest niejednoznacznie identyfikowalne.
Od czego zależy Metoda estymacji parametrów modeli wielorównaniowych?
start learning
od: 1. rodzaju powiązań między zmiennymi 2. identyfikalność modelu
Co to jest KMNK, PMNK, 2KMNK i kiedy się je stosuje?
start learning
KMNK - Klasyczna Metoda Najmniejszych Kwadratów (do estymacji w modelach prostych) PMNK - Pośrednia MNK - do estymacji w modelach jednoznacznie identyfikowalnych 2MNK - Podwójna MNK - do estymacji w modelach niejednoznacznie identyfikowalnych
Na czym polega idea PMNK?
start learning
Idea polega na wykorzystaniu ocen parametrów postaci zredukowanej do uzyskania ocen parametrów postaci strukturalnej.
Estymator nieobciążony
start learning
estymator, którego wartość oczekiwana jest równa poszukiwanej wartości parametru
Estymator najefektywniejszy
start learning
estymator, który ma najmniejszą wariancję w swojej klasie
Wartości teoretyczne
start learning
wartości zmiennej objaśnianej, które kształtowane są na podstawie wartości zmiennych objaśniających
Test Durbina-Watsona
start learning
test, którego używa się do zweryfikowania założeń o braku autokorelacji składników losowych
Estymator zgodny
start learning
Estymator zgodny wtedy i tylko wtedy, gdy ciąg ocen uzyskiwanych za pomocą tego estymatora jest stochastycznie zbieżny do szacowanego parametru
Kiedy estymator jest nieobciążony?
start learning
1. Zmienne objaśniajace są nielosowe 2. Zmienne objaśniające są nieskorelowane ze składnkikami losowymi modelu 3. Składnik losowy ma zerową wartość oczekiwaną (1+2+3 = wartość oczekiwana estymatora parametru jest równa poszukiwanej wartości paramentru)
Założenia KMNK
start learning
1. Zmienne objaśniające moedlu muszą być liniowo niezależne. rz(X)=k+1<=n 2. Wartości zmiennych objaśniających są nielosowe, czyli nie są skorelowane ze składnikami losowymi modelu 3. Parametry strukturalne modelu są nielosowe 4. Składnik losowy ma wartość oczekiwaną = 0 5. Składnik losowy jest sferyczny (brak autokorelacji i brak heteroskedastyczności)
Zmienne ortogonalne
start learning
ocena parametru związana z daną zmienną nie jest zależna od obserwacji dokonanych na innych zmiennych objaśniających
Co powoduje przybliżona współliniowość?
start learning
1. Macierz kowariancji i wariancji ma relatywne co do wartości el. diagonalne 2. Oceny średnich błędów szacunku są zawyżone(t-Student zaniżony) Konsekwencje: -pozorna nieistotność poszczególnych zm. objaśniających -zawyżony R2 (współczynnik determinacji) -znaczne zmiany wartości oszacowanych parametrów, przy nieznacznej zmianie wielkości próby
Test na badanie stopnia przybliżonej współliniowości?
start learning
VIF (czynnik inflacji wariancji) <10 VIF=1/(1-R^2)
Co zrobić jeśłi jest współliniowość?
start learning
1. Regresja grzbietowa 2. Regresja wzg głównych składowych 3. Usuwanie zmiennych powodujących występowanie zjawiska współliniowości (bądź zastąpienie ich) 4. Wydłużenie próby 5. Oparcie estymacji na danych przekrojowo-czasowych
Na czym polega regresja grzbietowa?
start learning
Dodanie pewnej stałej do wartości wariancji zmiennych objaśniających w celu zmniejszenia wzajemnego skorelowania zmiennych objaśniających. (usunięcie współliniowości)
Efekt katalizy
start learning
sytuacja, w której zmienna objaśniająca słabo skorelowana ze zmienną objaśnianą po usunięciu z modelu powodu znaczący spadek wartości współczynnika determinacji
katalizator
start learning
zmienna, której wprowadzenie do modelu powoduje znaczący wzrost wartości współczynnika determinacji
Testy o homoskedastyczności składnika losowego
start learning
Test Harrisona-McCabe; Test White'a
Reszty modelu
start learning
wszystkie różnice pomiędzy wartościami teoretycznymi a praktycznymi
Homoskedastyczność składnika losowego
start learning
składniki losowe mają taką samą wariancję
Współczynnik determinacji
start learning
iloraz wariancji wartości teoretycznych i wariancji wartości empirycznych zmiennej objaśniającej; miara pozwalająca określić czy model jest “wystarczająco” dobry. Czyli objaśnia jaka część zmienności zmiennej objaśnianej jest wyjaśniona przez model
Współczynnik zbieżności
start learning
Jaka część zmienności zmiennej objaśnianej nie została wyjaśniona przez model. =1-R^2
Badanie istotności zmiennych (jakie testy?)
start learning
Test t-Studenta - wykorzystywany do weryfikacji istotności parametru w modelu Test F-Sendecora - wykorzystywany do weryfikacji istotności całego wektora parametrów (test Walda)
obszar niekonkluzywności
start learning
W sytuacji gdy test DW nie daje odpowiedzi na temat występowania autokorelacji, jest to tak zwany obszar niekonkluzywności.
Błąd standardowy
start learning
estymowane odchylenie standardowe błędu danej metody
Błąd względny
start learning
iloraz pomiędzy błędem bezwzględnym i wartością dokładną zmiennej objaśniającej
Współczynnik autokorelacji k-tego rzędu
start learning
współczynnik korelacji wartości zmiennej objaśnianej z wartościami tej samej zmiennej przesuniętej w czasie o k okresów
Jak zbadać natężenie efektu katalizy?
start learning
Badamy integralną pojemność informacyjną H. Natężenie efektu katalizy= R^2-H Im większa korelacja między zmiennymi objaśniającymi, tym niższe wartości przybiera H.
Metody różniczki zupełnej
start learning
estymacja parametrów przy wykorzystaniu przyrostów wartości zmiennej (można z tego korzystać tylko jeżeli współczynnik autokorelacji jest bliski jedności)
Co oznacza autokorelacja?
start learning
pomiędzy zmiennymi losowymi a ich opóźnieniami istnieje zależności stochastyczna.
brak sferyczności składnika losowego
start learning
autokorelacja+heteroskedastycznoś Estymator oszacowany KMNK nadal jest nieobciążony i zgodny ale traci EFEKTYWNOŚĆ.
Uogólniona MNK
start learning
Stosujemy, gdy brak jest sferyczności składnika losowego (nie możemy przeprowadzić KMNK). UMNK stosujemy wyłącznie gdy macierz omega jest znana lub możliwe jest jej oszacowanie. Szacujemy parametry modelu na podstawie transformowanych zmiennych.
Jakie są konsekwencje braku sferyczności składnika losowego (heteroskedastyczność/autokorelacja?)
start learning
Niedoszacowanie wariancji składnika losowego; Niedoszacowanie błędów standartowych parametrów; Zawyżone statystyki t-Studenta. Obraz weryfikacji modelu jest nieprawdziwy. Poza tym obserwujemy zbyt wysoką wartość R2 czyli współczynnika determinacji. Powstaje złudne dobre dopasowanie modelu do danych empirycznych.
Metoda Cochrane'a -Orcutta
start learning
jest wersją UMNK (uogólnionej metody najmniejszych kwadratów) a stosowana bywa przy wystąpieniu autokorelacji pierwszego rzędu.
Koincydencja
start learning
zgodność znaków ocen parametrów i znaków współczynników korelacji
Kompensacja
start learning
jeżeli dwie zmienne objaśniające są ze sobą skorelowane; jedna jest niedoszacowana, a druga jest przeszacowana
Anihilacja
start learning
Sytuacja, w której dwie zmienne są dobrymi zmiennymi objaśniającymi ale w połączeniu znacząco obniżają współczynnik determinacji. (wysoka korelacja)
Regresja grzbietowa
start learning
sztucznie zmniejsza się wartość współczynników korelacji (przez dodanie wartości parametru lambda) w celu otrzymania bardziej stabilnych wartości współczynników.
Kinetoza
start learning
powoduje Anihilację; silna współliniowosc zm. objaśniających

You must sign in to write a comment