Ekonometri
Terakhir diubah pada
Pertemuan 1
RPS
Rencana Pembelajaran Ekonometrika
Minggu | Materi Pembelajaran | Pustaka |
---|---|---|
1 | Pengantar Ekonometrika dan Model Regresi Linear | Bab 1: The Linear Regression Model: An Overview |
2 | Bentuk Fungsional Model Regresi | Bab 2: Functional Forms of Regression Models |
3 | Variabel Dummy dalam Regresi | Bab 3: Qualitative Explanatory Variables Regression Models |
4 | Multikolinearitas dalam Model Regresi | Bab 4: Regression Diagnostic I: Multicollinearity |
5 | Heteroskedastisitas dalam Regresi | Bab 5: Regression Diagnostic II: Heteroscedasticity |
6 | Autokorelasi dalam Regresi | Bab 6: Regression Diagnostic III: Autocorrelation |
7 | Kesalahan Spesifikasi Model Regresi | Bab 7: Regression Diagnostic IV: Model Specification Errors |
8 | Ujian Tengah Semester (UTS) | - |
9 | Model Logit dan Probit untuk Data Kategorikal | Bab 8: The Logit and Probit Models |
10 | Model Multinomial dan Ordinal dalam Regresi | Bab 9-10: Multinomial & Ordinal Regression Models |
11 | Model Data Terbatas dan Poisson Regression | Bab 11-12: Limited Dependent Variable & Poisson Models |
12 | Analisis Deret Waktu | Bab 13: Stationary and Nonstationary Time Series |
13 | Kointegrasi dan Model Koreksi Kesalahan (ECM) | Bab 14: Cointegration and Error Correction Models |
14 | Model Volatilitas (ARCH dan GARCH) | Bab 15: Asset Price Volatility: The ARCH and GARCH Models |
15 | Model Data Panel dan Survival Analysis | Bab 17-18: Panel Data Regression & Survival Analysis |
16 | Ujian Akhir Semester (UAS) | - |
Pertemuan 2
Bab 1: Pengantar Ekonometrika
1.1 Apa Itu Ekonometrika?
Ekonometrika adalah cabang ilmu ekonomi yang menggunakan metode statistik dan matematika untuk menganalisis data ekonomi.
1.2 Peran Ekonometrika dalam Ilmu Ekonomi
- Membantu dalam estimasi parameter model ekonomi.
- Menguji hipotesis ekonomi berdasarkan data empiris.
- Melakukan peramalan ekonomi, seperti prediksi inflasi dan harga saham.
1.3 Proses Penelitian Ekonometrika
- Spesifikasi Model Ekonometrika
- Pengumpulan Data (Cross-section, Time Series, Panel)
- Estimasi Parameter Model (OLS, MLE, dll.)
- Uji Diagnostik (Heteroskedastisitas, Multikolinearitas, Autokorelasi)
- Interpretasi dan Prediksi
Bab 2: Model Regresi Linier
2.1 Konsep Regresi Linier
Regresi linier sederhana digunakan untuk melihat hubungan antara satu variabel independen \(X\) dan satu variabel dependen \(Y\):
\[ Y = \beta_0 + \beta_1 X + u \]
di mana:
- \( Y \) = variabel dependen
- \( X \) = variabel independen
- \( \beta_0 \) = intercept
- \( \beta_1 \) = koefisien regresi
- \( u \) = error term
2.2 Ordinary Least Squares (OLS)
OLS adalah metode estimasi paling umum dalam regresi linier yang bertujuan untuk meminimalkan jumlah kuadrat kesalahan.
2.3 Bentuk Fungsional Model Regresi
- Log-lin: \( \ln Y = \beta_0 + \beta_1 X + u \)
- Lin-log: \( Y = \beta_0 + \beta_1 \ln X + u \)
- Polinomial: \( Y = \beta_0 + \beta_1 X + \beta_2 X^2 + u \)
2.4 Evaluasi Model
- Koefisien Determinasi \( R^2 \)
- Uji Statistik \( t \) dan \( F \)
Kesimpulan
Bab 1 membahas konsep dasar ekonometrika dan pentingnya dalam analisis ekonomi. Bab 2 menjelaskan model regresi linier dan metode OLS yang menjadi dasar banyak analisis ekonometrika.
Pertemuan 3
Model Regresi dengan Variabel Dummy
1. Pengantar
Model regresi sering kali menggunakan variabel kuantitatif, namun ada kasus di mana variabel independen bersifat kualitatif. Untuk memasukkan variabel ini, kita menggunakan variabel dummy, yang biasanya bernilai 1
jika atribut ada dan 0
jika atribut tidak ada.
2. Fungsi Upah dengan Variabel Dummy
Model regresi dengan dummy:
\[ \text{Wage}_i = \beta_1 + \beta_2 D_{2i} + \beta_3 D_{3i} + \beta_4 D_{4i} + \beta_5 \text{Educ}_i + \beta_6 \text{Exper}_i + u_i \]
di mana:
- \( D_2 = 1 \) jika perempuan, 0 jika laki-laki.
- \( D_3 = 1 \) jika non-white, 0 jika white.
- \( D_4 = 1 \) jika anggota serikat pekerja, 0 jika bukan.
3. Dummy Variable Trap
Jika suatu variabel memiliki m kategori, hanya boleh ada (m - 1) variabel dummy dalam model agar tidak terjadi multikolinearitas sempurna.
4. Dummy Interaksi
Untuk menangkap efek gabungan dari dua variabel dummy, kita gunakan dummy interaksi:
\[ \text{Wage}_i = \beta_1 + \beta_2 D_{gender} + \beta_3 D_{race} + \beta_4 (D_{gender} \times D_{race}) + u_i \]
Jika \( \beta_4 \) signifikan, berarti ada efek spesifik bagi kelompok tertentu.
5. Dummy Variabel untuk Perubahan Struktural
Untuk mendeteksi perubahan struktural dalam hubungan ekonomi sebelum dan sesudah suatu peristiwa, digunakan dummy variabel:
\[ GPI_t = \beta_1 + \beta_2 GPS_t + \beta_3 D_{krisis} + \beta_4 (D_{krisis} \times GPS_t) + u_t \]
Jika \( \beta_3 \) dan \( \beta_4 \) signifikan, berarti ada perubahan struktural.
6. Dummy Variabel untuk Data Musiman
Dummy variabel juga digunakan untuk menangkap pola musiman dalam data ekonomi:
\[ \text{Sales}_t = \alpha_1 + \alpha_2 D_{Q2} + \alpha_3 D_{Q3} + \alpha_4 D_{Q4} + u_t \]
di mana:
- Kuartal pertama (Q1) menjadi kategori referensi.
- Koefisien dummy menunjukkan perbedaan rata-rata penjualan dibanding Q1.
Kesimpulan
- Variabel dummy memungkinkan kita memasukkan variabel kualitatif dalam regresi.
- Hindari dummy variable trap dengan tidak memasukkan semua kategori dummy sekaligus.
- Dummy interaksi membantu memahami efek gabungan dari dua variabel kualitatif.
- Dummy variabel dapat digunakan untuk mendeteksi perubahan struktural dan pola musiman.
Pertemuan 4
Multikolinearitas dalam Regresi
1. Pengertian Multikolinearitas
Multikolinearitas terjadi ketika terdapat hubungan linear yang kuat antara dua atau lebih variabel independen dalam model regresi.
Jenis Multikolinearitas:
- Multikolinearitas Sempurna: Hubungan linear eksak antara variabel bebas.
- Multikolinearitas Tidak Sempurna: Hubungan linear yang hampir sempurna tetapi tidak eksak.
2. Konsekuensi Multikolinearitas
- Estimasi OLS tetap BLUE tetapi memiliki varians besar.
- Interval kepercayaan menjadi lebih lebar, sehingga pengujian hipotesis menjadi sulit.
- Nilai statistik \( t \) menjadi tidak signifikan.
- Koefisien regresi menjadi sangat sensitif terhadap perubahan kecil dalam data.
3. Deteksi Multikolinearitas
Beberapa metode untuk mendeteksi multikolinearitas:
- \( R^2 \) tinggi tetapi banyak variabel tidak signifikan.
- Korelasi tinggi antar variabel independen (\( > 0.8 \)).
- Faktor Inflasi Varians (VIF):
\[ VIF = \frac{1}{1 - R^2} \]
Jika \( VIF > 10 \), menunjukkan adanya multikolinearitas yang serius.
Nilai toleransi (TOL) adalah kebalikan dari VIF:
\[ TOL = \frac{1}{VIF} \]
Jika \( TOL < 0.1 \), maka kemungkinan ada masalah multikolinearitas.
4. Cara Mengatasi Multikolinearitas
- Menghapus variabel yang berkorelasi tinggi dengan variabel lain.
- Menggabungkan beberapa variabel yang berkorelasi tinggi menjadi satu indeks.
- Menambah jumlah observasi.
- Menggunakan transformasi data.
- Menggunakan metode regresi alternatif seperti Regresi Ridge dan Analisis Komponen Utama (PCA).
Kesimpulan
- Multikolinearitas menyebabkan kesulitan dalam interpretasi hasil regresi.
- Deteksi dapat dilakukan dengan melihat nilai VIF, korelasi variabel bebas, dan signifikansi uji \( t \).
- Solusi meliputi pemilihan variabel yang lebih tepat, penggabungan variabel, dan penggunaan metode regresi alternatif.
Pertemuan 5
Bab 5: Diagnostik Regresi II – Heteroskedastisitas
1. Pengertian dan Konsekuensi
Heteroskedastisitas adalah kondisi di mana varian galat tidak konstan di seluruh observasi, terutama pada data cross-section.
Model klasik mengasumsikan:
\[ \text{Var}(u_i) = \sigma^2 \]
Heteroskedastisitas terjadi jika:
\[ \text{Var}(u_i) = \sigma_i^2 \]
Konsekuensi:
- OLS tetap unbiased dan konsisten
- Tidak efisien (bukan BLUE)
- Statistik \( t \) dan \( F \) bisa menyesatkan
- Solusi: Weighted Least Squares (WLS)
2. Studi Kasus: Tingkat Aborsi di AS
- Model regresi: \( \text{ABR}_i = \beta_1 + \beta_2 X_{2i} + \cdots + \beta_k X_{ki} + u_i \)
- Variabel signifikan: \( \text{PRICE}, \text{INCOME}, \text{PICKET} \)
- \( R^2 = 0.58 \), tetapi ada indikasi heteroskedastisitas dari grafik residu kuadrat
3. Uji Deteksi Heteroskedastisitas
Breusch–Pagan Test
Langkah:
- Hitung residu kuadrat \( e_i^2 \)
- Regresi \( e_i^2 = A_1 + A_2 X_{2i} + \cdots + A_k X_{ki} + v_i \)
- Hipotesis nol: semua \( A_j = 0 \)
- Gunakan \( nR^2 \sim \chi^2_k \)
White Test
Regresikan \( e_i^2 \) pada:
- Variabel asli
- Kuadrat variabel
- Cross-product variabel
Atau versi singkat:
\[ e_i^2 = \alpha_1 + \alpha_2 \hat{Y}_i + \alpha_3 \hat{Y}_i^2 + v_i \]
4. Solusi Heteroskedastisitas
- Transformasi Model: bagi seluruh persamaan dengan variabel penyebab varians berubah.
- Log Transformasi: gunakan model semi-log: \( \log(Y) = \beta_0 + \beta_1 X_1 + \cdots + \beta_k X_k + u \)
- White's Robust Standard Errors: koreksi standard error tanpa mengubah koefisien \( \beta \).
5. Kesimpulan
- Heteroskedastisitas adalah pelanggaran asumsi CLRM yang umum
- Tidak merusak unbiasedness, tapi mengurangi efisiensi
- Gunakan uji BP dan White untuk deteksi
- Solusi: transformasi atau gunakan robust standard errors
Pertemuan 6
Bab 6: Diagnostik Regresi III – Autokorelasi
1. Konsep dan Konsekuensi
Autokorelasi terjadi jika error term \( u_t \) berkorelasi dengan nilai sebelumnya seperti \( u_{t-1} \).
Konsekuensi:
- OLS tetap unbiased dan konsisten
- Tetapi tidak efisien (bukan BLUE)
- Standard error salah estimasi → \( t \)-statistik dan uji hipotesis menjadi bias
2. Contoh Kasus: Fungsi Konsumsi AS
Model regresi:
\[ \ln C_t = \beta_1 + \beta_2 \ln DPI_t + \beta_3 \ln W_t + \beta_4 R_t + u_t \]
Indikasi autokorelasi: nilai Durbin–Watson = 1.28
3. Uji Autokorelasi
a. Grafik
Plot residual \( e_t \) → jika berpola, indikasi autokorelasi
b. Durbin–Watson
- \( d < d_L \) → autokorelasi positif
- \( d > 4 - d_L \) → autokorelasi negatif
- \( d \approx 2 \) → tidak ada autokorelasi
Contoh: \( d = 1.28 < d_L = 1.452 \) → ada autokorelasi positif
c. Uji Breusch–Godfrey (BG)
Model uji:
\[ e_t = \alpha_0 + \alpha_1 X_{1t} + \cdots + \alpha_k X_{kt} + \phi_1 e_{t-1} + \cdots + \phi_p e_{t-p} + v_t \]
Gunakan \( R^2 \) dari regresi ini untuk uji \( \chi^2 \) atau \( F \).
4. Penanganan Autokorelasi
a. First Difference
\[ \Delta \ln C_t = \beta_2 \Delta \ln DPI_t + \beta_3 \Delta \ln W_t + \beta_4 \Delta R_t + v_t \]
b. Generalized Least Squares (GLS)
Asumsi:
\[ u_t = \rho u_{t-1} + v_t \quad \Rightarrow \quad e_t = \hat{\rho} e_{t-1} + \text{error} \]
Transformasi data menggunakan \( \hat{\rho} \), lakukan regresi ulang
c. Newey–West (HAC)
Gunakan standard error yang disesuaikan tanpa mengubah koefisien OLS
Cocok untuk data dengan autokorelasi + heteroskedastisitas, efektif jika sampel besar
5. Evaluasi Model dan Respesifikasi
- Masukkan \( \ln C_{t-1} \) sebagai regressor → model autoregresif
- Gunakan uji BG (karena DW tidak berlaku jika ada lag Y)
- Jika tetap terjadi autokorelasi, gunakan HAC atau IV
6. Kesimpulan
- Autokorelasi umum pada data time series
- Uji: grafik, DW, BG
- Penanganan: transformasi (first difference / GLS) atau gunakan HAC
- Tujuan: memperbaiki standard error untuk inference yang valid
Pertemuan 7
Bab 7: Kesalahan Spesifikasi Model Regresi
1. Pentingnya Spesifikasi Model
- Model harus memuat semua variabel penting dan tidak memasukkan variabel yang tidak relevan.
- Harus memiliki bentuk fungsional yang tepat dan tidak mengandung kesalahan pengukuran, outlier, atau simultanitas.
2. Penghilangan Variabel Penting
- Menimbulkan estimasi yang bias dan tidak konsisten.
- Prediksi dan inferensi menjadi tidak valid.
Solusi: uji F untuk membandingkan model terbatas dan lengkap.
3. Uji Deteksi
Ramsey RESET Test
Tambahkan \( \hat{Y}^2 \), \( \hat{Y}^3 \) ke dalam model. Jika signifikan → salah spesifikasi.
Lagrange Multiplier (LM) Test
Regresi residual terhadap variabel asli dan dugaan variabel hilang. Uji dengan \( nR^2 \).
4. Menyertakan Variabel Tidak Relevan
- Estimator tetap unbiased dan konsisten, tetapi efisiensi menurun.
- Multikolinearitas bisa muncul, derajat kebebasan menurun.
5. Salah Bentuk Fungsional
- Salah bentuk → estimasi bias.
- Perbandingan model log vs linear dapat dilihat dari normalitas residual dan uji \( R^2 \).
6. Kesalahan Pengukuran
- Y salah ukur → tetap unbiased tapi tidak efisien.
- X salah ukur → estimasi menjadi bias dan tidak konsisten.
Solusi: gunakan instrumental variables.
7. Outlier, Leverage, Influence
- Outlier → residual besar.
- Leverage → observasi jauh dari pusat X.
- Influence → sangat mengubah hasil regresi jika dihilangkan.
8. Normalitas Galat
Gunakan uji Jarque–Bera (JB):
\[ JB = \frac{n}{6} \left( S^2 + \frac{(K - 3)^2}{4} \right) \]
Jika JB signifikan → tolak hipotesis normalitas.
9. Simultaneity Bias
Contoh model konsumsi Keynes:
\[ C_t = B_1 + B_2 Y_t + u_t \]
\[ Y_t = C_t + I_t \]
Solusi: Gunakan metode ILS atau 2SLS.
10. Model Dinamis & Lag
Distributed Lag Model (DLM)
\[ Y_t = \alpha + \beta_0 X_t + \beta_1 X_{t-1} + \cdots + u_t \]
Koyck Transformation
\[ Y_t = \alpha + \beta_0 X_t + \rho Y_{t-1} + v_t \]
Model dinamis tanpa perlu menyertakan semua lag secara eksplisit.
Autoregressive Distributed Lag Model (ARDL)
\[ Y_t = \alpha + \sum A_i Y_{t-i} + \sum B_j X_{t-j} + u_t \]
Dapat mengestimasi multiplikator jangka pendek dan panjang.
Kesimpulan
- Kesalahan spesifikasi menyebabkan estimasi bias dan tidak efisien.
- Gunakan uji RESET, LM, dan evaluasi bentuk model.
- Perhatikan outliers, simultanitas, dan dinamika waktu.
Pertemuan 8
UTS
- Lakukan regresi pada data di bawah ini untuk menguji pengaruh $X1,X2,$$X3,X4$ terhadap $Y.$
- Lakukan uji dan mitigasi atas multikolinieritas yang mungkin terjadi.
- Lakukan uji dan mitigasi atas heteroskedastisitas yang mungkin terjadi.
- Lakukan uji dan mitigasi atas autokorelasi yang mungkin terjadi.
- Lakukan uji dan mitigasi atas ketidaknormalan galat yang mungkin terjadi.
- Simpulkan model terbaik untuk $Y$ berdasarkan keseluruhan uji di atas.
- Gunakan Eviews untuk melakukan uji dan regresi.
Pertemuan 9
Bab 8: Model Logit dan Probit
1. Latar Belakang
Variabel dependen sering kali bersifat binary, seperti merokok (1) atau tidak (0). Model regresi biasa tidak cocok untuk jenis data ini. Oleh karena itu digunakan model logit dan probit.
2. Linear Probability Model (LPM)
Model LPM diasumsikan sebagai:
\[ Y_i = \beta_1 + \beta_2 \text{AGE}_i + \beta_3 \text{EDUC}_i + \beta_4 \text{INCOME}_i + \beta_5 \text{PCIGS}_i + u_i \]
LPM memiliki banyak kelemahan:
- Probabilitas bisa di luar [0,1]
- Hubungan diasumsikan linear
- Error tidak normal dan heteroskedastik
3. Model Logit
Fungsi logit:
\[ P_i = \frac{1}{1 + e^{-Z_i}}, \quad Z_i = \beta X_i \]
Odds ratio:
\[ \ln\left(\frac{P_i}{1 - P_i}\right) = \beta X_i \]
Model diestimasi dengan Maximum Likelihood Estimation (MLE).
4. Interpretasi Koefisien
- Koefisien logit menunjukkan perubahan log odds
- Efek marginal tergantung nilai semua X
5. Model dengan Interaksi
Koefisien interaksi (misal EDUC × INCOME) bisa mengungkap pengaruh gabungan dua variabel terhadap probabilitas.
6. Model Probit
Dalam model probit, distribusi error mengikuti distribusi normal:
\[ P(Y = 1 | X) = \Phi(\beta X) \]
Fungsi distribusi kumulatif:
\[ \Phi(Z) = \int_{-\infty}^{Z} \frac{1}{\sqrt{2\pi}} e^{-\frac{t^2}{2}} dt \]
Estimasi juga dilakukan dengan MLE.
7. Marginal Effect Probit
Efek marginal:
\[ \frac{\partial P}{\partial X_i} = f(\beta X) \cdot \beta_i \]
di mana \( f(\beta X) \) adalah nilai dari fungsi kepadatan normal standar.
8. Perbandingan LPM, Logit, dan Probit
Model | Distribusi Error | Estimasi | Batas Probabilitas |
---|---|---|---|
LPM | Non-normal | OLS | Tidak dibatasi |
Logit | Logistik | MLE | [0,1] |
Probit | Normal | MLE | [0,1] |
9. Goodness of Fit
Count R2:
\[ \text{Count } R^2 = \frac{\text{jumlah prediksi benar}}{\text{total observasi}} \]
McFadden R2 juga digunakan sebagai pseudo R2.
10. Asumsi
-
Variabel Dependen Bersifat Dikotomis (Binary)
Variabel outcome harus berupa 0 atau 1 (dua kategori saling eksklusif).
Contoh: merokok (1) vs tidak merokok (0), diterima (1) vs ditolak (0). -
Tidak Ada Multikolinearitas Tinggi
Prediktor tidak boleh sangat berkorelasi satu sama lain.
Multikolinearitas menyebabkan koefisien tidak stabil dan standard error besar. -
Observasi Bersifat Independen
Data harus bebas dari autokorelasi atau dependensi antar observasi (terutama pada data time series atau panel).
Jika tidak terpenuhi → hasil uji statistik bisa bias. -
Ukuran Sampel yang Cukup
Karena estimasi dilakukan dengan Maximum Likelihood, maka:
Dibutuhkan jumlah observasi yang cukup (disarankan: >10 kasus per parameter).
Imbalanced data (sangat banyak 0 atau sangat banyak 1) dapat mengganggu hasil. - Tidak Ada Outlier Ekstrem atau Leverage Tinggi
-
Error Tidak Harus Normal atau Homoskedastik
Logit tidak mengasumsikan error harus normal atau memiliki varian konstan.
Ini berbeda dari regresi linear OLS.
11. Kesimpulan
- LPM tidak cocok untuk data binary
- Logit dan probit lebih stabil dan sesuai
- Efek marginal logit/probit bergantung pada semua X
- Logit lebih sederhana secara matematis; probit lebih umum dalam literatur statistik
Pertemuan 10
Multinomial Regression Models
1. Tiga Jenis Model Multinomial
a. Chooser-Specific Model (MLM)
Model ini menggunakan karakteristik individu (usia, pendapatan, pendidikan) untuk menjelaskan pilihan.
- Contoh 1: Lulusan SMA memilih antara tidak kuliah, kuliah 2 tahun, atau kuliah 4 tahun berdasarkan nilai dan pendapatan keluarga.
- Contoh 2: Pemilih dalam pemilu memilih partai politik berdasarkan usia, pendidikan, dan afiliasi agama.
- Contoh 3: Pasien memilih antara rumah sakit umum, rumah sakit swasta, dan klinik berdasarkan usia dan jenis kelamin.
b. Choice-Specific Model (CLM)
Model ini menggunakan karakteristik dari alternatif (harga, waktu, fitur) untuk menjelaskan pilihan.
- Contoh 1: Konsumen memilih antara tiga merek deterjen berdasarkan harga dan ukuran kemasan.
- Contoh 2: Wisatawan memilih hotel berdasarkan lokasi, harga, dan rating.
- Contoh 3: Penumpang memilih moda transportasi berdasarkan biaya dan waktu tempuh.
c. Mixed Logit Model (MXL)
Model ini menggabungkan karakteristik individu dan alternatif, termasuk interaksi antara keduanya.
- Contoh 1: Pekerja memilih moda transportasi berdasarkan pendapatan dan waktu tempuh tiap moda.
- Contoh 2: Konsumen memilih restoran berdasarkan usia dan harga makanan.
- Contoh 3: Mahasiswa memilih universitas berdasarkan nilai ujian dan biaya kuliah.
2. Multinomial Logit Model (MLM)
Probabilitas memilih kategori \( j \):
\[ P_{ij} = \frac{e^{\beta_j X_i}}{1 + \sum_{k=2}^{J} e^{\beta_k X_i}}, \quad j = 2, 3 \]
Probabilitas kategori referensi (misal: tidak kuliah):
\[ P_{i1} = \frac{1}{1 + e^{\beta_2 X_i} + e^{\beta_3 X_i}} \]
3. Interpretasi Koefisien
Koefisien menyatakan perubahan log odds memilih kategori \( j \) terhadap referensi.
Contoh: \( \text{grades} = -0.2995 \) → setiap kenaikan 1 poin nilai menurunkan odds memilih kuliah 2 tahun sebesar 26% (karena \( e^{-0.2995} \approx 0.74 \)).
4. Goodness of Fit
Gunakan pseudo-\( R^2 \):
\[ R^2 = 1 - \frac{\ln L_{\text{fit}}}{\ln L_0} \]
Atau gunakan uji LR (likelihood ratio test).
5. Conditional Logit Model (CLM)
Digunakan ketika karakteristik alternatif memengaruhi pilihan:
\[ P_{ij} = \frac{e^{\beta X_{ij}}}{\sum_{k=1}^{J} e^{\beta X_{ik}}} \]
6. Mixed Logit Model (MXL)
Gabungan antara CLM dan MLM, mengakomodasi variabel interaksi seperti:
train × income
, bus × party_size
Interpretasi: jika koefisien \( \text{train} \times \text{income} = -0.059 \), maka kenaikan income 1 unit menurunkan odds naik kereta sebesar 5.9%.
7. Asumsi IIA
Independence of Irrelevant Alternatives (IIA): probabilitas memilih suatu alternatif tidak boleh tergantung pada keberadaan pilihan lain yang tidak relevan.
Contoh pelanggaran: red bus vs blue bus → hanya warna berbeda, tapi pilihan tetap berubah secara signifikan.
8. Kesimpulan
- Gunakan MLM untuk karakteristik individu, CLM untuk karakteristik pilihan, dan MXL untuk kombinasi keduanya.
- Estimasi dilakukan dengan Maximum Likelihood (MLE).
- Perhatikan asumsi IIA dan gunakan pseudo \( R^2 \) untuk evaluasi model.
Pertemuan 11
Bab 11: Limited Dependent Variable Regression Models
Model ini digunakan ketika variabel dependen hanya terobservasi sebagian (censored) atau hanya dalam subset sampel (truncated).
Censored Model (Tobit):
- Digunakan ketika sebagian data Y bernilai nol atau tidak diketahui, tetapi X diketahui penuh.
- Model: \( Y_i^* = X_i\beta + u_i \), dan \( Y_i = \max(0, Y_i^*) \)
- Estimasi dengan metode Maximum Likelihood.
Truncated Model:
- Observasi Y dan X hanya tersedia jika nilai Y memenuhi kriteria tertentu.
- Bias dan inkonsistensi muncul jika menggunakan OLS pada data tertruncasi.
- Solusi: ML dengan distribusi normal tertruncasi.
Catatan: Koefisien Tobit menunjukkan efek pada variabel laten \( Y^* \), bukan langsung pada Y. Marginal effect harus dikalikan dengan probabilitas observasi.
Bab 12: Modeling Count Data – Poisson & Negative Binomial
Model ini digunakan ketika variabel dependen adalah data hitung, seperti jumlah paten, kunjungan, dll.
Poisson Regression Model (PRM):
- Asumsi: \( E(Y_i) = \lambda_i = \exp(X_i\beta) \), dan \( \text{Var}(Y_i) = \lambda_i \) (equidispersion).
- Estimasi dengan ML. Cocok untuk data hitung langka.
- Masalah umum: overdispersion (varian > mean).
- Jika ditemukan overdispersion → standard error PRM underestimated.
Uji Overdispersion (Cameron & Trivedi):
- Hitung residu: \( e_i = Y_i - \hat{Y}_i \)
- Hitung: \( e_i^2 - Y_i \)
- Regresikan terhadap \( \hat{Y}_i^2 \). Jika signifikan → overdispersion.
Solusi untuk Overdispersion:
- QMLE dan GLM: perbaiki standard error, koefisien tetap.
- Negative Binomial Regression Model (NBRM):
- Asumsi: \( \text{Var}(Y_i) = \mu_i + \alpha \mu_i^2 \)
- Lebih fleksibel karena mengakomodasi overdispersion.
- Parameter bentuk \( \alpha \) mengukur seberapa besar kelebihan varian.
Contoh Data Paten:
- Jumlah paten vs. log pengeluaran R&D, industri, dan negara.
- Hasil PRM: semua variabel signifikan, tapi ada overdispersion.
- Setelah koreksi: hanya sebagian variabel tetap signifikan.
- Hasil NBRM menunjukkan standar error lebih besar, dan hasil lebih realistis.
Kesimpulan Umum
- Tobit digunakan untuk model terbatas (truncated/censored).
- PRM digunakan untuk data hitung, tapi rawan overdispersion.
- NBRM direkomendasikan ketika ditemukan overdispersion.
- Software statistik seperti Stata dan EViews mendukung estimasi model-model ini dan koreksi robust error.
Pertemuan 12
Bab 13: Stationary and Nonstationary Time Series
1. Definisi Stasioner
- Mean konstan sepanjang waktu
- Varians konstan sepanjang waktu
- Kovarians hanya bergantung pada lag, bukan pada waktu
Strictly stationary: seluruh distribusi tidak berubah sepanjang waktu.
Weakly stationary: hanya mean, varians, dan kovarians yang konstan.
2. Kenapa Stasioner Penting?
- Jika nonstasioner, regresi bisa menghasilkan spurious regression.
- Model hanya berlaku di sampel, buruk untuk forecasting.
3. Cara Menguji Stasioneritas
- Plot Grafik: lihat pola tren atau fluktuasi stabil.
- Autocorrelation Function (ACF): ACF lambat turun mengindikasikan nonstasioner.
- Unit Root Test: Dickey-Fuller (DF) atau Augmented Dickey-Fuller (ADF).
4. Model Uji Akar Unit (Unit Root Test)
Model DF umum:
\[ \Delta Y_t = \beta_1 + \beta_2 t + \beta_3 Y_{t-1} + u_t \]
Hipotesis:
- H0: \( \beta_3 = 0 \) (nonstasioner)
- H1: \( \beta_3 < 0 \) (stasioner)
5. Contoh Data Kurs Dollar/Euro
- Data kurs menunjukkan nonstasioner.
- ADF test: statistik -3.0265 > critical value -3.1277 → gagal tolak H0.
- Setelah differencing, data menjadi stasioner.
6. Trend Stationary vs Difference Stationary
- Trend Stationary (TSP): stasioner setelah tren dihapus.
- Difference Stationary (DSP/I(1)): stasioner setelah differencing.
7. Random Walk Model
Model:
\[ Y_t = Y_{t-1} + u_t \]
Jika ada drift:
\[ Y_t = \delta + Y_{t-1} + u_t \]
Ciri random walk: varians meningkat seiring waktu, nonstasioner, tetapi menjadi stasioner setelah differencing.
8. Contoh Harga Saham IBM
- Level harga: nonstasioner (ADF -1.02, p = 0.75).
- Setelah differencing: stasioner (ADF -27.65, p = 0.0000).
- Kesimpulan: mengikuti random walk (I(1)).
9. Notasi Integrasi
- I(0): stasioner di level.
- I(1): stasioner setelah differencing satu kali.
- I(2): stasioner setelah differencing dua kali.
10. Simulasi Data (Contoh Praktis)
Grafik berikut mensimulasikan data random walk (nonstasioner) dan white noise (stasioner):
Contoh Data Mentah
Kesimpulan Umum
- Pengujian stasioneritas adalah syarat wajib dalam analisis time series.
- ADF Test paling umum digunakan.
- Random walk sangat umum dalam data keuangan.
Pertemuan 13
Pertemuan 14
Bab 15: Volatilitas Harga Aset - Model ARCH dan GARCH
1. Volatility Clustering dalam Data Keuangan
Pasar keuangan menunjukkan volatility clustering – periode volatilitas tinggi diikuti volatilitas tinggi lainnya, dan sebaliknya.
2. Keterbatasan Varians Tak Bersyarat
Model klasik asumsikan varians tetap. Padahal pada kenyataannya, volatilitas berubah dari waktu ke waktu. Solusinya: ARCH/GARCH.
3. Model ARCH (Autoregressive Conditional Heteroskedasticity)
Model mean:
\[ Y_t = \mu + u_t \]
Model variansi bersyarat:
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 \]
Untuk ARCH(p):
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 + \cdots + \alpha_p u_{t-p}^2 \]
4. Estimasi ARCH
- OLS: hanya cocok jika variansi positif
- Maximum Likelihood (ML): lebih akurat dan stabil
5. Model GARCH (Generalized ARCH)
Model GARCH(1,1):
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 + \beta_1 \sigma_{t-1}^2 \]
- Menggabungkan efek ARCH dan variansi lag sebelumnya
- Efisien dalam jumlah parameter
6. Model GARCH-in-Mean (GARCH-M)
Digunakan ketika risiko memengaruhi mean return:
\[ Y_t = \mu + \lambda \sigma_t^2 + u_t \]
7. Studi Kasus Dollar/Euro
- ARCH(8) vs GARCH(1,1)
- Keduanya memodelkan volatilitas dengan baik
- GARCH lebih ringkas dan efisien
8. Pengembangan Model
- TGARCH: Threshold GARCH
- EGARCH: Exponential GARCH
- GARCH-M: GARCH in Mean
- Model lanjutan lain: TARCH, NARCH, AARCH
9. Kesimpulan
- ARCH dan GARCH adalah fondasi pemodelan volatilitas dalam ekonomi/keuangan.
- Menggambarkan risiko dinamis secara lebih akurat daripada model klasik.
- Sangat relevan untuk analisis risiko, trading, dan forecasting pasar.
1. Latar Belakang: Volatilitas dalam Data Keuangan
Data keuangan seperti harga saham, kurs, dan suku bunga sering menunjukkan fenomena volatility clustering, yaitu:
- Periode volatilitas tinggi → tinggi terus
- Periode tenang → tetap tenang
Model klasik mengasumsikan varians error konstan (homoskedastik), padahal volatilitas nyata berubah-ubah.
2. Solusi: ARCH dan GARCH
Model ARCH dan GARCH dikembangkan untuk memodelkan varians error (volatilitas) yang berubah dari waktu ke waktu.
3. Model ARCH
Model mean:
\[ Y_t = \mu + u_t \]
Model varians bersyarat ARCH(1):
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 \]
Untuk ARCH(p):
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 + \cdots + \alpha_p u_{t-p}^2 \]
4. Model GARCH
Model GARCH(1,1):
\[ \sigma_t^2 = \alpha_0 + \alpha_1 u_{t-1}^2 + \beta_1 \sigma_{t-1}^2 \]
- Menggabungkan efek ARCH dan variansi sebelumnya
- Lebih fleksibel dan efisien dari segi parameter
5. Model GARCH-in-Mean (GARCH-M)
Ketika risiko (volatilitas) memengaruhi return, kita gunakan:
\[ Y_t = \mu + \lambda \sigma_t^2 + u_t \]
Risiko dimasukkan ke dalam model mean.
6. Estimasi Model
- OLS: sederhana, tapi tidak selalu positif
- Maximum Likelihood (ML): estimasi simultan mean & variansi, lebih stabil
7. Contoh Praktis
Studi kasus Gujarati pada data Dollar/Euro menunjukkan:
- Model ARCH(8) dan GARCH(1,1) dapat menangkap volatilitas
- GARCH lebih hemat parameter dan efisien
8. Variasi Lanjutan
- EGARCH: menangkap asimetri (naik-turun tidak sama)
- TGARCH: hanya aktif bila melewati threshold
- GARCH-M: risiko memengaruhi return
9. Intuisi Ringkas
Konsep | Inti Pemahaman |
---|---|
ARCH | Volatilitas tergantung error kuadrat sebelumnya |
GARCH | Volatilitas tergantung error dan variansi lag sebelumnya |
GARCH-M | Risiko (variansi) masuk ke dalam return |
White Noise | Error acak sempurna, tidak punya pola |
Volatility Clustering | Periode volatilitas tinggi saling berdekatan |
Model-model ini sangat penting untuk analisis risiko, manajemen portofolio, dan forecasting pasar keuangan.
Pertemuan 15
Pertemuan 16
Ketentuan UAS
- UAS hanya boleh dikerjakan selama 1 jam 30 menit (sudah termasuk mengunggah jawaban berbentuk pdf).
- Soal UAS boleh dikerjakan dari 19:00-20:00 dan selanjutnya klik Kirim Jawaban untuk mengunggah jawaban di google form.
- Setiap mahasiswa akan menerima soal masing-masing sesuai dengan NIM.
Daftar Hadir dan Nilai
Daftar Nilai TMT6C