Ekonometri
Terakhir diubah pada
Pertemuan 1
RPS
Rencana Pembelajaran Ekonometrika
Minggu | Materi Pembelajaran | Pustaka |
---|---|---|
1 | Pengantar Ekonometrika dan Model Regresi Linear | Bab 1: The Linear Regression Model: An Overview |
2 | Bentuk Fungsional Model Regresi | Bab 2: Functional Forms of Regression Models |
3 | Variabel Dummy dalam Regresi | Bab 3: Qualitative Explanatory Variables Regression Models |
4 | Multikolinearitas dalam Model Regresi | Bab 4: Regression Diagnostic I: Multicollinearity |
5 | Heteroskedastisitas dalam Regresi | Bab 5: Regression Diagnostic II: Heteroscedasticity |
6 | Autokorelasi dalam Regresi | Bab 6: Regression Diagnostic III: Autocorrelation |
7 | Kesalahan Spesifikasi Model Regresi | Bab 7: Regression Diagnostic IV: Model Specification Errors |
8 | Ujian Tengah Semester (UTS) | - |
9 | Model Logit dan Probit untuk Data Kategorikal | Bab 8: The Logit and Probit Models |
10 | Model Multinomial dan Ordinal dalam Regresi | Bab 9-10: Multinomial & Ordinal Regression Models |
11 | Model Data Terbatas dan Poisson Regression | Bab 11-12: Limited Dependent Variable & Poisson Models |
12 | Analisis Deret Waktu | Bab 13: Stationary and Nonstationary Time Series |
13 | Kointegrasi dan Model Koreksi Kesalahan (ECM) | Bab 14: Cointegration and Error Correction Models |
14 | Model Volatilitas (ARCH dan GARCH) | Bab 15: Asset Price Volatility: The ARCH and GARCH Models |
15 | Model Data Panel dan Survival Analysis | Bab 17-18: Panel Data Regression & Survival Analysis |
16 | Ujian Akhir Semester (UAS) | - |
Pertemuan 2
Bab 1: Pengantar Ekonometrika
1.1 Apa Itu Ekonometrika?
Ekonometrika adalah cabang ilmu ekonomi yang menggunakan metode statistik dan matematika untuk menganalisis data ekonomi.
1.2 Peran Ekonometrika dalam Ilmu Ekonomi
- Membantu dalam estimasi parameter model ekonomi.
- Menguji hipotesis ekonomi berdasarkan data empiris.
- Melakukan peramalan ekonomi, seperti prediksi inflasi dan harga saham.
1.3 Proses Penelitian Ekonometrika
- Spesifikasi Model Ekonometrika
- Pengumpulan Data (Cross-section, Time Series, Panel)
- Estimasi Parameter Model (OLS, MLE, dll.)
- Uji Diagnostik (Heteroskedastisitas, Multikolinearitas, Autokorelasi)
- Interpretasi dan Prediksi
Bab 2: Model Regresi Linier
2.1 Konsep Regresi Linier
Regresi linier sederhana digunakan untuk melihat hubungan antara satu variabel independen \(X\) dan satu variabel dependen \(Y\):
\[ Y = \beta_0 + \beta_1 X + u \]
di mana:
- \( Y \) = variabel dependen
- \( X \) = variabel independen
- \( \beta_0 \) = intercept
- \( \beta_1 \) = koefisien regresi
- \( u \) = error term
2.2 Ordinary Least Squares (OLS)
OLS adalah metode estimasi paling umum dalam regresi linier yang bertujuan untuk meminimalkan jumlah kuadrat kesalahan.
2.3 Bentuk Fungsional Model Regresi
- Log-lin: \( \ln Y = \beta_0 + \beta_1 X + u \)
- Lin-log: \( Y = \beta_0 + \beta_1 \ln X + u \)
- Polinomial: \( Y = \beta_0 + \beta_1 X + \beta_2 X^2 + u \)
2.4 Evaluasi Model
- Koefisien Determinasi \( R^2 \)
- Uji Statistik \( t \) dan \( F \)
Kesimpulan
Bab 1 membahas konsep dasar ekonometrika dan pentingnya dalam analisis ekonomi. Bab 2 menjelaskan model regresi linier dan metode OLS yang menjadi dasar banyak analisis ekonometrika.
Pertemuan 3
Model Regresi dengan Variabel Dummy
1. Pengantar
Model regresi sering kali menggunakan variabel kuantitatif, namun ada kasus di mana variabel independen bersifat kualitatif. Untuk memasukkan variabel ini, kita menggunakan variabel dummy, yang biasanya bernilai 1
jika atribut ada dan 0
jika atribut tidak ada.
2. Fungsi Upah dengan Variabel Dummy
Model regresi dengan dummy:
\[ \text{Wage}_i = \beta_1 + \beta_2 D_{2i} + \beta_3 D_{3i} + \beta_4 D_{4i} + \beta_5 \text{Educ}_i + \beta_6 \text{Exper}_i + u_i \]
di mana:
- \( D_2 = 1 \) jika perempuan, 0 jika laki-laki.
- \( D_3 = 1 \) jika non-white, 0 jika white.
- \( D_4 = 1 \) jika anggota serikat pekerja, 0 jika bukan.
3. Dummy Variable Trap
Jika suatu variabel memiliki m kategori, hanya boleh ada (m - 1) variabel dummy dalam model agar tidak terjadi multikolinearitas sempurna.
4. Dummy Interaksi
Untuk menangkap efek gabungan dari dua variabel dummy, kita gunakan dummy interaksi:
\[ \text{Wage}_i = \beta_1 + \beta_2 D_{gender} + \beta_3 D_{race} + \beta_4 (D_{gender} \times D_{race}) + u_i \]
Jika \( \beta_4 \) signifikan, berarti ada efek spesifik bagi kelompok tertentu.
5. Dummy Variabel untuk Perubahan Struktural
Untuk mendeteksi perubahan struktural dalam hubungan ekonomi sebelum dan sesudah suatu peristiwa, digunakan dummy variabel:
\[ GPI_t = \beta_1 + \beta_2 GPS_t + \beta_3 D_{krisis} + \beta_4 (D_{krisis} \times GPS_t) + u_t \]
Jika \( \beta_3 \) dan \( \beta_4 \) signifikan, berarti ada perubahan struktural.
6. Dummy Variabel untuk Data Musiman
Dummy variabel juga digunakan untuk menangkap pola musiman dalam data ekonomi:
\[ \text{Sales}_t = \alpha_1 + \alpha_2 D_{Q2} + \alpha_3 D_{Q3} + \alpha_4 D_{Q4} + u_t \]
di mana:
- Kuartal pertama (Q1) menjadi kategori referensi.
- Koefisien dummy menunjukkan perbedaan rata-rata penjualan dibanding Q1.
Kesimpulan
- Variabel dummy memungkinkan kita memasukkan variabel kualitatif dalam regresi.
- Hindari dummy variable trap dengan tidak memasukkan semua kategori dummy sekaligus.
- Dummy interaksi membantu memahami efek gabungan dari dua variabel kualitatif.
- Dummy variabel dapat digunakan untuk mendeteksi perubahan struktural dan pola musiman.
Pertemuan 4
Multikolinearitas dalam Regresi
1. Pengertian Multikolinearitas
Multikolinearitas terjadi ketika terdapat hubungan linear yang kuat antara dua atau lebih variabel independen dalam model regresi.
Jenis Multikolinearitas:
- Multikolinearitas Sempurna: Hubungan linear eksak antara variabel bebas.
- Multikolinearitas Tidak Sempurna: Hubungan linear yang hampir sempurna tetapi tidak eksak.
2. Konsekuensi Multikolinearitas
- Estimasi OLS tetap BLUE tetapi memiliki varians besar.
- Interval kepercayaan menjadi lebih lebar, sehingga pengujian hipotesis menjadi sulit.
- Nilai statistik \( t \) menjadi tidak signifikan.
- Koefisien regresi menjadi sangat sensitif terhadap perubahan kecil dalam data.
3. Deteksi Multikolinearitas
Beberapa metode untuk mendeteksi multikolinearitas:
- \( R^2 \) tinggi tetapi banyak variabel tidak signifikan.
- Korelasi tinggi antar variabel independen (\( > 0.8 \)).
- Faktor Inflasi Varians (VIF):
\[ VIF = \frac{1}{1 - R^2} \]
Jika \( VIF > 10 \), menunjukkan adanya multikolinearitas yang serius.
Nilai toleransi (TOL) adalah kebalikan dari VIF:
\[ TOL = \frac{1}{VIF} \]
Jika \( TOL < 0.1 \), maka kemungkinan ada masalah multikolinearitas.
4. Cara Mengatasi Multikolinearitas
- Menghapus variabel yang berkorelasi tinggi dengan variabel lain.
- Menggabungkan beberapa variabel yang berkorelasi tinggi menjadi satu indeks.
- Menambah jumlah observasi.
- Menggunakan transformasi data.
- Menggunakan metode regresi alternatif seperti Regresi Ridge dan Analisis Komponen Utama (PCA).
Kesimpulan
- Multikolinearitas menyebabkan kesulitan dalam interpretasi hasil regresi.
- Deteksi dapat dilakukan dengan melihat nilai VIF, korelasi variabel bebas, dan signifikansi uji \( t \).
- Solusi meliputi pemilihan variabel yang lebih tepat, penggabungan variabel, dan penggunaan metode regresi alternatif.
Pertemuan 5
Bab 5: Diagnostik Regresi II – Heteroskedastisitas
1. Pengertian dan Konsekuensi
Heteroskedastisitas adalah kondisi di mana varian galat tidak konstan di seluruh observasi, terutama pada data cross-section.
Model klasik mengasumsikan:
\[ \text{Var}(u_i) = \sigma^2 \]
Heteroskedastisitas terjadi jika:
\[ \text{Var}(u_i) = \sigma_i^2 \]
Konsekuensi:
- OLS tetap unbiased dan konsisten
- Tidak efisien (bukan BLUE)
- Statistik \( t \) dan \( F \) bisa menyesatkan
- Solusi: Weighted Least Squares (WLS)
2. Studi Kasus: Tingkat Aborsi di AS
- Model regresi: \( \text{ABR}_i = \beta_1 + \beta_2 X_{2i} + \cdots + \beta_k X_{ki} + u_i \)
- Variabel signifikan: \( \text{PRICE}, \text{INCOME}, \text{PICKET} \)
- \( R^2 = 0.58 \), tetapi ada indikasi heteroskedastisitas dari grafik residu kuadrat
3. Uji Deteksi Heteroskedastisitas
Breusch–Pagan Test
Langkah:
- Hitung residu kuadrat \( e_i^2 \)
- Regresi \( e_i^2 = A_1 + A_2 X_{2i} + \cdots + A_k X_{ki} + v_i \)
- Hipotesis nol: semua \( A_j = 0 \)
- Gunakan \( nR^2 \sim \chi^2_k \)
White Test
Regresikan \( e_i^2 \) pada:
- Variabel asli
- Kuadrat variabel
- Cross-product variabel
Atau versi singkat:
\[ e_i^2 = \alpha_1 + \alpha_2 \hat{Y}_i + \alpha_3 \hat{Y}_i^2 + v_i \]
4. Solusi Heteroskedastisitas
- Transformasi Model: bagi seluruh persamaan dengan variabel penyebab varians berubah.
- Log Transformasi: gunakan model semi-log: \( \log(Y) = \beta_0 + \beta_1 X_1 + \cdots + \beta_k X_k + u \)
- White's Robust Standard Errors: koreksi standard error tanpa mengubah koefisien \( \beta \).
5. Kesimpulan
- Heteroskedastisitas adalah pelanggaran asumsi CLRM yang umum
- Tidak merusak unbiasedness, tapi mengurangi efisiensi
- Gunakan uji BP dan White untuk deteksi
- Solusi: transformasi atau gunakan robust standard errors
Pertemuan 6
Bab 6: Diagnostik Regresi III – Autokorelasi
1. Konsep dan Konsekuensi
Autokorelasi terjadi jika error term \( u_t \) berkorelasi dengan nilai sebelumnya seperti \( u_{t-1} \).
Konsekuensi:
- OLS tetap unbiased dan konsisten
- Tetapi tidak efisien (bukan BLUE)
- Standard error salah estimasi → \( t \)-statistik dan uji hipotesis menjadi bias
2. Contoh Kasus: Fungsi Konsumsi AS
Model regresi:
\[ \ln C_t = \beta_1 + \beta_2 \ln DPI_t + \beta_3 \ln W_t + \beta_4 R_t + u_t \]
Indikasi autokorelasi: nilai Durbin–Watson = 1.28
3. Uji Autokorelasi
a. Grafik
Plot residual \( e_t \) → jika berpola, indikasi autokorelasi
b. Durbin–Watson
- \( d < d_L \) → autokorelasi positif
- \( d > 4 - d_L \) → autokorelasi negatif
- \( d \approx 2 \) → tidak ada autokorelasi
Contoh: \( d = 1.28 < d_L = 1.452 \) → ada autokorelasi positif
c. Uji Breusch–Godfrey (BG)
Model uji:
\[ e_t = \alpha_0 + \alpha_1 X_{1t} + \cdots + \alpha_k X_{kt} + \phi_1 e_{t-1} + \cdots + \phi_p e_{t-p} + v_t \]
Gunakan \( R^2 \) dari regresi ini untuk uji \( \chi^2 \) atau \( F \).
4. Penanganan Autokorelasi
a. First Difference
\[ \Delta \ln C_t = \beta_2 \Delta \ln DPI_t + \beta_3 \Delta \ln W_t + \beta_4 \Delta R_t + v_t \]
b. Generalized Least Squares (GLS)
Asumsi:
\[ u_t = \rho u_{t-1} + v_t \quad \Rightarrow \quad e_t = \hat{\rho} e_{t-1} + \text{error} \]
Transformasi data menggunakan \( \hat{\rho} \), lakukan regresi ulang
c. Newey–West (HAC)
Gunakan standard error yang disesuaikan tanpa mengubah koefisien OLS
Cocok untuk data dengan autokorelasi + heteroskedastisitas, efektif jika sampel besar
5. Evaluasi Model dan Respesifikasi
- Masukkan \( \ln C_{t-1} \) sebagai regressor → model autoregresif
- Gunakan uji BG (karena DW tidak berlaku jika ada lag Y)
- Jika tetap terjadi autokorelasi, gunakan HAC atau IV
6. Kesimpulan
- Autokorelasi umum pada data time series
- Uji: grafik, DW, BG
- Penanganan: transformasi (first difference / GLS) atau gunakan HAC
- Tujuan: memperbaiki standard error untuk inference yang valid
Pertemuan 7
Bab 7: Kesalahan Spesifikasi Model Regresi
1. Pentingnya Spesifikasi Model
- Model harus memuat semua variabel penting dan tidak memasukkan variabel yang tidak relevan.
- Harus memiliki bentuk fungsional yang tepat dan tidak mengandung kesalahan pengukuran, outlier, atau simultanitas.
2. Penghilangan Variabel Penting
- Menimbulkan estimasi yang bias dan tidak konsisten.
- Prediksi dan inferensi menjadi tidak valid.
Solusi: uji F untuk membandingkan model terbatas dan lengkap.
3. Uji Deteksi
Ramsey RESET Test
Tambahkan \( \hat{Y}^2 \), \( \hat{Y}^3 \) ke dalam model. Jika signifikan → salah spesifikasi.
Lagrange Multiplier (LM) Test
Regresi residual terhadap variabel asli dan dugaan variabel hilang. Uji dengan \( nR^2 \).
4. Menyertakan Variabel Tidak Relevan
- Estimator tetap unbiased dan konsisten, tetapi efisiensi menurun.
- Multikolinearitas bisa muncul, derajat kebebasan menurun.
5. Salah Bentuk Fungsional
- Salah bentuk → estimasi bias.
- Perbandingan model log vs linear dapat dilihat dari normalitas residual dan uji \( R^2 \).
6. Kesalahan Pengukuran
- Y salah ukur → tetap unbiased tapi tidak efisien.
- X salah ukur → estimasi menjadi bias dan tidak konsisten.
Solusi: gunakan instrumental variables.
7. Outlier, Leverage, Influence
- Outlier → residual besar.
- Leverage → observasi jauh dari pusat X.
- Influence → sangat mengubah hasil regresi jika dihilangkan.
8. Normalitas Galat
Gunakan uji Jarque–Bera (JB):
\[ JB = \frac{n}{6} \left( S^2 + \frac{(K - 3)^2}{4} \right) \]
Jika JB signifikan → tolak hipotesis normalitas.
9. Simultaneity Bias
Contoh model konsumsi Keynes:
\[ C_t = B_1 + B_2 Y_t + u_t \]
\[ Y_t = C_t + I_t \]
Solusi: Gunakan metode ILS atau 2SLS.
10. Model Dinamis & Lag
Distributed Lag Model (DLM)
\[ Y_t = \alpha + \beta_0 X_t + \beta_1 X_{t-1} + \cdots + u_t \]
Koyck Transformation
\[ Y_t = \alpha + \beta_0 X_t + \rho Y_{t-1} + v_t \]
Model dinamis tanpa perlu menyertakan semua lag secara eksplisit.
Autoregressive Distributed Lag Model (ARDL)
\[ Y_t = \alpha + \sum A_i Y_{t-i} + \sum B_j X_{t-j} + u_t \]
Dapat mengestimasi multiplikator jangka pendek dan panjang.
Kesimpulan
- Kesalahan spesifikasi menyebabkan estimasi bias dan tidak efisien.
- Gunakan uji RESET, LM, dan evaluasi bentuk model.
- Perhatikan outliers, simultanitas, dan dinamika waktu.
Pertemuan 8
UTS
- Lakukan regresi pada data di bawah ini untuk menguji pengaruh $X1,X2,$$X3,X4$ terhadap $Y.$
- Lakukan uji dan mitigasi atas multikolinieritas yang mungkin terjadi.
- Lakukan uji dan mitigasi atas heteroskedastisitas yang mungkin terjadi.
- Lakukan uji dan mitigasi atas autokorelasi yang mungkin terjadi.
- Lakukan uji dan mitigasi atas ketidaknormalan galat yang mungkin terjadi.
- Simpulkan model terbaik untuk $Y$ berdasarkan keseluruhan uji di atas.
- Gunakan Eviews untuk melakukan uji dan regresi.
Pertemuan 9
Bab 8: Model Logit dan Probit
1. Latar Belakang
Variabel dependen sering kali bersifat binary, seperti merokok (1) atau tidak (0). Model regresi biasa tidak cocok untuk jenis data ini. Oleh karena itu digunakan model logit dan probit.
2. Linear Probability Model (LPM)
Model LPM diasumsikan sebagai:
\[ Y_i = \beta_1 + \beta_2 \text{AGE}_i + \beta_3 \text{EDUC}_i + \beta_4 \text{INCOME}_i + \beta_5 \text{PCIGS}_i + u_i \]
LPM memiliki banyak kelemahan:
- Probabilitas bisa di luar [0,1]
- Hubungan diasumsikan linear
- Error tidak normal dan heteroskedastik
3. Model Logit
Fungsi logit:
\[ P_i = \frac{1}{1 + e^{-Z_i}}, \quad Z_i = \beta X_i \]
Odds ratio:
\[ \ln\left(\frac{P_i}{1 - P_i}\right) = \beta X_i \]
Model diestimasi dengan Maximum Likelihood Estimation (MLE).
4. Interpretasi Koefisien
- Koefisien logit menunjukkan perubahan log odds
- Efek marginal tergantung nilai semua X
5. Model dengan Interaksi
Koefisien interaksi (misal EDUC × INCOME) bisa mengungkap pengaruh gabungan dua variabel terhadap probabilitas.
6. Model Probit
Dalam model probit, distribusi error mengikuti distribusi normal:
\[ P(Y = 1 | X) = \Phi(\beta X) \]
Fungsi distribusi kumulatif:
\[ \Phi(Z) = \int_{-\infty}^{Z} \frac{1}{\sqrt{2\pi}} e^{-\frac{t^2}{2}} dt \]
Estimasi juga dilakukan dengan MLE.
7. Marginal Effect Probit
Efek marginal:
\[ \frac{\partial P}{\partial X_i} = f(\beta X) \cdot \beta_i \]
di mana \( f(\beta X) \) adalah nilai dari fungsi kepadatan normal standar.
8. Perbandingan LPM, Logit, dan Probit
Model | Distribusi Error | Estimasi | Batas Probabilitas |
---|---|---|---|
LPM | Non-normal | OLS | Tidak dibatasi |
Logit | Logistik | MLE | [0,1] |
Probit | Normal | MLE | [0,1] |
9. Goodness of Fit
Count R2:
\[ \text{Count } R^2 = \frac{\text{jumlah prediksi benar}}{\text{total observasi}} \]
McFadden R2 juga digunakan sebagai pseudo R2.
10. Kesimpulan
- LPM tidak cocok untuk data binary
- Logit dan probit lebih stabil dan sesuai
- Efek marginal logit/probit bergantung pada semua X
- Logit lebih sederhana secara matematis; probit lebih umum dalam literatur statistik
Pertemuan 10
Pertemuan 11
Pertemuan 12
Pertemuan 13
Pertemuan 14
Pertemuan 15
Daftar Hadir dan Nilai
Daftar Nilai TMT6C