Ekonometri

Ekonometri

Terakhir diubah pada

Pertemuan 1

RPS

Rencana Pembelajaran Ekonometrika

Minggu Materi Pembelajaran Pustaka
1 Pengantar Ekonometrika dan Model Regresi Linear Bab 1: The Linear Regression Model: An Overview
2 Bentuk Fungsional Model Regresi Bab 2: Functional Forms of Regression Models
3 Variabel Dummy dalam Regresi Bab 3: Qualitative Explanatory Variables Regression Models
4 Multikolinearitas dalam Model Regresi Bab 4: Regression Diagnostic I: Multicollinearity
5 Heteroskedastisitas dalam Regresi Bab 5: Regression Diagnostic II: Heteroscedasticity
6 Autokorelasi dalam Regresi Bab 6: Regression Diagnostic III: Autocorrelation
7 Kesalahan Spesifikasi Model Regresi Bab 7: Regression Diagnostic IV: Model Specification Errors
8 Ujian Tengah Semester (UTS) -
9 Model Logit dan Probit untuk Data Kategorikal Bab 8: The Logit and Probit Models
10 Model Multinomial dan Ordinal dalam Regresi Bab 9-10: Multinomial & Ordinal Regression Models
11 Model Data Terbatas dan Poisson Regression Bab 11-12: Limited Dependent Variable & Poisson Models
12 Analisis Deret Waktu Bab 13: Stationary and Nonstationary Time Series
13 Kointegrasi dan Model Koreksi Kesalahan (ECM) Bab 14: Cointegration and Error Correction Models
14 Model Volatilitas (ARCH dan GARCH) Bab 15: Asset Price Volatility: The ARCH and GARCH Models
15 Model Data Panel dan Survival Analysis Bab 17-18: Panel Data Regression & Survival Analysis
16 Ujian Akhir Semester (UAS) -

Pertemuan 2

Bab 1: Pengantar Ekonometrika

1.1 Apa Itu Ekonometrika?

Ekonometrika adalah cabang ilmu ekonomi yang menggunakan metode statistik dan matematika untuk menganalisis data ekonomi.

1.2 Peran Ekonometrika dalam Ilmu Ekonomi

  • Membantu dalam estimasi parameter model ekonomi.
  • Menguji hipotesis ekonomi berdasarkan data empiris.
  • Melakukan peramalan ekonomi, seperti prediksi inflasi dan harga saham.

1.3 Proses Penelitian Ekonometrika

  1. Spesifikasi Model Ekonometrika
  2. Pengumpulan Data (Cross-section, Time Series, Panel)
  3. Estimasi Parameter Model (OLS, MLE, dll.)
  4. Uji Diagnostik (Heteroskedastisitas, Multikolinearitas, Autokorelasi)
  5. Interpretasi dan Prediksi

Bab 2: Model Regresi Linier

2.1 Konsep Regresi Linier

Regresi linier sederhana digunakan untuk melihat hubungan antara satu variabel independen \(X\) dan satu variabel dependen \(Y\):

\[ Y = \beta_0 + \beta_1 X + u \]

di mana:

  • \( Y \) = variabel dependen
  • \( X \) = variabel independen
  • \( \beta_0 \) = intercept
  • \( \beta_1 \) = koefisien regresi
  • \( u \) = error term

2.2 Ordinary Least Squares (OLS)

OLS adalah metode estimasi paling umum dalam regresi linier yang bertujuan untuk meminimalkan jumlah kuadrat kesalahan.

2.3 Bentuk Fungsional Model Regresi

  • Log-lin: \( \ln Y = \beta_0 + \beta_1 X + u \)
  • Lin-log: \( Y = \beta_0 + \beta_1 \ln X + u \)
  • Polinomial: \( Y = \beta_0 + \beta_1 X + \beta_2 X^2 + u \)

2.4 Evaluasi Model

  • Koefisien Determinasi \( R^2 \)
  • Uji Statistik \( t \) dan \( F \)

Kesimpulan

Bab 1 membahas konsep dasar ekonometrika dan pentingnya dalam analisis ekonomi. Bab 2 menjelaskan model regresi linier dan metode OLS yang menjadi dasar banyak analisis ekonometrika.

Pertemuan 3

Model Regresi dengan Variabel Dummy

1. Pengantar

Model regresi sering kali menggunakan variabel kuantitatif, namun ada kasus di mana variabel independen bersifat kualitatif. Untuk memasukkan variabel ini, kita menggunakan variabel dummy, yang biasanya bernilai 1 jika atribut ada dan 0 jika atribut tidak ada.

2. Fungsi Upah dengan Variabel Dummy

Model regresi dengan dummy:

\[ \text{Wage}_i = \beta_1 + \beta_2 D_{2i} + \beta_3 D_{3i} + \beta_4 D_{4i} + \beta_5 \text{Educ}_i + \beta_6 \text{Exper}_i + u_i \]

di mana:

  • \( D_2 = 1 \) jika perempuan, 0 jika laki-laki.
  • \( D_3 = 1 \) jika non-white, 0 jika white.
  • \( D_4 = 1 \) jika anggota serikat pekerja, 0 jika bukan.

3. Dummy Variable Trap

Jika suatu variabel memiliki m kategori, hanya boleh ada (m - 1) variabel dummy dalam model agar tidak terjadi multikolinearitas sempurna.

4. Dummy Interaksi

Untuk menangkap efek gabungan dari dua variabel dummy, kita gunakan dummy interaksi:

\[ \text{Wage}_i = \beta_1 + \beta_2 D_{gender} + \beta_3 D_{race} + \beta_4 (D_{gender} \times D_{race}) + u_i \]

Jika \( \beta_4 \) signifikan, berarti ada efek spesifik bagi kelompok tertentu.

5. Dummy Variabel untuk Perubahan Struktural

Untuk mendeteksi perubahan struktural dalam hubungan ekonomi sebelum dan sesudah suatu peristiwa, digunakan dummy variabel:

\[ GPI_t = \beta_1 + \beta_2 GPS_t + \beta_3 D_{krisis} + \beta_4 (D_{krisis} \times GPS_t) + u_t \]

Jika \( \beta_3 \) dan \( \beta_4 \) signifikan, berarti ada perubahan struktural.

6. Dummy Variabel untuk Data Musiman

Dummy variabel juga digunakan untuk menangkap pola musiman dalam data ekonomi:

\[ \text{Sales}_t = \alpha_1 + \alpha_2 D_{Q2} + \alpha_3 D_{Q3} + \alpha_4 D_{Q4} + u_t \]

di mana:

  • Kuartal pertama (Q1) menjadi kategori referensi.
  • Koefisien dummy menunjukkan perbedaan rata-rata penjualan dibanding Q1.

Kesimpulan

  • Variabel dummy memungkinkan kita memasukkan variabel kualitatif dalam regresi.
  • Hindari dummy variable trap dengan tidak memasukkan semua kategori dummy sekaligus.
  • Dummy interaksi membantu memahami efek gabungan dari dua variabel kualitatif.
  • Dummy variabel dapat digunakan untuk mendeteksi perubahan struktural dan pola musiman.

Pertemuan 4

Multikolinearitas dalam Regresi

1. Pengertian Multikolinearitas

Multikolinearitas terjadi ketika terdapat hubungan linear yang kuat antara dua atau lebih variabel independen dalam model regresi.

Jenis Multikolinearitas:

  • Multikolinearitas Sempurna: Hubungan linear eksak antara variabel bebas.
  • Multikolinearitas Tidak Sempurna: Hubungan linear yang hampir sempurna tetapi tidak eksak.

2. Konsekuensi Multikolinearitas

  • Estimasi OLS tetap BLUE tetapi memiliki varians besar.
  • Interval kepercayaan menjadi lebih lebar, sehingga pengujian hipotesis menjadi sulit.
  • Nilai statistik \( t \) menjadi tidak signifikan.
  • Koefisien regresi menjadi sangat sensitif terhadap perubahan kecil dalam data.

3. Deteksi Multikolinearitas

Beberapa metode untuk mendeteksi multikolinearitas:

  • \( R^2 \) tinggi tetapi banyak variabel tidak signifikan.
  • Korelasi tinggi antar variabel independen (\( > 0.8 \)).
  • Faktor Inflasi Varians (VIF):

\[ VIF = \frac{1}{1 - R^2} \]

Jika \( VIF > 10 \), menunjukkan adanya multikolinearitas yang serius.

Nilai toleransi (TOL) adalah kebalikan dari VIF:

\[ TOL = \frac{1}{VIF} \]

Jika \( TOL < 0.1 \), maka kemungkinan ada masalah multikolinearitas.

4. Cara Mengatasi Multikolinearitas

  • Menghapus variabel yang berkorelasi tinggi dengan variabel lain.
  • Menggabungkan beberapa variabel yang berkorelasi tinggi menjadi satu indeks.
  • Menambah jumlah observasi.
  • Menggunakan transformasi data.
  • Menggunakan metode regresi alternatif seperti Regresi Ridge dan Analisis Komponen Utama (PCA).

Kesimpulan

  • Multikolinearitas menyebabkan kesulitan dalam interpretasi hasil regresi.
  • Deteksi dapat dilakukan dengan melihat nilai VIF, korelasi variabel bebas, dan signifikansi uji \( t \).
  • Solusi meliputi pemilihan variabel yang lebih tepat, penggabungan variabel, dan penggunaan metode regresi alternatif.

Pertemuan 5

Bab 5: Diagnostik Regresi II – Heteroskedastisitas

1. Pengertian dan Konsekuensi

Heteroskedastisitas adalah kondisi di mana varian galat tidak konstan di seluruh observasi, terutama pada data cross-section.

Model klasik mengasumsikan:

\[ \text{Var}(u_i) = \sigma^2 \]

Heteroskedastisitas terjadi jika:

\[ \text{Var}(u_i) = \sigma_i^2 \]

Konsekuensi:

  • OLS tetap unbiased dan konsisten
  • Tidak efisien (bukan BLUE)
  • Statistik \( t \) dan \( F \) bisa menyesatkan
  • Solusi: Weighted Least Squares (WLS)

2. Studi Kasus: Tingkat Aborsi di AS

  • Model regresi: \( \text{ABR}_i = \beta_1 + \beta_2 X_{2i} + \cdots + \beta_k X_{ki} + u_i \)
  • Variabel signifikan: \( \text{PRICE}, \text{INCOME}, \text{PICKET} \)
  • \( R^2 = 0.58 \), tetapi ada indikasi heteroskedastisitas dari grafik residu kuadrat

3. Uji Deteksi Heteroskedastisitas

Breusch–Pagan Test

Langkah:

  1. Hitung residu kuadrat \( e_i^2 \)
  2. Regresi \( e_i^2 = A_1 + A_2 X_{2i} + \cdots + A_k X_{ki} + v_i \)
  3. Hipotesis nol: semua \( A_j = 0 \)
  4. Gunakan \( nR^2 \sim \chi^2_k \)

White Test

Regresikan \( e_i^2 \) pada:

  • Variabel asli
  • Kuadrat variabel
  • Cross-product variabel

Atau versi singkat:

\[ e_i^2 = \alpha_1 + \alpha_2 \hat{Y}_i + \alpha_3 \hat{Y}_i^2 + v_i \]

4. Solusi Heteroskedastisitas

  1. Transformasi Model: bagi seluruh persamaan dengan variabel penyebab varians berubah.
  2. Log Transformasi: gunakan model semi-log: \( \log(Y) = \beta_0 + \beta_1 X_1 + \cdots + \beta_k X_k + u \)
  3. White's Robust Standard Errors: koreksi standard error tanpa mengubah koefisien \( \beta \).

5. Kesimpulan

  • Heteroskedastisitas adalah pelanggaran asumsi CLRM yang umum
  • Tidak merusak unbiasedness, tapi mengurangi efisiensi
  • Gunakan uji BP dan White untuk deteksi
  • Solusi: transformasi atau gunakan robust standard errors

Pertemuan 6

Bab 6: Diagnostik Regresi III – Autokorelasi

1. Konsep dan Konsekuensi

Autokorelasi terjadi jika error term \( u_t \) berkorelasi dengan nilai sebelumnya seperti \( u_{t-1} \).

Konsekuensi:

  • OLS tetap unbiased dan konsisten
  • Tetapi tidak efisien (bukan BLUE)
  • Standard error salah estimasi → \( t \)-statistik dan uji hipotesis menjadi bias

2. Contoh Kasus: Fungsi Konsumsi AS

Model regresi:

\[ \ln C_t = \beta_1 + \beta_2 \ln DPI_t + \beta_3 \ln W_t + \beta_4 R_t + u_t \]

Indikasi autokorelasi: nilai Durbin–Watson = 1.28

3. Uji Autokorelasi

a. Grafik

Plot residual \( e_t \) → jika berpola, indikasi autokorelasi

b. Durbin–Watson
  • \( d < d_L \) → autokorelasi positif
  • \( d > 4 - d_L \) → autokorelasi negatif
  • \( d \approx 2 \) → tidak ada autokorelasi

Contoh: \( d = 1.28 < d_L = 1.452 \) → ada autokorelasi positif

c. Uji Breusch–Godfrey (BG)

Model uji:

\[ e_t = \alpha_0 + \alpha_1 X_{1t} + \cdots + \alpha_k X_{kt} + \phi_1 e_{t-1} + \cdots + \phi_p e_{t-p} + v_t \]

Gunakan \( R^2 \) dari regresi ini untuk uji \( \chi^2 \) atau \( F \).

4. Penanganan Autokorelasi

a. First Difference

\[ \Delta \ln C_t = \beta_2 \Delta \ln DPI_t + \beta_3 \Delta \ln W_t + \beta_4 \Delta R_t + v_t \]

b. Generalized Least Squares (GLS)

Asumsi:

\[ u_t = \rho u_{t-1} + v_t \quad \Rightarrow \quad e_t = \hat{\rho} e_{t-1} + \text{error} \]

Transformasi data menggunakan \( \hat{\rho} \), lakukan regresi ulang

c. Newey–West (HAC)

Gunakan standard error yang disesuaikan tanpa mengubah koefisien OLS

Cocok untuk data dengan autokorelasi + heteroskedastisitas, efektif jika sampel besar

5. Evaluasi Model dan Respesifikasi

  • Masukkan \( \ln C_{t-1} \) sebagai regressor → model autoregresif
  • Gunakan uji BG (karena DW tidak berlaku jika ada lag Y)
  • Jika tetap terjadi autokorelasi, gunakan HAC atau IV

6. Kesimpulan

  • Autokorelasi umum pada data time series
  • Uji: grafik, DW, BG
  • Penanganan: transformasi (first difference / GLS) atau gunakan HAC
  • Tujuan: memperbaiki standard error untuk inference yang valid

Pertemuan 7

Bab 7: Kesalahan Spesifikasi Model Regresi

1. Pentingnya Spesifikasi Model

  • Model harus memuat semua variabel penting dan tidak memasukkan variabel yang tidak relevan.
  • Harus memiliki bentuk fungsional yang tepat dan tidak mengandung kesalahan pengukuran, outlier, atau simultanitas.

2. Penghilangan Variabel Penting

  • Menimbulkan estimasi yang bias dan tidak konsisten.
  • Prediksi dan inferensi menjadi tidak valid.

Solusi: uji F untuk membandingkan model terbatas dan lengkap.

3. Uji Deteksi

Ramsey RESET Test

Tambahkan \( \hat{Y}^2 \), \( \hat{Y}^3 \) ke dalam model. Jika signifikan → salah spesifikasi.

Lagrange Multiplier (LM) Test

Regresi residual terhadap variabel asli dan dugaan variabel hilang. Uji dengan \( nR^2 \).

4. Menyertakan Variabel Tidak Relevan

  • Estimator tetap unbiased dan konsisten, tetapi efisiensi menurun.
  • Multikolinearitas bisa muncul, derajat kebebasan menurun.

5. Salah Bentuk Fungsional

  • Salah bentuk → estimasi bias.
  • Perbandingan model log vs linear dapat dilihat dari normalitas residual dan uji \( R^2 \).

6. Kesalahan Pengukuran

  • Y salah ukur → tetap unbiased tapi tidak efisien.
  • X salah ukur → estimasi menjadi bias dan tidak konsisten.

Solusi: gunakan instrumental variables.

7. Outlier, Leverage, Influence

  • Outlier → residual besar.
  • Leverage → observasi jauh dari pusat X.
  • Influence → sangat mengubah hasil regresi jika dihilangkan.

8. Normalitas Galat

Gunakan uji Jarque–Bera (JB):

\[ JB = \frac{n}{6} \left( S^2 + \frac{(K - 3)^2}{4} \right) \]

Jika JB signifikan → tolak hipotesis normalitas.

9. Simultaneity Bias

Contoh model konsumsi Keynes:

\[ C_t = B_1 + B_2 Y_t + u_t \]

\[ Y_t = C_t + I_t \]

Solusi: Gunakan metode ILS atau 2SLS.

10. Model Dinamis & Lag

Distributed Lag Model (DLM)

\[ Y_t = \alpha + \beta_0 X_t + \beta_1 X_{t-1} + \cdots + u_t \]

Koyck Transformation

\[ Y_t = \alpha + \beta_0 X_t + \rho Y_{t-1} + v_t \]

Model dinamis tanpa perlu menyertakan semua lag secara eksplisit.

Autoregressive Distributed Lag Model (ARDL)

\[ Y_t = \alpha + \sum A_i Y_{t-i} + \sum B_j X_{t-j} + u_t \]

Dapat mengestimasi multiplikator jangka pendek dan panjang.

Kesimpulan

  • Kesalahan spesifikasi menyebabkan estimasi bias dan tidak efisien.
  • Gunakan uji RESET, LM, dan evaluasi bentuk model.
  • Perhatikan outliers, simultanitas, dan dinamika waktu.

Pertemuan 8

UTS

  1. Lakukan regresi pada data di bawah ini untuk menguji pengaruh $X1,X2,$$X3,X4$ terhadap $Y.$
  2. Lakukan uji dan mitigasi atas multikolinieritas yang mungkin terjadi.
  3. Lakukan uji dan mitigasi atas heteroskedastisitas yang mungkin terjadi.
  4. Lakukan uji dan mitigasi atas autokorelasi yang mungkin terjadi.
  5. Lakukan uji dan mitigasi atas ketidaknormalan galat yang mungkin terjadi.
  6. Simpulkan model terbaik untuk $Y$ berdasarkan keseluruhan uji di atas.
  7. Gunakan Eviews untuk melakukan uji dan regresi.

Pertemuan 9

Bab 8: Model Logit dan Probit

1. Latar Belakang

Variabel dependen sering kali bersifat binary, seperti merokok (1) atau tidak (0). Model regresi biasa tidak cocok untuk jenis data ini. Oleh karena itu digunakan model logit dan probit.

2. Linear Probability Model (LPM)

Model LPM diasumsikan sebagai:

\[ Y_i = \beta_1 + \beta_2 \text{AGE}_i + \beta_3 \text{EDUC}_i + \beta_4 \text{INCOME}_i + \beta_5 \text{PCIGS}_i + u_i \]

LPM memiliki banyak kelemahan:

  • Probabilitas bisa di luar [0,1]
  • Hubungan diasumsikan linear
  • Error tidak normal dan heteroskedastik

3. Model Logit

Fungsi logit:

\[ P_i = \frac{1}{1 + e^{-Z_i}}, \quad Z_i = \beta X_i \]

Odds ratio:

\[ \ln\left(\frac{P_i}{1 - P_i}\right) = \beta X_i \]

Model diestimasi dengan Maximum Likelihood Estimation (MLE).

4. Interpretasi Koefisien

  • Koefisien logit menunjukkan perubahan log odds
  • Efek marginal tergantung nilai semua X

5. Model dengan Interaksi

Koefisien interaksi (misal EDUC × INCOME) bisa mengungkap pengaruh gabungan dua variabel terhadap probabilitas.

6. Model Probit

Dalam model probit, distribusi error mengikuti distribusi normal:

\[ P(Y = 1 | X) = \Phi(\beta X) \]

Fungsi distribusi kumulatif:

\[ \Phi(Z) = \int_{-\infty}^{Z} \frac{1}{\sqrt{2\pi}} e^{-\frac{t^2}{2}} dt \]

Estimasi juga dilakukan dengan MLE.

7. Marginal Effect Probit

Efek marginal:

\[ \frac{\partial P}{\partial X_i} = f(\beta X) \cdot \beta_i \]

di mana \( f(\beta X) \) adalah nilai dari fungsi kepadatan normal standar.

8. Perbandingan LPM, Logit, dan Probit

ModelDistribusi ErrorEstimasiBatas Probabilitas
LPMNon-normalOLSTidak dibatasi
LogitLogistikMLE[0,1]
ProbitNormalMLE[0,1]

9. Goodness of Fit

Count R2:

\[ \text{Count } R^2 = \frac{\text{jumlah prediksi benar}}{\text{total observasi}} \]

McFadden R2 juga digunakan sebagai pseudo R2.

10. Kesimpulan

  • LPM tidak cocok untuk data binary
  • Logit dan probit lebih stabil dan sesuai
  • Efek marginal logit/probit bergantung pada semua X
  • Logit lebih sederhana secara matematis; probit lebih umum dalam literatur statistik

Pertemuan 10

Pertemuan 11

Pertemuan 12

Pertemuan 13

Pertemuan 14

Pertemuan 15

Daftar Hadir dan Nilai

Daftar Nilai TMT6C

ada juga ...

Loading...