bab iii metodologi penelitian 3.1. jenis dan sumber data · tidak ada multikolinearitas antara...
TRANSCRIPT
BAB III
METODOLOGI PENELITIAN
3.1. Jenis dan Sumber Data
Jenis data yang digunakan dalam penelitian ini adalah data sekunder (time
series) yang diperoleh dari beberapa lembaga dan instansi pemerintah, antara lain
berasal dari Badan Pusat Statistik (BPS) Provinsi Jawa Timur, Badan Koordinasi
Penanaman Modal Provinsi Jawa Timur dan Bank Indonesia serta beberapa situs
website yang mendukung dan berhubungan dengan penelitian ini. Data-data yang
digunakan adalah data penanaman modal asing yang disetujui pemerintah Provinsi
Jawa Timur, PDRB Provinsi Jawa Timur atas dasar harga berlaku, keterbukaan
ekonomi, inflasi dan upah minimum provinsi.
Tabel 3.1. Variabel-Variabel yang Digunakan dalam Penelitian
Variabel Satuan Sumber Simbol
Penanaman Modal Asing yang
disetujui
000 USD Badan Koordinasi
Penanaman Modal
(BKPM) Provinsi
Jawa Timur
PMA
Produk Domestik Regional
Bruto (PDRB) Provinsi Jawa
Timur atas dasar harga berlaku
Juta Rp Badan Pusat Statistik
(BPS) Provinsi Jawa
Timur
PDRB
Keterbukaan ekonomi dengan
proxy rasio jumlah ekspor dan
impor terhadap PDRB
persen Badan Pusat Statistik
(BPS) Provinsi Jawa
Timur
OPEN
Inflasi persen Badan Pusat Statistik
(BPS) Provinsi Jawa
Timur
INF
Upah Minimum Provinsi Rupiah Badan Pusat Statistik
(BPS) Provinsi Jawa
Timur
UMP
29
Data yang digunakan dalam penelitian ini merupakan data tahunan periode
1996 sampai dengan periode 2010. Tabel 3.1 menjelaskan tentang variabel-
variabel yang digunakan dalam penelitian ini beserta satuan, sumber dan
simbolnya.
3.2. Metode Analisis Data
Penelitian ini dilakukan untuk mengidentifikasi faktor-faktor yang
mempengaruhi Penanaman Modal Asing (PMA) di Provinsi Jawa Timur.
Memberikan gambaran tentang perkembangan penanaman modal asing periode
1996-2010 kepada Pemerintah Provinsi Jawa Timur sehingga dapat dijadikan
sebagai acuan pengambilan kebijakan untuk mendorong peningkatan Penanaman
Modal Asing (PMA) sebagai salah satu modal dalam melaksanakan pembangunan
yang selanjutnya diharapkan dapat meningkatkan laju pertumbuhan ekonomi.
Analisis kuantitatif dilakukan dengan menggunakan regresi linier berganda.
Metode analisis data yang digunakan adalah Ordinary Least Square (OLS). Untuk
memudahkan dalam melakukan pengolahan data yang digunakan dalam penelitian
ini, maka data tersebut dimasukkan ke dalam Microsoft Exel dan diolah dengan
menggunakan Eviews 6.0.
3.2.1. Analisis Deskriptif
Analisis deskriptif merupakan analisis penggambaran dari apa yang akan
dibicarakan lebih jauh. Adapun penyajiannya digunakan uraian dan grafik.
30
Analisis ini digunakan untuk menggambarkan keberadaan penanaman modal
asing di Provinsi Jawa Timur. Dalam penelitian ini, analisis deskriptif yang
digunakan menekankan pada aspek perkembangan aliran penanaman modal asing
serta aliran penanaman modal asing per sektor.
3.2.2. Metode Regresi Linier Berganda
Analisis regresi merupakan suatu alat analisis untuk mengetahui pengaruh
variabel bebas terhadap variabel tak bebas yang dinyatakan dalam koefisien
regresi. Variabel bebas adalah variabel yang nilainya dapat ditentukan dan bersifat
menerangkan variabel tak bebas yang nilainya tergantung kepada variabel bebas.
Dalam analisis regresi diketahui dua bentuk model yaitu model persamaan tunggal
dan model persamaan simultan. Pada model persamaan tunggal ada satu variabel
tak bebas Y yang diterangkan oleh satu atau beberapa variabel X. Sementara
dalam persamaan simultan suatu variabel Y tidak hanya ditentukan oleh variabel
X tetapi beberapa variabel X juga ditentukan oleh variabel Y atau ada dua variabel
Y1 dan Y2 yang dipengaruhi secara bersama-sama oleh suatu variabel X. Adapun
dalam penelitian ini menggunakan analisis regresi dengan model persamaan
tunggal yaitu analisis regresi linier berganda.
Ordinary Least Square (OLS) merupakan salah satu metode yang sering
digunakan karena kemudahannya dalam mengolah data. Gujarati (1993)
menyatakan bahwa ada beberapa asumsi yang harus dipenuhi dalam model ini
diantaranya adalah :
31
1. Semua penaksir tak bias linier atau penaksir OLS mempunyai varians
minimum.
2. Varians tiap unsur disturbance ei tergantung (conditional) pada nilai yang
dipilih dari variabel yang menjelaskan adalah suatu angka konstan yang
sama dengan yang merupakan asumsi homoskedastisitas yaitu varians
yang sama.
3. Tidak ada autokorelasi artinya tidak ada korelasi antara anggota
serangkaian observasi yang diurutkan menurut waktu (seperti dalam data
deret waktu) atau seperti dalam data cross sectional.
4. Variabel yang menjelaskan adalah non stokastik yaitu terdiri dari angka-
angka yang tetap (fixed) dan ei didistribusikan secara normal.
5. Tidak ada multikolinearitas antara variabel yang menjelaskan X.
Jika asumsi ini terpenuhi maka penaksiran OLS koefisien regresi menjadi
BLUE (Best Linier Unbiassed Estimator). Salah satu regresi dalam OLS adalah
regresi berganda. Analisis regresi linier berganda menunjukkan hubungan sebab
akibat antara variabel X (variable eksogen) yang merupakan penyebab dari
variabel Y (variable endogen) yang merupakan akibat. Analisis regresi linier
berganda digunakan untuk menguraikan pengaruh varibel-variabel yang
menjelaskan (eksogen) yang mempengaruhi varibel bebasnya (endogen). Regresi
linier berganda tidak hanya melihat keterkaitan antar variabel-variabel namun juga
mengukur besarnya hubungan kausalitasnya.
32
3.2.3. Model Umum Analisis Regresi Linier Berganda
Gujarati (1993), model umum analisis regresi linier berganda dapat
dituliskan sebagai berikut :
(3.1.)
Dimana :
Y : Variabel endogen atau variabel tak bebas
i : Periode
: Intersep atau nilai Y saat X = 0
: Variabel eksogen atau variabel bebas
: Parameter dari
: Error term atau derajat kesalahan
3.2.4. Model Analisis Penelitian
Dalam penelitian ini variabel yang digunakan dalam menganalisis faktor-
faktor yang mempengaruhi PMA di Provinsi Jawa Timur adalah PDRB dan nilai
tukar rupiah terhadap dolar Amerika. PDRB digunakan karena PDRB
menggambarkan besarnya pangsa pasar, nilai tukar menggambarkan kestabilan
moneter suatu Negara/wilayah. Sehingga model analisis regresi linier berganda
dalam penelitian ini adalah sebagai berikut :
(3.2)
Dimana :
PMA : Penanaman Modal Asing (000 USD)
PDRB : Produk Domestik Regional Bruto (Juta Rupiah)
33
OPEN : Keterbukaan ekonomi (persen)
INF : Inflasi (persen)
UMP : Upah minimum provinsi (Rupiah)
: Error term atau derajat kesalahan
3.3. Pengujian Kriteria Ekonomi dan Statistik
Pengujian dapat dilakukan dengan kriteria ekonomi dan statistik.
Pengujian kriteria ekonomi dilakukan untuk melihat besaran dan tanda parameter
yang akan diestimasi, apakah sesuai dengan teori atau tidak. Sedangkan pengujian
statistik dimaksudkan untuk mengetahui apakah model yang digunakan
merupakan model yang tepat untuk menggambarkan hubungan antar variabel.
Selain itu untuk mengetahui apakah ada hubungan yang signifikan diantara
variabel-variabel dependen dengan variabel independen.
3.3.1. Uji t
Uji t digunakan untuk melihat apakah masing-masing variabel bebas
(variable eksogen) secara parsial berpengaruh pada variabel tak bebasnya
(variable endogen). Selain itu juga untuk melihat keabsahan dari hipotesis dan
membuktikan bahwa koefisien regresi dalam model secara statistik signifikan atau
tidak.
Hipotesis : : = 0
: ≠ 0,I = 1,2,3,…,n.
34
Statistik uji yang dilakukan dalam uji t adalah sebagai berikut :
(3.4)
Hasil t-hitung dibandingkan dengan t-tabel .
Dimana :
b : Koefisien regresi parsial sampel
B : Koefisien regresi parsial populasi
Sb : Simpangan baku koefisien dugaan
Kriteria uji yang digunakan dalam melakukan uji-t adalah sebagai berikut :
1. Apabila nilai t-hitung lebih besar dari nilai , maka tolak H0. Hal
ini berarti bahwa variabel yang digunakan berpengaruh nyata terhadap
variabel tak bebas (variable endogen).
2. Apabila nilai t-hitung lebih kecil dari nilai , maka terima H0. Hal
ini berarti variabel yang digunakan tidak berpengaruh nyata terhadap
variabel tak bebas (variabel eksogen).
3.3.2. Uji F
Uji F dilakukan untuk melihat apakah variabel-variabel bebas (variable
eksogen) secara serempak berpengaruh nyata pada variabel terikatnya (variable
endogen). Apabila uji F lebih kecil dari taraf nyata artinya H0 diterima, hal ini
menandakan bahwa ada minimal satu variabel yang berpengaruh secara signifikan
atau berpengaruh nyata pada keragaman variabel terikatnya.
Mekanisme untuk menguji hipotesis dari parameter dugaan secara serentak
(uji F-statistik) adalah sebagai berikut :
35
Hipotesis : :
: minimal ada satu
Untuk i = 1, 2, 3, …, k
= dugaan parameter
Statistik uji yang dilakukan dalam uji-F adalah sebagai berikut :
⁄
⁄ (3.5)
Keterangan :
Hasil dari F-hitung dibandingkan dengan F-tabel (F-tabel = , dimana :
R2 = Koefisien determinasi
n = Banyaknya data
K = Jumlah koefisien regresi dugaan
Kriteria uji yang digunakan dalam pengujian model penduga adalah
sebagai berikut :
1. Apabila nilai F-hitung lebih besar dari , maka tolak H0.
Maksudnya adalah terdapat minimal parameter dugaan yang tidak nol dan
berpengaruh nyata terhadap keragaman variabel tak bebas.
2. Apabila nilai F-hitung lebih kecil dari , maka terima H0. Hal ini
berarti secara bersamaan variabel yang digunakan tidak bisa menjelaskan
secara nyata keragamaan dari variabel tak bebas.
3.3.3. Uji Koefisien Determinasi (R2)
Uji koefisien determinasi R2 (R
2 adjusted) digunakan untuk melihat sejauh
mana variabel bebas mampu menerangkan keragaman variabel terikatnya. Nilai
36
R2 mengukur tingkat keberhasilan model regresi yang digunakan dalam
memprediksi nilai variabel terikatnya. Menurut Gujarati (1993) terdapat dua sifat
R2 yaitu :
1. Merupakan besaran non negatif.
2. Batasnya adalah antara 0 dan 1. Jika R2 bernilai 1 berarti suatu kecocokan
sempurna, sedangkan jika R2 bernilai 0 berarti tidak ada hubungan antara
variabel terikat dengan variabel bebasnya.
R2 =
= 1 -
= 1 – ∑
∑
a atau (3.6)
= 1 -
(3.7)
Dimana :
ESS = Jumlah kuadrat yang dijelaskan (explained sum square)
TSS = Jumlah kuadrat total (total sum square)
= Varians residual
= Varians sampel dari Y
Salah satu masalah jika menggunakan ukuran R-squared untuk menilai
baik buruknya suatu model adalah mendapatkan nilai yang terus naik seiring
dengan pertambahan variabel bebas ke dalam model sehingga adjusted R-squared
secara umum memberikan penalty atau hukuman terhadap penambahan variabel
bebas yang tidak mampu menambah daya prediksi suatu model. Nilai adjusted R-
37
squared tidak akan pernah melebihi nilai R-squared bahkan bisa turun jika
ditambahkan variabel bebas yang tidak perlu. Bahkan model yang memiliki
kecocokan rendah (goodness of fit), adjusted R-squared dapat memiliki nilai
negative. Nilai Adjusted R-squared dapat dihitung sebagai berikut :
(3.8)
k adalah banyaknya parameter dalam model termasuk faktor intersep.
3.3.4. Uji Kriteria Ekonometrika
1. Uji Normalitas
Kenormalan sisaan diperlukan agar dihasilkan nilai estimasi parameter
yang tidak bias, efisien dan konsisten. Selain itu, pengujian parameter dalam
analisis regresi menggunakan nilai kritis distribusi t dan F yang keduanya berasal
dari distribusi normal. Pemeriksaan kenormalan sisaan dapat dlakukan melalui
Plot Persentil-Persentil (P-P Plot), jika nilai sisaan membentuk garis lurus maka
sisaan berdistribusi normal.
Pengujian asumsi kenormalan secara formal dapat dilakukan dengan uji
Kolmogorov-Smirnov yang merupakan suatu uji mengenai tingkat kesesuaian
antara distribusi serangkaian nilai sisaan dengan distribusi normal. Hipotesis yang
digunakan adalah :
H0 : distribusi sisaan mengikuti distribusi normal
H1 : distribusi sisaan tidak mengikuti distribusi normal
38
Statistik uji :
D = maksimum F0(Xi) – Sn(Xi) dengan i = 1, 2, 3, …, n.
F0(X) merupakan distribusi frekuensi kumulatif teoritis mengikuti distribusi
normal, sedangkan Sn(X) merupakan distribusi frekuensi kumulatif sisaan yang
diamati sesuai jumlah sampel.
Pada pengujian dengan tingkat kepercayaan sebesar (1-α) persen dapat
diambil keputusan menerima H0 jika D < Dtabel dan menolak H0 jika D ≥ Dtabel.
Dtabel merupakan nilai kritis dari tabel Kolmogorov-Smirnov. Selain itu
pengambilan keputusan dapat didasarkan pada nilai p-value yaitu jika p-value ≥ α
maka H0 diterima, sedangkan jika p-value < α maka H0 ditolak.
2. Autokorelasi
Secara harfiah autokorelasi berarti adanya korelasi antara anggota
observasi dengan observasi lain yang berlainan waktu atau disebut juga serial
correlation. Menurut Gujarati (1993), dalam model regresi akan terjadi
autokorelasi apabila terjadi bentuk fungsi yang tidak tepat, peubah penting
dihilangkan dari model, terjadi interpolasi data. Untuk mendeteksi ada tidaknya
autokorelasi first degree dapat digunakan nilai Durbin-Watson (DW) dari hasil
regresi, namun untuk melihat autokorelasi pada tingkat yang lebih tinggi
digunakan Uji Breuch Godfrey Serrial Corelation Lagrange LM Test.
Autokorelasi akan menyebabkan diantaranya sebagai berikut :
a. Dugaan parameter tidak bias.
b. Nilai galat baku mengalami autokorelasi, sehingga ramalan tidak efisien.
39
c. Ragam galat tidak jelas.
d. Terjadi pendugaan kurang tepat pada ragam galat (standar error
underestimated), sehingga Sb underestimated. Oleh karena itu, t
overestimate cenderung lebih besar dari yang sebenarnya.
H0 = β = 0 (tidak terdapat serial autokorelasi)
H1 = β ≠ 0 (terdapat serial autokorelasi)
Kriteria uji yang digunakan untuk melihat adanya autokorelasi adalah sebagai
berikut :
1. Apabila nilai obs*R-squared lebih besar dari taraf nyata yang digunakan,
maka model persamaan yang digunakan tidak mengalami masalah
autokorelasi.
2. Apabila nilai obs*R-squared lebih kecil dari taraf nyata yang digunakan,
maka model persamaan yang digunakan mengalami masalah autokorelasi.
Solusi dari masalah autokorelasi yaitu dengan menghilangkan variabel yang
sebenarnya tidak berpengaruh terhadap variabel bebas. Jika terjadi kesalahan
dalam spesifikasi model, hal ini dapat diatasi dengan mentransformasi model,
misalnya dari model linier menjadi non linier atau sebaliknya.
3. Heterokedastisitas
Seringkali pada data yang dianalisis ditemukan masalah varians residual
yang bervariasi (heterokedastisitas), sementara itu analisis regresi menghendaki
asumsi bahwa residual memiliki varians konstan (homokedastisitas).
Heterokedastisitas terjadi apabila ada pelanggaran pada asumsi regresi. Hal
40
tersebut ditandai dengan varians tidak tetap. Heterokedastisitas tidak merusak sifat
ketidakstabilan dan konsistensi dari penaksir OLS, tetapi penaksir dihasilkan tidak
lagi mempunyai varians minimum (efisien). Menurut Gujarati (1993), jika terjadi
heterokedastisitas maka akan berakibat sebagai berikut :
1. Estimasi dengan menggunakan OLS tidak akan memiliki varians yang
minimum atau estimator tidak efisien.
2. Prediksi (nilai Y untuk X tertentu) dengan estimator dari data yang
sebenarnya akan mempunyai varians yang tinggi, sehingga prediksi tidak
efisien.
3. Tidak akan ditetapkannya uji nyata koefisien atau selang kepercayaan
dengan menggunakan formula yang berkaitan dengan varians.
Secara umum ada beberapa cara atau teknik yang dapat digunakan untuk
mendeteksi adanya heterokedastisitas, yaitu :
1. Uji Park.
2. Uji Breusch Pagan Godfrey.
3. Uji White (White General Heterokedastisity Test).
Dalam penelitian ini untuk menguji ada tidaknya heterokedastisitas dengan
menggunakan Breusch Pagan Godfrey dan White General Heteroskedastisity
Test. Kriteria uji yang digunakan untuk melihat adanya heterokedastisitas adalah
jika nilai probability obs*R-squared lebih besar dari taraf nyata yang digunakan,
maka model persamaan yang digunakan tidak mengalami masalah
heterokedastisitas. Sebaliknya jika nilai probability obs*R-squared lebih kecil dari
41
taraf nyata yang digunakan, maka persamaan tersebut mengalami masalah
heterokedastisitas.
Untuk mengatasi masalah heterokedastisitas ada beberapa teknik,
diantaranya :
a. Metode Generalized Least Square (GLS).
b. Transformasi dengan logaritma.
4. Uji Multikolinearitas
Pada regresi linier berganda digunakan lebih dari satu variabel bebas untuk
menjelaskan variabel tak bebas. Asumsi yang harus dipenuhi adalah bahwa antar
variabel bebas ini tidak terdapat korelasi sehingga estimasi parameter koefisien
regresi dari masing-masing variabel bebas benar-benar mencerminkan
pengaruhnya terhadap variabel tak bebas. Multikolinearitas terjadi apabila pada
regresi linier berganda terjadi hubungan antar variabel bebas atau terjadi karena
adanya korelasi yang nyata antar peubah bebas. Pelanggaran asumsi ini akan
menyebabkan kesulitan untuk menduga yang diinginkan.
Menurut Gujarati (1993), untuk mendeteksi ada tidaknya multikolinieritas
adalah dengan memperlihatkan hasil probabilitas t-statistik hasil regresi. Jika
banyak koefisien parameter yang diduga menunjukkan hasil yang tidak signifikan,
maka hal ini mengindikasikan adanya multikolinieritas. Salah satu cara yang
paling mudah untuk mengatasi pelanggaran ini adalah dengan menghilangkan
salah satu variabel yang tidak signifikan tersebut. Hal ini sering tidak dilakukan
karena dapat menyebabkan bias parameter spesifikasi pada model. Kemudian cara
42
lain adalah dengan mencari variabel instrumental yang berkorelasi dengan
variabel terikat tetapi tidak berkorelasi dengan variabel bebas lainnya. Hal ini
agak sulit dilakukan mengingat tidak adanya informasi tentang tipe variabel
tersebut. Ada beberapa cara untuk mendeteksi ada tidaknya multikolinieritas,
salah satunya yaitu melalui correlation matric, dimana batas terjadinya korelasi
antar sesama variabel bebas adalah tidak lebih dari │0,80│.
Selain correlation matric dapat juga menggunakan Uji Klien, apabila
terdapat nilai korelasi yang lebih tinggi dari │0,80│, maka menurut Uji Klien
multikolinieritas dapat diabaikan selama nilai korelasi tersebut tidak melebihi
Adjusted R-squared. Jika tetap menggunakan OLS dalam menghitung estimasi
parameter model regresi linier berganda yang mengandung multikolinieritas maka
kita harus menghadapi konsekuensi sebagai berikut :
1. Estimator yang dihasilkan masih merupakan BLUE (Best Linear Unbiased
Estimator) tetapi memiliki varians dan kovarians yang besar sehingga sulit
mendapatkan estimasi yang tepat.
2. Interval estimasi akan cenderung melebar, sehingga nilai statistik hitung t
akan kecil akibatnya variabel bebas tidak signifikan secara individual
meskipun secara simultan signifikan.
3. Nilai korelasi simultan R-square tinggi tetapi korelasi parsial rendah.
3.4. Beberapa Kelemahan Metode Ordinary Least Square (OLS)
Ketika menggunakan data runtun waktu (time series), seringkali muncul
kesulitan-kesulitan yang sama sekali tidak dijumpai pada saat menggunakan data
43
seksi silang (cross section). Sebagian besar kesulitan tersebut berkaitan dengan
urutan pengamatan. Ada hal yang menjadi kelemahan metode Ordinary Least
Square (OLS) dengan menggunakan data time series (Gujarati, 1993) antara lain :
1. Suatu kondisi dimana satu variabel time series berubah secara konsisten
dan terprediksi sebelum variabel lain yang ditentukan demikian. Jika suatu
variabel mendahului variabel yang lain, tidak dapat dipastikan bahwa
variabel pertama tersebut menyebabkan variabel lain berubah.
2. Variabel-variabel independen Nampak lebih signifikan dari sebenarnya,
yaitu apabila variabel-variabel itu memiliki trend menarik yang sama
dengan variabel dependennya dalam kurun waktu periode sampel.
3. Terkadang variabel time series tidak stasioner. Maksudnya rata-rata dan
variannya tidak konstan sepanjang waktu dan nilai kovarian antara dua
periode waktu tergantung dari jarak atau lag antara kedua periode dari
waktu sesungguhnya dimana kovarian itu dihitung dan bukan dari periode
pada waktu.
4. Variabel time series terkadang tidak mempunyai kointegrasi yaitu dalam
jangka waktu tertentu tidak terdapat keseimbangan.
5. Sulit untuk menentukan kapan sebuah variabel tersebut penting
sebagaimana dijelaskan dalam teori atau sebaliknya teorinya kurang jelas,
maka akan muncul dilema.