perbandingan metode partial least square (pls) dengan regresi

13
VoLUME 12 Nouon I Mer 2A12 ISSN: I4ll.58gl RE GRE S I SPASIAL UNTT", K M e hI E T.IT UAN FaT<Ton'FAKToR KEMISKINAN pI PRovINgI JR,we TIuun AnikD juraidah dan Aji Hamim Wigena PEnIaKSIRAN PenannETER MoDEL REGRESI BETA UNTUK MenaonELKAN Darn PnopoRsr Nusar Hajarisman ILruaUsA FCILA Arue Iru PeRTwuxAuAN DI BANDAR UDARA DEPRN ANAIN PAruCXELF|NANG FERIOEE JANUNNI ZOOO - nEsErdtsER ao t I Akhmad Fadkoli PnEpIT<gI KEMAcETAN PApA JnrurugeN KonnPUTER M grqg cUNAKAN MErope N,aruE BnvEsranv C lessr rr gR Erwin Harahayt PqnSANBINGAN T\4EToDE PRnTInL LEAST SQunne (PLS) trENGAN REe neSI KorrapoNEN Urarran UNTUK METUcaTASI MUITIxCILINEAFIITAS Nwrhasanah, Muhamrnad Subianto, dan Rikct Fitriani MEMEANGKITKRNI Dnre Klalna InrpryIou FenneGANG Folls Asu RAI.I sI KE T* pARAAN B E RMo Ton Be n DAsAR KAru DaTa Klarna AeREear Aceng Kamarudin Mutaqin Diterbitkan oleh: JUNUSATV STATISTIKA F,qrcuTIRs MaTeMATIKA & IInau PehIcgTA,HUAN Amna UNIveRSITAS Isleru BentouNc

Upload: hoangkiet

Post on 12-Jan-2017

273 views

Category:

Documents


8 download

TRANSCRIPT

Page 1: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

VoLUME 12 Nouon I Mer 2A12 ISSN: I4ll.58gl

RE GRE S I SPASIAL UNTT", K M e hI E T.IT UAN FaT<Ton'FAKToRKEMISKINAN pI PRovINgI JR,we TIuunAnikD juraidah dan Aji Hamim Wigena

PEnIaKSIRAN PenannETER MoDEL REGRESI BETA UNTUKMenaonELKAN Darn PnopoRsrNusar Hajarisman

ILruaUsA FCILA Arue Iru PeRTwuxAuAN DI BANDAR UDARADEPRN ANAIN PAruCXELF|NANG FERIOEE JANUNNI ZOOO -nEsErdtsER ao t IAkhmad Fadkoli

PnEpIT<gI KEMAcETAN PApA JnrurugeN KonnPUTERM grqg cUNAKAN MErope N,aruE BnvEsranv C lessr rr gRErwin Harahayt

PqnSANBINGAN T\4EToDE PRnTInL LEAST SQunne (PLS)trENGAN REe neSI KorrapoNEN Urarran UNTUK METUcaTASIMUITIxCILINEAFIITASNwrhasanah, Muhamrnad Subianto, dan Rikct Fitriani

MEMEANGKITKRNI Dnre Klalna InrpryIou FenneGANG FollsAsu RAI.I sI KE T* pARAAN B E RMo Ton Be n DAsAR KAru DaTaKlarna AeREearAceng Kamarudin Mutaqin

Diterbitkan oleh:JUNUSATV STATISTIKA

F,qrcuTIRs MaTeMATIKA & IInau PehIcgTA,HUAN AmnaUNIveRSITAS Isleru BentouNc

Page 2: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

VoruNae l2 NoMoR I MEt 2Ol2 ISSN:l4l I -549t

F*za**,*, Ta,*ta AM A

PnrrNpuNcRsrron Uxrvrnsrres Israv BeNpuNc

PnNexccuNc ]nw,tr. Dekan Fakultas Matematika dan llm'u

Pengetahuan Alam, Universitas Islam Bandung

PrupnlN Urr,ruWItnDAKSr. Ketua ]urusan Statistika, Fakultas Matematika

dan Ilmu Pengetahuan Alam, Universitas IslamBandung.

Snrnnrenrs REDAKST. Aceng Komarudin Mutaqin, MT., MS.

BENoaHRnR. Suliadi, S.Si., M.Si., Ph.D.

Rnonrun PnrlxslNl. Nusar Hajarisman, MS.. Lisnur Wachidah, Dra., M.Si.. Yayat Karyana, Drs., M.Si.. R. Dachlan Muchlis, MT.. Anneke Iswani Ahmad, Dra., M.Si.. Teti Sofia Yanti, Dra., M.Si.. Siti Sunendiari, Dra., MS.

Drm,N Rrpexsr. Prof. Dr. Ir. Khairil Anwar Notodiputro, MS.

(Institut Pertanian Bogor).. Prof. Dr. Ismail bin Mohd. (Universiti Malaysia

Terengganu).. Prof. Dr. Ahmad Fauzy (Universitas Islam

Indonesia).. Dr. Ir. Asep Saefuddiry MSc. (Institut Pertanian

Bogor).. Septiadi Padmadisastra, Ph.D. (Universitas

Padjadjaran).. Dr. Anton Abdulbasah Kamil (Universiti Sains

Malaysia).. Dr. Suwanda,iDrs., M.Si. (Universitas Islam

Bandung).. Abdul Kudus, S.Si., M.Si., Ph.D. (Universitas

IslamBandung).

Srmutesl. Nina,Lusiana. Mastur

Junxel STATISTIKA: FoRuvt TEoRI DAN APLIKASI diterbitkan oleh furusan Statistika, Fakultas Matematika danIlmu Pengetahuan Alam, Universitas Islam Bandung (FMIPA - UNISBA) sebagai media penuangan danpembahasan karya ilmiah dalam bidang ilmu statistika beserta aplikasinya, baik berupa hasil penelitian,bahasan teori, metodologi, komputasi, maupun tinjauan buku. Terbit dua kali setahun setiap bulan Mei danNovember.

Redaksi mengundang para pakar dan praktisi, dari dalam dan luar lingkungan Universitas Islam'Bandung,untuk menuliskan karya ilmiahnya yang relevan dengan bidang ilmu statistika. Naskah hendaknya dikirimdalam bentuk printout beserta softcopynya dengan format yang telah ditentukan Redaksi, dan disertaibiodata penulis. Redaksi berhak mengubah naskah sepanjang tidak mengubah substansi isinya.

Iuran Tahunan untuk berlangganan jurnal adalah sebesar Rp. 175.000,00 atau USD 20. Untuk biayapercetakan, setiap penulis dikenakan biaya sebesar Rp. 10.000,00 atau USD 1 per halaman.

Ar.euer Rrp^RxsI:

|unNnr SrlrrsrxAv FMIPA - UNISBAJalan Purnawarman No. 63, Bandung 4011,6

. Telp. 022420 3368 Ext. 136/1.60 r Fax. 0224263895E-mail: [email protected]

Page 3: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

F*on"_ Tc^_i /a"r* Age;lr_*l 9*dfufr*a

Daftar lsi

Pengantar Redaksi

Daftar lsi

VoLUME I 2, NoMoR I , MEt 2Ol2 ISSN : l4l 1_ Eag l

lil

Anik Djuraidah dan Aji Hamim wigena, Regresi spasial untukMenentuan Faktor-faktor Kemiskinan di provinsi Jawa Timur

Nusar Hajarisman, penaksiran parameter Model Regresi Beta untukMemodelkan Data p roporsi

Akhmad Fadholi, Anolisa pola Angin permukaan di Bandor rJdaraDepati Amir Pangkalpinang periode Januari zooo - Desember zott

Erwin Harahap, Prediksi Kemacetan pada Jaringon KomputerMenggunakan Metode Naive Bayesian Classifier

ad Subianto, dan Rika Fitriani, perbandinganuare (etS) dengan Regresi Komponen Utamaolinearitas

Aceng Komarudin Mutaqin, Membongkitkan Data Klaim tndividuPemegang Polis Asuransi Kendaraan Bermotor Berdasarkan DataKlaim Agregat

r-8

g-18

r9-zB

29-)2

33-42

43-49

Page 4: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

Statistika, Vol. 12 No. 1 , 33 - 42Mei2012

Perbandingan Metod e Partial Least Square(PLS) dengan Regresi Komponen Utama

untuk Mengatasi Multikolinearitas

N URHASANAH, M UHAMMAD SU BIANTo, RIKA FITRIRI.II

Jurusan Matematika FMIPA UNSYIAH[. Syech Abdu] Rauf No.3 Darussalam, Banda Aceh

E-mail : [email protected]

ABSTRAKDalam mengatasi multikolinearitas pada suatu data, ada beberapa metode yang dapat digunakan,

tT"-"'Jffi J:.'T:lI"ffi :l;,:n"ffi jffiIan bahwa metode PLS lebih baik dari pada RKU

berdasarkan nilai koefisien determinasi @r) yang tinggi, nilai Mean Suare Error prediction (MSEp)dan nilai Root Mean Sqtare Enor Predictron (RMSEP) yang minimum.Kata lotnci: multikolineaitas, metode Portial Least Square (PLS), regresi komponen utama (RKIJ), Rz,MSEP, RMSEP.

1. PENDAHULUAN

Analisis regresi linear berganda yang mempunyai banyak variabel bebas, sering timbul masalahkarena terjadinya hubungan antara dua atau lebih variabel bebasnya. Variabel bebas yangsaling berkorelasi disebut multikolinearitas (multicollineantg). Safah satu dari asumsi modelregresi linear adalah bahwa tidak terdapat multikolinearitas diantara variabel bebas yangtermasuk dalam model. Multikolinearitas teg'adi apabila terdapat hubungan atau korelasidiantara beberapa atau seluruh variabel bebas (Gonst and Mason; 1977 dalam Soemartini,2008).Untuk mengetahui adanya multikolinearitas yaitu dengal menghitung koefisien kbrelasisederhana antara sesarna variabel bebas, jika terdapat koefisien korelasi sederhana yanghampir mendekati * I maka hal tersebut menunjukkin terjadinya masalah multikolinearitasd"lg1 regresi (Walpole, 1988). Selain itu, salah satu alat untuk mengukur adanyamultikolinearitas adalah Variance Inflation Factor (VIF). VIF adalah suatu fal<tor yarrg mengukurseberapa besar kenaikan ragam dari koehsien penduga regresi dibandingkan terhadap variabelbebas yang orthogonal jika dihubungkan secara linear. Nilai VIF akan semakin besar jikaterdapat korelasi yang semakin besar diantara variabel bebas. Nilai VIF > 10 dapat digunakansebagai petunjuk adanya multikolinearitas pada data. Gejala multikolinearitas menimbulkanmasalah dalam model regresi. Korelasi altar variabel bebas yang sangat tinggi menghasilkanpenduga model regresi yang berbias, tidak stabil, dan mungftin jauh dari tritai pt"aitsinya(Bilfarsah, 2OO5).Salah satu cara untuk mendapatkan koefisien regresi pada persamaan regresi linear berganda

metode kuadrat terkecil. Metode ini menghasilkan penaksir terbaik (tak biasminimum) jika saja tidak ada korelasi antar variabel bebas. Namun jika hal ituberapa cara atau metode yang dapat digunakan untuk mengatasi masalah

multikolinearitas yaitu regresi komponen utama, regresi ridge, metode kuadrat terkecil parsial@artial least squarQ dan bebrapa metode tainnya. Dalam penulisan ini hanya membandingkanmetode Partial Least Square (PLS) dan regresi komponen utama. Metode Partial Least Square(PLS) merupakan proses pendugaan yang dilakukan secara iteratif dengal melibatkan strukturkeragaman variabel bebas dan variabel tak bebas. Metode kedua yang dikaji dalam penelitianini adalah regresi komponen utama yaitu regresi dengan mengambil komponen utama sebagaivariabel bebas. Koefrsien penduga dari metode ini diperoleh melalui pen5rusutan dimensivariabel penduga komponen utama, dimaaa subset komponen utama yang dipilih harus tetapmempertahankan keragaman yang besar terhadap variabel tak bebasnya (Herwindiati, 19971.

33

Page 5: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

34 Nurhasanah, dkk.

Dari pengkajian kedua metode tersebut akan dihitung nilai R2, Mean Sqtare Error Prediction(MSEP), dan Root Mean Square Error Prediction (RMSEP) dan kemudian didapatkan metodemana yang lebih baik diantara kedua metode tersebut dengan melihat nilai R2 yang lebih tinggidan nilai MSEP dan RMSEP yang lebih rendah.

2. TINJAUAN PUSTAKA

Partial Least Square (PLS)

Metode Partial Least Square (PLS) merupakan so.i? model yang dapat menjelaskan struldurkeragaman data. Partial Least Sqtare (PLS) dapat dilihat sebagai bentuk yang saling berkaitandengan Prinsip Component Regression (PCR). Model yang dihasilkan oleh metode Partial LeastSquare (PLS) mengoptimalkan hubungan antara dua kelompok variabel. Pendugaan modelhubungan Y dengan X dan pendugaan nilai Y tertentu menggu.nakal suatu algoritrna. Prosespenentuan model dilakr,rkan secara iterasi dengan melibatkan keragaman pada variabel X danY. Struktur ragam dalam Y mempengaruhi perhitungan komponen kombinasi linear dalam Xdan sebaliknya, struktur ragam dalam X berpengaruh terhadap kombinasi linear dalam Y(Bilfarsah, 2005).

Pada dasarnya Partial least square (PLS) memodelkan hubungan variabel Ydengan variabel Xberdasarkaa variabel internal. Variabel X dibagi ke dalam skor l, dan loading Pr, YanE

dinyatakan sebagai:

X =trPt*tzP'z*tzP|+"'+ trp',+ En (2'1)

dimana: X= variabel bebas

/o = vektor skor (score uectorl variabel X

p n = vel<tot muatan (loading uectot) variabel X

E n= rnatiks sisaan variabel X

Variabel Yjuga dibagi dalam skor lt, dan loading Q n YanE dinyatakan sebagai:

Y = urq, * uzQ'z * utel+'..+ uhq'h + Fh (2.21

dimana: Y= variabel tak bebas

Ilo = vel<tor skor (score uector) variabel Y

Q n = vel<tot muatan (Ioading uectof variabel IZ

4 = matrit<s sisaan variabel Y

(Wigena dan Aunuddin, 1998).

Pemodelan Partial Least Sqnre (PLS) ditempuh melalui hubungan variabel I'tI dan th yfigkonvergen. Jika proses konvergensi dari skor variabel X(/r) dan skor variabel tak bebas Y(uhldihitung secara terpisah, maka model yang dihasilkan mempunyai hubungan yang lemah.

Untuk memperbaiki kondisi tersebut, proses konvergensi dari u o dan t o dilakukan secara

befsama-sama dengal cara melibatkan skor Ypada perhitungan loading X:

(p sebagai fungsi dari u)

(2.3)

(2.41

serta melibatkan skor Xpada perhitungaa loading Y:

u*ot = Yj

, il'xpuu

Statistika, Yol. 12, No. 1, Mei 2012

Page 6: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

, t'YQ =-' t't

Perbandingan Metode PaftialLeasf Sguare (pLS) ... 35

(q sebagai fungsi dari l) (2.s)

Melalui cara tersebut, akan mempeicepat proses konvergensi, tetapi masih ada beberapakelemahan

^rLtara lain skor X (t r,) yang dihasilkan ternyata tidak orthogonal. Jika t h tid,ak

orthogonal akarr terjadi_korelasi yang cukup besar antara variabel bebas X. Untuk mengatasikendala tersebut, skor X perlu diskalakan lagi dengan suatu pembobot ut (loadingl

Regresi Komponen Utama

Regresi komponen utama merupakan metode yang cukup baik untuk memperoleh koefisienpenduga pada persamaan regresi yang mempunyai masalah multikolinearitai. Variabel bebaspada regresi komponen utama berupa hasil kombinasi linear dari variabel asal Z, yang disebutsebagai komponen utama. Kdimensi komponen utana,mempertahankan keragamanvariabel X. Adapun hasil normal baku yang dimaksud ad setiapvariabel bebas asal X; dengan rata-rata darl dibagi dengan si

(2.61

(2.rol

Cara penghapusan komponen utama dimulai dari prosedur seleksi akar ciri dari suatupersarnaan:

lax-1rl:o (2.71

Jika akar ciri 2, diurutkan dari nilai terbesar sampai nilai terkecil, maka pengaruh komponen

utama W; berpadanal dengan pengaruh ),r. tni berarti bahwa komponen-komponen tersebutmenerangkan proporsi keragaman terhadap variabel tak bebas Y yang semakin lama semakinkecil.

Komponen utana W;saling orthogonal sesamanya dan dibentuk melalui suatu hubungan:

Wj=vrj Zr+v, Zr+vr, Zrrt...+vo, Zo (2.8)

Vektor ciri v, diperoleh dari setiap akar ciri ),, yat s memenuhi Suatu sistem persamaanhomogen:

I dx - ),1lv, =o (2.e)

.. I \dimana y, = (yri , Vz j, vt j, ..., v pj )Jika terdapat m subset kor'.ponen utama yang akan masuk dalam persamaan regresi, makapersamaan tersebut dapat ditulis sebagai:

Y=W.i,*tPerhitungan koefisien penduga regresi komponen utama B dapat dilakukan secara analogdengaa penduga metode kuadrat terkecil, yaitu:

B =@,w)-' w, y (2.LrlUntuk mendapatkan nilai t rritung pada nilai koefisien regresi komponen utama dapat dilakukandengan menghitung nilai simpangan baku untuk masing-masing koefisien regresi denganmenggunakan persamaan sebagai berikut:

t(r)=J-"iW ,i=t,2,... (2.r2)

Statistika, Vol. 12, No. 1, Mei 2012

Page 7: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

36 Nurhasanah, dkk.

dimana:

var Qr,) =

Z(v, - v)'i=l

(2.13)

dimana: s2 = varians

li = variabel tak bebas

t = nilai rata-rata dari variabel tak bebas

air, Qtz, .,. , oij = nilai vektor ciri yang terpilih

4, Lt, '-. , )i = nilai akar ciri yang terpilih

Untuk mendapatkan nilai t hitung dari koefisien baku regresi kornponen utama dapat dihitungdengan persamaan sebagai berikut:

koefisien pendugaQ,)' hitung

2.S (4.o1, *...*';)

[2, 12 1' )

t (Y,)(2.14l'

(Jollife, 1986 dalam Herwindiati, 1997).

Seleksi ModelTerbaikpemilihan model terbaik dapat dilakukan dengan melihat nilai determinasi (Rz). Modeldikatakan baik jika nilai R2 tinggi, nilai Rz berkisar antara O sampai 1. Adapun cara untukmemperoleh nilai Rz adalah sebagai berikut:

(2.15)

dimana: Rz = Koefisien determinasi

j', = variabel tak bebas dugaan

y = nilat rata-rata dari variabel tak bebas

(Sembiring, 1995).

Menurut (Andriyanto dan Basith, 1999), pemilihan model terbaik juga dapat dilakukan denganmelihat lai\ai Mean Square Error Prediction (MSEP) dan Root Mean Sqtare Enor Prediction(RMSEP). Metode terbaik adalah metode dengan nilai MSEP dan nilai RMSEP terkecil. KriteriaMSEP dan RMSEP dapat ditentukan dengan cara:

MSEP =

>,6', - v,)'i=l

(2.161

RMSEP = (2.171

dimana:

!, = variabel takbebas dugaan

Statistika, Yol. 12, No. 1, Mei 2012

Page 8: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

Perbandingan Metode partialLeasf Sguare (pLS)... 37

/, = variabel takbebas sebenarnya

n = banyalo:rya data

3. HASIL DAN PEMBAHASAN

Penyelesaian dengan Metode PariiatLeasf Square (pLS)

Perhitungan vektor pembobot 'l4tr, vektor skor (score uectofl dari variabel X dan variabel yserta vektor muatan (Ioading uectorl dari variabel X dan variabel Y merupakan nilai- nilai yangdiperlukan untuk menduga koefisien pada metode partial Least square FLs) .

Selanjutn , Mean Square Error Prediction (MSEP), dan Root Mean SquareError Pre setiap komponen dari metode Partial least Square lpLS)disajikan

Tabel 3.1. Nilai R2, MSEP dan RMSEP pad,a partial Least Square (pI-S)

Komponen ke R2 MSEP RMSEP

1

2

3

4

5

6

8

9

o.o7r970.63231

o.692620.803210.93115o.947330.954990.956490.9s659

12.63945.OO774.18632.6801o.9377o.7r740.6131o.59260.s912

3,55522.23782.0461r.637I0.9683o.84700.7830o.769ao.7689

Berdasarkan hasil nilai R2, MSEP dan RMSEP yang tercantum pada Tabel 3.1 terlihat bahwapada komponen kelima sudah tercapai kondisi konvergen karena pada komponen tersebut nilaiR2R2 mPonen kesembilal nilai

ko penduga model adalah

yaitu sebagai berikut:

Tabel 3.2. Nilai R2 MSEP dan RMSEP pada Komponen Kelima

Komponen KeNilai

R2 MSEP RMSEP

5 0.93115 o.9377 0.9683

Statistika, Vol. 12, No. 1, Mei 2012

Page 9: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

38 Nurhasanah, dkk.

Berdasarkan hasil yang diperoleh, koefisien penduga dan nilai t nitung pada komponen kelimaadalah sebagai berikut:

Tabel 3.3. Nilai Koefisien Penduga dan t rrit*g pada Komponen Kelima

Variabel KoehsienPenduga

Nilai KoefisienPenduga

t hitrrg

XrXz

Xs

X+

Xs

Xo

Xz

Xa

Xs

9rpz

9s

9+

9s

9o

$zpa

Fs

69.7400-23.7629-98.s289-73.20280. r98574.78361.7561

85.2408-t2.5974

1.60001.8356 *

3.6448 *

2.8396 *

0.00392.7270 *

0.97835.6926 "-0.3367

Keterangan: * Signifrkan pada d = 5Yo

Berdasarkan Tabel 3.3 menunjuklran bahwa koefrsien penduga pada metode Partial I'eosttidak pada taraf nyata O,05. Variabel-variabel yang

nyata , dan Xa, sedangkan variabel-variabel lainnyagaruh engan melihat nilai t hit'ng pada masing-masing

variabelXz,i3,X+,X6,dan)Gyanglebihbesardarinilaitttt=t(o.es,36) =1'70.BerdasarkanpengqjiandisimpulkanbahwaUoaitot"t karenanilai ltr,it.'gl > llt'u.tl sehinggapengujiannitai statistik uji t untuk regresi adalah nyata pada taraf nyata 0'05'

Penyelesaian dengan Metode Regresi Komponen Utama

Dalam analisis regresi komponen utama hal yang terlebih dahulu dilakukan menormalbakukan variabel-variabel X menjadi Z, kemudian menentukan nilai akar ciri dan vektor ciridari matriks Z dapat dilihat pada Tabel 3.4 dan Tabel 3'5 berikut:

Tabel 3.4. Nilai Akar Ciri,l;

Akar Ciri (,!) Proporsi Komulatif

7.L795t.3862o.29870.1048o.02260.00660.0016

7.8816x10-s

3.4793x10-s

o.79770.1540o.0332

o.01160.0025

0.00070.0002

8.7573x10-o

3.8658x10-o

o.79770.95170.98490.99660.9991o.9999o.9999o.99991.0000

Statistika, Vol. 12, No. 1, Mei2Q12

Page 10: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

Perbandingan Metode PartialLeasf Sguare (pLS) .:. 39

Tabel 3.5. Nilai Vektor Ciri

vl v2 v3 v4 v5 v6 v7 v8 v9

Zr

74

Zs

hZs

Za

ZtZe

Zs

0.3688

0.3701o.3712o.3714o.2L44o.3687

o.0796o.37020.3550

o.oa47

0.0689

o.0494

o.05540.5961

0.0879

o.7778

0.0836

0.0865

o.0423-0.250

0.0179

0.0185o.7696o.0s66o.6227

0.0513

0.1048

0.2806o.2692o.27190.1845

0.0683

0.0756

o.0277

0.0020

0.8710

.o276t

o.2939

0,1934

0.09330.01360.7095

0.0073o.4376

0.3100

0.6861

0.1 104

0,5400

0,4553

0.0383

0.03930.0083

0.12 1 1

0.0209

0.1092o.o7960.0500

0.03650.001 r0.5834

0.0006

0.7983

0.0154

0.37500.6s95o.1979o.6t27

- 1.2x10-5

0.04530.0007-0.0879o.oo27

o.2770

0.49s30.6663

0.48150.0021

0.00880.00370.0459

0.0033

Berdasarkan Tabel 3.4 menunjukkan bahwa akar ciri pertama menjelaskan sekitar Tg3TVodari_ keragaman yang terjadi, dan akar ciri yang kedua menjelaskan L5.4yo dan akar ciri yangberikutnya hanya menjelaskan sekitar O.33V" dan O.l17o saja. Berdasarkan Tabel 3.5menunjukkan bahwa dari sembilan komponen utama yang diturunkan dari matriks korelasiantar variabel bebas, ada dua komponen utama yang memegang peranan penting dalammenerangkan keragaman total data, yaitu komponen utama pertama dan kedua atau dilihatd ciri yang lebih besar dari 1. Dengan demikian komponen utama pertama (Wr)d utama kedua (Wz) yang merupakan kombinasi linear dari Z dapit dinyatakand an berikut:Wr= 0.3688 Zr + O.37OlZz+ O.37I2Zs+ O.37l4k + O.2t44% + 0.3687 k - 0.0T96Zz+

O.37O2 Ze + O.355O hwz = -0.0847 h-0.0689zz-Q.o494zs-o.o55424+ 0,s961 zs-o.oBZ9%+ o.TT78zz -

0.0836 Ze - 0.0865 hMatriks W; berisi skor komponen utama yang diperoleh dari persarnaan Wr dan Wz.Selanjutnya Y diregresikan terhadap skor komponen utama Wr dan Wz, hasilnya dapat dilihatpada Tabel 3.6 berikut:

Tabel 3.6. Penduga Parameter Regresi Komponen Utama

Variabel DB Pendugaan I hittng P Value Nilai VIF

Konstanta

Wr

Wz

I1

I

40.6361

1.0481

-0.898s

105.8s0

7.2I3-2.7L7

2x10-lo2.86x10-e

0.01041

I

Tabel 3.7 Tabel Sidik Ragam Regresi Komponen Utama

SumberKeragaman DB Jumlah

KuadratKuadratTengah .F hitr.g P Value

Model

GalatTotal

2

3335

315.2t417s.089

490,303

L57.607

5.306

29.7r 4.179-8

Rz = 0.6429 adj R2 = 0.6213

Statistika, Yol. 12, No. 1 , Mei 2012

Page 11: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

Berdasarkan Tabel 3,6 dan Tabel 3.7 terlihat bahwa nilai Rz yang dihasilkan oleh koehsien97o, kemudian nilaidisimpulkan bahwauji F untuk regresi

Model yang sudah didapat selanjutnya ditransformasikan kembali ke variabel asalZ, sehinggadiperoleh persarnaan regresi dalam variabel bam sebagai berikut:

Y = 40 .6361 + 1 .048 I W, - O.8gg5 l4/2(3,1)

Y = 40.3631 + 0.4626 Z, + 0.4498 Z, + 0.4334 Z, + 0.4390 Zn + 0.3109 Z5

+ 0.4654 Zu + 1.0869 Z7 + 0.4631 Z, + 0.4498 Ze P.2)

Nilai simpangan baku dan nilai t r'it"g untuk masing-masing koehsien regresidapat rlilifuaf padaTabel 3,8 berikut:

40 Nurhasanah, dkk.

Tabel 3.8. Analisis Signihkansi Koehsien Regresi parsial

Variabel Nilai Koehsien Simpangan Baku f nirrng

ZtZz

Zs

Z+

Zs

Zo

ZtZa

Zs

o.4626o.4498o.43340.43900.3109o.46541.0869o.463ro.4498

0.0 r620.01560.15060.01520.05330.01630.0688o.o1620.0158

28.6329 *

28.8235 "28.78L9 "28.8293 *

5.8305 *

28.5772 *

15.7995 *

28.6576 *

28.5408 *

Keteralgan : * Signihkan pada d, = 5 %o

regresi komponen utama disajikan dalamen regresi nyata secara statistik pada tarafnilai t hituns pada rnasing-masing variabel

,""Tiifft*rusi?T3ilffi Jfl;a*#i'ffUntuk memperoleh persamaan penduga dengan menggunakan variabel asli, ditransformasikankembali ke model regresi f' = -f (w) r<e variabel asaloya f' = f (x) , yaitu:

'i = 40.3631+0.4626 Z, + 0.4498 Z, + 0.4334 Z, + 0.4390 Zn + O.3l0g Z5

+ 0.4654 Zu + 1.0869 Z, + 0.4631 Z, + 0.4499 Zs

Y = 2.7413 +3.7641X, + 3.9860 X, + 4.2835 X, + 4.32g3 X4

- 0.1689 X, + 5.1074 Xu + 5.7933 X, * 4.Btg3 X, + 7.7344 X, (3.3)

Tabel 3.9 berikut ini merupakan nilai R2, MSEP dan RMSEP dari regresi komponen utama :

Tabel 3.9. Nilai R2, MSEP dan RMSEp dari Metode Regresi Komponen utama

Metode AnalisaNilai

R2 MSEP RMSEP

Regresi Komponen Utama o.6429 5.2513 2.2916

Statistika, Yol. 12, No. 1 , Mei 2012

Page 12: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

Perbandingan Metode PaftialLeasf Square (pLS)... 4j

Perbandingan Metode

Dari hasil seluruh pembahasan, nilai koefisien penduga dan nilai I hitu,g dari kedua metodedapat dilihat pada Tabei 3.10 berikut:

Tabel 3.10. Nilai Koehsien Penduga dan Nilai t rut,^g dari Kedua Metode

KoefisienPenduga

Nilai Koefrsien Penduga Nilai f rutu'g

Partial LeastSqtare(PLS)

Regresi

KomponenUtama

Partial LeastSEtare(PLS)

Regresi

KomponenUtama

Fr

Fz

9s

9q

9s

Fo

9tFa

9s

69.7400-23.7629-98.5289-73.20280.1985

74.78361.7561

8s.2408-L2.5974

o.4626o.4498o.43340.43900.3109o.4654r.08690.4631o.4498

1.60001.8356 *

3.6448 *

2.8396 "0.00392.7270 *

o.9783

5.6926 *

-0.3367

28.6329 *

28.8235 *

28.78L9 *

28.8293 *

5.8305 *

28.5772 *

15.7995 *

28.6576 *

28.5408 *

Keterangan: * Signihkan pada d = 5o/o

Berdasarkan Tabel 3.10 menunjukkan bahwa koefisien penduga pada metode partial LeastSEtare (PLS) tidak semuarya berpengaruh nyata pada taraf nyata 0.05. Variabel-variabel yangberpengaruh nyata adalah variabel Xz, Xs, X+, X6, dan Xa, sedaagkan variabel-variabel lainnyatidak berpengaruh nyata. Hal ini ditunjukkan dengan melihat nilai / r,it*g pada masing-ttr^"itrgvariabel Xz, Xa, X+, Xo, dan )G yang lebih besar dari nilai f t u.r = t (o.e5,36) = 1.70. Berdasarkanpengujian disimpulkan bahwa Ho ditolak karena nilai I t hitune | > | I t^ur I sehingga pengujiannilai statistik uji t untuk regresi adalah nyata pada taraf nyata 0.05. Sedangkan pada rigresikomponen utama menunjukkan bahwa semua koehsien rlgresi nyata secara statistik ;adataraf nyata 0.05. Hal ini ditunjuld<an dengan melihat nilai f rut"e pada masing-masing variabeldengan nilai I tabel = t (o.es,36) = 1.70. Berdasarkan pengujian disimpulkan bahwa Ho aitot"tkarena nilai lt nit"gl > lt t"u.rl sehingga pengujian nilai statistik uji t untuk regresi adalahnyata pada tarafnyata O.05.Untuk mengeta-hui metode mana yang lebih baik, perlu dikaji nilai R2, MSEP dan RMSEp nya.Nilai R2, MSEP dan RMSEPyang diperoleh dari kedua metode dapat dilihat pada Tabel 3.llberilmt ini:

Tabel 3.11. Nilai R2, MSEP darr RMSEP dari Kedua Metode

Metode AnalisaNilai

R2 MSEP RMSEP

Partial Lea.st SEtare (PLSI

Regresi Komponen Utama0.93115o.6429

o.93775.2513

0.9683

2.2916

Berdasarkan Tabel 3. 1 1 , nilai Rz dari metode Partial Least Sqtare (PLS) memberikan nilai yanglebih besar dibandingkan dengaa metode regresi komponen utama. Hal ini berarti mCtoaePartial Least Square (PLS) memberikan ketepatan model yang lebih baik dari pada metoderegresi komponen utama. Begitu juga jika ditinjau dari nilai MSEP dan nilai RMSEP, metodePaftial Least Square (PLS) mempunyai nilai yang lebih rendah dari pada metode regresikomponen utama sehingga metode Partial Lea.st Square (PLS) memberikan ketepatan modelyang lebih baik dari pada metode regresi komponen utama.

Statistika, Yol. 12, No. 1, Mei 2012

Page 13: Perbandingan Metode Partial Least Square (PLS) dengan Regresi

42 Nurhasanah, dkk.

4, KESIMPULAN DAN SARAN

Berdasarkan hasil penelitian yang dilakukan terhadap kedua metode untuk mengatasimultikolinear yaitu metode Partial Least Square (PLS) dan metode regresi komponen utamadapat disimpulkan bahwa: (1) Pada Metode Partiol Leo,st Square (PLS) nilai koehsien pendugapada masing-masing variabel tidak semuanya berpengaruh nyata pada taraf nyata 0.05,sedangkan pada regresi komponen utama semua nilai koefrsien penduga pada masing-masingvariabel semuanya berpengaruh nyata pada taraf nyata 0.05; (2) Metode Partial Least Square(PLS) memberikan hasil yang lebih baik jika dibandingkan dengan metode regresi komponenutama. Hal ini dapat disimpulkan dengan melihat nilai R2, Mean Square Error Prediction(MSEP), dan Root Mean Square Eror Prediction (RMSEP). Metode Partial Least Square IPLS)mempunyai nilai Rz yang lebih tinggi dan mempunyai nilai MSEP dan RMSEP yang lebihrendah jika dibandingkan terhadap metode regtesi komponen utama.Peneliti yang berkeinginan melanjutkan pengembangan tulisan ini diharapkan dapatmenggunakan metode yang berbeda misalnya dengan menggunakan metode regresi, idgesebagai metode pembanding serta menggunakal data riil.

DAFTAR PUSTAKA

t1]. Bilfarsah, A. 2005. Efektihtas Metode Aditif Spline Kuadrat Terkecil Parsial DalamPendugaan Model Regresi. Makara, Sadns, 9 (i) : 28 - 33.

121. Herwindiati, D.E. f997. Pengkajian Regresi Komponen Utama, Regresi Ridge, dan RegresiKuadrat Terkecil Parsial untuk Mengatasi Kolinearitas. ?esis. Institut pertanian Bogor. Bogor.

t3l. Montgomery, D.C dan Peck, E.A. 1992. Introductionto Linier RegresstonWilley & Sons. New York.

Analgsis. John

l4l. Naes, T. 1985. Multivariate Calibration When The Error Covariance Matrix is Structured.Technometics, 27 (31 : 301 - 31 l.

tsl. Noryanti. 2009. Pengaruh Hasil-hasil Ujian di Sekolah Terhadap Hasil Ujian Nasional di SMUNegeri 1 Limboto Kabupaten Gorontale" Teknologi Technoscientia. 2 (Ll:85 - 95.

t6l17l

Sembiring, R. K. 1995. Analisi.s Regresi. ITB Bandung. Bandung.Soemartini. 2008. Penyelesaian Multikolinelaritas Melalui Metode Ridge Regression. ?esis.Universitas Padj aj aran.

tSl. Wigena, A. H dan Aunuddin, 1998. Metode PLS untuk Mengatasi Kolinearitas dalam KalibrasiGanda. Forum SfatisfikadanKomputasi.3 (1) : f7-19'

Statistika, Yol. 12, No. 1, Mei 2012