bab 2 tinjauan pustaka 2.1 pendahuluan - unisba
TRANSCRIPT
8
BAB 2
TINJAUAN PUSTAKA
2.1 Pendahuluan
Sebelum melakukan pembahasan mengenai permasalahan dalam skripsi,
dalam bab ini akan dijelaskan beberapa teori penunjang yang dapat membantu
dalam penulisan skripsi. Teori penunjang tersebut antara lain : Analisis deret
waktu (time series), stasioner dan non-stasioner, Pengujian kestasioneran data
deret waktu, differencing, Autocorrelation Function/Fungsi Autokorealsi (ACF),
Partial Autocorrelation Function/Fungsi Autokorelasi Parsial (PACF), proses
White Noise, uji normalitas, model Autoregressive Integrated Moving Average
(ARIMA), proses Pemodelan Autoregressive Integrated Moving Average
(ARIMA) dan Artificial Neural Network (ANN).
2.2 Analisis Deret Waktu (Time Series)
Time series atau runtun waktu adalah himpunan observasi data terurut
dalam waktu (Hanke&Winchern, 2005). Metode time series adalah metode
peramalan dengan menggunakan analisa pola hubungan antara variabel yang akan
dipekirakan dengan variabel waktu. Peramalan suatu data time series perlu
memperhatikan tipe atau pola data. Secara umum terdapat empat macam pola data
time series, yaitu horizontal, trend, musiman, dan siklis (Hanke dan Wichren,
2005).
Pola horizontal merupakan kejadian yang tidak terduga dan bersifat acak,
tetapi kemunculannya dapat mempengaruhi fluktuasi data time series. Pola trend
merupakan kecenderungan arah data dalam jangka panjang, dapat berupa
repository.unisba.ac.id
9
kenaikan maupun penurunan. Pola musiman merupakan fluktuasi dari data yang
terjadi secara periodik dalam kurun waktu satu tahun, seperti triwulan, kuartalan,
bulanan, mingguan, atau harian. Sedangkan pola siklis merupakan fluktuasi dari
data untuk waktu yang lebih dari satu tahun.
Time series adalah catatan dari nilai-nilai yang diamati dari sebuah proses
atau fenomena yang diambil secara berturut-turut dari waktu ke waktu. Nilai-nilai
yang diamati tersebut dapat bersifat deterministik (dapat dijelaskan secara
eksplisit dengan rumus matematika) ataupun non-deterministik (tidak dapat
dinyatakan dengan rumus matematika) atau data acak. Proses-proses yang sifatnya
non-deterministik disebut sebagai stokastik dimana nilai-nilai yang diamati,
dimodelkan sebagai urutan variabel-variabel acak. secara formal :
Proses stokastik adalah sekumpulan variabel acak dimana T
adalah indeks yang ditetapkan untuk semua variabel acak ,
didefenisikan pada sampel yang sama. Apabila indeks yang ditepakan T
menunjukan waktu, maka proses stokastik disebut sebagai time series.
Time series pada umumnya dapat diklasifikasi menjadi dua yaitu stasioner
dan non-stasioner. Secara sederhana, suatu deret pengamatan dikatakan stasioner
apabila proses tidak berubah seiring dengan adanya perubahan time series. Jika
suatu time series Xt stasioner maka nilai tengah (mean), varian dan kovarian deret
tersebut tidak dipengaruhi oleh berubahnya waktu pengamatan, sehingga proses
berada dalam keseimbangan statistik (Soejoeti, 1987). Sebaliknya, untuk time
series non-stasioner rata-rata, variansi atau keduanya akan berubah pada lintasan
time series tersebut. Time series stasioner memiliki keunggulan dari representasi
repository.unisba.ac.id
10
oleh model-model analitis terhadap ralaman-ramalan yang dihasilkan. Model-
model non-stasioner melalui proses defferencing dapat diubah menjadi time series
stasioner dengan demikian analisis yang diterapkan sebagai proses stasioner.
2.3 Stasioner dan Non-stasioner
Time series stasioner terkait dengan konsistensi pergerakan data time
series. Suatu data time series dikatakan non-stasioner bila nilai rata-rata dan
variansinya bervariasi sepanjang waktu atau dengan kata lain data dikatakan
stasioner bila data bergerak stabil dan konvergen sekitar nilai rata-ratanya tanpa
mengalami fluktuasi pergerakan trend positif maupun negatif. Kestasioneran data
haruslah memenuhi asumsi homoskedastis dan tidak adanya autokorelasi. Properti
data stasioner adalah sebagai berikut :
1. Mean : (konstan)
2. Varians :
3. Kovarians : (tidak tergantung t)
4. Distribusi bersama X adalah identik dengan
{X untuk setiap .
Stasioneritas berarti tidak terjadinya pertumbuhan dan penurunan data.
Suatu data dapat dikatakan stasioner apabila pola data tersebut berada pada
kesetimbangan disekitar nilai rata-rata yang konstan dan variansi disekitar rata-
rata tersebut konstan selama waktu tertentu (Makridakis, 1999). Time series
dikatakan stasioner apabila tidak ada unsur trend dalam data dan tidak ada unsur
musiman atau rata-rata dan variannya tetap, seperti pada Gambar 2.1.
repository.unisba.ac.id
11
Gambar 2.1. Plot time series data stasioner dalam rata-rata dan variansi
2.4 Pengujian Kestasioneran Data Deret Waktu
2.4.1 Secara Visual
Untuk menelaah ketidak-stasioneran data secara visual, tahap pertama
dapat dilakukan pada peta data atas waktu, karena biasanya “mudah”, dan jika
belum mendapatkan kejelasan, maka tahap berikutnya ditelaah pada gambar ACF
dan PACF.
1. Analisis Grafik
Data deret waktu diplot, dimana sumbuh datar adalah waktu dan sumbuh
tegak nilai dari data. Jika plot data untuk setiap periode waktu meningkat dan
menurun membentuk suatu trend maka data deret tersebut non-stasioner.
repository.unisba.ac.id
12
Gambar 2.2 Plot data tidak stasioner
Pada gambar 2.2 di atas pola dapat memperlihatkan peningkatan setiap
periodenya atau terdapat trend naik, menunjukan terdapat perubahan dalam rata-
rata, sehingga pola dikatakan non-stasioner. Sedangkan pada gambar 2.1 di atas,
pola setiap periode memberikan rata-rata yang tidak berbeda memperlihatkan pola
yang stasioner.
2. Korelogram Nilai-nilai Autokorelasi
Menurut (Yanti, 2010), salah satu test kestasioneran yang sederhana
didasarkan pada autocorrelation function (ACF). ACF lag ke-k dinotasikan ρk,
yaitu :
...(2.1)
dimana
...(2.2)
nilai ditaksir oleh rk
repository.unisba.ac.id
13
Telaahan pada gambar ACF adalah :
a. Jika data stasioner maka gambarnya akan membangun pola yaitu nilai-
nilai autokorelasi pada correlogram akan turun sampai nol mulai time-lag
kedua atau ketiga.
b. Jika data tidak stasioner maka gambar dari ACF akan membangun pola,
Menurun secara perlahan, jika data tidak stasioner dalam rata-rata
hitung (trend naik atau turun). Data yang tidak stasioner maka
nilai-nilai autokorelasi tersebut berbeda signifikan dari nol.
Gambar 2.3 Plot ACF non-stasioner dalam rata-rata
Alternating, jika data tidak stasioner dalam varians
Gelombang, jika data tidak stasioner dalam rata-rata dan varians.
Terlihat pada gambar
repository.unisba.ac.id
14
Gambar 2.4 Plot ACF non-stasioner dalam Rata-rata dan Varians
2.4.2 ADF Test
Perilaku data stasioner mengindikasikan bahwa data tersebut memiliki
rata-rata, varians dan kovarians setiap saat sama, tidak menjadi persoalan di titik
yang mana mereka diukurnya (Yanti, 2010), artinya data tersebut stabil atau
mencapai keseimbangan dalam jangka panjang sehingga dari model yang
digunakan untuk meramalkan periode yang akan datang menjadi sahih. Uji
stasioner yang akan digunakan adalah Uji Akar Unit.
(Yanti, 2010) Uji Akar Unit merupakan salah satu konsep yang akhir-akhir
ini makin populer dipakai untuk menguji kestasioneran data time series. Uji ini
dikembangkan oleh Dickey dan Fuller, dengan menggunakan Augmented Dickey
Fuller Test (ADF). Terdapat tiga kemungkinan dimana ADF test ditaksir dari tiga
bentuk persamaan yang berbeda, yaitu :
repository.unisba.ac.id
15
Data level
: tanpa Intersep ...(2.3)
: Intersep ...(2.4)
: Intersep dan trend ...(2.5)
Langkah-langkah pengujiannya adalah sebagai berikut :
1) Menguji variabel dengan ADF test
Hipotesis yang digunakan adalah :
H0 : δ = 0 (non stasioner), melawan H1 : δ < 0 (stasioner)
Statistik uji yang digunakan adalah
Tolak H0 jika τ hasil perhitungan lebih besar dari τ tabel atau jika
probabilitas hasil perhitungan lebih kecil dari derajat kepercayaan
yang kita inginkan. Perhitungan prosedur di atas menggunakan
perangkat software Eviews
2) Bila variabel yang kita uji ternyata tidak stasioner maka data dilakukan
differencing atau pembedaan, kemudian dilakukan pengujian terhadap data
tersebut seperti langkah 1).
2.5 Metode Pembedaan (Differencing)
Differencing (pembedaan) dilakukan untuk menstasionerkan data non-
stasioner. Operator shift mundur (backward shift) sangat tepat untuk
menggambarkan proses differencing (Makridakis, 1999). Notasi yang sangat
bermanfaat dalam metode pembedaan adalah operator shift mundur (backward
shift) disimbolkan dengan B sebagai berikut :
repository.unisba.ac.id
16
...(2.6)
Dengan : nilai variabel X pada waktu t
: nilai variabel X pada waktu t-1
B : backward shift
Pada persamaan (2.6) diatas, notasi B yang dipasang pada memiliki
efek menggeser data satu periode ke belakang. Sedangkan dua aplikasi dari B
terhadap akan menggeser data tersebut dua periode ke belakang, sebagai
berikut :
...(2.7)
Apabila suatu time series non-stasioner, maka data tersebut dapat dibuat
lebih mendekati stasioner dengan melakukan pembedaan pertama. Operator ini
memedahkan proses diferensiasi. Deffersiasi pertama/turunan tingkat satu dapat
dituliskan sebagai berikut :
= ...(2.8)
Menggunakan operator shift mundur, persamaan (2.8) dapat ditulis
kembali menjadi (Makridakis, 1995) :
= ...(2.9)
Pembedaan pertama dinyatakan oleh (1-B) sama halnya apabila perbedaan
orde kedua (yaitu perbedaan pertama dari perbedaan pertama sebelumnya) harus
dihitung, maka pembedaan orde kedua :
repository.unisba.ac.id
17
... (2.10)
Pembedaan orde kedua diberi notasi (1-B)2. Pembedaan orde kedua tidak
sama dengan pembedaan kedua yang diberi notasi 1-B2. Sedangkan pembedaan
pertama (1-B) sama dengan pembedaan orde pertama (1-B).
Pembedaan kedua
Tujuan dari menghitung pembedaan adalah mencapai stasioneritas dan
secara umum apabila terdapat pembedaan orde ke-d untuk mencapai stasioneritas,
ditulias sebagai berikut :
Pembedaan orde ke-d
...(2.11)
2.6 Autocorrelation Function/Fungsi Autokorealsi (ACF)
Pada proses stasioner suatu data time series diperoleh dan
variansi , yang konstan dan kovariansi
, fungsinya hanya pada pembedaan waktu . Oleh karena
itu, hasil tersebut dapat ditulis sebagai kovariansi antara dan sebagai
berikut (Wei, 1989) :
...(2.12)
...(2.13)
Autokorelasi merupakan korelasi atau hubungan antar data pengamatan
suatu data time series. Menurut Wei (2006), koefisien autokorelasi untuk lag–k
dari data runtun waktu dinyatakan sebagai berikut:
repository.unisba.ac.id
18
...(2.14)
Dengan :
= rata-rata
= autokovariansi pada lag-k
= autokorelasi pada lag-k
t = waktu pengamatan, t = 1,2,3,...
Dimana notasi . Sebagai fungsi k, maka
disebut fungsi autokorelasi dan menggambarkan kovariansi (ACF), dalam
analisis time series, dan menggambarkan kovarian dan korelasi antara
dan dari proses yang sama, hanya dipisahkan oleh lag ke-k.
Dengan menggunakan asumsi-asumsi diatas, maka taksiran parameter
diatas dapat disederhanakan menjadi :
...(2.15)
Dengan :
= koefisien autokorelasi pada lag-k
k = selisih waktu
n = jumlah observasi
= rata-rata dari pengamatan
= pengamatan pada waktu ke-t
= pengamatan pada waktu ke t+k, k=1,2,3,...
repository.unisba.ac.id
19
Untuk mengetahui apakah koefisien autokorelasi signifikan atau tidak,
perlu dilakukan uji. Pengujian dapat dilakukan hipotesis :
H0: = 0 (koefisien autokorelasi tidak signifikan)
H1 : ≠ 0 (koefisien autokorelasi signifikan)
Statistik uji yang digunakan adalah :
dengan .
Kriteria uji keputusan H0 ditolak jika .
2.7 Partial Autocorrelation Function/Fungsi Autokorelasi Parsial (PACF)
Autokorelasi parsial merupakan korelasi antara dan dengan
mengabaikan ketidakbebasan . Autokorelasi parsial
digunakan untuk mengukur derajat asosiasi antara dan , ketika efek dari
rentang/jangka waktu (time lag) 1,2,3,...,k-1 dianggap terpisah. Ada beberapa
prosedur untuk menentukan bentuk PACF yang salah satunya akan dijelaskan
sebagai berikut. Menurut (Wei, 1989) fungsi autokorelasi parsial dapat
dinotasikan dengan :
... (2.16)
Misalkan adalah proses yang stasioner dengan , selanjutnya
dapat dinyatakan sebagai proses linier :
...(2.17)
Dengan adalah parameter regresi ke-i dan adalah nilai kesalahan
yang tidak berkorelasi dengan untuk j=1,2,...,k. Dengan mengalikan
repository.unisba.ac.id
20
pada kedua ruas persaman (2.18) dan menghitung nilai nol harapannya
(expected value), diperoleh :
...(2.18)
dan
untuk j=1,2,...k, diperoleh sistem persamaan berikut :
dengan menggunakan aturan Cramer, berturut–turut k=1,2,...,n diperoleh
repository.unisba.ac.id
21
Karena merupakan fungsi atas k, maka disebut fungsi
autokorelasi parsial. Hipotesis untuk menguji koefisien autokorelasi parsial
sebagai berikut :
H0 : = 0
H1 : 0
Statistik uji yang digunakan : dengan . Kriteria
uji : tolak H0 jika , dengan derajat bebas df=n-1, n adalah
banyaknya data (Wei, 2006).
2.8 Proses White Noise
Suatu proses {εt} disebut white noise jika merupakan barisan variabel acak
yang tidak berkorelasi dengan rata-rata E(εt) = 0, varians konstan Var(εt) =
Oleh karena itu, suatu proses white noise {εt} adalah stasioner dengan fungsi
autokovariansi (Wei, 2006).
Proses white noise dengan fungsi autokorelasi sebagai berikut :
repository.unisba.ac.id
22
Sedangkan, proses white noise dengan fungsi autokorelasi parsial sebagai berikut :
Langkah-langka pengujian white noise :
0 (residu memenuhi proses white noise)
(residu tidak memenuhi proses white noise)
Statistik uji yang digunakan yaitu uji Ljung Box-pierce. Rumus uji Ljung-Box atau
Box-pierce (Wei,2006) :
...(2.19)
dengan
n = banyaknya observasi dalam runtun waktu
k = banyaknya lag yang diuji
= nilai koefisien autokorelasi pada lag-k
Kriteria uji : H0 ditolak jika Q > tabel dengan derajat bebas (db) = k - p atau p-
value < dengan p adalah banyaknya parameter.
Selain itu, autokorelasi residual dapat dilihat dari plot ACF residual.
Apabila tidak ada lag yang keluar dari garis signifikansi, maka dapat dikatakan
bahwa tidak ada autokorelasi.
2.9 Uji Normalitas Residu
Uji normalitas residu dilakukan untuk mengetahui apakah galat
berdistribusi normal atau tidak. Pengujian dapat dilakukan dengan analisis grafik
normal probability plot. Jika residu berada di sekitar garis diagonal maka galat
repository.unisba.ac.id
23
berdistribusi normal. Sebaliknya, jika residu tidak berdistribusi normal, maka
residu akan menyebar seperti pada gambar berikut ini.
Gambar 2.5 Grafik normal probability plot
2.10 Model Autoregressive Integrated Moving Average (ARIMA)
Model Autoregressive Integrated Moving Average (ARIMA) merupakan
model ARMA non-stasioner yang telah di differencing sehingga menjadi model
stasioner. Ada beberapa model ARIMA yang dapat digunakan pada data time
series, yaitu:
2.10.1 Model Autoregressive (AR)
Autoregressive adalah suatu bentuk regresi tetapi bukan yang
menghubungkan variabel tak bebas, melainkan menghubungkan nilai-nilai
sebelumnya pada time lag (selang waktu) yang bermacam-macam. Jadi suatu
model Autoregressive akan menyatakan suatu ramalan sebagai fungsi nilai-nilai
sebelumnya dari time series tertentu (Makridakis, 1995).
repository.unisba.ac.id
24
Model Autogressive (AR) dengan order p dinotasikan dengan AR (p).
Bentuk umum model AR(p) adalah:
...(2.20)
Dengan :
= nilai variabel pada waktu ke-t
= nilai masa lalu dari time series yang
bersangkutan pada waktu t.
= koefisien regresi
= nilai error pada waktu ke-t
p = orde AR
Persamaan (2.21) dapat ditulis dengan menggunakan operator B (back
shift) :
...(2.21)
dengan mengalikan kedua ruas pada persamaan (2.16) dengan dan
berdasarkan rumus (2.13) maka diperoleh :
...(2.22)
karena, = dan = , maka k=0 diperoleh dari :
...(2.23)
yang merupakan variansi dari autoregressive.
Proses AR (p) terjadi jika terdapat parameter yang bernilai
tidak nol berbeda secara signifikan dengan nol, sedangkan (tidak berbeda
secara nyata dengan nol) untuk k > p.
repository.unisba.ac.id
25
Orde AR yang sering digunakan dalam analisis time series adalah p=1
atau p=2, yaitu model AR(1) dan AR(2).
a. Model AR(1)
Bentuk umum model AR(1) adalah :
...(2.24)
Karena independen dengan , maka variansinya adalah :
Atau ( dan supaya berhingga dan tidak negatif, maka
haruslah . Ketidaksamaan inilah yang merupakan syarat agar runtun
waktunya stasioner.
Dengan mengambil nilai harapan dari persamaan umum AR(1) diatas
maka diperoleh :
...(2.25)
Fungsi autokorelasinya adalah yang menjamin bahwa
dan independen. Persamaan tersebut merupakan persamaan differensi
derajat satu yang mempunyai penyelesaian dan untuk maka
Fungsi autokorelasi parsial dari AR(1) adalah untuk k=1
dan untuk k > 1, maka Persamaan (2.23) dapat ditulis dengan operator
back shift (B), menjadi :
...(2.26)
repository.unisba.ac.id
26
b. Model AR(2)
Bentuk umum model Autoregressive orde 2 atau AR(2), yaitu :
...(2.27)
Dengan mengambil ekspektasi dari persamaan (2.28), maka diperoleh :
Untuk stasioneritas dapat disimpulkan bahwa . Dengan mengalikan
persamaan (2.28) dengan dan mengambil ekspektasinya diperoleh untuk k =
0.
atau , dan untuk , maka
atau yang merupakan persamaan
differensi derajat dua yang dapat diselesaikan. Tetapi dalam praktiknya akan lebih
mudah jika dimulai dengan :
...(2.28)
...(2.29)
Dengan menstabilkan persamaan (2.30) pada persamaan variansinya, maka
diperoleh :
agar faktor dalam penyebut positif, maka haruslah
repository.unisba.ac.id
27
persamaan (2.30) dapat ditulis dengan operator back shift (B), menjadi :
...(2.30)
2.10.2 Model Moving Average (MA)
Moving Average (MA) merupakan nilai time series pada waktu t yang
dipengaruhi oleh unsur kesalahan pada saat ini dan unsur kesalahan terbobot pada
masa lalu (Makridakis, 1999).
Model Moving Average (MA) order q, dinotasikan menjadi MA(q). Secara
umum, model MA(q) adalah:
...(2.31)
Dengan :
= nilai variabel pada waktu ke-t
= nilai-nilai pada error pada waktu t, t-1,t-2,...,t-q
dan diasumsikan white noise dan normal.
= koefisien regresi, i=1,2,3,...,q
= nilai error pada waktu ke-t
q = orde MA
Persamaan (2.32) dapat ditulis menggunakan operator back shift (B),
menjadi :
dengan merupakan operator
MA(q). Fungsi autokovariansi dari proses moving average orde q
repository.unisba.ac.id
28
Oleh karena itu, variansi dari proses ini adalah :
.
dan
...(2.32)
Jadi fungsi autokorelasinya dari proses MA(q) adalah :
...(2.33)
Karena , proses moving average berhingga
selalu stasioner. Proses moving average invertible jika akar-akar dari
berada diluar lingkaran satuan.
Secara umum, orde MA yang sering digunakan dalam analisis time series
adalah q=1 atau q=2. yaitu MA(1) dan MA(2).
Sehingga model Moving Average MA(1) adalah :
...(2.34)
Persamaan (2.35) dapat ditulis dengan operator B (back shift), menjadi :
Rata-rata ( adalah dan untuk semua k.
Variansi ( ,
repository.unisba.ac.id
29
Sedangkan model Moving Average orde 2, MA(2) adalah :
...(2.35)
Persamaan (2.36) dapat ditulis dengan operator B (back shift), menjadi :
Sebagai model moving average orde berhingga, proses MA(2) selalu stasioner.
2.10.3 Model Campuran AR(p) dan MA(q) / ARMA(p,q)
Unsur dasar dari model AR dan MA dapat dikombinasikan untuk
menghasilkan berbagai macam model yang merupakan gabungan kedua model
Autoregressive (AR) dan Moving Average (MA). Bentuk umum dari
Autoregressive (AR) dengan Moving Average (MA) yang dinotasikan ARMA
(p,q) adalah sebagai berikut:
...(2.36)
Dengan :
= nilai variabel pada wakyu ke-t
= koefisien autoregressive ke-i, i=1,2,3,...,p
p = orde AR
q = orde MA
= parameter model MA ke-i, i= 1,2,3,...,q
= nilai galat pada waktu ke-t
Model ini dapat ditulis dalam bentuk : untuk
stasioneritas memerlukan akar-akar terletak diluar lingkaran satuan
sedangkan untuk invertibilitas memerlukan akar-akar terletak diluar
repository.unisba.ac.id
30
lingkaran. Dengan mengambil ekspektasi persamaan diatas, diperoleh
karena
2.10.4 Model Autoregressive Integrated Moving Average (ARIMA)
Hasil modifikasi model ARMA (p,q) dengan memasukkan operator
differencing menghasilkan persamaan model ARIMA, adanya unsur differencing
karena merupakan syarat untuk menstasionerkan data, dalam notasi operator shift
mundur, differencing dapat ditulis , dimana merupakan data
hasil differencing sebanyak d kali dan operator differencing. Yang
dinotasikan dengan model ARIMA (p,d,q) :
Dimana :
Dengan
p = orde dari AR
q = orde dari MA
= koefisien orde p
= koefisien orde q
B = backward shift
repository.unisba.ac.id
31
= orde differencing non musiman
= besarnya pengamatan (kejadian) pada waktu ke-t
= suatu proses white noise atau galat pada waktu ke-t yang
diasumsikan mempunyai mean 0 dan variansi konstan
2.11 Proses Pemodelan Autoregressive Integrated Moving Average (ARIMA)
Metode ARIMA berbeda dengan metode peramalan lain karena metode ini
tidak menyaratkan suatu pola data tertentu, sehingga model dapat dipakai untuk
semua tipe pola data. Metode ARIMA akan bekerja dengan baik jika data dalam
time series yang digunakan bersifat dependen atau berhubungan satu sama lain
secara statistik. Secara umum model ARIMA ditulis dengan ARIMA (p,d,q) yang
artinya model ARIMA dengan derajat AR(p), derejat pembeda d, dan derajat
MA(q). Langkah-langkah pembentukan model secara iteratif adalah sebagai
berikut :
1. Identifikasi Model
Langkah pertama dalam pembentukan model Autoregressive Integrated
Moving Average (ARIMA) adalah pembentukan plot data time series. Pembuatan
plot data time series bertujuan untuk mendeteksi stasioneritas data time series.
Data dikatakan stasioner jika pola data tersebut berada disekitar nilai rata-rata dan
variansi yang konstan selama waktu tertentu. Selain itu, stasioneritas dapat dilihat
dari plot Autocorrelation Function (ACF) data tersebut (Gambar 2.2).
Kestasioneran suatu time series dapat dilihat dari plot ACF yaitu koefisien
autokorelasinya menurun menuju nol dengan cepat, biasanya setelah lag ke-2 atau
ke-3. Bila data tidak statsioner maka dapat dilakukan pembedaan atau
repository.unisba.ac.id
32
differencing, orde pembedaan sampai deret menjadi stasioner dapat digunakan
untuk menentukan nilai d pada ARIMA (p,d,q)
2. Menentukan Orde Autoregressive (AR) dan Moving Average (MA)
Model AR dan MA dari suatu time series dapat dilakukan dengan melihat
grafik ACF dan PACF.
a. Jika terdapat lag autokorelasi sebanyak q yang berbeda dari nol secara
signifikan maka prosesnya adalah MA (q).
b. Jika terdapat lag autokorelasi parsial sebanyak p yang berbeda dari nol
secara signifikan maka prosesnya adalah AR (p). Secara umum jika terdapat
lag autokorelasi sebanyak q yang berbeda dari nol secara signifikan dan d
pembedaan maka prosesnya adala ARIMA (p,d,q)
c. Jika terdapat lag PACF sebanyak p, lag ACF sebanyak q yang berbeda dari
nol secara signifikan maka prosesnya adalah ARMA (p,q), dan d sebagai
pembedaan maka prosesnya adalah ARIMA (p,d,q)
3. Estimasi Parameter
Ada dua cara yang mendasar untuk mendapatkan parameter-parameter
tersebut :
a. Dengan cara mencoba-coba (trial and error), menguji beberapa nilai yang
berbeda dan memilih satu nilai tersebut (atau sekumpulan nilai, apabila
terdapat lebih dari satu parameter yang akan ditaksir) yang
meminimumkan jumlah kuadrat nilai sisa (sum of squared residual).
repository.unisba.ac.id
33
b. Perbaikan secara iteratif, memilih taksiran awal dan kemudian
membiarkan program komputer memperhalus penaksiran tersebut secara
iteratif.
Metode yang digunakan untuk mengestimasi parameter autoregressive
yaitu metode kuadrat terkecil (least squared method). Model AR (p) dinyatakan
dalam bentuk:
...(2.37)
Dari n observasi parameter dapat diestimasi dengan
meminimumkan jumlah kuadrat residual Sum Squared Error (SSE)
...(2.38)
Sebagai contoh, diketahui model AR(1)
...(2.39)
Sehingga di peroleh galat
untuk mengestimasi parameter dengan meminimumkan jumlah kuadrat
residual
...(2.40)
-
Estimator untuk parameter dinyatakan sebagai
...(2.41)
repository.unisba.ac.id
34
4. Pemeriksaan Diagnostik
Setelah berhasil mengestimasi nilai-nilai parameter dari model ARIMA
yang ditetapkan sementara, selanjutnya perlu dilakukan pemeriksaan diagnostik
untuk membuktikan bahwa model tersebut cukup memadai dan menentukan
model mana yang terbaik digunakan untuk peramalan (Makridakis, 1999).
Pemeriksaan diagnostik ini dapat dilakukan dengan mengamati apakah
residual dari model terestimasi merupakan proses white noise atau tidak. Model
dikatakan baik jika nilai error bersifat random, artinya sudah tidak mempunyai
pola tertentu lagi. Dengan kata lain model yang diperoleh dapat menangkap
dengan baik pola data yang ada. Statistika uji Q Box- Pierce dapat digunakan
untuk menguji kelayakan model, yaitu dengan menguji apakah sekumpulan
korelasi diri untuk nilai sisa tersebut tidak nol. Statistik uji Q Box-Pierce
menyebar mengikuti sebaran dengan derajat bebas (m – p - q), dimana m
adalah maksimum yang diamati, p adalah ordo AR, dan q adalah ordo MA. Jika
nilai Q lebih besar dari nilai untuk tingkat kepercayaan tertentu
atau nilai peluang statistik Q lebih kecil dari taraf nyata , maka dapat
disimpulkan bahwa model tidak layak. persamaan statistik uji Box dan Pierce
menurut (Makridakis, 1995) adalah :
...(2.42)
Dengan :
= nilai korelasi diri pada lag ke-k
n = banyaknya amatan pada data awal
d = ordo pembedaan
repository.unisba.ac.id
35
m = lag maksimal
5. Kriteria Pemilihan Model Terbaik
Salah satu kriteria pemilihan model yang dapat digunakan untuk model
terbaik adalah berdasarkan kesalahan peramalan, semakin kecil nilai MSE maka
semakin baik model itu untuk dipilih yaitu :
...(2.43)
Dengan :
n = Jumlah sampel
= Nilai aktual harga open emas
= Nilai Prediksi harga open emas
Pada pemilihan metode terbaik (metode yang paling sesuai) yang
digunakan untuk meramalkan suatu data dapat dipertimbangkan dengan
meminimumkan kesalahan (error) yang mempunyai ukuran kesalahan model
terkecil.
6. Peramalan dengan Model ARIMA
Notasi yang digunakan dalam ARIMA adalah notasi yang mudah dan
umum. Misalkan model ARIMA (0,1,1)(0,1,1)12 dijabarkan sebagai berikut :
...(2.44)
Tetapi untuk menggunakannya dalam peramalan mengharuskan dilakukan
sesuatu penjabaran dari persamaan tersebut dan menjadikannya sebuah persamaan
regresi yang lebih umum. untuk model diatas bentuknya adalah :
...(2.45)
repository.unisba.ac.id
36
Untuk meramalkan satu periode ke depan, yaitu maka seperti pada
persamaan berikut :
...(2.46)
Nilai tidak akan diketahui, karena nilai yang diharapkan untuk
kesalahan random pada masa yang akan datang harus ditetapkan sama dengan nol.
Akan tetapi dari model yang disesuaikan (fitted model) kita boleh mengganti nilai
dengan nilai-nilai yang ditetapkan secara empiris (seperti yang
diperoleh setelah iterasi terakhir algoritma Marquardt). Tentu saja bila kita
meramalkan jauh ke depan, tidak akan kita peroleh nilai empiris untuk “ ”
sesudah beberapa waktu, dan oleh sebab itu nilai harapan mereka akan seluruhnya
nol.
Untuk nilai X, pada awal proses peramalan, kita akan mengetahui
nilai . Akan tetapi sesudah beberapa saat, nilai X akan berupa nilai
ramalan (forecasted value), bukan nilai-nilai masa lalu yang telah diketahui.
2.12 Artificial Neural Network (ANN)
Artificial neural network atau juga disebut dengan jaringan syaraf tiruan
(JST) adalah sistem pemroses informasi yang memiliki karakteristik mirip dengan
jaringan syaraf biologi. Neural network telah diaplikasikan dalam berbagai bidang
diantaranya pattern recognition, medical diagnostic, signal processing, dan
peramalan. Meskipun banyak aplikasi menjanjikan yang dapat dilakukan oleh
neural network, namun neural network juga memiliki beberapa keterbatasan
umum, yaitu ketidak akuratan hasil yang diperoleh. Neural network bekerja
berdasarkan pola yang terbentuk pada inputnya.
repository.unisba.ac.id
37
Neural network terdiri atas elemen-elemen untuk pemrosesan informasi
yang disebut dengan neuron, unit, sel atau node (Fausset , 1994). Setiap neuron
dihubungkan dengan neuron lainnya dengan suatu connection link, yang
direpresentasikan dengan weight/bobot. Metode untuk menentukan nilai weight
disebut dengan training, learning atau algoritma. Setiap neuron menggunakan
fungsi aktivasi pada net input untuk menentukan prediksi output.
Neuron-neuron dalam neural network disusun dalam grup, yang disebut
dengan layer (lapis) . Susunan neuron-neuron dalam lapis dan pola koneksi di
dalam dan antar lapis disebut dengan arsitektur jaringan. Arsitektur ini merupakan
salah satu karakteristik penting yang membedakan neural network. Secara umum
ada tiga lapis yang membentuk neural network :
1. Lapis input
Unit-unit di lapisan input disebut unit-unit input. Unit-unit input tersebut
menerima pola inputan dari luar yang menggambarkan suatu
permasalahan. banyak node atau neuron dalam lapis input tergantung pada
banyaknya input dalam model dan setiap input menentukan satu neuron.
2. Lapis tersembunyi (hidden layer)
Unit-unit dalam lapisan tersembunyi disebut unit-unit tersembunyi, dimana
outputnya tidak dapat diamati secara langsung. Lapis tersembunyi terletak
di antara lapis input dan lapis output, yang dapat terdiri atas beberapa lapis
tersembunyi.
repository.unisba.ac.id
38
3. Lapis output
Unit-unit dalam lapisan output disebut unit-unit output. Output dari lapisan
ini merupakan solusi neural network terhadap suatu permasalahan. Setelah
melalui proses training, network merespon input baru untuk menghasilkan
output yang merupakan hasil peramalan.
2.12.1 Arsitektur Neural Network
Pengaturan neuron ke dalam lapisan, pola hubungan dalam lapisan, dan
diantara lapisan disebut arsitektur neural network (Fausset, 1994). Arsitektur
jaringan neural network diilustrasikan dalam Gambar 2.6 yang terdiri dari unit
input, unit output, dan satu unit tersembunyi. Neural network sering
diklasifikasikan sebagai single layer dan multilayer
Gambar 2.6 Arsitektur jaringan neural network sederhana
a. Single layer
Sebuah jaringan single layer memiliki satu lapisan bobot koneksi (Fausset,
1994). Ciri khas dari single layer terlihat dalam Gambar 2.6, dimana unit input
yang menerima sinyal dari dunia luar terhubung ke unit output tetapi tidak
repository.unisba.ac.id
39
terhubung ke unit input lain, dan unit-unit output yang terhubung ke unit output
lainnya.
Gambar 2.7 Arsitektur jaringan neural network single layer
b. Multilayer
Jaringan multilayer adalah jaringan dengan satu atau lebih lapisan
tersembunyi antara unit input dan unit output (Fausset, 1994). Biasanya, ada
lapisan bobot antara dua tingkat yang berdekatan unit (input, tersembunyi, atau
output). Jaringan multilayer yang di illustrasikan pada Gambar 2.8 memecahkan
masalah yang lebih rumit dari pada jaring single layer, dan juga pelatihannya
mungkin lebih sulit.
Gambar 2.8 Arsitektur jaringan neural network multilayer
repository.unisba.ac.id
40
2.12.2 Metode Pelatihan
Selain arsitektur, metode pengaturan nilai bobot (training) merupakan
karakteristik yang penting dalam jaringan neural network (Fausset, 1994). Metode
pelatihan pada neural network dibagi menjadi dua jenis, yaitu :
a. Pelatihan Terawasi
Pelatihan ini dilakukan dengan adanya urutan vektor pelatihan, atau pola
yang masing-masing terkait dengan vektor target output. Bobot kemudian
disesuaikan untuk algoritma pembelajaran. Proses ini dikenal sebagai pelatihan
terawasi.
b. Pelatihan tak Terawasi
Pada pelatihan ini jaring saraf mengatur segala kinerja dirinya sendiri,
mulai dari masukan vektor hingga menggunakan data training untuk melakukan
pembelajaran.
2.12.3 Fungsi Aktivasi
Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron
akan diteruskan atau tidak. Ada beberapa fungsi aktivasi yang sering digunakan
dalam neural network, antara lain:
a. Fungsi undak biner (Threshold)
Fungsi undak biner dengan menggunakan nilai ambang sering juga disebut
dengan fungsi nilai ambang (Threshold) atau fungsi Heaviside.
repository.unisba.ac.id
41
Gambar 2.9 fungsi aktivasi undak biner (threshold)
Fungsi undak biner (dengna nilai ambar θ) dirumuskan sebagai :
b. Fungsi Linear (Identitas)
Fungsi linear memiliki nilai output yang sama dengan nilai inputnya. Fungsi ini
dirumuskan sebagai :
=
Gambar 2.10 fungsi aktivasi linear (identitas)
repository.unisba.ac.id
42
c. Fungsi Sigmoid Biner
Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan
menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada
range 0 sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan
syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1.
Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0
atau 1. Fungsi sigmoid biner dirumuskan sebagai :
...(2.47)
dengan :
...(2.48)
d. Fungsi Sigmoid Bipolar
Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya
saja output dari fungsi ini memiliki range antara 1 sampai -1. Fungsi sigmoid
bipolar dirumuskan sebagai :
...(2.49)
dengan :
...(2.50)
Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya
memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan
sebagai :
...(2.51)
atau :
repository.unisba.ac.id
43
...(2.52)
dengan :
...(2.53)
2.12.4 Model Feedforward Neural Network dengan Algoritma
backpropagation
Secara umum, proses bekerjanya jaringan neural network menyerupai cara
otak manusia memproses data input sensorik, diterima sebagai neuron input.
Selanjutnya neuron saling berhubungan dengan sinapsis (node), dan sinyal dari
neuron bekerja secara paralel digabungkan untuk menghasilkan informasi maupun
reaksi. Feedforward Neural Network (FFNN) merupakan salah satu model neural
network yang banyak dipakai dalam berbagai bidang. Arsitektur model FFNN
terdiri atas satu lapis input, satu atau lebih lapis tersembunyi, dan satu lapis
output. Dalam model ini, perhitungan respon atau output dilakukan dengan
memproses input x mengalir dari satu lapis maju ke lapis berikutnya secara
berurutan. Single layer feedforward dengan satu neuron pada lapisan tersembunyi
adalah jaringan saraf yang paling dasar dan umum digunakan dalam ekonomi dan
aplikasi keuangan. Kompleksitas dari arsitektur FFNN tergantung pada jumlah
lapis tersembunyi dan jumlah neuron pada masing-masing lapis. Gambar 2.11
adalah arsitektur feedforward neural network dengan n buah masukan (ditambah
sebuah bias), sebuah lapisan tersembunyi yang terdiri dari p unit (ditambah
sebuah bias), serta m buah unit keluaran.
repository.unisba.ac.id
44
Gambar 2.11 Arsitektur Feedforward Neural Network
1. Algoritma Backpropagtion
Algoritma pelatihan Backpropagation (BP) adalah salah satu algoritma
dengan multilayer percepton yang pertama kali dirumuskan oleh Werbos dan
dipopulerkan oleh Rumelhart dan McClelland untuk dipakai pada neural network.
Backpropagation neural network merupakan tipe jaringan saraf tiruan yang
menggunakan metode pembelajaran terawasi .
Algoritma BP juga banyak dipakai pada aplikasi pengaturan karena proses
pelatihannya didasarkan pada hubungan yang sederhana, yaitu jika keluaran
memberikan hasil yang salah, maka penimbang dikoreksi supaya errornya dapat
diperkecil dan respon jaringan selanjutnya diharapkan akan lebih mendekati harga
yang benar. BP juga berkemampuan untuk memperbaiki penimbang pada lapisan
tersembunyi (hidden layer).
Algoritma Backpropagation disebut sebagai propagasi balik karena ketika
jaringan diberikan pola masukan sebagai pola pelatihan maka pola tersebut
menuju ke unit-unit pada lapisan tersembunyi untuk diteruskan ke unit-unit.
lapisan keluaran. Selanjutnya, unit-unit lapisan keluaran memberikan tanggapan
repository.unisba.ac.id
45
yang disebut sebagai keluaran jaringan. Saat keluaran jaringan tidak sama dengan
keluaran yang diharapkan maka keluaran akan menyebar mundur (backward)
pada lapisan tersembunyi diteruskan ke unit pada lapisan masukan. Oleh
karenanya mekanisme pelatihan tersebut dinamakan backpropagation.
Tahap pelatihan ini merupakan langkah bagaimana suatu jaringan saraf itu
berlatih, yaitu dengan cara melakukan perubahan penimbang (sambungan antar
lapisan yang membentuk jaringan melalui masing-masing unitnya). Sedangkan
pemecahan masalah baru akan dilakukan jika proses pelatihan tersebut selesai,
fase tersebut adalah fase mapping atau proses pengujian/testing. Algoritma
Pelatihan Backpropagation terdiri dari dua proses, feedforward dan
backpropagation dari errornya. Algoritmanya sebagai berikut (Fausset, 1994):
Terdapat tiga fase dalam pelatihan backpropagation yaitu :
1. Fase 1, yaitu Feedforward atau propagasi maju
Dalam propagasi maju, setiap sinyal masukan dipropagasi (dihitung maju)
ke layar tersembunyi hingga layar keluaran dengan menggunakan fungsi
aktivasi yang ditentukan.
2. Fase 2, yaitu backpropagation atau propagasi mundur
Kesalahan (selisih antara keluaran jaringan dengan target yang diinginkan)
yang terjadi dipropagasi mundur mulai dari garis yang berhubungan
langsung dengan unit-unit di layar keluaran.
repository.unisba.ac.id
46
3. Fase 3, yaitu perubahan bobot
Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan
yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi
penghentian dipenuhi.
Algoritma pelatihan untuk jaringan dengan satu layar tersembunyi (dengan
fungsi aktivasi sigmoid biner) adalah sebagai berikut :
Langkah 1 : Inisialisasi semua bobot dengan bilangan acak kecil.
Langkah 2 : Jika kondisi penghentian belum terpenuhi, lakukan langkah 2
sampai langkah 9.
Langkah 3 : Untuk setiap pasang data pelatihan lakukan langkah 3 sampai
langkah 8.
Fase I : Feedforward
Langkah 4 : Tiap unit masukan menerima sinyal dan
meneruskannya ke unit tersembunyi diatasnya.
Langkah 5 : Hitung semua keluaran di unit tersembunyi
.
...(2.54)
gunakan fungsi aktivasi untuk menghitung sinyal outputnya :
...(2.55)
dan kirimkan sinyal tersebut ke semua unit lapisan atasnya (unit-unit output).
Langkah ini dilakukan sebanyak jumlah lapisan tersebunyi.
Langkag 6 :Hitung semua keluaran jaringan unit
...(2.56)
repository.unisba.ac.id
47
gunakan fungsi aktivasi untuk menghitung sinyal outputnya :
...(2.57)
Fase II : Backpropagation
Langkah 7 : Hitung faktor δ unit keluaran berdasarkan kesalahan disetiap unit
keluaran
...(2.58)
merupakan unit kesalahan yang akan diperbaiki dalam perubahan bobot layar
dibawahnya (langkah 7). kemudian hitung suku perubahan bobot (yang akan
dipakai nanti untuk merubah bobot ) dengan laju percepatan
...(2.59)
kemudian hitung suku perubahan bias (yang akan dipakai nanti untuk
memperbaiki )
...(2.60)
Langkah 8 : Hitung faktor unit δ tersembunyi berdasarkan kesalahan di setiap
unit tersembunyi
...(2.61)
Faktor unit tersembunyi :
...(2.62)
Hitung suku perubahan bobot (yang akan dipakai nanti untuk merubah bobot
)
...(2.63)
repository.unisba.ac.id
48
kemudian hitung suku perubahan bias (yang akan dipakai nanti untuk merubah
bobot )
...(2.64)
Fase III : Perubahan bobot
Langkah 9 : Tiap-tiap unit output memperbaiki
bobotnya
...(2.65)
Perubahan bobot garis yang menuju unit tersembunyi :
...(2.66)
Langkah 10 : Setelah diperoleh bobot yang baru dari hasil perubahan bobot,
fase pertama dilakukan kembali kemudian dibandingkan hasil
keluaran dengan target apabila hasil keluaran telah sama dengan
target dan toleransi error maka proses dihentikan.
Model FFNN algoritma backpropagation secara sistematis dapat dituliskan
sebagai berikut :
...(2.67)
2.12.5 Membangun Jaringan Feedforward Neural Network dengan algoritma
backpropagation
Membangun jaringan feedforward neural network dengan algoritma
backpropagation memerlukan beberapa langkah. Penulis membagi langkah-
langkah tersebut kedalam beberapa tahap yaitu sebagai berikut :
repository.unisba.ac.id
49
a. Menentukan input Jaringan
Dalam menentukan input jaringan dari data open emas, yang menjadi
variabel input yaitu harga open emas hari kemarin sebagai x1, dan harga open
emas berupa data hari sekarang sebagai x2. Sedangkan data target adalah data hari
esok. Data input yang telah dipilih dinormalisasi dengan perintah prestd dalam
MATLAB. Fungsi aktivasi yang digunakan pada lapis tersembunyi yaitu sigmoid
biner (tansig), sedangkan pada lapis output menggunakan fungsi aktivasi linier
(purelin). Pembelajaran backpropagation dilakukan dengan menentukan
banyaknya neuron pada lapis tersembunyi.
b. Pembagian data
Data yang ada dibagi menjadi 2 yaitu training dan data testing. Beberapa
komposisi data training dan testing yang sering digunakan adalah 80% untuk
training dan 20% untuk data testing, 75% untuk data training dan 25% untuk data
testing, atau 50% data training dan 50% untuk data testing. Komposisi ini bersifat
bebas.
c. Normalisasi data
Sebelum melakukan pembelajaran maka data perlu dinormalisasikan.
Normalisasi data dilakukan karena normalisasi sangat dibutuhkan pada jaringan
syaraf tiruan yang menggunakan fungsi aktifasi sigmoid. Hal ini dapat dilakukan
dengan meletakkan data-data input dan target pada range tertentu. Proses
normalisasi dapat dilakukan dengan bantuan mean dan standar deviasi.
Perhitungan nilai rata-rata
...(2.68)
repository.unisba.ac.id
50
Perhitungan nilai variansi
...(2.69)
Perhitungan normalisasi
...(2.70)
dengan :
n = Banyaknya data
= rata-rata data
= pengamatan pada waktu t
= variansi
s = simpangan baku
Proses normalisasi data dengan bantuan mean dan standar deviasi
menggunakan perintah prestd pada MATLAB yang akan membawa data ke dalam
bentuk normal. Berikut perintahnya:
[pn, meanp, stdp, tn, meant, stdt] = prestd (P,T)
dengan
P = matriks input
T = matriks target
Fungsi pada matlab akan menghasilkan:
Pn = matriks input yang ternormalisasi (mean = 0, deviasi standar = 1)
tn = matriks target yang ternormalisasi (mean=0,deviasi standar = 1)
meanp = mean pada matriks input asli (p)
stdp = deviasi standar pada matriks input asli (p)
meant = mean pada matriks target asli (t)
repository.unisba.ac.id
51
stdt = deviasi standar pada matriks target asli (t)
d. Menentukan Model FFNN yang Optimal dengan Algorit backpropagation
Sebuah jaringan harus dibentuk dengan menentukan input dari jaringan
tersebut. Input diketahui dari plot ACF dan PACF yang telah dijelaskan
sebelumnya. Jika input sudah diketahui, maka neuron pada lapis tersembunyi
harus ditentukan. Penentuan neuron pada lapis tersembunyi dengan cara
mengestimasi. Arsitektur jaringan yang sering digunakan oleh algoritma
backpropagation adalah jaringan feedforward dengan banyak lapisan. Untuk
membangun suatu jaringan feedforward digunakan perintah newff pada
MATLAB, yaitu
net = newff(PR,[S1 S2 ... SN1],{TF1 TF2 ...
TFN1},BTF,BLF,PF)
dengan :
PR = matriks berukuran Rx2 yang berisi nilai minimum dan
maksimum, dengan R adalah jumlah variabel input
Si = jumlah neuron pada lapisan ke-i, dengan = 1,2, . . . , 1
TFi = fungsi aktivasi pada lapisan ke-i, dengan = 1,2, . . . , 1
BTF = fungsi pelatihan jaringan (default :trainlm)
BLF = fungsi pelatihan untuk bobot (default : learngdm)
PF = fungsi kinerja (default: mse)
Fungsi aktivasi TFi harus merupakan fungsi yang dapat dideferensialkan,
seperti tansig, logsig atau purelin. Fungsi pelatihan BTF dapat digunakan fungsi-
repository.unisba.ac.id
52
fungsi pelatihan untuk backpropagation, seperti trainlm, trainbfg, trainrp atau
traind.
Proses membangun jaringan feedforward neural network dengan algoritma
backpropagation terdiri atas :
1) Menentukan banyaknya neuron pada lapis tersembunyi
Jaringan yang dibangun akan dinilai keakuratannya dengan menentukan
neuron terbaik pada lapisan tersembunyi. Indikator pemilihan penilaian yang
digunakan adalah MAPE, MSE dan MAD. Berdasarkan nilai indikator yang
terendah dari proses pembelajaran, maka diperoleh jaringan yang terbaik. Dalam
skripsi ini, penulis menggunakan MSE sebagai indikatornya. Rumus MSE bisa
dilihat pada persamaan (2.44)
2) Menentukan input yang optimal
Jaringan yang akan dibangun seharusnya berdasarkan input yang sederhana
namun optimal, untuk itu perlu dilalukan pengecekan terhadap input jaringan.
Untuk mendapatkan input yang optimal perlu dilakukan pengeliminasian terhadap
input. Indikator dari optimalnya dilihat dari MSE yang diperoleh setelah
melakukan pelatihan. Input yang optimal yaitu ketika MSE yang diperoleh sangat
kecil atau paling kecil.
3) Menentukan bobot model
Penentuan bobot model bergantung pada pemilihan parameter
pembelajaran.Pemilihan parameter pembelajaran adalah proses yang penting
ketika melakukan pembelajaran. Dalam membentuk suatu jaringan, model yang
kurang baik dapat diperbaiki dengan paramerer-parameter secara trial and error
repository.unisba.ac.id
53
untuk mendapatkan nilai bobot optimum supaya MSE jaringan dapat diperbarui.
Adapun untuk parameter-parameter yang perlu diatur ketika melakukan
pembelajaran traingdx adalah (Sri Kusumadewi, 2004) :
a) Maksimum epoh
Maksimum epoh adalah jumlah epoh maksimum yang boleh dilakukan
selama proses pelatihan. Iterasi akan terhenti apabila nilai epoh melebihi
maksimum epoh.
Perintah di MATLAB : net.trainParam.epochs = MaxEpoh
Nilai default untuk maksimum epoh adalah 10
b) Kinerja tujuan
Kinerja tujuan adalah target nilai fungsi kinerja. Iterasi akan dihentikan
apabila nilai fungsi kinerja kurang dari atau sama dengan kinerja tujuan.
Perintah di MATLAB : net.trainParam.goal = TargetError
Nilai default untuk kinerja tujuan adalah 0.
c) Learning rate
Learning rate adalah laju pembelajaran. Semakin besar learning rate akan
berimplikasi pada semakin besar langkah pembelajaran.
Perintah di MATLAB : net.trainParam.Ir = LearningRate.
Nilai default untuk learning rate adalah 0,01.
d) Rasio untuk menaikkan learning rate
Rasio yang berguna sebagai faktor pengali untuk menaikkan learning rate
apabila learning rate yang ada terlalu rendah atau mencapai kekonvergenan.
Perintah di MATLAB : net.trainParam.Ir_inc =IncLearningRate
repository.unisba.ac.id
54
Nilai default untuk rasio menaikkan learning rate adalah 1,05.
e) Rasio untuk menurunkan learning rate
Rasio yang berguna sebagai faktor pengali untuk menurunkan learning
rate apabila learning rate yang ada terlalu tinggi atau menuju ke ketidakstabilan.
Perintah di MATLAB : net.trainParam.Ir_decc =DecLearningRate
Nilai default untuk rasio penurunan learning rate adalah 0,7.
f) Maksimum kegagalan
Maksimum kegagalan diperlukan apabila pada algoritma disertai dengan
validitas (optional). Maksimum kegagalan adalah ketidakvalitan terbesar yang
diperbolehkan. Apabila gradient pada iterasi ke-k lebih besar daripada gradien
iterasi ke-(k-1), maka kegagalannya akan bertambah 1. Iterasi akan dihentikan
apabila jumlah kegagalan lebih dari maksimum kegagalan.
Perintah di MATLAB : net.trainParam.max_fail =MaxFaile
Nilai default untuk maksimum kegagalan adalah 5.
g) Maksimum kenaikan kerja
Maksimum kenaikan kerja adalah nilai maksimum kenaikan error yang
diijinkan, antara error saat ini dan error sebelumnya.
PerintahdiMATLAB : net.trainParam.max_perf_inc =MaxPerfInc
Nilai default untuk maksimum kenaikan kinerja adalah 1,04.
h) Gradien minimum
Gradien minumum adalah akar dari jumlah kuadrat semua gradien (bobot
input, bobot lapisan, bobot bias) terkecil yang diperbolehkan. Iterasi akan
repository.unisba.ac.id
55
dihentikan apabila nilai akar kuadrat semua gradien ini kurang dari gradien
minimum.
Perintah di MATLAB : net.trainParam.min_grad =MinGradien
Nilai default untuk gradien minimum adalah 10-10.
i) Momentum
Momentum adalah perubahan bobot yang baru dengan dasar bobot
sebelumnya. Besarnya momentum antara 0 sampai 1. Apabila besarnya
momentum = 0 maka perubahan bobot hanya akan dipengaruhi oleh gradiennya.
Sedangkan, apabila besarnya momentum = 1 maka perubahan bobot akan sama
dengan perubahan bobot sebelumnya.
Perintah di MATLAB : net.trainParam.mc =Momentum
Nilai default untuk momentum adalah 0,9.
j) Jumlah epoh yang akan ditunjukkan kemajuannya
Parameter ini menunjukkan berapa jumlah epoh yang berselang yang akan
ditunjukkan kemajuannya.
Perintah di MATLAB : net.trainParam.show =EpohShow
Nilai default untuk jumlah epoh yang akan ditunjukkan adalah 25.
k) Waktu maksimum untuk pelatihan
Parameter ini menunjukkan waktu maksimum yang diijinkan untuk
melakukan pelatihan. Iterasi akan dihentikan apabila waktu pelatihan melebihi
waktu maksimum.
Perintah di MATLAB : net.trainParam.time =MaxTime
Nilai default untuk waktu maksimum adalah tak terbatas (inf).
repository.unisba.ac.id
56
Algoritma pelatihan dilakukan untuk pengaturan bobot, sehingga pada
akhir pelatihan mendapatkan bobot-bobot yang baik. Selama proses pelatihan,
bobot diatur secara iteratif untuk meminimumkan fungsi kinerja jaringan. Fungsi
kinerja jaringan yang sering digunakan dalam backpropagation adalah mean
square error (MSE), fungsi ini akan mengambil rata-rata kuadrat error yang
terjadi antara output jaringan dengan target. Algoritma pelatihan yang dasar ada 2
macam (Sri Kusumadewi, 2004), yaitu:
a. Incremental Mode
Dalam MATLAB, perintah Incremental Mode ada 2 yaitu learngd dan
learngdm.
b. Batch Mode
Dalam MATLAB, perintah Batch Mode ada 2 yaitu traingd dan traingdm.
Dari kedua algoritma tersebut, algoritma pelatihan dasar Batch Mode yang sering
digunakan. Pelatihan sederhana dengan Batch Mode menggunakan fungsi train
dalam matlab sebagai berikut:
net = train (net,P,T)
e. Denormalisasi
Setelah proses pelatihan selesai, maka data yang telah dinormalisasi
dikembalikan seperti semula yang disebut denormalisasi data. Data akan di
denormalisasi dengan fungsi poststd pada matlab, dengan perintah sebagai berikut
: [P,T]= poststd (pn, meanp, stdp, tn, meant, stdt).
repository.unisba.ac.id
57
f. Uji kesesuaian model
Untuk mengecek error pada struktur jaringan yang telah dibentuk dengan
uji white noise. Pengujian ini dilihat dari plot ACF dan PACF dari error training
apakah bersifat random atau tidak. Jika error bersifat random maka proses white
noise terpenuhi sehingga jaringan layak digunakan untuk peramalan. Model
backpropagation dengan p neuron tersembunyi dan input xi, secara sistematis
dapat ditulis sebagai berikut :
...(2.71)
repository.unisba.ac.id