tugas ujian akhir semester
TRANSCRIPT
BAB I
PENDAHULUAN
1.1 Latar Belakang
Pusat Teknologi Limbah Radioaktif (PTLR) adalah satuan kerja di bawah
BATAN yang mengemban tugas dan fungsi melaksanakan pengelolaan limbah
radioaktif untuk mencegah timbulnya radiasi terhadap manusia dan lingkungan, serta
melaksanakan pengendalian keselamatan lingkungan untuk mendukung operasi
pemanfaatan iptek nuklir. Dalam operasinya, PTLR mampu melayani pengolahan
limbah radioaktif baik yang berasal dari BATAN maupun dari industri luar. Untuk
kegiatan operasinya, PLTR memiliki instalasi pengolahan limbah radioaktif dan fasilitas
pendukung lainnya.
Fasilitas instalasi pengolahan limbah radioaktif terdiri dari; evaporator,
kompaktor, insenerator, unit sementasi, dekontaminasi, dan dekomisioning. Sedangkan
fasilitas pendukungnya adalah seluruh peralatan media energy supply (MES).
Evaporator PTLR mampu mengolah limbah cair anorganik aktivitas rendah dan sedang
dengan cara penguapan pada temperatur 100 °C. Kompaktor mampu mengkompaksi
limbah padat dapat mampat aktivitas rendah dan sedang dengan gaya 600 kN dan
kemudian mengkapsulasi hasil kompaksi di dalam matriks semen. Ineserator mampu
membakar sempurna limbah organic cair dan padat. Fasilitas dekontaminasi
memberikan layanan dekontaminasi pakaian kerja, peralatan keselamatan kerja. Dan
fasilitas MES berfungsi memberikan layanan media dan energy yang dibutuhkan dalam
proses pengolahan limbah.
Untuk mengoperasikan seluruh fasilitas pengolahan limbah dan sarana dukung
yang telah diuraikan sebelumnya dibutuhkan sumber energy listrik yang besar. Dalam
usaha memenuhi kebutuhan listrik, PLTR memanfaatkan dua sumber energy listrik,
yaitu PLN dan Generator set.
Dalam menindaklanjuti wacana penghematan energy, PLTR sebagai unit satuan
kerja dibawah BATAN melakukan upaya penghematan dengan menurunkan daya listrik
yang terpasang dari 2000 kVA ke 1455 kVA. Selain itu juga diberlakukan kebijakan
untuk meniadakan kegiatan shift malam, merubah jam operasi peralatan, pemasangan
capacitor bank , mengatur dan mengurangi penerangan serta membatasi penggunaan
1
energy PLTR adalah sebesar 69,873 kWh/bulan Untuk mengetahui apakah usaha
penghematan energi yang telah dilakukan telah efektif, maka perlu dilakukan prediksi
tingkat konsumsi energi listrik fasilitas ini kedapannya. Dengan adanya prediksi tingkat
konsumsi energi listrik fasilitas tersebut, maka kelak dapat dilakukan antisipasi apakah
usahan penghematan energi telah berhasil dilakukan atau diperlukan metode lain
sebagai upaya penghematan energi. Adapun prediksi tingkat konsumsi energi listrik
pada fasilitas pengolahan limbah radioaktif ini menggunakan jaringan saraf tiruan
dengan metode pembelajaran Backpropagation.
1.2 Tujuan
Tugas akhir ini bertujuan untuk merancang dan mengimplementasikan perangkat
lunak yang dapat digunakan untuk memprediksi tingkat konsumsi energi listrik pada
fasilitas pengolahan limbah radioaktif menggunkan jaringan syaraf tiruan dengan
metode pembelajaran backpropagation.
1.3 Batasan Masalah
Pembahasan dibatasi pada:
1. Data masukan adalah data konsumsi energi listrik fasilitas pengolahan limbah
radioaktif dari tahun 2006 sampai tahun 2009.
2. Masalah yang akan dibahas adalah bagaimana memprediksi konsumsi energi listrik
fasilitas pengolahan limbah radioaktif beberapa tahun kedepan setiap bulannya.
3. Menggunakan bahasa pemograman Matlab R2010a.
2
BAB II
TEORI
2.1 Konsumsi Energi Listrik
Konsumsi energi listrik di fasilitas pengolahan limbah radioaktif
lebih banyak digunakan sebagai suplai daya motor dengan sirkuit tiga
fase. Sirkuit tiga fase umum digunakan pada mayoritas sistem
transmisi, distribusi dan konversi energi yang tingkat daya atau volt-
amperenya (VA) berada diatas 10 kilowatt (kW) atau kilovolt-ampere
(kVA). Dalam sistem tiga fase, ada dua macam hubungan yang dapat
dibuat, yaitu hubungan bintang dan hubungan delta. Secara umum,
tegangan pada kedua hubungan tersebut sama-sama terbagi menjadi
dua jenis, yaitu tegangan fase dan tegangan saluran. Untuk
menghitung besar daya yang dipakai, hubungan bintang dan delta
mempunyai persamaan yang sama, yaitu;
P=√3 . V . I . cosφ (2.1)
dengan P adalah daya yang terpakai (Watt), V adalah tegangan tiga fase (volt), I
arus beban yang mengalir disetiap fase, dan φ adalah power factor.
Power factor adalah selisih sudut antara fase gelombang tegangan terhadap fase
arus, yang menunjukkan kualitas daya yang dikonsumsi oleh peralatan listrik. Power
factor(PF) merupakan penghubung antara daya yang diperlukan untuk melakukan kerja
(kW), daya reaktif (kVAr), dan daya yang sebenarnya dikeluarkan (kVA). Hubungan
ketiganya terlihat jelas pada Gambar 1. Daya reaktif (kvar) ditimbulkan oleh beban
induktif dan kapasitif, yang mana keduanya mempunyai jarak sudut 180o satu sama lain.
3
Gambar 2.1 Hubungan daya aktif, daya nyata dan daya reaktif
φ=tan−1 dayareaktif ( kVAr )dayaaktif (kWh ) (2.2)
PF=Cos φ (2.3)
Untuk menghitung jumlah energy terpakai digunakan persamaan:
W =P . t (2.4)
dengan
W = energy listrik yang terpakai (wattjam)
P = daya terpakai (watt)
T = waktu pemakaian (jam).
2.2 Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan adalah paradigma pemrosesan suatu informasi yang
terinspirasi oleh sistim sel syaraf biologi, sama seperti otak yang memproses suatu
informasi. Elemen mendasar dari paradigma tersebut adalah struktur yang baru dari
sistim pemrosesan informasi. Jaringan Syaraf Tiruan, seperti manusia, belajar dari suatu
contoh. Jaringan Syaraf Tiruan dibentuk untuk memecahkan suatu masalah tertentu
seperti pengenalan pola atau klasifikasi karena proses pembelajaran.
Metode pembelajaran unntuk jaringan syaraf tiruan ada dua yaitu feedforward
(umpan maju) dan backpropagation (jaringan syaraf berulang). Jaringan syaraf
feedforward merupakan jaringan syaraf tiruan dimana hubungan antara unit yang tidak
membentuk siklus searah.
4
Jaringan Syaraf feedforward merupakan tipe pertama dan bisa dibilang paling
sederhana dari jaringan syaraf tiruan yang telah dibuat. Dalam jaringan ini, informasi
bergerak dalam satu arah, kedepan, dari layer masukan, melalui layer tersembunyi, dan
output layer.
2.3 Metode Backpropagation
Perambatan galat mundur (Backpropagation) adalah sebuah metode
sistematik untuk pelatihan multiplayer jaringan saraf tiruan. Metode ini memiliki
dasar matematis yang kuat, obyektif dan algoritma ini mendapatkan bentuk persamaan
dan nilai koefisien dalam formula dengan meminimalkan jumlah kuadrat galat error
melalui model yang dikembangkan (training set).
1. Dimulai dengan lapisan masukan, hitung keluaran dari setiap elemen pemroses
melalui lapisan luar.
2. Hitung kesalahan pada lapisan luar yang merupakan selisih antara data aktual dan
target.
3. Transformasikan kesalahan tersebut pada kesalahan yang sesuai di sisi masukan
elemen pemroses.
4. Propagasi balik kesalahan-kesalahan ini pada keluaran setiap elemen pemroses ke
kesalahan yang terdapat pada masukan. Ulangi proses ini sampai masukan tercapai.
5. Ubah seluruh bobot dengan menggunakan kesalahan pada sisi masukan elemen dan
luaran elemen pemroses yang terhubung.
Jaringan Syaraf Tiruan Backpropagation merupakan salah satu model jaringan
yang populer pada jaringan syaraf tiruan. Model jaringan ini banyak digunakan untuk
diaplikasikan pada penyelesaian suatu masalah berkaitan dengan identifikasi, prediksi,
pengenalan pola dan sebagainya. Pada latihan yang berulang–ulang, algoritma ini akan
menghasilkan unjuk kerja yang lebih baik. Hal ini berarti bahwa “bobot interkoneksi”
JST semakin mendekati bobot yang seharusnya.(Penelitian Jaringan Syaraf
Tiruan,1993).
Metode Backpropagation ini pertama kali diperkenalkan oleh Paul Werbos pada
tahun 1974, kemudian dikemukakan kembali oleh David Parker di tahun 1982 dan
kemudian dipopulerkan oleh Rumelhart dan McCelland pada tahun 1986. Pada
AlgoritmaBackPropagation ini, arsitektur jaringan menggunakan jaringan banyak lapis.
5
2.4 Arsitektur Jaringan Backpropagation
Metode pelatihan BackPropagation atau dikenal dengan Generalize Delta Rule
(GDR) ini merupakan supervised training dimana untuk tiap pola input terdapat
pasangan target output untuk masing-masing pola input. Ide dasarnya dapat
dideskripsikan dengan pola hubungan yang sederhana yaitu : jika output memberikan
hasil yang tidak sesuai dengan target yang tidak diinginkan, maka pembobot akan
dikoreksi agar errornya dapat diperkecil dan selanjutnya respon jaringan diharapkan
akan lebih mendekati harga yang sesuai. Pada umumnya tujuan jaringan syaraf tiruan
melakukan proses pelatihan adalah untuk mendapatkan balancing antara kemampuan
jaringan untuk menanggapi secara benar pola-pola input pada saat pelatihan (dapat
dikatakan kemampuan mengingat) dan kemampuan untuk memberikan penilaian yang
layak dari suatu pola masukkan lain yang serupa. Sehingga dari proses pelatihan
tersebut akan dibentuk suatu harga pembobot yang akan digunakan sebagai faktor
penggali dari pola masukkan yang lain.
Gambar 2.2 Arsitektur Jaringan Backpropagation
Keterangan :
X = Masukan (input).
V = Bobot pada lapisan tersembunyi.
W = Bobot pada lapisan keluaran.
6
1 = Bias
Y = Keluaran hasil.
Pada metode ini, terdapat tiga tahapan dalam proses pelatihan, yaitu: proses
umpan maju (feed forward) dari pola input pelatihan, perhitungan dan propagasi balik
(back propagation) dari error yang terjadi dan penyesuaian nilai bobot.
1. Fase Pelatihan Umpan Maju (Propagasi maju)
Pada fasa ini, sinyal input dipropagasikan ke layar tersembunyi pertama
menggunakan fungsi aktivasi tertentu. Setelah proses ini selesai, keluaran dari layar
tersembunyi pertama dipropagasikan kembali ke layar tersembunyi di atasnya hingga
menghasilkan output jaringan m. output jaringan m kemudian diperbandingkan dengan
target. Selisih antara target dan output merupakan kesalahan yang terjadi.
2. Fase Pelatihan umpan Mundur (Propagasi Mundur)
Dari kesalahan yang terjadi kemudian dapat dihitung nilai δ yang kemudian
digunakan untuk mendistribusikan kesalahan dari output ke seluruh bagian layar
tersembunyi yang terhubung langsung dengan output
3. Fase Perubahan Bobot
Setelah keseluruhan δ dihitung, bobot dari semua garis dimodifikasi bersamaan.
Perubahan bobot suatu garisbergantung pada faktor δ di atasnya.
2.5 Fungsi aktivasi
a. Fungsi Undak Biner (Hard Limit)
Jaringan dengan lapisan tunggal sering menggunakan fungsi undak (step function)
untuk mengkonversikan input dari suatu variabel yang bernilai kontinu ke suatu
output biner (0 atau 1)
Gambar 2.3 Fungsi Undak Biner (Hard Limit)
Fungsi undak biner (hard limit) dirumuskan sebagai :
7
y ={0, jika x ≤01, jika x> 0
b. Fungsi Undak Biner (Threshold)
Fungsi undak biner dengan menggunakan nilai ambang sering juga disebut dengan
fungsi nilai ambang (Threshold) atau fungsi Heaviside.
Gambar 2.4 Fungsi Undak Biner (Threshold)
Fungsi undak biner (dengan nilai ambang ) dirumuskan sebagai
y ={0, jika x <θ1, jika x≥θ
c. Fungsi Bipolar (Symetric Hard Limit)
Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner, hanya saja
output yang dihasilkan berupa 1, 0 atau -1
Gambar 2.5 Fungsi Bipolar (Symetric Hard Limit)
Fungsi Symetric Hard Limit dirumuskan sebagai :
y ={1, jika x > 00, jika x = 0−1, jika x< 0
d. Fungsi Bipolar (dengan threshold)
8
Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner dengan
threshold. Hanya saja keluaran yang dihaslkan berupa 1, 0, atau -1
Fungsi bipolar (dengan nilai ambang ) dirumuskan sebagai
y ={1 , jika x ≥θ−1, jika x<θ
Gambar 2.6 Fungsi Bipolar (dengan Threshold)
e. Fungsi Linear (Identitas)
Fungsi linear memiliki nilai output yang sama dengan nilai inputnya. Fungsi ini
dirumuskan sebagai :
y = x
Gambar 2.7 Fungsi Linear (Identitas)
f. Fungsi Saturating Linear
Fungsi ini akan bernilai 0 jika inputnya kurang dari – ½, dan akan bernilai 1 jika
inputnya lebih dari ½. Sedangkan jika nilai input terletak antara -1/2 dan ½, maka
outputnya akan bernilai sama dengan nilai input ditambah ½
9
Gambar 2.8 Fungsi Saturating Linear
Fungsi saturating linear dirumuskan sebagai :
y ={ 1 ; jika x ≥ 0 ,5x+0,5 ; jika−0,5≤x≤0,5
0 ; jika x≤−0,5
g. Fungsi Symetric Saturating Linear
Fungsi ini akan bernilai -1 jika inputnya kurang dari -1, dan akan bernilai 1 jika
inputnya lebih dari 1. Sedangkan jika nilai input terletak antara -1 dan 1, maka
outputnya akan bernilai sama dengan nilai inputnya.
Gambar 2.9 Fungsi Symetric Saturatung Linear
Fungsi symetric saturating linear dirumuskan sebagai :
y={ 1 ; jikaX≥1x ; jika−1≤x≤1−1; jikaX≤1
h. Fungsi Sigmoid Biner
Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan
metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0 sampai
1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang
10
membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi ini
bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1.
Fungsi sigmoid biner dirumuskan sebagai :
y=f ( x )= 1
1+e−σx
Dengan : f' ( x )=σf ( x )[1−f ( x ) ]
Untuk normalisasi data dapat dirumuskan:
x=0 .8∗(xn−xmin )( xmax−xmin)
+0 . 1
Dimana x merupakan data hasil normalisasi, xmin adalah data minimal, xmax data
maksimal dan xn adalah data ke-n.
i. Fungsi Sigmoid Bipolar
Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output
dari fungsi ini memiliki range antara 1 sampai -1
Fungsi sigmoid bipolar dirumuskan sebagai :
y=f ( x )=1−e−x
1+e−x
Dengan : f ' ( x )=σ
2[1+ f ( x ) ] [1−f ( x )]
Fungsi ni sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range
antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan sebagai :
y=f ( x )=e x−e−x
ex+e− x
Atau :
y=f ( x )=1−e−2 x
1+e−2 x
Dengan : f ' ( x )=[1+ f ( x )] [1−f ( x )]
11
BAB III
PROSEDUR PROGRAM
3.1 Data Asli Konsumsi Energi Listrik pada Fasilas Pengolahan Limbah
Radioaktif, BATAN
Tabel 3.1 Data Konsumsi Energi Listrik
3.2 Alur Pembuatan Program/ Algoritma
1. Melakukan normalisasi terhadap data yang akan digunakan dalam prediksi jaringan
menggunakan jaringan saraf tiruan.
2. Merancang pola data masukan menggunakan Microsoft Excel. Pola masukan ini
nantinya akan dibagi menjadi data latih, target, dan data uji.
12
Gambar 3.1 Pola Data Masukan Progam(Sheet 5)
3. Pola data masukan tersebut kemudian ditransform ke bentuk format notepad.
4. Start Matlab R2010a, kemudian dilakukan import data. Data yang akan diimport
adalah data latih, target dan data uji.
Gambar 3.2 Import Data
5. Dibuka new script program untuk membuat program dalam bentuk M-File.
6. Dimulai pembuatan program prediksi menggunakan jaringan saraf tiruan dengan
langkah;
a. Input pola data latih
13
Gambar 3.3 Pola Data Latih dan Target
b. Membangun jaringan menggunakan metode pembelajaran Backpropagation.
Fungsi yang digunakan adalah newff
c. Menset fungsi aktivasi yang akan digunanakan pada saat pembangunan
jaringan. Disini nantinya akan dilakukan variasi fungsi aktivasi yang akan
diguanakan.
net= newff(minmax(p),[2,1],{'logsig','logsig'},'traingdx');
d. Menentukan bobot awal input, lapisan, dan bias.%Menentukan bobot awal input,lapisan dan bias bobotAwal_Input = net.IW{1,1} bobotAwal_bias = net.b{1,1} bobotAwal_lapisan1 =net.LW{2,1} bobotAwal_bias_lapisan1 = net.b{2,1}
e. Menset parameter yang akan digunakan
%Set Parameternet.trainParam.epochs = 1000;net.trainParam.goal = 1e-5;net.trainParam.lr=1;net.trainParam.show=1000;net.trainParam.mc=0.5;
f. Pembelajaran Jaringan
net=train(net,p,t);
g. Melihat bobot akhir input, lapisan, dan bias
bobotAkhir_input = net.IW{1,1}bobotAkhir_bias = net.b{1,1}bobotAkhir_lapisan1 =net.LW{2,1}
14
bobotAkhir_bias_lapisan1 = net.b{2,1}
h. Melakukan simulasi jaringan
simnet = sim(net,p);
i. Mengevaluasi jaringan
[mx,b,rx] = postreg (simnet,t);
J. Memperlihatkan output hasil simulasi jaringan, kemudian dibandingkan
dengan target untuk menentukan besar error dari training jaringan yang yang
telah dilakukan.
k. Untuk mempermudah membandingkan antara target dan output yang
dihasilkan, maka dilakukan plot jaringan pada program.
l. Menghitung MSE antara target dan ouput
m. Menghitung MSE dari hasil testing
n. Setelah semua proses diatas dilakukan (trainig jaringan), kemudian dilakukan
prediksi
7. Setelah program selesai dibuat, kemudian diklik tombol save and run untuk
memulai mentraining dan prediksi jaringan.
Untuk lebih jelasnya dapat dilihat listingan script program pada Lampiran 1.
3.3 Flowchart
15
Gambar 3.4 Flowchart Jaringan
BAB IV
HASIL DAN PEMBAHASAN
Pembuatan jaringan untuk memprediksi konsumsi energi listrik pada Fasilitas
Pengolahan Limbah Radioaktif BATAN menggunakanan pembelajaran
16
StartInput data latih (p), target (t)
yang telah dinormalis
asi
Set bobot + bias antara
lapisan input dan hidden
(b)Vektor output
sebelum aktivasi (z-in)Fungsi aktivasi
(f)Vektor output setelah
aktivasi (z)
Bobot koneksi antara
hidden dan output
jaringan (b)
Output jaringan
(y0)
MSE = MaxEpoch=max
YPrediksi
end
Perbaiki bobot dan parameter
T
Nevi_031
Backpropagation. Alasan menggunkan metode pembelajaran ini adalah karena
Backpropagatioan adalah metode jaringan syaraf tiruan yang menggunakan satu atau
beberapa layar tersembunyi. Dengan menggunkan layar tersembunyi ini akan
memperkecil error dari pelatihan jaringan, sehingga keluaran yang dihasilkan akan
semakin tepat.
Data konsumsi energy listrik pada pengolahan limbah radioaktif BATAN
digunakan sebagai data masukan program. Data ini dinormalisasi terlebih dahulu
sebelum diinputkan ke dalam program. Tujuan dari normalisasi adalah agar keluaran
jaringan sesuai dengan fungsin aktivasi yang digunakan. Selain itu, normalisasi akan
membuat keluaran berada dalam rentang fungsi aktivasi. Sebenarnya normalisasi dapat
dilakukan langsung didalam program setelah input program dilakukan dengan perintah
berikut:
[Inputn,meanIn,stdIn,Targetn,meanT,stdT] = prestd(Input,Target);
dimana Inputn menunjukkan normalisasi input, meanIn adalah mean input, stdIn
adalah standar deviasi input, Targetn adalah normalisasi target, meanT adalah mean
target, dan stdT adalah standar deviasi target. Karena penulis gagal dalam
menormalisasi data dengan perintah tersebut, akhirnya data dinormalisasi secara manual
pada program excel.
Data masukan program dibuat menjadi bentuk pola masukan. Pola ini nantinya
akan dibagi menjadi pola input data latih jaringan, target dan data uji. Data latih
beserta target digunakan untuk melatih jaringan hingga diperoleh jaringan yang baik
dengan error yang sangat kecil. Sedangkan data uji akan digunakan sebagai
pembanding dari hasil prediksi yang dilakukan.
Tabel 4.1 Data Hasil Normalisasi
Bulan Ke-\Tahun 2006 2007 2008 2009
Januari 0.308953 0.833451 0.42062 0.500423
Februari 0.342792 0.737011 0.546387 0.472506
Maret 0.387346 0.558795 0.373528 0.32841
17
April 0.53398 0.857138 0.33546 0.3411
Mei 0.349559 0.818505 0.361121 0.492245
Juni 0.427388 0.9 0.42767 0.562178
Juli 0.487734 0.890976 0.29852 0.389884
Agustus 0.535108 0.837963 0.338562 0.48153
September 0.47589 0.846422 0.319951 0.470814
Oktober 0.652978 0.641981 0.1 0.272013
November 0.314593 0.296546 0.349277 0.690765
Desember 0.504089 0.636059 0.349277 0.46743
Untuk pola data latih, dibuat pola masukan 20 bulan. Maksudnya, data
konsumsi energy listrik tersebut diurutkan dari januari 2006 sampai Desember 2009.
Sehingga jumlah total data adalah 48 data. Kemudian data ke-1 sampai data ke-20
membentuk pola masukan data latih yang pertama (pola-1) dan data ke-21 menjadi
target. Setelah itu, untuk pola berikutnya dinaikkan satu bulan kemudian. Begitu
seterusnya hingga akhirnya terbentuk 20 pola data latih beserta target.
Untuk membuat 20 pola data latih dan target ini terpakai 40 data (Data dari
Januari 2006 sampai April 2009). Delapan data yang tersisa akan menjadi data uji.
Agar data uji ini memiliki pola matriks yang sama dengan pola data latih, maka
dilanjutkan pola 20 bulan data latih tersebut dengan memasukkan data uji yang tersisa.
Setelah pola data latih, target dan data uji terbentuk, maka dimulai membangun
jaringan bacptopagation. Seperti yang telah disebutkan pada prosedur program, untuk
membangun jaringan backpropagation digunakan fungsi newff. Dalam
pembagunanan jaringan, akan dideklarasikan jumlah layer yang digunakan, fungsi
aktivasi masing-masing layer dan model learning yang digunakan.
Pada percobaan awal jaringan, hanya digunakan satu layer input, satu hidden
layer dan satu output layer dengan fungsi aktivasi masing-masing layer sama, yaitu
fungsi aktivasi sigmoid biner. Fungsi ini di kodekan dengan nama ‘logsig’. Dan
untuk model learning yang digunakan adalah traindx.
‘Traingdx’ merupakan model learnig backpropagation yang dipercepat
dengan learning rate variable dan momentum . Selain Traindx, model pemercepat
18
learning backpropagation lainya yang sering digunakan adalah traingd,
traingda, traingdm, dan trainrp. Traingd adalah pemercepat learning
backpropagation standar. Traingda merupakan merupakan model backpropagation
yang dipercepat dengan learning rate variable. Traingdm adalah model learning
penurunan gradient yang dipercepat dengan momentum. Metode penurunan gradient
merupakan metode yang sederhana, namun metode ini sangat lambat dalam kecepatan
proses iterasinya. Ini terjadi karena kadang-kadang arah penurunan tercepat bukanlah
arah yang cepat untuk mencapai titik minimum globalnya. Sedangkan trainrp
merupakan metode resilient jaringan backpropagation. Metode ini dapat mengatasi
masalah gradient yang kecil yang menyebabkan perubahan bobot juga kecil, dengan
cara membagi arah dan perubahan bobot menjadi 2 bagian yang berbeda. Dari semua
model pemercepat learning jaringan yang telah disebutkan , traingdx lah yang paling
cepat melakukan iterasi. Sehingga pada program ini model pemercepat learning
bakpropagation yang digunakan adalah traingdx.
Setelah jaringan dibangun, maka diset bobot awal input, lapisan dan bias. Selain
itu juga perlu ditentukan parameter-parameter yang mempengaruhi learning jaringan
backpropagation. Parameter yang harus ditentukan adalah jumlah epoch (iterasi)
maksimal learning jaringan (net.trainParam.epochs), jumlah error minimum yang
diinginkan(net.trainParam.goal), learning rate (net.trainParam.lr), jumlah epoch
dimana grafik error akan di update (net.trainParam.show)serta jumlah momentum
learning jaringan yang bernilai 0.5 sampai 1(net.trainParam.mc). Jumlah epoch
maksimal dan jumlah epoch dimana grafik error akan diupdate untuk jaringan ini dibuat
sama, yaitu 1000 epoch. Untuk error minimum yang diset adalah 1e-5 dan learning rate
nya adalah satu.
Langkah selanjutnya setelah pengaturan input, bobot serta parameter jaringan,
maka dimulai proses latih jaringan. Jaringan akan berlatih sampai mendapatkan nilai
error minimum atau jumlah epoch maksimum. Untuk mengetahui apakah jaringan telah
terlatih dengan baik maka dilakukan simulasi dengan data latih dan target. Agar
mempermudah melihat apakah jaringan telah dilatih dengan baik, ditampilkan grafik
hasil plot data simulasi jaringan backpropagation.
19
Gambar 4.1 Neural Network Training
Pada Neural network training dapat dilihat waktu yang dibutuhkan jaringan
dengan semua input, bobot dan parameter yang telah diset untuk berlatih sampai
didapatkan nilai epoch maksimum adalah 26 detik. Jaringan ini menggunkan satu
hidden layer. Jika hidden layernya ditambah, maka waktu yang dibutuhkan jaringan
untuk training akan lebih lama dan setting bobot antar hidden layer juga ditambah.
Pada script program yang telah dibuat, user dapat mengganti jumlah hidden layer yang
diinginkan. Semakin banyak hidden layer, maka error yang dihasilkan akan semakin
kecil.
20
Gambar 4.2 Hasil Pengujian dengan Data latih
Dari grafik plot antara output jaringan dan target terlihat bahwa jaringan telah terlatih
dengan baik, dimana hasil output jaringan dan target semuanya hampir sama. Jaringan
yang baik akan menghasilkan output dan target yang hampir sama.
Sebagaimana telah disebutkan sebelumnya, fungsi aktivasi yang digunakan
untuk masing-masing layer adalah fungsi sigmoid biner (‘logsig’). Disini penulis
hanya menvariasikan fungsi aktivasi untuk layer kedua. Hal ini dikarenakan data input
dinormalisasi menggunakan fungsi aktivasi sigmoid biner yang mempunyai rentang
data antara 0 sampai dengan 1. Variasi fungsi aktivasi yang digunakan adalah sigmoid
bipolar (‘tansig’) yang mempunyai rentang data -1 hingga 1[-1,1] dan purelin atau
fungsi identitas (‘purelin’). Dari semua variasi yang dilakukan, hasil latih jaringan
yang mengahasilkan output yang paling baik adalah penggunaan fungsi aktivasi sigmoid
biner untuk kedua layer (‘logsig’,’logsig’). Penggunaan gabungan fungsi
aktivasi sigmoid biner dan sigmoid bipolar (‘logsig’,’tansig’) serta sigmoid
biner dan purelin (‘logsig’,’purelin’) menghasilkan keluaran jaringan yang
kurang baik, dimana output jaringan yang diinginkan banyak berbeda dengan target.
Hal ini terjadi mungkin dikarenakan normalisasi data menggunkan fungsi sigmoid biner
sehingga keluaran jaringan hanya akan berada dalam rentang data fungsi aktivasi
tersebut, yaitu 0 dan 1.
21
Untuk prediksi jaringan, digunakan data uji sebagai pembanding untuk melihat
apakah prediksi yang telah dilakukan sudah tepat atau belum. Karena program yang
dibuat tidak berhasil membandingkan hasil prediksi jaringan dengan data uji yang ada,
maka perbandingan dilakukan secara manual.
Gambar 4.3 Prediksi Jaringan
Untuk lebih jelasnya, hasil keluaran jaringan (running program) dapat dilihat langsung
pada Lampiran 2.
Maka, berdasarkan data konsumsi energi listrik Fasilitas Pengolahan Limbah
Radioaktif BATAN dari Januari 2006 sampai April 2009 sebagai data latih dan target,
diperoleh prediksi konsumsi energi listrik untuk sembilan bulan berikutnya, yaitu dari
Mei 2009 sampai Januari 2010.
Tabel 4.2 Hasil Prediksi jaringanTAHUN Bulan
Jan Feb Mar Apr Mei Jun Jul Agst Sept Okt Nov Des
2009 - - - - 0.354 0.400 0.781 0.607 0.392 0.604 0.629 0.798
2010 0.90
5
- - - - - - - - - -
22
Delapan data hasil prediksi ini dapat dicek ketepatannya menggunkan target dari
data uji. Sedangkan data prediksi yang ke Sembilan tidak dapat dicek kebenarannya
saat ini. Untuk melihat kebenarannya maka diperlukan pencarian literature kembali.
Data yang ditulis didalam tabel hanya mengambil tiga angka dibelakang koma.
Tabel 4.3 Perbandingan Hasil Prediksi Jaringan dengan Target UjiBulan , Tahun Target Uji Prediksi
Mei, 2009 0.492 0.354
Juni, 20090.562
0.400
Juli, 20090.389
0.781
Agustus, 20090.481
0.607
September, 20090.470
0.392
Oktober, 20090.272
0.604
November, 20090.690
0.629
Desember, 20090.4674
0.798
Dari tabel 4.3 diatas dapat terlihat bahwa hasil prediksi jaringan menggunakan
metode pembelajaran backpropagation masih berbeda dengan target uji yang
diharapkan walaupun hasil training jaringan sebelumya telah sangat baik dengan error
yang sangat kecil, yaitu MSE_train = 0.00431011 dan MSE_test = 0.19599791.
Jika hasil prediksi didenormalisasi kembali, maka diperoleh data konsumsi
energy listrik dalam nilai yang sebenarnya. Denormalisasi dilakukan secara manual
pada Microsoft excel dengan masih menggunkan persamaan untuk fungsi aktivasi
sigmoid biner yaitu
x=0 .8∗(xn−xmin )( xmax−xmin)
+0 . 1
Dimana , x = data hasil normalisasi
xmin = data minimal
xmax = data maksimal
xn = data ke-n
contohnya,
23
Hasil prediksi bulan Mei 2009 adalah 0.354. hasil denormalisasinya ditentukan
dengan cara :
Diketahui: x, data hasil prediksi(normalisasi) = 0.354
xmin (dari data konsumsi energy listrik/sebelum normalisasi) =49.98
xmax (dari data konsumsi energy listrik/sebelum normalisasi) = 106.72
xn = data denormalisasi (yang dihitung)?
x=0 .8∗( xn−xmin)(x max−xmin)
+0 . 1
0 .354=0 .8∗( xn−49. 98 )(106 .72−49 .98 )
+0 .1
0 .354=0 .8∗( xn−49. 98 )+5 .674
56 .7420 . 08596=0. 8 xn−39. 984+5 .67420 . 08596=0. 8 xn−34 . 310 .8 xn=54 .39596xn=67 . 99495≈67 .995
Jadi hasil denormalisasi data hasil prediksi untuk bulan Mei 2009 adalh 67.995.
Sehingga hasil denormalisasi hasil prediksi bulan selanjutnya (dihitung menggunakan
Microsoft excel (sheet 6)) dapat dilihat pada tabel 4.4 berikut.
Tabel 4.4 Hasil Denormalisasi Data Hasil Prediksi Konsumsi Energi Listrik
Fasilitas Pengolahan Limbah radioaktif BATANBulan, tahun Hasil Prediksi Denormalisasi Data Asli
Mei, 2009 0.354 67.99495 77.8Juni, 2009 0.4 71.2575 82.76Juli,2009 0.781 98.279925 70.54Agustus,2009 0.607 85.938975 77.04September,2009 0.392 70.6901 76.28
24
Oktober,2009 0.604 85.7262 62.18November,2009 0.629 87.499325 91.88Desember,2009 0.798 99.48565 76.04Januari, 2010 0.905 107.074625 -
Tabel 4.1 memperlihatkan hasil prediksi konsumsi energy listrik yang
diperoleh. Dari tabel terlihat jelas bahwa hasil prediksi masih berbeda dengan nilai
konsumsi energy listrik yang sebenarnya. Tetapi tidak masalah karena hasil akhir selalu
dipengaruhi oleh banyak faktor, sedangkan prediksi dilakukan berdasarkan pola yang
sudah ada. Selain itu hasil prediksi ini masih akan berubah pada setiap proses runing
walaupun dengan epoch dan jumlah unit hidden yang sama karena nilai bobot disetting
secara random oleh matlab. Jadi setiap melakukan simulasi dengan program dan data
yang sama, maka akan diperoleh nilai-nilai prediksi yang tidak akan sama.
25
BAB V
KESIMPULAN DAN SARAN
5.1 Kesimpulan
Pembuatan jaringan untuk memprediksi konsumsi energi listrik pada Fasilitas
Pengolahan Limbah Radioaktif BATAN menggunakanan pembelajaran
Backpropagation karena Backpropagatioan adalah metode jaringan syaraf tiruan yang
menggunakan satu atau beberapa layar tersembunyi. Dengan menggunkan layar
tersembunyi ini akan memperkecil error dari pelatihan jaringan, sehingga keluaran yang
dihasilkan akan semakin tepat. Jaringan yang dibangun ini menggunkan satu hidden
layer karena sudah cukup efektif.
Dalam pembagunan jaringan ini digunakan fungsi aktivasi sigmoid biner untuk
masing-masing layer (‘logsig, logsig’), karena dari semua fungsi aktivasi yang
dicobakan, fungsi aktivasi ini yang menghasilkan output jaringan yang hampir sama
dengan target dengan error yang kecil yaitu MSE_train = 0.00431011 dan MSE_test =
0.19599791. Sedangkan model pemercepat pembelajaran atau learning yang digunakan
adalah traindx, karena traingdx lah yang paling cepat melakukan iterasi dibandingkan
model pemercepat lainnya yang dicobakan.
Hasil prediksi masih berbeda dengan nilai konsumsi energy listrik yang
sebenarnya. Tetapi tidak masalah karena hasil akhir selalu dipengaruhi oleh banyak
faktor, sedangkan prediksi dilakukan berdasarkan pola yang sudah ada. Selain itu hasil
prediksi ini masih akan berubah pada setiap proses runing walaupun dengan epoch dan
jumlah unit hidden yang sama karena nilai bobot disetting secara random oleh matlab.
Jadi setiap melakukan simulasi dengan program dan data yang sama, maka akan
diperoleh nilai-nilai prediksi yang tidak akan sama.
5.2 Saran
Dalam prose prediksi yang telah dilakukan, masih banyak hal yang masih perlu
dikembangkan dan diperbaiki. Seperti dalam melakukan proses pelatihan jaringan agar
26
menghasilkan jaringan yang baik sehingga dapat menghasilkan prediksi yang tepat
nantinya. Variasi jumlah unit layer, fungsi aktivasi serta model pemercepat pelatihan
atau learning sangat penting dilakukan agar diperoleh jaringan yang paling baik
DAFTAR PUSTAKA
Apriyani, Ria. Tanpa Tahun. Implementation Of Artificial Neural Network Backpropagation Method In Predicting Stock Price PT. Indosat Using Matlab. Universitas Gunadarma.
Aslan, Mohamed. 2010. Introductory Matlab Tutorial.pdf.
Budiyono, dkk. Tanpa tahun. Analisis Konsumsi Energi Listrik pada Fasilitas Pengolahan Limbah Radioaktif Badan Tenaga Nuklir Nasional. Prosding Seminar Nasional Teknologi Pengolahan Limbah VIII.pdf
Fitriyah, Qoriatul, Didi Istardi. Tanpa tahun. Prediksi Beban Listrik Pulau Bali Dengan Menggunakan Metode Backpropagasi. Teknik Elektro Politeknik Batam.pdf.
Eliyani. 2005. Pengantar Jaringan Syaraf Tiruan.pdf
Siang, Jong Jek. 2005. Jaringan Syaraf Tiruan dan Pemogramannya Menggunakan Matlab. Yogyakarta: Penerbit Andi.
27
LAMPIRAN 1
LISTING SCRIPT PROGRAM (M-FILE)
%TUGAS UAS JNA %PREDIKSI TINGKAT KONSUMSI ENERGI LISTRIK %PADA FASILITAS PENGOLAHAN LIMBAH RADIOAKTIF BADAN TENAGA NUKLIR NASIONAL %MENGGUNAKAN METODE BACKPROPAGATION %NEVI HARYANI %0910442031 %Begin....... fprintf('Input data latih'); %Input Pola Data Latihp =[0.3090 0.3428 0.3873 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.3428 0.3873 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.3873 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277
28
0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284]fprintf('target'); t =[ 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411] % data Uji%{sebagai pembanding untuk melihat apakah prediksi yang dilakukan tepat}%u = [0.4922 0.5622 0.3899 0.4815 0.4708 0.2720 0.6908 0.4674]; %Pembangunan Jaringannet= newff(minmax(p),[2,1],{'logsig','logsig'},'traingdx'); %Menentukan bobot awal input,lapisan dan biasbobotAwal_Input = net.IW{1,1}bobotAwal_bias = net.b{1,1}bobotAwal_lapisan1 =net.LW{2,1}bobotAwal_bias_lapisan1 = net.b{2,1} %Set Parameternet.trainParam.epochs = 1000;net.trainParam.goal = 1e-5;net.trainParam.lr=1;net.trainParam.show=1000;net.trainParam.mc=0.5; %Pembelajaran Jaringan
29
net=train(net,p,t); %Melihat bobot akhir input,lapisan, dan biasbobotAkhir_input = net.IW{1,1}bobotAkhir_bias = net.b{1,1}bobotAkhir_lapisan1 =net.LW{2,1}bobotAkhir_bias_lapisan1 = net.b{2,1}%Simulasi Jaringansimnet = sim(net,p); %Evaluasi Jaringan[mx,b,rx] = postreg (simnet,t); %Menampilkan Output angka hasil simulasiy=sim(net,p)ShowNN = [(1:size(p,2))' t' simnet' (t'-simnet')];fprintf ( 'No Target net Output net ERROR\n');fprintf ( '%2.0f %7.3f %8.3f %10.3f\n', ShowNN'); %Menampilkan Grafik Hasil plot data Simulasi Jaringan/pembelajaranplot ([1:size(p,2)]', t, 'bo', [1:size(p,2)]', simnet', 'r*');title ('Hasil pengujian dengan Data Pelatihan: Target (o), Output (*)');xlabel('Data ke-');ylabel('Target/Output'); %Errore=t-yperf=mse (e);mse1= mse(e);fprintf('MSE_train = %12.8f\n',mse1);mse1=mse(t);fprintf('MSE_test = %12.8f\n',mse1); % Prediksi Jaringan {untuk menentukan apakah prediksi jaringan sudah benar,% digunakan data uji}prediksi=[0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708 0.2720
30
0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708 0.2720 0.6908 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708 0.2720 0.6908 0.4674]pr = prediksi(: ,1:20)'fprintf('Hasil Prediksi Jaringan (k)');k = sim (net,pr) %End....
31
LAMPIRAN 2
HASIL RUNNING PROGRAM
Running ProgramInput data latihp =
Columns 1 through 7
0.3090 0.3428 0.3873 0.5340 0.3496 0.4274 0.4877 0.3428 0.3873 0.5340 0.3496 0.4274 0.4877 0.5351 0.3873 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.5340 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3496 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.4274 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.4877 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464
Columns 8 through 14
0.5351 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.4759 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.6530 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.3146 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.5041 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8335 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.7370 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965
32
0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200
Columns 15 through 20
0.5588 0.8571 0.8185 0.9000 0.8910 0.8380 0.8571 0.8185 0.9000 0.8910 0.8380 0.8464 0.8185 0.9000 0.8910 0.8380 0.8464 0.6420 0.9000 0.8910 0.8380 0.8464 0.6420 0.2965 0.8910 0.8380 0.8464 0.6420 0.2965 0.6361 0.8380 0.8464 0.6420 0.2965 0.6361 0.4206 0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284
targett =
Columns 1 through 7
0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735
Columns 8 through 14
0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000
Columns 15 through 20
0.3493 0.3493 0.5004 0.4725 0.3284 0.3411
33
Warning: NEWFF used in an obsolete way. > In nntobsu at 18 In newff at 86 In ta_jna_nevi3 at 43 See help for NEWFF to update calls to the new argument list.
bobotAwal_Input =
Columns 1 through 6
2.3150 -2.7700 0.9829 -1.5955 3.2955 -2.4663 2.3706 2.4380 -2.3736 0.2682 2.6595 2.6922
Columns 7 through 12
3.2931 2.1630 -0.5636 2.1048 1.1218 2.5149 -0.0837 -2.0487 2.3783 2.6287 -2.6561 2.4828
Columns 13 through 18
1.2875 1.7513 0.8449 1.1196 -1.2122 -2.1892 1.4745 -0.6165 -1.4190 -2.0204 -1.9586 1.3959
Columns 19 through 20
1.0707 2.6222 -0.7983 -2.1534
bobotAwal_bias =
-11.9872 -0.6492
bobotAwal_lapisan1 =
-2.5725 -4.9741
bobotAwal_bias_lapisan1 =
3.7733
bobotAkhir_input =
34
Columns 1 through 6
1.9492 -3.0026 0.7078 -2.0206 2.8769 -2.6950 0.7596 3.5808 -3.3097 -0.9433 2.0594 5.0801
Columns 7 through 12
2.8475 1.6925 -1.1115 1.5187 0.5820 1.9427 -0.2135 1.0248 -0.4184 -0.8932 0.8438 3.2658
Columns 13 through 18
0.7184 1.3775 0.3347 0.7085 -1.5867 -2.4506 -1.8276 1.6924 -1.6075 -1.3715 -1.4065 1.9134
Columns 19 through 20
0.7793 2.3845 -0.0482 -1.4658
bobotAkhir_bias =
-12.6333 -1.1483
bobotAkhir_lapisan1 =
-2.2493 -4.8490
bobotAkhir_bias_lapisan1 =
4.0553
y =
Columns 1 through 6
0.8455 0.6287 0.3406 0.6351 0.4370 0.5477
Columns 7 through 12
0.3673 0.3217 0.3123 0.3971 0.3308 0.3265
35
Columns 13 through 18
0.3126 0.3249 0.3152 0.3246 0.3389 0.4895
Columns 19 through 20
0.3421 0.3314
No Target net Output net ERROR 1 0.846 0.845 0.001 2 0.642 0.629 0.013 3 0.296 0.341 -0.044 4 0.636 0.635 0.001 5 0.421 0.437 -0.016 6 0.546 0.548 -0.001 7 0.374 0.367 0.006 8 0.336 0.322 0.014 9 0.361 0.312 0.04910 0.428 0.397 0.03111 0.298 0.331 -0.03212 0.339 0.326 0.01213 0.320 0.313 0.00714 0.100 0.325 -0.22515 0.349 0.315 0.03416 0.349 0.325 0.02517 0.500 0.339 0.16218 0.472 0.490 -0.01719 0.328 0.342 -0.01420 0.341 0.331 0.010
e =
Columns 1 through 6
0.0009 0.0133 -0.0441 0.0010 -0.0164 -0.0013
Columns 7 through 12
0.0062 0.0138 0.0488 0.0306 -0.0323 0.0121
Columns 13 through 18
0.0074 -0.2249 0.0341 0.0247 0.1615 -0.0170
Columns 19 through 20
-0.0137 0.0097
36
MSE_train = 0.00431011MSE_test = 0.19599791
prediksi =
Columns 1 through 6
0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000
Columns 7 through 12
0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411
Columns 13 through 18
0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708 0.4922 0.5622 0.3899 0.4815 0.4708 0.2720
Columns 19 through 20
0.3284 0.3411 0.3411 0.4922 0.4922 0.5622 0.5622 0.3899
37
0.3899 0.4815 0.4815 0.4708 0.4708 0.2720 0.2720 0.6908 0.6908 0.4674
pr =
Columns 1 through 6
0.8464 0.6420 0.2965 0.6361 0.4206 0.5464 0.6420 0.2965 0.6361 0.4206 0.5464 0.3735 0.2965 0.6361 0.4206 0.5464 0.3735 0.3355 0.6361 0.4206 0.5464 0.3735 0.3355 0.3611 0.4206 0.5464 0.3735 0.3355 0.3611 0.4277 0.5464 0.3735 0.3355 0.3611 0.4277 0.2985 0.3735 0.3355 0.3611 0.4277 0.2985 0.3386 0.3355 0.3611 0.4277 0.2985 0.3386 0.3200 0.3611 0.4277 0.2985 0.3386 0.3200 0.1000 0.4277 0.2985 0.3386 0.3200 0.1000 0.3493 0.2985 0.3386 0.3200 0.1000 0.3493 0.3493 0.3386 0.3200 0.1000 0.3493 0.3493 0.5004 0.3200 0.1000 0.3493 0.3493 0.5004 0.4725 0.1000 0.3493 0.3493 0.5004 0.4725 0.3284 0.3493 0.3493 0.5004 0.4725 0.3284 0.3411 0.3493 0.5004 0.4725 0.3284 0.3411 0.4922 0.5004 0.4725 0.3284 0.3411 0.4922 0.5622 0.4725 0.3284 0.3411 0.4922 0.5622 0.3899 0.3284 0.3411 0.4922 0.5622 0.3899 0.4815 0.3411 0.4922 0.5622 0.3899 0.4815 0.4708
Columns 7 through 9
0.3735 0.3355 0.3611 0.3355 0.3611 0.4277 0.3611 0.4277 0.2985 0.4277 0.2985 0.3386 0.2985 0.3386 0.3200 0.3386 0.3200 0.1000 0.3200 0.1000 0.3493 0.1000 0.3493 0.3493 0.3493 0.3493 0.5004 0.3493 0.5004 0.4725 0.5004 0.4725 0.3284 0.4725 0.3284 0.3411 0.3284 0.3411 0.4922 0.3411 0.4922 0.5622
38
0.4922 0.5622 0.3899 0.5622 0.3899 0.4815 0.3899 0.4815 0.4708 0.4815 0.4708 0.2720 0.4708 0.2720 0.6908 0.2720 0.6908 0.4674
Hasil Prediksi Jaringan (k)k =
Columns 1 through 6
0.3547 0.7400 0.7818 0.6072 0.3923 0.6045
Columns 7 through 9
0.6292 0.7987 0.9059
>>
Gambar A. Training State
39
Gambar B. Plot Regresion
40
Gambar C. PlotPerform Epoch Vs MSE
41