tugas individu

20
Tugas Individu Dasar Komputasi Cerdas Nama: Juniar Doan Wihardono NIM: 1104405029

Upload: juniar-doan-wihardono

Post on 20-Jan-2016

77 views

Category:

Documents


0 download

DESCRIPTION

dkc

TRANSCRIPT

Page 1: Tugas Individu

Tugas Individu

Dasar Komputasi Cerdas

Nama: Juniar Doan Wihardono

NIM: 1104405029

Teknik Elektro - Fakultas Teknik

Universitas Udayana Bukit Jimbaran

2013

Page 2: Tugas Individu

PERCEPTION

Perceptron merupakan pengembangan dari Hebb, arsitektur yang digunakan sama seperti Hebb. Pada proses perubahan bobot pembelajarannya ditambahkan laju pembelajaran (learning rate) yang berfungsi untuk mengontrol perubahan bobot pada setiap iterasi. Besarnya nilai lebih besar dari 0 dan maksimum bernilai 1.. Belum ada teori yang menjelaskan berapa besar nilai yang digunakan untuk proses pembelajaran suatu pola. Untuk proses pengenalannya Perceptron sudah menggunakan algoritma pengenalan, tetapi selain itu dapat juga digunakan separabilitas linier seperti pada Hebb.

Struktur

Arsitektur Perceptron sama seperti Hebb terdiri dari 1 lapisan input dan 1 lapisan output. Setiap unit pada lapisan input dihubungkan dengan semua unit di lapisan output dengan suatu bobot keterhubungan. Arsitektur Perceptron dengan 2 unit (ditambah 1 unit bias) di lapisan input dan 1 unit di lapisan output dapat dilihat pada gambar 1. Unit bias merupakan satu unit masukan di suatu lapisan yang nilai inputnya selalu 1.

Proses Pembelajaran

Seperti yang dijelaskan di atas, pada proses pembelajaran perceptron untuk perubahan bobotnya dikontrol oleh laju pembelajaran . Besarnya perubahan bobot yang terjadi pada setiap iterasi adalah :

Dengan demikian nilai bobot yang baru adalah :

Gambar 1. Arsitektur Perceptron

X1

X2

Y

w1

w2

1

b

Page 3: Tugas Individu

Algoritma Pembelajaran

Langkah 0: Inisialisasi nilai bobot (wi dan b), laju pembelajaran (), dan nilai ambang ()

wi = 0 (i = 1..n) ; b = 0 Langkah 1: Selama syarat henti iterasi tidak dipenuhi kerjakan langkah 2-6Langkah 2: Untuk setiap pasangan pelatihan (s,t) kerjakan langkah 3-5Langkah 3: Tentukan nilai aktivasi untuk unit input.xi = si

Langkah 4: Hitung respon untuk unit output

Langkah 5: Jika masih ada error, update nilai bobot dan biasif y ≠ t

wi(baru) = wi(lama)+ .t.x b(baru) = b(lama) + .t

else wi(baru) = wi(lama)

b(baru) = b(lama)Langkah 6: Uji kondisi henti, jika tidak ada perubahan bobot pada langkah 2 (untuk 1 epoch) berhenti, jika tidak lanjutkan.

Contoh

Perceptron untuk pengenalan pola fungsi logika OR 2 input dengan data input dan data output berbentuk bipolar. Laju pembelajaran yang digunakan = 1, dan nilai treshold = 0.

- Data Pembelajaran Tabel Kebenaran fungsi logika OR dengan data input dan output bipolar.

- Arsitektur Jaringan Dari tabel kebenaran di atas terlihat bahwa ada 2 input dan 1 output, dengan demikian pada lapisan input ada 2 neuron dan 1 bias serta 1 neuron pada lapisan output.

X1 X2 t1 1 11 -1 1-1 1 1-1 -1 -1

Page 4: Tugas Individu

- Fungsi Aktivasi

- Proses Pembelajaran

Langkah 0: Inisialisasi nilai w1 = 0 ; w2 = 0 ; b = 0 ; =1 ; = 0

Langkah 1: Selama syarat henti iterasi tidak dipenuhi kerjakan langkah 2-6Langkah 2: Untuk setiap pasangan pelatihan (s,t) kerjakan langkah 3-5

Langkah 3: Nilai aktivasi untuk unit input.x1 = 1 ; x2 = 1

Langkah 4: Respon untuk unit outputyin= b + x1.w1 + x2.w2 = 0 + 1.0+ 1.0 = 0

y = 0Langkah 5: y ≠ t

wi = wi + .t.x1

= 0 + 1.1.1 = 1w2 = w2 + .t.x1

= 0 + 1.1.1 = 1b = b + .t = 0 + 1.1 = 1

Pembelajaran di atas baru untuk 1 pasangan data, pembelajarn berikutnya dilakukan untuk data selanjutnya yaitu untuk x1 = 1 dan x2 = -1, lalu x1 = -1 dan x2 = 1, dan data input terakhir dalam epoch pertama adalah x1 = -1 dan x2 = -1. Hasil pembelajaran dalam epoch 1 dapat dilihat pada tabel .

Tabel Hasil pembelajaran OR dalam 1 epoch

Gambar 1. Arsitektur OR 2 input

X1

X2

Y

w1

w2

1b

Page 5: Tugas Individu

x1 x2 1 y-in

y t w1 w2 b w1 w2 b

0 0 01 1 1 0 0 1 1 1 1 1 1 11 -1 1 1 1 1 0 0 0 1 1 1-1 1 1 1 1 1 0 0 0 1 1 1-1 -1 1 -1 -1 -1 0 0 0 1 1 1

HEBBIAN

Aturan Hebb merupakan salah satu hukum pembelajaran jaringan neural yang pertama. Dikemukakan oleh Donald Hebb (1949). Hebb lahir di Chester, Nova Scotia, pada pergantian abad. Isinya menyangkut kemungkinan mekanisme modifikasi sinaptik dalam otak, yang kemudian digunakan untuk melatih JST.

Pada tahun 1949 Hebb merangkum hasil penelitian yang telah dilakukannnya selama 20 tahun ke dalam buku yang diberi judul "The Organization of Behavior", yang pada intinya mengatakan bahwa perilaku dapat dijelaskan melalui aksi-aksi neuron. Ide yang paling terkenal di dalam buku Hebb di atas adalah sebuah postulat yang kemudian dikenal dengan nama metode belajar Hebb : "Jika axon sebuah sel A cukup dekat untuk bisa mengeksitasi sel B dan secara berulang atau terus menerus melakukan penembakan, beberapa proses atau perubahan metabolisme akan terjadi pada satu atau kedua sel, sehingga efisiensi sel A, sebagai salah satu sel penembak B, akan meningkat."

Postulat ini diusulkan sebagai mekanisme fisik untuk proses pembelajaran pada tingkat selular. Walaupun Hebb tidak pernah memberikan bukti fisiologis yang signifikan mengenai teorinya, namun penelitian-penelitian selanjutnya menunjukkan bahwa sejumlah sel menunjukkan pola belajar Hebbian.

StrukturHukum pembelajaran Hebb dapat diimplementasikan pada berbagai arsitektur jaringan

neural. Salah satu arsitektur jaringan neural yang sederhana adalah asosiator linier (linear associator), seperti terlihat pada gambar berikut ini :

Keluaran vektor a dihitung dari vektor masukan p sbb. :

Page 6: Tugas Individu

a = Wpatau

Asosiator linear merupakan contoh dari jaringan neural yang dinamakan memori asosiatif (associative memory). Memori asosiatif didisain untuk mempelajari Q pasang vektor contoh masukan / keluaran.

{p1, t1}, {p2, t2}, ..., {pQ, tQ}Dengan kata lain, jika jaringan menerima input p = pq maka ia harus menghasilkan

keluaran a = tq, dengan q = 1,2,...,Q. Jika masukan sedikit berubah (mis., p = p + d), maka keluaran juga sedikit berubah (mis., a = tq + e).

Proses Pembelajaran

Merupakan interpretasi matematis postulat Hebb. Dari rumus keluaran neuron

terlihat bahwa hubungan (sinapsis) antara masukan pj dan keluaran ai berupa bobot wij.Postulat Hebb mengatakan bahwa jika pj positif menghasilkan ai positif, maka wij harus

naik. Ekspresi matematiknya :

dengan pjq adalah elemen ke-j dari vektor masukan pq ke-q; aiq adalah elemen ke-i dari keluaran jaringan pada saat vektor masukan ke-q digunakan jaringan; dan a adalah konstanta positif, dinamakan learning rate.

Dari persamaan terlihat bahwa perubahan bobot wij proporsional terhadap perkalian fungsi aktivitas pada kedua sisi sinapsis. Persamaan di atas dapat disedehanakan menjadi :

Ekspresi ini merupakan perluasan dari postulat Hebb. Aturan belajar Hebb di atas termasuk aturan belajar tanpa supervisi (unsupervised

learning rule), yang tidak membutuhkan informasi apapun mengenai target keluaran.Terdapat juga aturan Hebb dengan supervisi (supervised Hebb rule), dimana pada

persamaannya, keluaran aktual digantikan dengan keluaran target. Persamaannya :

dengan tiq adalah elemen ke – i dari vektor target t ke – q. (Untuk memudahkan, learning rate diset bernilai satu)Dalam bentuk notasi vektor :

Jika diasumsikan bahwa matriks bobot diinisialisasi dengan nilai 0, danpasangan masukan / keluaran Q digunakan satu kali, maka :

Page 7: Tugas Individu

Ini juga dapat direpresentasikan dalam bentuk matriks :

dengan T = [t1 t2 ... tQ], P = [p1 p2 ... pQ]

ContohBerikut ini ditunjukkan penggunaan aturan Hebb secara praktis, yaitu pada masalah

pengenalan pola (yang sangat disederhanakan). Untuk masalah ini digunakan jenis khusus dari memori asosiatif – autoassociative memory. Pada autoassociative memory vektor keluaran yang diinginkan sama dengan vektor input (yaitu tq = pq). Di sini associative memory digunakan untuk menyimpan satu set pola dan pola tersebut akan dipanggil kembali, termasuk dengan menggunakan masukan yang rusak.Pola yang akan disimpan adalah sebagai berikut :

Yang merupakan vektor input sekaligus target (karena di sini digunakan autoassosiative memory). Vektor-vektor tersebut merepresentasikan bilangan (0,1,2) dalam kisi 6 x 5. Digit ini harus dikonversi menjadi vektor, untuk dijadikan pola contoh bagi jaringan. Setiap kotak putih direpresentasikan dengan "-1" dan kotak hitam direpresentasikan dengan "1". Selanjutnya, untuk membuat vektor input, kisi 6 x 5 tersebut dibaca per kolom. Sebagai contoh, vektor pola pertama adalah

p1 = [-1 1 1 1 1 –1 1 –1 –1 –1 –1 1 1 –1 ... 1 –1]TVektor p1 adalah untuk digit "0", p2 untuk "1", dan p3 untuk "2". Dengan menggunakan aturan Hebb, bobot matriks dihitung

W = p1 p1T + p2 p2T + p3 p3T(Perhatikan bahwa pq menggantikan posisi tq, karena ini adalah autoassociative memory). Karena hanya ada elemen-elemen vektor hanya memiliki dua kemungkinan nilai ("-1" dan "1") maka fungsi transfer linier digantikan dengan fungsi transfer symmetrical hard limit.

Page 8: Tugas Individu

Selanjutnya dapat dilihat bahwa jika pada jaringan diberi masukan berupa pola

50 % (lihat gambar di bawah ini), ternyata jaringan dapat memberi keluaranyang benar.

Jika pada jaringan diberi masukan berupa pola yang mengalami kerusakan67%, hasilnya adalah sebagai berikut.

Jika jaringan diberi masukan berupa pola terdistorsi, keluaran jaringan adalahsebagai berikut.

ALDALINEJaringan ADALINE (Adaptive Linear Neuron) mirip dengan perseptron, tapi ADALINE

menggunakan fungsi transfer linier alih-alih hard-limiting. Dengan demikian, keluarannya bisa beragam (perseptron hanya 0 atau 1).

ADALINE dan perseptron hanya bisa menyelesaikan masalah yang bersifat bebas linier. Adaptive Linear Neuron merespons perubahan lingkungannya pada saat beroperasi Jaringan ADALINE di bawah ini memiliki satu lapisan dengan S neuron yang terhubung melalui vektor matriks W. Struktur

Proses Pembelajaran

Page 9: Tugas Individu

Seperti juga aturan belajar perseptron, algoritma least mean square (LMS) adalah contoh pembelajaran tersupervisi, dimana aturan belajar dijalankan dengan bantuan satu set contoh hubungan masukan-keluaran yang diinginkan :

{p1, t1}, {p2, t2}, ..., {pQ, tQ}Dengan kata pq sebagai masukan jaringan dan tq sebagai target keluaran.

Jika keluaran jaringan berbeda dengan target, dilakukan perhitungan mse (mean square error) terhadap perbedaan keluaran dan target :

Algoritma LMS mengatur nilai bobot dan bias ADALINE agar menghasilkan mse sekecil mungkin.

BACK PROPAGATION

Backpropagation (BP) merupakan JST multi-layer. Penemuannya mengatasi kelemahan JST dengan layer tunggal yang mengakibatkan perkembangan JST sempat tersendat disekitar tahun 1970. Algoritma BP merupakan generalisasi aturan delta (Widrow-Hoff), yaitu menerapkan metode gradient descent untuk meminimalkan error kuadrat total dari keluaran yang dihitung oleh jaringan.

Struktur

Jaringan BP dengan satu layer tersembunyi (unit Z (Z1 …Zp)) tampak pada gambar di atas. Unit keluaran (unit Y (Y1 .....Ym)) dan unit tersembunyi memiliki bias. Bobot bias pada unit keluaran Yk dinyatakan dengan w0k, Bobot bias pada unit tersembunyi Zj dinyatakan dengan voj. vij merupakan bobot garis dari unit Xi ke unit layer tersembunyi Zj. wjk merupakan bobot garis dari Zj ke unit keluaran Yk

Proses Pembelajaran

Pelatihan BP meliputi 3 fase: i) fase propagsi maju (feedforward) pola pelatihan masukan. Pola masukan dihitung maju mulai dari layer masukan hingga layer keluaran dengan fungsi aktivasi yang ditentukan; ii) fase propasi mundur (backpropagation) dari error yang terkait. Selisih antara keluaran dan target merupakan kesalahn yang terjadi. Kesalahan tersebut dipropagasi mundur, dimulai dari garis yang berhubungan langsung dengan unit-unit dilayar keluaran; iii) fase modifikasi bobot.

Page 10: Tugas Individu

Berikutnya, keluaran jaringan (yk) dibandingkan dengan target yang harus dicapai (tk). Selisih tk – yk adalah kesalahan yang terjadi. Jika kesalahan ini lebih kecil dari batas toleransi yang ditentukan, maka iterasi dihentikan. Jika kesalahan masih lebih besar dari batas toleransi, maka bobot setiap garis dari jaringan akan dimodifikasi untuk mengurangi kesalahan

i) Fase propagasi maju Selama propagasi maju, sinyal masukan (x1) dipropagasikan ke layer tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari unit tersembuyi (Z j) tersebut selanjutnya dipropagasi maju lagi ke layer tersembunyi berikutnya dengan fungsi aktivasi yang telah ditentukan. Dan seterusnya hingga menghasilkan keluaran jaringan (yk).

ii) Fase Propagasi Mundur Berdasarkan kesalahan tk – yk dihitung faktor δk (k= 1, ..., m) yang dipakai untuk mendistribusikan kesalahan di unit Yk ke semua unit tersembunyi yang terhubung langsung dengan Yk. δk juga dipakai untuk mengubah bobot garis yang berhubungan langsung dengan unit keluaran. Dengan cara yang sama, dihitung faktor δj di setiap layer tersembunyi sebagai dasar perubahan bobot semua garis yang berasal dari unit tersembunyi di layer di bawahnya. Dan seterusnya hingga semua faktor δ di unit tersembunyi yang terhubung langsung dengan unit masukan dihitung.

iii) Fase Modifikasi Bobot Setelah semua faktor δ dihitung, bobot semua garis dimodifikasi bersamaan. Perubahan bobot suatu garis didasarkan atas faktor δ neuron di layer atasnya.

Sebagai contoh, perubahan bobot garis yang menuju ke layer keluaran didasarkan atas δk yang ada di unit keluaran Ketiga fase tersebut diulang-ulang hingga kondisi penghentian dipenuhi. Umumnya kondisi penghentian yang sering dipakai adalah jumlah interasi atau kesalahan. Iterasi akan dihentikan jika jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang ditetapkan, atau jika kesalahan yang terjadi sudah lebih kecil dari batas toleransi yang ditetapkan.

Contoh

Gunakan BP dengan sebuah layer tersembunyi (dengan 3 unit) untuk mengenali fungsi logika XOR dengan 2 masukan x1 dan x2. Buatlah iterasi untuk menghitung bobot jaringan untuk pola pertama (x1 = 1, x2 = 1, dan t = 0). Gunakan laju pembelajaran α = 0,2

Penyelesaian Gambar seperti gambar di atas dengan hanya satu unit keluaran Y, 3 unit Z, dan 2 unit X

serta 2 bias (untuk unit tersembunyi dan unit keluaran Mula2 bobot diberi nilai acak yang kecil (range [-1,1]). Misalkan bobot v ij seperti tampak pada tabel berikut

Z1 Z2 Z3

X1 0,2 0,3 -0,1 X2 0,3 0,1 -0,1 1 -0,3 0,3 0,3

Bobot wjk sbb:

Page 11: Tugas Individu

Y Z1 0,5 Z1 -0,3 Z1 -0,4 1 -0,1

Langkah 4: hitung keluaran unit tersembunyi (Zj)

z_net j = v0j + Σ =pjijivx1

z_net 1 = -0,3 + 1 (0,2) + 1 (0,3) = 0,2 z_net 2 = 0,3 + 1 (0,3) + 1 (0,1) = 0,7 z_net 3 = 0,3 + 1 (-0,1) + 1 (-0,1) = 0,1 zj = f(z_net j) = j_net_ze−+11 z1 = 2011,e−+= 0,55 ; z2 = 7011,e−+= 0,67; z3 = 1011,e−+= 0,52 Langkah 5: hitung keluaran unit Yk

y_net k = w0j + Σ =mkjkjwz1

Karena jaringan hanya memiliki sebuah unit keluaran Y, maka y_net k = y_net = w01 + = -0,1 + 0,55

(0,5)+ 0,67 (-0,3)+ 0,52 (-0,4) = -0,24 Σ=mkjkjwz1

y = f(y_net k) = k_net_ye−+11 = 24011,e+ = 0,44

Langkah 6 : Hitung faktor δ di unit keluaran Yk

δk = ( tk – yk) f’ (y_net k) = (tk – yk) yk (1 – yk) Karena jaringan hanya memiliki satu keluaran maka δk = ( tk – yk) f’ (y_net k) = (t – y) y (1 – y) = (0 – 0,44) (0,44) (1 – 0,44) = -0,11 Suku perubahan bobot wjk (dengan α = 0,2) : Δwjk = α δk zj = α δ zj (k =1 ; j = 0,1,2,3) Δw01 = 0,2 (-0,11) (1) = -0,02 Δw11 = 0,2 (-0,11) (0,55) = -0,01 Δw21 = 0,2 (-0,11) (0,67) = -0,01

Δw31 = 0,2 (-0,11) (0,52) = -0,01

Langkah 7 : Hitung penjumlahan kesalahan dari unit tersembunyi (δ)

δ_net j = Σ. Karena jaringan hanya memiliki sebuah unit keluaran maka δ=mkjkkw1δ_net j = δ wj1 ( j = 1,2,3) δ_net 1 = (-0,11) (0,5) = -0,05 δ_net 2 = (-0,11) (-0,3) = 0,03 δ_net 3 = (-0,11) (-0,4) = 0,04 Faktor kesalahan δ di unit tersembunyi

δj = δ_net j f’(z_net j) = δ_net j zj (1 – zj ) δ1 = -0,05 (0,55) (1 - 0,55) = -0,01 δ2 = 0,03 (0,67) (1 - 0,67) = 0,01 δ3 = 0,04 (0,52) (1 - 0,52) = 0,01 Suku perubahan bobot ke unit tersembunyi Δvij = α δj xi (j = 1,2,3 ; i = 0,1,2)

Z1 Z2 Z3

X1 Δv11 = (0,2) (-0,01) (1) = -0,002 ≈ 0

Δv12 = (0,2) (0,01) (1) = 0,002 ≈ 0

Δv13 = (0,2) (0,01) (1) = 0,002 ≈ 0

X2 Δv21 = (0,2) (-0,01) (1) = -

Δv22 = (0,2) (0,01) (1) =

Δv23 = (0,2) (0,01) (1) =

Page 12: Tugas Individu

0,002 ≈ 0 0,002 ≈ 0 0,002 ≈ 0 1 Δv01 = (0,2) (-

0,01) (1) = -0,002 ≈ 0

Δv02 = (0,2) (0,01) (1) = 0,002 ≈ 0

Δv03 = (0,2) (0,01) (1) = 0,002 ≈ 0

Langkah 8 : Hitung semua perubahan robot Perubahan bobot unit keluaran: wjk (baru) = wjk(lama) + Δwjk (k =1 ; j = 0,1,2,3) w11(baru) = 0,5 – 0,01 = 0,49 w21(baru) = -0,3 – 0,01 = -0,31 w31(baru) = -0,4 – 0,01 = -0,41 w01(baru) = -0,1 – 0,02 = -0,12 Perubahan bobot unit tersembunyi: vij (baru) = vij (lama) + Δvij (j=1,2,3 ; i =0,1,2) Tabel 7.4

Z1 Z2 Z3

X1 v11 = 0,2 + 0 = 0,2

v12 = 0,3 + 0 = 0,3

v13 = -0,1 + 0 = -0,1

X2 v21 = 0,3 + 0 = 0,3

v22 = 0,1 + 0 = 0,1

v23 = -0,1 + 0 = -0,1

1 v01 = -0,3 + 0 = -0,3

v02 = 0,3 + 0 = 0,3

v03 = 0,3 + 0 = 0,3

Iterasi diteruskan untuk pola kedua (X1 = 1, X2 = 0, t = 1) dan seterusnya.

LVQ (LEARNING VECTOR QUANTIZATION)

Learning Vector Quantization (LVQ) adalah salah satu metode jaringan syaraf tiruan yang digunakan dalam klasifikasi dan pengenalan pola. Pada metode ini, masing-masing unit output mewakili kategori atau kelas tertentu. Pada jaringan LVQ, proses pembelajaran atau pelatihan harus dilakukan terlebih dahulu. dalam proses pembelajaran, vector input yang diberikan akan terklasifikasikan secara otomatis. Apabila beberapa vector input memiliki jarak yang sangat berdekatan, maka vector-vektor input tersebut akan dikelompokkan dalam kelas yang sama.

StrukturLVQ merupakan jaringan syaraf tiruan yang terdi atas unit masukan (Xn) dan unit

keluaran (Ym). Adapun arsitekturnya seperti gambar di bawah ini :

Page 13: Tugas Individu

Gambar 1. Contoh arsitektur jaringan LVQ

Keterangan : 𝑋1,𝑋2 ,…,𝑋𝑛 = Vektor input 𝑌1,𝑌2 ,…,𝑌𝑛 = Vektor Output Wij = Bobot input ke-I pada kelompok ke-j

i, j = 1, 2, 3, …

Proses PembelajaranNotasi :

X : Training Vektor

T : Kategori dari training vector

Wj : Vektor bobot untuk kategori ke-j

Cj : Kategori j (hasil training)

ΙΙX – WjΙΙ : Jarak Euclidian

Step 0 Inisialisasi

Step 1 Jika kondisi stop salah lakukan step 2 – 6

Step 2 Untuk setiap training vector lakukan step 3 – 4

Step 3 Dapatkan j sehingga ΙΙX – WjΙΙ min

Step 4 Update Wj

Jika T = Cj 𝑊𝑗 𝑏𝑎𝑟𝑢 = 𝑊𝑗 𝑙𝑎𝑚𝑎 + 𝛼 (𝑋−𝑊𝑗 𝑙𝑎𝑚𝑎 ) Jika T ≠ Cj 𝑊𝑗 𝑏𝑎𝑟𝑢 = 𝑊𝑗 𝑙𝑎𝑚𝑎 − 𝛼 (𝑋−𝑊𝑗 𝑙𝑎𝑚𝑎 )

Step 5 Update learning rate

Step 6 uji kondisi stop

ContohBerikut disajikan penerapan pengkategorisasian menggunakan jaringan LVQ berdasarkan

IPM Provinsi Jawa Timur tahun 2004. Kabupaten-kabupaten di jawa Timur dikelompokkan berdasarkan IPM. Adapun komponen pembentuk IPM yang meliputi Angka Harapan Hidup (AHH), Angka Melek Huruf (AMH), Rata-rata Lama Sekolah (ALS) dan Pengeluaran Riil Perkapita (PPP), akan dijadikan sebagai vector input (masukan)-nya. Sedangkan pengelompokkan kabupaten berdasarkan IPM dijadikan sebagai vector output (keluaran)-nya. Kabupaten yang berada pada kelompok 1 menunjukkan bahwa kabupaten tersebut memiliki IPM rendah, kelompok 2, IPM sedang, dan kelompok 3 menunjukkan kelompok kabupaten degan IPM tinggi. Pengelompokkan kabupaten dapat dilihat pada tabel berikut ini :

Tabel 2.1. Pengelompokkan kabupaten berdasarkan IPM

Page 14: Tugas Individu

di Provinsi Jawa Timur 2004

Informasi yang diperoleh dari table di atas adalah : Jumlah data = 37

Jumlah variable input (n) = 4

Jumlah kelas atau cluster (m) = 3

Misalkan ditetapkan

maksimum epoch = 500

Learning rate =0.1

Dari ke-37 data tersebut akan diambil 6 data pertama untuk dijadikan bobot yang masing-masing akan mewakili kelas 1, 2 dan 3 (Tabel 2) :

Tabel 2.2. Bobot Awal

Page 15: Tugas Individu

Sedangkan sisanya, data ke-7 sampai 37, akan dipakai sebagai data-data yang akan dilakukan pelatihan.

Akan dibentuk jaringan kompetitif dengan algoritma pembelajaran LVQ net, yang terdiri dari 4 neuron pada lapisan kompetitif (lapisan tersembunyi), 3 kelas dengan masing-masing memiliki kemungkinan kemunculan yang sama (1/3). Instruksi :

T = ind2vec(Tc); JumlahKlas = size(full(T),1); JumlahNeuron = 4; net = newlvq(minmax(p),JumlahNeuron,(1/JumlahKlas)*ones(1,JumlahKlas));

Jaringan ini akan dilatih dengan dengan menggunakan algoritma pembelajaran LVQ dengan maksimum epoch = 500 dan toleransi error 0.01. instruksi :

net.trainparam.epochs = 500; net.trainparam.goal = 0.01; net = train(net,p,T);

Kemudian hasilnya akan disimulasikan, dengan input yang sama dengan input data pelatihan (data training). Output hasil simulasi akan disimpan pada vector H instruksi :

y = sim (net,m); yc = vec2ind(y)

Hasilnya adalah :

Columns 1 through 12

3 3 1 1 1 1 1 1 2 1 2 1

Columns 13 through 24

1 1 1 1 1 1 3 3 2 3 2

Columns 25 through 31

3 3 3 3 3 1 3