pengoptimalan akurasi pengenalan pola …

113
PENGOPTIMALAN AKURASI PENGENALAN POLA BACKPROPAGATION PADA CITRA HURUF TERDEGRADASI MEMANFAATKAN RESTORASI CITRA MRF TESIS DENY SAPUTRA GINTING 157038006 PROGRAM STUDI S2 TEKNIK INFORMATIKA FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI UNIVERSITAS SUMATERA UTARA MEDAN 2018 UNIVERSITAS SUMATERA UTARA

Upload: others

Post on 03-Oct-2021

17 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: PENGOPTIMALAN AKURASI PENGENALAN POLA …

PENGOPTIMALAN AKURASI PENGENALAN POLA

BACKPROPAGATION PADA CITRA HURUF

TERDEGRADASI MEMANFAATKAN

RESTORASI CITRA MRF

TESIS

DENY SAPUTRA GINTING

157038006

PROGRAM STUDI S2 TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2018

UNIVERSITAS SUMATERA UTARA

Page 2: PENGOPTIMALAN AKURASI PENGENALAN POLA …

PENGOPTIMALAN AKURASI PENGENALAN POLA

BACKPROPAGATION PADA CITRA HURUF

TERDEGRADASI MEMANFAATKAN

RESTORASI CITRA MRF

TESIS

Diajukan untuk melengkapi dan memenuhi syarat memperoleh ijazah

Magister Teknik Informatika

DENY SAPUTRA GINTING

157038006

PROGRAM STUDI S2 TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2018

UNIVERSITAS SUMATERA UTARA

Page 3: PENGOPTIMALAN AKURASI PENGENALAN POLA …

UNIVERSITAS SUMATERA UTARA

Page 4: PENGOPTIMALAN AKURASI PENGENALAN POLA …

iii

PERNYATAAN

PENGOPTIMALAN AKURASI PENGENALAN POLA BACKPROPAGATION

PADA CITRA HURUF TERDEGRADASI MEMANFAATKAN RESTORASI

CITRA MRF

Saya mengakui bahwa tesis ini adalah hasil karya sendiri, kecuali beberapa kutipan

dan ringkasan yang masing-masing telah disebutkan sumbernya.

Medan, 13 Februari 2018

Deny Saputra Ginting

NIM. 157038006

UNIVERSITAS SUMATERA UTARA

Page 5: PENGOPTIMALAN AKURASI PENGENALAN POLA …

iv

PERNYATAAN PERSETUJUAN PUBLIKASI

KARYA ILMIAH UNTUK KEPENTINGAN

AKADEMIS

Sebagai sivitas Akademika Universitas Sumatera Utara, saya yang bertanda tangan di

bawah ini:

Nama : Deny Saputra Ginting

NIM : 157038006

Program Studi : Pascasarjana (S-2) Teknik Informatika

Jenis Karya Ilmiah : Tesis

Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada

Universitas Sumatera Utara Hak Bebas Royalti Non-Ekslusif (Non-Ekclusive Royalti

Free Right) atas tesis saya yang berjudul :

PENGOPTIMALAN AKURASI PENGENALAN POLA BACKPROPAGATION

PADA CITRA HURUF TERDEGRADASI MEMANFAATKAN RESTORASI

CITRA MRF

Beserta perangkat yang ada (jika diperlukan). Dengan Hak Bebas Royalti Non-

Eksklusif ini, Universitas Sumatera Utara berhak menyimpan, mengalih media,

menformat, mengelola dalam bentuk database, merawat dan mempublikasikan tesis

saya tanpa meminta izin dari saya selama tetap mencantumkan nama saya sebagai

penulis dan sebagai pemegang dan/atau sebagai pemilik hak cipta.

Demikianlah pernyataan ini dibuat dengan sebenarnya.

Medan, 13 Februari 2018

Deny Saputra Ginting

NIM. 157038006

UNIVERSITAS SUMATERA UTARA

Page 6: PENGOPTIMALAN AKURASI PENGENALAN POLA …

v

LEMBAR PANITIA PENGUJI TESIS

Telah di uji pada

Tanggal : 13 Februari 2018

PANITIA PENGUJI TESIS

Ketua : Prof. Dr. Muhammad Zarlis

Anggota : 1. Dr. Pahala Sirait, ST, M.Kom

2. Prof. Opim Salim Sitompul

3. Dr. Sawaluddin, M.IT

UNIVERSITAS SUMATERA UTARA

Page 7: PENGOPTIMALAN AKURASI PENGENALAN POLA …

vi

RIWAYAT HIDUP

DATA PRIBADI

Nama Lengkap : Deny Saputra Ginting

Tempat dan Tanggal Lahir : Kabanjahe, 03 April 1988

Alamat Rumah : Jln. Mariam Ginting, Gg. Kelinci, Kabanjahe

Telepon/Faks/HP : 081224842131

Email : [email protected]

Instansi Tempat Bekerja :

Alamat Kantor :

DATA PENDIDIKAN

SD : SD Sint.Xaverius 1 Kabanjahe TAMAT : 2000

SMP : SMP Negeri 1 Kabanjahe TAMAT : 2003

SMA : SMA Negeri 1 Kabanjahe TAMAT : 2006

S1 : STMIK Mikroskil Medan TAMAT : 2013

S2 : Teknik Informatika Universitas Sumatera Utara TAMAT : 2018

UNIVERSITAS SUMATERA UTARA

Page 8: PENGOPTIMALAN AKURASI PENGENALAN POLA …

vii

UCAPAN TERIMA KASIH

Puji syukur kehadirat Tuhan Yang Maha Esa yang telah memberikan kepada kita

nikmat dan anugrah yang luar biasa sehingga penulis dapat menyelesaikan tesis

yang berjudul “Pengoptimalan Akurasi Pengenalan Pola Backpropagation

Pada Citra Huruf Terdegradasi Memanfaatkan Restorasi Citra MRF”, Tesis

ini merupakan salah satu syarat untuk memperoleh gelar Magister Teknik

Informatika pada program studi S-2 Teknik Informatika Universitas Sumatera

Utara.

Pada kesempatan ini, penulis ingin mengucapkan terima kasih sepenuhnya

kepada kedua orang tua saya Bapak Alm.Saksi Ginting dan Ibu Endaulina Br

Bukit sebagai “Tangan Tuhan”, yang selalu menyertai dan memberikan dukungan

baik moril dan materil kepada penulis hingga selesainya proses pendidikan dari

program studi S-2 Teknik Informatika, Fakultas Ilmu Komputer dan Teknik

Informatika Universitas Sumatera Utara.

Penulis juga tidak lupa mengucapkan terima kasih banyak kepada semua

pihak yang telah membantu penulis dalam menyelesaikan tesis ini, antara lain:

1. Bapak Prof. Dr. Runtung Sitepu, S.H., M.Hum., selaku Rektor Universitas

Sumatera Utara.

2. Bapak Prof. Dr. Opim Salim Sitompul., selaku Dekan Fakultas Ilmu

Komputer dan Teknologi Informasi Universitas Sumatera Utara sekaligus juga

selaku Dosen Pembanding/Penguji 1 yang selama ini telah memberikan

banyak saran, serta pembelajaran yang berharga bagi penulis sebagai arahan

untuk menyelesaikan penulisan tesis ini.

3. Bapak Prof. Dr. Muhammad Zarlis., selaku Ketua Program Studi Pascasarjana

(S-2) Teknik Informatika Fakultas Ilmu Komputer dan Teknologi Informasi

Universitas Sumatera Utara sekaligus juga selaku Dosen Pembimbing 1 yang

selama ini telah memberikan banyak saran, serta pembelajaran yang berharga

bagi penulis sebagai arahan untuk menyelesaikan penulisan tesis ini.

UNIVERSITAS SUMATERA UTARA

Page 9: PENGOPTIMALAN AKURASI PENGENALAN POLA …

viii

4. Bapak Dr. Pahala Sirait, ST, M.Kom., selaku Pembimbing 2 yang telah

memberikan banyak saran, serta pembelajaran yang berharga bagi penulis

sebagai arahan untuk menyelesaikan penulisan tesis ini.

5. Bapak Dr. Sawaluddin, M.IT., selaku Pembanding/Penguji 2 yang telah

memberikan banyak saran, serta pembelajaran yang berharga bagi penulis

sebagai arahan untuk menyelesaikan penulisan tesis ini.

6. Bapak/Ibu Dosen Program Studi Pascasarjana (S-2) Teknik Informatika

Fakultas Ilmu Komputer dan Teknologi Informasi Universitas Sumatera Utara

yang telah memberikan bekal ilmu yang sangat berharga bagi penulis selama

menjadi mahasiswa.

7. Seluruh Civitas Akademika, Staf, Pegawai, teman-teman, adik-adik, kakak-

kakak di Program Studi Pascasarjana (S-2) Teknik Informatika Fakultas Ilmu

Komputer dan Teknologi Informasi Universitas Sumatera Utara, yang telah

membantu penulis dalam menyelesaikan penelitian dan juga telah mewarnai

hari-hari indah penulis selama menjalani masa kuliah.

8. Sahabat-sahabat di MTI KOM B 2015 yang telah sama-sama berjuang semasa

kuliah.

Penulis tetap menyadari masih ada kekurangan dalam penulisan tesis ini.

Oleh sebab itu saran dan kritik sangat dinantikan dan diterima dengan sikap

terbuka. Dan pada akhirnya penulis berharap karya tulis ini dapat digunakan

sebagai referensi dan dimanfaatkan dengan baik. Semoga penulisan tesis ini dapat

bermanfaat kedepannya. Terima kasih.

Medan,

Penulis,

Deny Saputra Ginting

NIM. 157038006

UNIVERSITAS SUMATERA UTARA

Page 10: PENGOPTIMALAN AKURASI PENGENALAN POLA …

ix

ABSTRAK

Umumnya, OFR (Optical Font Recognition) Backpropagation digunakan untuk

mengenali pola huruf dalam kondisi normal. Memiliki beberapa tahapan pre-

processing sebelum masuk ke proses pengenalan pola antara lain, noise filtering,

binerisasi, cropping, resize dan ekstraksi fitur. Di dalam penelitian ini, penulis

mengusulkan pengoptimalan OFR Backpropagation khususnya untuk mengenali pola

huruf dalam kondisi tidak normal/terdegradasi antara lain pola huruf yang

terpotong/hilang atau terkena noda. Penulis menambahkan proses restorasi Markov

Random Field (MRF) pada tahapan pre-processing untuk memperbaiki kualitas pola

huruf. Pola hasil restorasi pola huruf akan dilanjutkan ke algoritma Backpropagation

untuk selanjutnya dilakukan proses pengujian (testing). Dari penelitian ini penulis

melakukan pengujian terhadap 60 citra huruf terdegradasi. Hasil testing yang penulis

dapatkan sebelum direstorasi yaitu 18,33% dan setelah restorasi yaitu 78,33%.

Kata kunci: Backpropagation; Markov Random Field; degradasi; pre-processing

UNIVERSITAS SUMATERA UTARA

Page 11: PENGOPTIMALAN AKURASI PENGENALAN POLA …

x

OCR OPTIMIZATION FOR DEGRADED FONT USING MRF

TO RESTORATION AND BACKPROPAGATION NEURAL

NETWORK

ABSTRACT

Ussualy, OFR (Optical Font Recognition) Backpropagation is used for recognize

Font’s patterns is in normal condition. And has several stages of pre-processing

involves noise filtering, binarization, cropping, resizing and feature extraction. In this

paper, we proposed OFR Backpropagation Optimization, espesially for font

recognition it’s in degraded conditions e.g cuts or blobs. We added restoration-based

Markov Random Field (MRF) model at pre-processing stage. It’s used to restore

font’s patterns. The patterns that have restored will used as test data into

Backpropagation algorithm. In this research, we have tested on 60 letter with diferrent

degradation. And the accuracy of testing process is 18,33% without restoration

process and 78,33% after restoration process.

Keywords: Backpropagation; Markov Random Field; degradation; pre-processing

UNIVERSITAS SUMATERA UTARA

Page 12: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xi

DAFTAR ISI

Hal.

HALAMAN JUDUL ......................................................................................... i

PENGESAHAN ................................................................................................ ii

PERNYATAAN ORISINALITAS ................................................................... iii

PERSETUJUAN PUBLIKASI ......................................................................... iv

PANITIA PENGUJI ......................................................................................... v

RIWAYAT HIDUP ........................................................................................... vi

UCAPAN TERIMA KASIH ............................................................................. vii

ABSTRAK ........................................................................................................ ix

ABSTRACT ...................................................................................................... x

DAFTAR ISI ..................................................................................................... xi

DAFTAR TABEL ............................................................................................. xiv

DAFTAR GAMBAR ......................................................................................... xv

BAB 1 : PENDAHULUAN

1.1. Latar Belakang Masalah ................................................................ 1

1.2. Rumusan Masalah ......................................................................... 3

1.3. Batasan Masalah ............................................................................ 3

1.4. Tujuan Penelitian ........................................................................... 3

1.5. Manfaat Penelitian ......................................................................... 4

BAB 2 : LANDASAN TEORI

2.1. Citra Digital ................................................................................... 5

2.1.1. Citra Warna ......................................................................... 5

2.1.2. Citra Grayscale ..................................................................... 6

2.1.3. Citra Biner ........................................................................... 6

2.2. Pengolahan Citra ........................................................................... 6

2.2.1. Noise Filtering ..................................................................... 6

2.2.2. Greyscaling ......................................................................... 7

2.2.3. Binerisasi ............................................................................. 8

2.2.4. Segmentasi (Cropping) ........................................................ 8

2.2.5. Restorasi .............................................................................. 8

UNIVERSITAS SUMATERA UTARA

Page 13: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xii

2.2.6. Resizing (interpolasi citra) .................................................... 9

2.2.7. Ekstraksi Fitur ...................................................................... 9

2.3. Pengenalan Pola ............................................................................ 10

2.4. Markov Random Field (MRF) ....................................................... 11

2.4.1. Pengertian Markov Random Field ......................................... 11

2.4.2. Markov Random Field untuk Restorasi .................................. 13

2.5. Jaringan Saraf Biologi ................................................................... 14

2.6. Jaringan Saraf Tiruan ..................................................................... 16

2.6.1. Arsitektur Jaringan Saraf Tiruan .......................................... 18

2.6.1.1. Jaringan Lapisan Tunggal Umpan Maju ................... 18

2.6.1.2. Jaringan Lapisan Jamak Umpan Maju ...................... 19

2.6.1.3. Jaringan Berulang ..................................................... 20

2.6.2. Proses Pembelajaran (Training dan Testing) ........................ 22

2.7. Backpropagation ........................................................................... 22

2.8. Penelitian Terkait .......................................................................... 29

2.9. Perbedaan Penelitian ..................................................................... 30

BAB 3 : METODOLOGI PENELITIAN

3.1. Tahapan Proses .............................................................................. 31

3.2. Proses Noise Filtering .................................................................... 31

3.3. Proses Binerisasi ............................................................................ 33

3.4. Proses Cropping ........................................................................... 34

3.5. Proses Restorasi Huruf .................................................................. 37

3.6. Proses Resizing .............................................................................. 38

3.7. Proses Ekstraksi Pola ..................................................................... 38

3.8. Proses Algoritma Backpropagation ............................................... 39

3.8.1. Fase Pelatihan ...................................................................... 39

3.8.2. Fase Pengujian ..................................................................... 45

BAB 4 : HASIL DAN PEMBAHASAN

4.1. Pendahuluan .................................................................................. 47

UNIVERSITAS SUMATERA UTARA

Page 14: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xiii

4.2. Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra

Huruf Dengan Pola Yang Mirip/Sama ........................................... 47

4.3. Pengujian Jaringan Saraf Tiruan Pada Citra Huruf

Backpropagation Terdegradasi ................................................... 55

4.3. Pembahasan ................................................................................... 64

BAB 5 : KESIMPULAN DAN SARAN

5.1. Kesimpulan ................................................................................... 65

5.2. Saran ............................................................................................. 65

DAFTAR PUSTAKA ........................................................................................ 66

LAMPIRAN PERHITUNGAN ........................................................................ A-1

UNIVERSITAS SUMATERA UTARA

Page 15: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xiv

DAFTAR TABEL

Hal.

Tabel 2.1: Penelitian terkait ................................................................................ 22

Tabel 4.1: Contoh 26 data training melalui proses pre-processing ....................... 48

Tabel 4.2: Hasil pengujian algoritma Backpropagation menggunakan pola huruf

yang mirip ........................................................................................ 53

Tabel 4.3: Hasil pengujian pada citra huruf terdegradasi ..................................... 59

UNIVERSITAS SUMATERA UTARA

Page 16: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xv

DAFTAR GAMBAR

Hal.

Gambar 2.1: Ilustrasi Mean Filtering menggunakan 4-neighborhood dan 8-

neighborhood ............................................................................... 7

Gambar 2.2: Implementasi metode zoning terhadap aksara Dewanagari .............. 10

Gambar 2.3: Contoh pola angka dengan tulisan tangan ....................................... 11

Gambar 2.4: Contoh grid MRF ............................................................................ 12

Gambar 2.5: Citra dokumen terdegradasi dan setelah direstorasi .......................... 13

Gambar 2.6: Pembagian patch menggunakan teknik MRF pada citra “Tip” ........ 13

Gambar 2.7: Hasil restorasi dari citra dokumen terdegradasi ............................... 14

Gambar 2.8: Neuron Biologis ............................................................................. 16

Gambar 2.9: Non-linier Neural Network ............................................................. 18

Gambar 2.10: Jaringan lapisan tunggal ................................................................ 19

Gambar 2.11: Jaringan lapisan jamak dengan 1 unit hidden layer ........................ 20

Gambar 2.12: Jaringan berulang tanpa perulangan self feedback dan tanpa

lapisan tersembunyi ...................................................................... 21

Gambar 2.13: Jaringan berulang memiliki perulangan self feedback dan memiliki

lapisan tersembunyi ...................................................................... 21

Gambar 2.14: Lapisan dan aliran sinyal dalam algoritma BPNN ......................... 23

Gambar 3.1: Rectangle filter 3 x 3 ...................................................................... 32

Gambar 3.2: Contoh hasil penerapan noise filtering neighborhood....................... 33

Gambar 3.3: Hasil croping secara vertikal ........................................................... 35

Gambar 3.4: Hasil croping secara horizontal ........................................................ 35

Gambar 3.5: Hasil satu karakter untuk setiap cropping ........................................ 35

Gambat 3.6: Citra hasil resizing .......................................................................... 38

Gambar 3.7: Proses ekstraksi pola ....................................................................... 39

Gambar 3.8: Ekstraksi pola huruf ‘a’ ................................................................... 45

Gambar 3.9: Ekstraksi pola huruf ‘q’ .................................................................. 45

Gambar 3.10: Pola karakter yang akan dikenali ................................................... 46

Gambar 4.1: Contoh patch citra huruf terdegradasi ............................................. 56

Gambar 4.2: Contoh patch citra learning ............................................................. 56

UNIVERSITAS SUMATERA UTARA

Page 17: PENGOPTIMALAN AKURASI PENGENALAN POLA …

xvi

Gambar 4.3: Contoh tampilan hasil pengujian menggunakan citra huruf

terdegradasi tanpa proses restorasi MRF ......................................... 57

Gambar 4.4: Contoh tampilan hasil pengujian menggunakan citra huruf

terdegradasi setelah melalui proses restorasi MRF .......................... 58

UNIVERSITAS SUMATERA UTARA

Page 18: PENGOPTIMALAN AKURASI PENGENALAN POLA …

BAB 1

PENDAHULUAN

1.1 Latar Belakang

Implementasi pengenalan pola menggunakan komputer sangatlah populer pada era

digital ini. Berbagai macam manfaat dari pengenalan pola antara lain untuk keamanan

data, pengambilan keputusan, dan lain-lain. Contoh implementasi pengenalan pola

yang sering dijumpai antara lain pengenalan pola sidik jari, pola tulisan tangan, pola

huruf, pola tanda tangan, pola iris mata, pola suara dan lain-lain.

Penelitian 1, Muharram et al. telah melakukan peneltian berjudul “Neural

Networks and Machine Learning for Pattern Recognition” pada tahun 2015 yang

membahas mengenai perbandingan akurasi dan efisiensi antara metode Neural

Network Backpropagation dengan Machine Learning Decision Tree dalam melakukan

pengenalan pola pada citra huruf.

Penelitian 2, Pratama et al. melakukan penelitian berjudul “Mobile OCR Using

Centroid to Boundary and Backpropagation Neural Network” pada tahun 2016 yang

membahas mengenai pembuatan aplikasi OCR memanfaatkan penggabungan metode

Centroid to Boundary yang digunakan pada proses ekstraksi fitur dan

Backpropagation untuk pengenalan pola.

Penelitian 3, Shareef et al. melakukan penelitian berjudul “OCR-ANN Back-

Propagation Based Classifier” pada tahun 2015, yang membahas mengenai

pembuatan aplikasi OCR dengan algoritma Backpropagation yang

mengkombinasikan beberapa teknik pengolahan citra pada tahapan pre-processing.

Penelitian 4, Afroge et al. melakukan penelitian berjudul “Optical Character

Recognition using BackPropagation Neural Network” pada tahun 2016, yang

membahas mengenai pengaplikasian OCR menggunakan algoritma Backpropagation

pada citra dengan background ber-noise.

UNIVERSITAS SUMATERA UTARA

Page 19: PENGOPTIMALAN AKURASI PENGENALAN POLA …

2

Pada ke-empat penelitian di atas, digunakan sample citra yang berkualitas baik dalam

melakukan proses training dan testing. Hal ini dilakukan untuk memastikan proses

pengenalan pola huruf pada citra tersebut menghasilkan tingkat akurasi yang optimal.

Sebaliknya, pengenalan pola huruf akan menjadi tidak optimal jika citra huruf yang

digunakan citra yang terdegradasi.

Citra yang terdegradasi sering ditemukan pada citra dari dokumen yang sudah

diduplikasi (foto copy), hasil scan dari dokumen lama (manuskrip), dokumen yang

memiliki coretan, dan lain-lain. Untuk mengatasi masalah ini, maka harus dilakukan

perbaikan citra yang terdegradasi menjadi seperti citra original yang disebut dengan

restorasi citra. Banerjee et al. melalui penelitian mereka yang berjudul “Contextual

Restoration of Severely Degraded Document Images” pada tahun 2009, telah

membahas teknik restorasi khusus citra dokumen yang terdegradasi menggunakan

algoritma Markov Random Field (MRF).

Pada penelitian ini, sebelum dilakukan pengenalan pola citra akan terlebih

dahulu memasuki beberapa tahapan pengolahan citra (image processing). Tahap awal

yaitu noise filtering. Pada tahap ini citra akan dibersihkan dari derau (noise) yang

mengganggu kualitas citra. Setelah noise didalam citra dibersihkan, maka citra akan

memasuki tahapan binerisasi. Pada tahapan ini citra akan diubah menjadi citra biner,

dimana semua piksel pada citra akan diubah menjadi hitam dan putih. Selanjutnya

citra akan diproses pada tahapan segmentasi huruf (cropping). Proses ini bertujuan

untuk memisahkan masing-masing huruf pada citra dokumen. Setelah di-cropping,

maka citra masing-masing huruf akan di-restorasi. Hal ini bertujuan untuk menjadikan

kualitas citra huruf kembali seperti aslinya. Selanjutnya citra akan memasuki tahapan

resizing yaitu menyesuaikan ukuran piksel pada citra. Proses ini bertujuan untuk

penyesuaian ukuran data (normalisasi data) antara data training dengan data testing

pada saat pengenalan pola. Setelah citra di-resizing maka akan dilakukan ekstraksi

pola untuk memperoleh nilai-nilai piksel pada citra. Setelah nilai-nilai piksel

didapatkan maka selanjutnya akan dilakukan pengenalan pola. Salah satu algoritma

yang bisa digunakan untuk melakukan pengenalan pola antara lain menggunakan

algoritma jaringan saraf tiruan (Neural Network) Backpropagation.

Berdasarkan uraian di atas, penulis berkeinginan untuk mengerjakan tugas akhir

(tesis) dengan judul “Pengoptimalan Akurasi Pengenalan Pola

UNIVERSITAS SUMATERA UTARA

Page 20: PENGOPTIMALAN AKURASI PENGENALAN POLA …

3

Backpropagation Pada Citra Huruf Terdegrasi Memanfaatkan

Restorasi Citra MRF”.

1.2 Rumusan Masalah

Sesuai dengan latar belakang di atas, maka yang menjadi rumusan masalah dalam

tugas akhir ini adalah seberapa besar pengaruh restorasi citra terhadap tingkat akurasi

pengenalan pola citra huruf yang terdegradasi.

1.3 Batasan masalah

Adapun batasan masalah dalam penelitian ini adalah:

1. Jenis huruf yang diproses pada pengenalan pola hanya huruf cetak, tidak

bersambung.

2. Orientasi huruf harus 0 derajat (tidak miring).

3. Citra yang dideteksi menggunakan format BMP atau JPG dengan resolusi

minimum 30 x 30 pixel.

4. Metode yang digunakan dalam pembersihan noise adalah pixel neighborhood.

5. Ketetapan ukuran yang digunakan untuk resize restorasi adalah 30 x 30 pixel

dan untuk resize ekstraksi pola adalah 10 x 10 pixel.

6. Kategori citra huruf terdegradasi antara lain :

Warna huruf yang sudah kabur (blur).

Pola huruf yang hilang (cuts).

Ada noise pada huruf (blobs).

7. Pola huruf yang tidak lengkap dan noise pada huruf tidak mengakibatkan huruf

tersebut merepresentasikan pola huruf lain.

8. Diasumsikan setiap huruf pada dokumen sudah disegmentasi.

9. Restorasi dilakukan per-huruf.

1.4 Tujuan Penelitian

Tujuan dari penelitian ini adalah mengukur pengaruh restorasi citra terhadap

pengoptimalan akurasi pengenalan pola Backpropagation terhadap citra huruf

terdegradasi.

UNIVERSITAS SUMATERA UTARA

Page 21: PENGOPTIMALAN AKURASI PENGENALAN POLA …

4

1.5 Manfaat Penelitian

Manfaat dari penelitian ini antara lain adalah penelitian yang akan dikerjakan

diharapkan mampu membantu penelitian-penelitian kedepannya terkait pengenalan

pola-pola terdegradasi khususnya pola huruf.

UNIVERSITAS SUMATERA UTARA

Page 22: PENGOPTIMALAN AKURASI PENGENALAN POLA …

BAB 2

LANDASAN TEORI

2.1 Citra Digital

Citra bisa didefinisikan sebagai suatu fungsi dua dimensi f(x,y), dimana x dan y

adalah koordinat spasial dan amplitudo dari f pada keterhubungan antar koordinat

(x,y) disebut dengan intensitas atau level keabuan dari citra pada koordinat tersebut.

Ketika x, y dan nilai ampitudo dari f adalah terbatas, jumlahnya diskrit, maka citra

tersebut adalah citra digital. (Gonzales & Woods, 2002)

Ada beberapa cara untuk menyimpan citra digital di dalam memori. Cara

penyimpanan menentukan jenis citra digital yang terbentuk. Beberapa jenis citra

digital yang sering digunakan adalah citra biner,citra grayscale, dan citra warna.

(Gonzales & Woods, 2002)

2.1.1 Citra Warna

Setiap pixel yang terdapat pada citra warna mewakili warna yang merupakan

kombinasi dari tiga warna dasar (RGB = Red Green Blue). Setiap warna dasar

menggunakan penyimpanan 8 bit = 1 byte, yang berarti setiap warna memiliki gradasi

sebanyak 255 warna. Berarti setiap pixel memiliki kombinasi warna sebanyak 28x

28 x 28 = 16 juta warna lebih. Itulah sebabnya format ini dinamakan true color karena

memiliki jumlah warna yang cukup besar. Penyimpanan citra true color di dalam

memori berbeda dengan citra grayscale. Setiap pixel dari citra grayscale 256 gradasi

warna diwakili oleh 1 byte. Sedangkan 1 pixel citra true color diwakili oleh 3 byte,

dimana masing-masing byte merepresentasikan warna merah (Red), hijau (Green),

dan biru (Blue). (Gonzales & Woods, 2002)

UNIVERSITAS SUMATERA UTARA

Page 23: PENGOPTIMALAN AKURASI PENGENALAN POLA …

6

2.1.2 Citra Grayscale

Citra warna grayscale menggunakan warna tingkatan warna abu-abu. Warna abu-abu

merupakan satu-satunya warna pada ruang RGB dengan komponen merah, hijau, dan

biru mempunyai intensitas yang sama. Banyaknya warna pada citra ini tergantung

pada jumlah bit yang akan disediakan di memori untu menampung kebutuhan warna

ini. Citra dengan skala keabuan empat bit maka jumlah kemungkinan warnanya adalah

24 = 16 warna dengan kemungkinan warna 0 (min) sampai 15 (max). (Gonzales &

Woods, 2002)

2.1.3 Citra Biner

Citra biner disebut juga citra monokrom. Banyak warna citra biner ada 2, yaitu hitam

dan putih. Dibutuhkan 1 bit memori untuk menyimpan kedua warna ini. Setiap pixel

pada citra bernilai 0 untuk hitam dan 1 untuk putih. (Sutoyo, et al)

2.2 Pengolahan Citra Digital

Definisi dari pengolahan citra digital adalah memproses citra dalam bentuk digital

dengan artian digital terkomputerisasi. Dengan catatan citra digital disusun dari

jumlah elemen-elemen yang terbatas, dengan masing-masing elemen memiliki lokasi

tersendiri dan juga nilai. Elemen-elemen inilah yang disebut sebagai elemen gambar,

elemen citra, pel atau pixel. Pixel adalah istilah yang paling sering digunakan untuk

memberitahu elemen dari sebuah citra. (Gonzales & Woods, 2002)

2.2.1 Noise Filtering

Noise diasumsikan sebagai koordinat spasial pada citra, yang berdiri sendiri dan tidak

memiliki korelasi dengan citra itu sendiri (tidak memiliki korelasi antara nilai pixel

citra dengan nilai komponen noise). (Gonzales & Woods, 2002)

Proses noise filtering bertujuan untuk membersihkan citra dari pixel - pixel yang

tidak dibutuhkan atau derau (noise). Salah satu teknik yang dapat digunakan untuk

melakukan noise filtering adalah mean filtering. Misalkan 𝑆𝑥𝑦 menyatakan suatu set

UNIVERSITAS SUMATERA UTARA

Page 24: PENGOPTIMALAN AKURASI PENGENALAN POLA …

7

koordinat di dalam sebuah window persegi pada suatu citra (neighborhood) berukuran

m x n, yang pusatnya adalah (x,y). Mean Filtering menghitung nilai rata-rata dari citra

yang korup pada area 𝑆𝑥𝑦 . Berikut adalah ilustrasi dari teknik Mean filtering (pixel

neighborhood). (Gonzales & Woods, 2002)

Gambar 2.1 Ilustrasi Mean Filtering menggunakan 4-neighborhood dan

8-neighborhood

(Sumber: Saphiro & Stockman, 2000)

2.2.2 Grayscaling

Grayscaling merupakan proses perubahan nilai pixel dari warna (RGB) menjadi

greylevel (Gonzales & Woods, 2002). Pada dasarnya proses ini dilakukan dengan

meratakan nilai pixel dari 3 nilai RGB menjadi 1 nilai. Untuk memperoleh hasil yang

lebih baik, nilai pixel tidak langsung dibagi menjadi 3 melainkan terdapat presentasi

dari masing-masing nilai tersebut. Untuk mengubah gambar RGB menjadi grayscale

dapat menggunakan rumus (Wu, 2007):

Gray = 0.2989 * R + 0.5870 * G + 0.1140 * B

Keterangan :

R = Red (merah)

G = Green (hijau)

B = Blue (biru)

UNIVERSITAS SUMATERA UTARA

Page 25: PENGOPTIMALAN AKURASI PENGENALAN POLA …

8

2.2.3 Binerisasi

Gambar hitam putih relatif lebih mudah dianalisa dibandingkan dengan gambar

berwarna. Karena itu sebelum dianalisa, gambar dikonversikan terlebih dahulu

menjadi binary image. Proses konversi ini disebut binerisasi Dalam proses binerisasi,

warna yang ada dikelompokkan menjadi 0 (hitam) dan 1 (putih). Pengelompokannya

berdasarkan pada suatu konstanta ambang batas (level). Jika nilai pixel lebih besar

sama dengan level, maka nilai outputnya adalah 1, dan sebaliknya, jika nilai pixel

lebih kecil dari level, maka nilai outputnya adalah 0. (Wu, 2007)

2.2.4 Segmentasi (Cropping)

Segmentasi membagi sebuah citra menjadi beberapa komponen wilayah atau objek.

Tingkat kedetailan dimana area pembagian bergantung kepada masalah yang akan

diselesaikan. Artinya segmentasi seharusnya berhenti ketika object atau wilayah yang

ditargetkan telah ditemukan. (Gonzales & Woods, 2002)

Segmentasi citra non-trivial adalah salah satu pekerjaan yang sulit di dalam

image processing. Keakuriasian segmentasi menentukan keberhasilan atau kegagalan

akhir dari analisis prosedur terkomputerisasi. Karena itu, sangatlah perlu untuk

memperhatikan peningkatan probabilitas keakurasian segmentasi. (Gonzales &

Woods, 2002)

2.2.5 Restorasi

Sama seperti peningkatan kualitas citra, tujuan utama dari teknik restorasi yaitu untuk

meningkatkan kualitas citra menggunakan beberapa pengertian yang telah ditentukan.

Meskipun ada bagian yang tumpang tindih, peningkatan kualitas citra sebagian besar

adalah wuatu proses yang subjektif, sedangkan restorasi citra adalah untuk sebagian

besar dalam suatu proses yang objektif. Restorasi adalah usaha memulihkan sebuah

citra yang sudah rusak dengan menggunakan pengetahuan apriori dari fenomena

degradasi. Sehingga teknik restorasi berorientasi kepada memodelkan degradasi dan

mengaplikasikan proses invers yang terurut untuk memulihkan citra aslinya.

(Gonzales & Woods, 2002)

UNIVERSITAS SUMATERA UTARA

Page 26: PENGOPTIMALAN AKURASI PENGENALAN POLA …

9

Degradasi sebuah citra dapat dimodelkan sebagai (Hermawati, 2013):

1. g(x,y) = f(x,y)*h(x,y) ; misalnya proses blurring menggunakan filter average

dengan f(x,y) adalah citra asli, *menyatakan operasi spatial, h(x,y) menyatakan filter

yang digunakan, dan g(x,y) adalah derau yang dimodelkan sebagai fungsi adiktif

(random errors).

2. g(x,y) = f(x,y)*h(x,y)+n(x,y) ; dengan n(x,y) adalah derau yang dimodelkan sebagai

fungsi aditif (random errors).

2.2.6 Resizing (interpolasi citra)

Interpolasi adalah suatu alat dasar yang digunakan secara ekstensif untuk proses

pembesaran (zooming), pengecilan (shrinking), rotasi dan operasi geometrik. Dasar

dari interpolasi adalah proses dari penggunaan data pengetahuan untuk mengestimasi

nilai pada lokasi yang tidak terdefenisi. Andaikan sebuah citra dengan ukuran 500 x

500 pixel akan di-zoom sebesar 1.5 kali menjadi 750 x 750 pixel. Cara mudah untuk

melakukan zooming adalah dengan membuat citra kosong berukuran 750 x 750 pixel

dengan jarak pixel yang sama dengan citra aslinya dan selanjutnya perbesar citra

dengan cara menyesuaikan pixel tepat dengan citra aslinya. Tepatnya, spasi pixel pada

citra 750x750 akan lebih kecil bila dibandingkan dengan spasi pixel pada citra aslinya.

Untuk menampilkan proses level-intensitas untuk setiap poin pada permukaan citra,

kita akan melihat pada pixel terdekat di dalam citra asli dan menetapkan itensitas dari

pixel tersebut ke pixel baru pada citra 750 x 750. Setelah kita menetapkan intensitas

untuk semua poin ke permukaan citra, kita perluas setiap poin ke ukuran asli yang

telah ditetapkan untuk memperoleh citra yang diperbesar. (Gonzales & Woods, 2002)

Metode yang dibahas diatas disebut dengan nearest-neighbor interpolation

karena itu menentukan setiap lokasi baru untuk intensitas dari tetangga terdekat

(nearest neighbor) di dalam citra original. (Gonzales & Woods, 2002)

2.2.7 Ekstraksi Fitur

Sebuah fitur citra adalah karakteristik pembeda primitif atau atribut dari sebuah citra.

Beberapa fitur adalah alami dalam artian seperti fitur yang dideapatkan dari fitur

tampilan sebuah citra, sementara lainnya adalah fitur buatan didapatkan dari

UNIVERSITAS SUMATERA UTARA

Page 27: PENGOPTIMALAN AKURASI PENGENALAN POLA …

10

manipulasi yang spesifik dari sebuah citra. Fitur alami termasuk pencahayaan suatu

wilayah dari pixel dan tekstur skala keabuan dari suatu wilayah. (Pratt, 2001)

Zoning adalah salah satu metode yang sangat populer dalam pengenalan

karakter untuk meng-ekstraksi karakteristik pembeda. Metode tradisional zoning

berdasarkan kepada standar partisi kriteria dari karakter citra (Murthy and

Hanmandlu). Berikut adalah contoh implementasi zoning pada citra huruf.

Gambar 2.2 Implementasi metode zoning terhadap karakter ‘ক’ pada aksara

Dewanagari

(Sumber : Hussein et al, 2015)

2.3 Pengenalan pola (Pattern Recognition)

Pola adalah suatu susunan dari deskripsi. Istilah fitur sering kali digunakan di dalam

literatur pengenalan pola untuk menyimbolkan sebuah deskripsi. Sebuah kelas pola

(pattern class) adalah suatu kumpulan pola yang membagi properti bersama. Kelas

properti disimbolkan dengan 𝑤1, 𝑤2, 𝑤3,..., 𝑤𝑊, dimana 𝑊 adalah jumlah kelas.

Pengenalan pola dengan teknik pengembangan mesin digunakan untuk menentukan

pola untuk masing-masing kelasny secara otomatis dan dengan sedikit intervensi dari

manusia jika memungkinkan. (Gonzales & Woods, 2002)

UNIVERSITAS SUMATERA UTARA

Page 28: PENGOPTIMALAN AKURASI PENGENALAN POLA …

11

Wilayah dari pengenalan pola berkaitan dengan pendeteksian otomatis dari

ketetapan di dalam data melalui penggunaan dari algoritma komputer dan

menggunakan ketetapan tersebut untuk membuat aksi seperti mengklasifikasikan data

menjadi kategori yang berbeda. (Bishop, 2006)

Gambar 2.3 Contoh pola angka dengan tulisan tangan

(Sumber: Bishop, 2006)

2.4 Markov Random Field

2.4.1 Pengertian Markov Random Field

Markov Random Field (MRF) secara umum didefinisikan sebagai koleksi pixel pada

suatu kisi terbatas dengan dimensi D = n x m. Nilai masing-masing pixel diasumsikan

dengan kuantitas acak, dengan nilai-nilai yang terdistribusi secara uniform pada

kisaran Fi,j {0,1,2,...., L1}, dimana L adalah jumlah level pada suatu citra.

Gambar.1 menunjukkan suatu bidang acak, lingkaran yang kecil menggambarkan

lokasi pixel dengan nilai L Bidang konfigurasi didefinisikan sebagai SD dan

deskripsi secara statistik dari suatu citra yang dimodelkan akan menggambarkan

hubungan dari tiap pixel di atas kisi (Adi & Sukmono, 2006), yaitu

P(Fi,j= fi, j | Fk,l= fk,l D)

Dimana F adalah contoh bidang acak dan f adalah nilai yang diasumsikan

sebagai pixel. Untuk mendapatkan suatu representasi statistik dari citra, maka

probabilitas di atas D merupakan keseluruhan dari kisi dengan ukuran yang terbatas

pada D. Oleh karena itu perlu model markovian dari citra yang merupakan perluasan

UNIVERSITAS SUMATERA UTARA

Page 29: PENGOPTIMALAN AKURASI PENGENALAN POLA …

12

bidang dua dimensi dari satu dimensi proses markov, sehingga pemodelan citra

dengan cara ini membuat representasi secara statistik dari suatu citra akan lebih

mudah. (Adi & Sukmono, 2006)

Gambar 2.4 Contoh grid MRF

(Sumber : Adi & Sukmono, 2006)

Pada tahun 1993 oleh Regazzoni melakukan perbaikan citra dengan pendekatan

multilevel Gibbs-Markov Random Fields (GMRF) yang diaplikasikan untuk perbaikan

dan segmentasi citra. Kemudian pengembangan dari MRF dilakukan oleh Smith dan

Roberts dengan melakukan pendekatan Bayesian dengan menggunakan metoda Gibbs

Sampler dan MCMC. Pada penelitian ini dilakukan pengembangan fungsi sampling

secara acak dengan menggunkan metoda MCMC. Markov chain adalah generalisasi

pertama dari peristiwa bebas, probabilitas dari peristiwa pada waktu n + 1 merupakan

fungsi yang hanya menghasilkan peristiwa pada waktu n. Pada tahun 1994 penelitian

ini dikembangkan oleh mereka dengan melihat konvergensi dari algoritma

Metropolis-Hastings sebagai fungsi keputusan dari distribusi pixel untuk restorasi

citra. Pada tahun 1994 Belotsercovsky dkk melakukan pemulihan citra radar secara

stokastik dengan menggunakan transformasi fourier untuk mereduksi jumlah

gelombang. (Adi & Sukmono, 2006)

Proses restorasi citra secara stokastik terus mengalami banyak kemujuan

terutama dengan mengaplikasikan teknik MRF dan Monte Carlo untuk analisis pada

citra biner maupun gray scale. Kemudian pemrosesan informasi secara Bayesian

dengan menggunakan Reversible Jump Markov Chain Monte Carlo (MCMC)

dilakukan oleh Robert yang merupakan pengembangan dari metode MCMC. Metode

pengolahan citra secara stokastik mempunyai kelebihan dalam mengolah citra secara

probabilistik yang dapat dimanfaatkan untuk klasifikasi, segmentasi dan restorasi

citra. Teknik tersebut dilakukan dengan menggunakan metode MCMC sebagai fungsi

UNIVERSITAS SUMATERA UTARA

Page 30: PENGOPTIMALAN AKURASI PENGENALAN POLA …

13

sampling (Adi & Sukmono, 2006).

2.4.2 Markov Random Field untuk Restorasi

Banerjee et al. telah membuat penelitian berjudul “Contextual Restoration of Severaly

Degraded Document Images” yang membahas mengenai teknik restorasi

menggunakan algoritma Markov Random Field khusus untuk citra teks yang

terdegradasi (degraded) seperti dokumen yang terkena tinta, dokumen tua, dokumen

yang di foto copy, dokumen yang di scanning, dan lain-lain seperti yang terlihat

pada Gambar2.26. (Banerjee et al, 2009)

Gambar 2.5 Citra kiri adalah citra dokumen yang terdegradasi, Citra kanan adalah

Citra dokumen setelah direstorasi

(Sumber: Banerjee et al, 2009)

Langkah pertama pada penelitian ini yaitu citra dokumen akan dibagi menjadi

beberapa patch yang masing-masing patch-nya diberikan label, di-training

menggunakan data berkualitas baik, yang akan digunakan untuk menggantikan patch

pada citra terdegradasi seperti Gambar 2.26.

Gambar 2.6 Pembagian patch menggunakan teknik MRF pada citra “Tip”.

(Sumber: Banerjee et al, 2009)

UNIVERSITAS SUMATERA UTARA

Page 31: PENGOPTIMALAN AKURASI PENGENALAN POLA …

14

Langkah kedua adalah mencari patch pada data training yang paling sesuai

dengan masing-masing patch dari dokumen yang terdegradasi. Sebagai contoh pada

Gambar 2.6, patch x5 akan kita bandingkan dengan patch y5. Kalau hasilnya sesuai

selanjutnya akan bandingkan patch tetangga dari x5 yaitu x2, x4, x6 dan x8 dengan

patch tetangga dari y5 yaitu y2, y4, y6, dan y8. (Banerjee et al, 2009)

Sebagai hasilnya teknik restorasi menggunakan algoritma MRF mampu

memperbaiki contoh dokumen seperti Gambar 2.28.

(a)

(b)

(a) Citra dokumen terdegradasi

(b) Citra dokumen hasil restorasi

Gambar 2.7 Hasil restorasi dari citra dokumen terdegradasi

(Sumber: Banerjee et al, 2009)

2.5 Jaringan Saraf Biologi

Otak manusia berisi sekitar 10 milyar sel saraf atau neuron-neuron yang membentuk

jaringan dan berfungsi memproses informasi yang masuk. Sekumpulan neuron (saraf)

yang saling terhubung ini berfungsi untuk memberikan sebuah tanggapan atas sebuah

rangsangan yang mengenainya. Setiap rangsangan memiliki tanggapan-tanggapan

tersendiri dari sebuah neuron tersebut terhadap jenis rangsangan yang mengenainya.

(Fausett, 1994)

Sebuah neuron memiliki 3 tipe komponen yaitu dendrit (bagian yang menerima

rangsang dari axon), soma (badan sel saraf) dan axon (bagian sel yang berhubungan

dengan dendrit sel saraf lain dan membentuk simpul yang disebut sinapsis). Dendrit

dapat menerima banyak sinyal dari neuron lain. Sinyal adalah impuls listrik yang

dipancarkan menyebrangi celah sinapsis yang disebabkan proses kimia. Tindakan dari

pancaran proses kimia mengubah sinyal yang datang (secara khas, dengan penskalaan

UNIVERSITAS SUMATERA UTARA

Page 32: PENGOPTIMALAN AKURASI PENGENALAN POLA …

15

frekuensi sinyal yang diterima). Proses tersebut sama dengan sifat bobot dalam

jaringan saraf tiruan. (Fausett, 1994)

Soma, atau badan sel menjumlahkan sinyal yang datang. Ketika masukan cukup

diterima, sel menjadi aktif, saat itulah sel mengirimkan sinyal melaui axonnya ke sel

lain. Kejadian ini menimbulkan anggapan bahwa setiap sel saraf berada dalam

keadaan aktif atau tidak aktif, pada setiap satuan waktu. Sehingga pengiriman sinyal

dikenali sebagai kode biner. Kenyataannya, frekuensi dari keadaan aktif bervariasi,

sesuai dengan kekuatan sinyal yakni kuat atau lemah magnitudenya. Pencocokan

dengan kode biner ini dilakukan untuk menentukan tahap-tahap dalam tiap waktu

diskrit dan menjumlahkan semua aktivitas (sinyal diterima atau dikirim) pada tahap

tertentu berdasarkan satuan waktu. (Fausett, 1994)

Transmisi sinyal dari neuron tertentu disempurnakan dengan hasil kerja energi

potensial neuron yang disebabkan perbedaan konsentrasi ion-ion dari setiap sisi

sarung pelindung axon neuron (sumsum otak manusia). Ion-ion kebanyakan secara

langsung melibatkan zat-zat potassium, sodium dan klorida. (Fausett, 1994)

Beberapa fitur penting proses elemen dari jaringan saraf tiruan yang berasal dari

cara kerja jaringan saraf biologi (Fausett, 1994):

a. Elemen pemroses menerima beberapa sinyal.

b. Sinyal memungkinkan dimodifikasi oleh bobot pada sinapsis penerima.

c. Elemen pemroses menjumlahkan bobot input.

d. Dalam lingkungan yang sesuai (jumlah input yang sesuai), neuron

mengirimkan output tunggal.

e. Output dari neuron khusus memungkinkan dipindahkan ke beberapa neuron

lain (melalui cabang axon).

Fitur lain dari jaringan saraf buatan yang diadopsi dari jaringan saraf biologi

(Fausett, 1994) :

a. Pemrosesan informasi bersifat lokal (meskipun cara berbeda dalam proses

transmisi, seperti aksi beberapa hormon, memungkinkan penganjuran cara

control proses yang bersifat keseluruhan).

b. Memori terdistribusi :

1. Memori yang berjangka panjang berada dalam sinapsis neuron atau bobot.

2. Memori jangka pendek merespon sinyal kiriman oleh neuron.

UNIVERSITAS SUMATERA UTARA

Page 33: PENGOPTIMALAN AKURASI PENGENALAN POLA …

16

c. Kekuatan sinapsis dapat dimodifikasi oleh pengalaman.

d. Neuron pengirim untuk sinapsis mungkin bersifat pengeksitasi atau

penghambat.

Karakteristik penting lain jaringan saraf tiruan yang merupakan bagian dari

sistem saraf biologi adalah toleransi kesalahan/kekurangan data. Sistem saraf biologi

memiliki toleransi kesalahan dalam 2 aspek (Fausett, 1994):

a. Dapat mengenali banyak input sinyal yang beberapa diantaranya berbeda

dengan yang pernah dikenali sebelumnya. Sebagai contoh kemampuan

manusia untuk mengenali seseorang dari suatu gambaran atau mengenali

seseorang setelah periode yang lama.

b. Dapat menerima kerusakan ke dalam sistem saraf itu sendiri.

Gambar 2.8 Neuron Biologis

(Sumber : Fausett, 1994)

2.6 Jaringan Saraf Tiruan

Jaringan saraf tiruan pertama kali secara sederhana diperkenalkan oleh McCulloch dan

Pitts pada tahun 1943. McCulloch dan Pitts menyimpulkan bahwa kombinasi

beberapa neuron sederhana menjadi sebuah sistem neural akan meningkatkan

kemampuan komputasinya. Bobot dalam jaringan yang diusulkan oleh McCulloch dan

Pitts diatur untuk melakukan fungsi logika sederhana. Fungsi aktivasi yang dipakai

UNIVERSITAS SUMATERA UTARA

Page 34: PENGOPTIMALAN AKURASI PENGENALAN POLA …

17

adalah fungsi threshold. Artificial Neural Network atau Jaringan Saraf Tiruan (JST)

adalah salah satu cabang dari Artificial Intelligence. JST merupakan suatu sistem

pemrosesan informasi yang memiliki karakteristik -karakteristik menyerupai jaringan

saraf biologi (Fausett, 1994). Hal yang sama diutarakan oleh Simon Haykin, yang

menyatakan bahwa JST adalah sebuah mesin yang dirancang untuk memodelkan cara

otak manusia mengerjakan fungsi atau tugas - tugas tertentu (Haykin, 2009).

Sistem JST dicirikan dengan adanya proses pembelajaran (learning) yang

berfungsi untuk mengadaptasi parameter - parameter jaringannya. Neuron adalah unit

pemroses informasi yang menjadi dasar dalam pengoperasian JST. Neuron terdiri atas

tiga elemen pembentuk (Haykin, 2009):

a) Himpunan unit - unit yang dihubungkan dengan jalur koneksi.

b) Suatu unit penjumlah yang akan menjumlahkan input - input sinyal yang

sudah dikalikan dengan bobotnya.

c) Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan

diteruskan ke neuron lain atau tidak.

Pemrosesan informasi dalam JST secara singkat yaitu sinyal (baik berupa aksi

ataupun potensial) muncul sebagai masukan unit (sinapsis), efek dari tiap sinyal ini

dinyatakan sebagai bentuk perkalian dengan sebuah nilai bobot untuk

mengindikasikan kekuatan dari sinapsis. Semua sinyal yang diberi pengali bobot ini

kemudian dijumlahkan satu sama lain untuk menghasilkan unit aktivasi. Jika aktivasi

ini melampaui sebuah batas ambang tertentu maka unit tersebut akan memberikan

keluaran dalam bentuk respon terhadap masukan. Unit aktivasi ini kemudian

dibandingkan dengan sebuah nilai ambang, dan hasilnya dimasukkan kedalam fungsi

transfer (fungsi non - linier) yang akan menghasilkan sebuah keluaran. Secara ringkas

proses tersebut dapat digambarkan dalam gambar 2.22

UNIVERSITAS SUMATERA UTARA

Page 35: PENGOPTIMALAN AKURASI PENGENALAN POLA …

18

Gambar 2.9 Non-linier Neural Network

(Sumber :Haykin, 2009)

2.6.1 Arsitektur Jaringan Saraf Tiruan

Sifat di dalam mana neuron dari sebuah neural network dibangun sangatlah penting

dihubungkan dengan algoritma learning untuk melatih jaringan. Oleh karena itu kita

berbicara mengenai algoritma (aturan) didalam men-desain neural network secara

terstruktur. Secara umum kita bisa mengenal 3 jenis perbedaan mendasar dalam

arsitektur neural network (Haykin, 2009):

2.6.1.1 Jaringan Lapisan Tunggal Umpan Maju (Single Layer

Feedforward Network)

Di dalam sebuah lapisan jaringan saraf tiruan (JST), neuron diorganisasikan dalam

bentuk lapisan (layer). Dalam tampilan sederhana dari suatu lapisan jaringan, kita

memiliki lapisan input (input layer) dari node sumber yang diproyeksikan langsung ke

lapisan output (output layer) dari neuron (node komputasi), tetapi tidak sebaliknya.

Dengan kata lain, jaringan ini adalah bagian dari jenis feedforward (umpan maju). Di

dalam jaringan saraf tiruan ini disebut dengan single layer network, dengan sebutan

UNIVERSITAS SUMATERA UTARA

Page 36: PENGOPTIMALAN AKURASI PENGENALAN POLA …

19

“single layer” yang artinya mengarah kepada lapisan output dari node komputasi

(neurons). Berikut ilustrasi dari feedforward dengan lapisan tunggal.

Gambar 2.10 Jaringan lapisan tunggal

(Sumber : Haykin, 2009)

2.6.1.2 Jaringan Lapisan Jamak Umpan Maju (Multiple Layer

Feedforward Network)

Jenis kedua dari suatu jaringan saraf tiruan feedforward memedakan dirinya dengan

adanya satu atau lebih hidden layer (layer tersembunyi), yang node komputasi sama

dengan hidden neuron atau hidden units. Istilah “hidden” sesuai dengan kenyataan

dimana bagian dari neural network ini berada di antara lapisan input atau output.

Fungsi dari hidden neuron adalah untuk membantu lapisan input dan output dalam

menjalankan manfaat dari jaringan saraf tiruan. Dengan menambahkan satu atau lebih

hidden layer jaringan bisa mengekstrak lebih banyak angka-angka dari lapisan input.

Dengan istilah yang lebih ringan, jaringan memperoleh suatu perspektif global

meskipun dalam konektifitas lokal, sesuai dengan ektra koneksi dan ekstra dimensi

dari interaksi neuron.

Node sumber di dalam input layer dari jaringan meyuplai masing-masing elemen dari

pola aktivasi (vektor input), dimana merupakan sinyal input yang diaplikasikan ke

neuron (node komputasi) di dalam lapisan kedua (hidden layer pertama). Sinyal

output dari lapisan kedua akan digunakan sebagai input pada lapisan ketiga, begitu

UNIVERSITAS SUMATERA UTARA

Page 37: PENGOPTIMALAN AKURASI PENGENALAN POLA …

20

seterusnya sampai akhir jaringan. Berikut adalah ilustrasi dari jaringan multi layer

feedforward.

Gambar 2.11 Jaringan lapisan jamak dengan 1 unit hidden layer

(Sumber : Haykin, 2009)

2.6.1.3 Jaringan Berulang (Recurrent Network)

Sebuah reccurrent neural network membedakan dirinya dengan jaringan saraf tiruan

feedforward dengan memiliki paling sedikit satu perulangan feedback. Sebagai

contoh, suatu jaringan recurrent bisa terdiri dari satu lapisan tunggal dengan masing-

masing neuron memngirim sinyal output kembali ke semua neuron pada lapisan input.

Dalam struktur jaringan yang digambarkan pada gambar 17 tidak ada perulangan self-

feedback di dalam jaringan. Self-feedback berarti kepada situasi dimana output dari

suatu neuron dikembalikan kepada input itu sendiri. Berikut adalah ilustrasi dari

reccurent network tanpa lapisan tersembunyi (hidden layer) dan tanpa self-feedback.

UNIVERSITAS SUMATERA UTARA

Page 38: PENGOPTIMALAN AKURASI PENGENALAN POLA …

21

Gambar 2.12 Jaringan berulang tanpa perulangan self feedback

dan tanpa lapisan tersembunyi

(Sumber : Haykin, 2009)

Bentuk dari feedback loop, sangat berdampak kepada kemampuan learning dan

performansi dari jaringan. Selain itu, perulangan feedback mengakibatkan penggunaan

cabang tertentu menciptakan elemen delay unit-time (yang dinotasikan dengan 𝑍−1),

dimana dihasilkan di dalam suatu sifat non linear, mengasumsikan jaringan saraf

tiruan tersebut memiliki unit non-linier.

Gambar 2.13 Jaringan berulang memiliki perulangan self feedback

dan memiliki lapisan tersembunyi

(Sumber : Haykin, 2009)

UNIVERSITAS SUMATERA UTARA

Page 39: PENGOPTIMALAN AKURASI PENGENALAN POLA …

22

2.6.2 Proses Pembelajaran (Training dan Testing)

Fusett (1994) dalam kutipan Puspitaningrum (2006) menjelaskan terdapat dua tipe

pembelajaran dalan Jaringan Syaraf Tiruan , yaitu (Fusett, 1994):

1. Pembelajaran Terawasi (Supervised Learning)

Disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Pada

proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input.

Pola ini akan dirambatkan di sepanjang jaringan saraf hingga sampai ke neuron pada

lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya

akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola

output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila

nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih

banyak pembelajaran lagi. Terdapat berbagai tipe pembelajaran terawasi beberapa

diantaranya Hebb Rule, Perceptron, Delta Rule, Backpropagation, Heteroassociative

Memory, Bidirectional Associative Memory (BAM), Learning Vector Quantization

(LVQ).

2. Pembelajaran Tak Terawasi (Unsupervised Learning)

Pembelajaran tak terawasi tidak memerlukan target output dan tidak dapat

ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran.

Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu

tergantung pada nilai input yang diberikan. Tujuan pembelajaran ini adalah

mengelompokkan unit - unit yang hampir sama dengan suatu area tertentu.

Pembelajaran ini biasanya sangat cocok untuk pengelompokan (klasifikasi) pola.

Contohnya adalah jaringan kohonen (kohonen network).

2.7 Backpropagation

Salah satu metode pelatihan dalam NN adalah pelatihan terbimbing (supervised

learning). BPNN merupakan salah satu metode yang menggunakan supervised

learning. Pada pelatihan terbimbing diperlukan sejumlah masukan dan target yang

berfungsi untuk melatih jaringan hingga diperoleh bobot yang diinginkan. Pada setiap

kali pelatihan, suatu input diberikan ke jaringan, kemudian jaringan akan memproses

dan mengeluarkan keluaran. Selisih antara keluaran jaringan dengan target merupakan

UNIVERSITAS SUMATERA UTARA

Page 40: PENGOPTIMALAN AKURASI PENGENALAN POLA …

23

kesalahan yang terjadi, dimana jaringan akan memodifikasi bobot sesuai dengan

kesalahan tersebut. (Fausset, 1994)

Algoritma pelatihan Backpropagation Neural Network (BPNN) pertama kali

dirumuskan oleh Werbos dan dipopulerkan oleh Rumelhart dan Mc.Clelland (Hagan,

1996). Pada supervised learning terdapat pasangan data input dan output yang dipakai

untuk melatih JST hingga diperoleh bobot penimbang (weight) yang diinginkan.

Penimbang itu sendiri adalah sambungan antar lapis dalam JST. Algoritma ini

memiliki proses pelatihan yang didasarkan pada interkoneksi yang sederhana, yaitu

apabila keluaran memberikan hasil yang salah, maka penimbang dikoreksi agar galat

dapat diperkecil dan tanggapan JST selanjutnya diharapkan dapat mendekati nilai

yang benar. BPNN juga berkemampuan untuk memperbaiki penimbang pada lapis

tersembunyi (hidden layer). (Fausset, 1994)

Gambar 2.14: Lapis dan aliran sinyal dalam algoritma BPNN

Sumber : Fausset (1994)

Secara garis besar BPNN terdiri atas tiga lapis (layer) yaitu lapis masukan (input

layer) 𝑥𝑖, lapis tersembunyi (hidden layer) 𝑦𝑗 , dan lapis keluaran (output layer) 𝑧𝑘.

Lapis masukan dan lapis tersembunyi dihubungkan dengan penimbang wij dan antara

lapis tersembunyi dan lapis keluaran dihubungkan oleh penimbang 𝑤𝑗𝑘′ . Pada

dasarnya, metode pelatihan backpropagation terdiri dari tiga langkah, yaitu (Fausset,

1994) :

1) Data dimasukkan kedalam input node atau jaringan (feedforward);

2) Perhitungan dan propagasi balik dari error yang bersangkutan;

3) Pembaharuan (adjustment) bobot dan bias.

UNIVERSITAS SUMATERA UTARA

Page 41: PENGOPTIMALAN AKURASI PENGENALAN POLA …

24

Pada pelatihan BPNN, ketika JST diberi pola masukan sebagai pola pelatihan

maka pola tersebut akan menuju ke unit pada lapis tersembunyi untuk diteruskan pada

unit yang berada pada lapis keluaran. Keluaran sementara pada lapis tersembunyi 𝑢𝑘

akan diteruskan pada lapis keluaran dan lapis keluaran akan memberikan tanggapan

yang disebut sebagai keluaran sementara u’k. Ketika 𝑢𝑘′ ≠ 𝑜𝑘 dimana ok adalah target

yang diharapkan, maka selisih (error) keluaran sementara 𝑢𝑘′ akan disebarkan mundur

(backward) pada lapis tersembunyi dan diteruskan ke unit pada lapis masukan. Oleh

karena itu proses tersebut disebut propagasi balik (backpropagation) dimana tahap

pelatihan dilakukan dengan merubah penimbang yang menghubungkan unit dalam

lapis JST ketika diberi umpan maju dan umpan balik. (Fausset, 1994)

Untuk mempercepat proses pelatihan digunakan parameter laju pelatihan

(learning rate) yang nilainya berada pada kisaran 0-1. Selain parameter laju pelatihan,

untuk mempercepat proses pelatihan dapat digunakan parameter tambahan berupa

momentum yang nilainya dijaga antara 0.5 - 0.9. Ketika proses pelatihan selesai dan

JST dapat digunakan untuk menyelesaikan masalah, tahap tersebut disebut sebagai

tahap penggunaan yang disebut mapping atau pemetaan. (Fausset, 1994)

Algoritma pelatihan BPNN terdiri dari dua tahap, yaitu feedforward propagation

dan feed backward propagation. Untuk selengkapnya, notasi-notasi yang akan

digunakan pada algoritma BPNN adalah (Fausset, 1994):

x Input untuk training x = ( x1,…,xi,…,xn )

t Output target t = ( t1,…,tk,…,tm )

α Learning rate, yaitu parameter yang mengontrol perubahan bobot

selama pelatihan. Jika learning rate besar, jaringan semakin cepat

belajar, tetapi hasilnya kurang akurat. Learning rate biasanya

dipilih antara 0 dan 1

Unit input ke-i. untuk unit input, sinyal yang masuk dan keluar

pada suatu unit dilambangkan dengan variabel yang sama, yaitu

UNIVERSITAS SUMATERA UTARA

Page 42: PENGOPTIMALAN AKURASI PENGENALAN POLA …

25

Hidden unit ke-j. sinyal input pada dilambangkan dengan

. Sinyal output (aktivasi) untuk dilambangkan dengan

Bias untuk hidden unit ke-j

Bobot antara unit input ke-i dan hidden unit ke-j

Unit output ke-k. sinyal input ke dilambangkan . Sinyal

output (aktivasi) untuk dilambangkan dengan

Bias untuk unit output ke-k

Bobot antara hidden unit ke-j dan unit

output ke-k Faktor koreksi error untuk

bobot

Faktor koreksi error untuk bobot

Algoritma Pelatihan Backpropagation meliputi 3 fase, antara lain (Fausset, 1994):

1. Tahap umpan maju (feedforward)

Pola masukan dihitung maju mulai dari layar masukan hingga layar keluaran

menggunakan fungsi aktivasi yang ditentukan.

2. Tahap umpan mundur (backpropagation)

Selisih antara keluaran jaringan dengan target yang diinginkan merupakan

kesalahan yang terjadi. Kesalahan tersebut dipropagasikan mundur, dimulai dari

garis yang berhubungan langsung dengan unit - unit di layar keluaran

3. Tahap update bobot dan bias.

Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi.

Ketiga fase tersebut diulang - ulang terus hingga kondisi penghentian dipenuhi.

a. Fase I: Propagasi Maju

Selama propagasi maju, sinyal masukan (Xi) dipropagasikan ke layar

tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari setiap

unit layar tersembunyi ( Zj) tersebut selanjutnya dipropagasikan maju lagi ke

UNIVERSITAS SUMATERA UTARA

Page 43: PENGOPTIMALAN AKURASI PENGENALAN POLA …

26

layar tersembunyi di atasnya menggunakan fungsi aktivasi yang ditentukan.

Demikian seterusnya hingga menghasilkan keluaran jaringan ( yk). Berikutnya,

keluaran jaringan (yk) dibandingkan dengan target yang harus dicapai (tk).

Selisih tk - yk adalah kesalahan yang terjadi. Jika kesalahan ini lebih kecil dari

batas toleransi yang ditentukan, maka iterasi dihentikan. Akan tetapi apabila

kesalahan masih lebih besar dari batas toleransinya, maka bobot setiap garis

dalam jaringan akan dimodifikasi untuk mengurangi kesalahan yang terjadi.

b. Fase II: Propagasi Mundur

Berdasarkan kesalahan tk - yk, dihitung faktor δk (k = 1,2,..., m) yang dipakai

untuk mendistribusikan kesalahan di unit yk ke semua unit tersembunyi yang

terhubung langsung dengan yk. δk juga dipakai untuk mengubah bobot garis

yang berhubungan langsung dengan unit keluaran. Dengan cara yang sama,

dihitung faktor δ- di setiap unit di layar tersembunyi sebagai dasar perubahan

bobot semua garis yang berasal dari unit tersembunyi di layar di bawahnya.

Demikian seterusnya hingga semua faktor δ di unit tersembunyi yang

berhubungan langsung dengan unit masukan dihitung.

c. Fase III: Perubahan Bobot

Setelah semua faktor δ dihitung, bobot semua garis dimodifikasi bersamaan.

Perubahan bobot suatu garis didasarkan atas faktor δ neuron di layar atasnya.

Sebagai contoh, perubahan bobot garis yang menuju ke layar keluaran

didasarkan atas δk yang ada di unit keluaran. Ketiga fase terebut diulang-ulang

terus hingga kondisi penghentian dipenuhi. Umumnya kondisi penghentian yang

sering dipakai adalah jumlah iterasi atau kesalahan. Iterasi akan dihentikan jika

jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang

ditetapkan, atau jika kesalahan yang terjadi sudah lebih kecil dari batas toleransi

yang diijinkan. Algoritma propagasi balik menggunakan error output untuk

mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk

mendapatkan error ini, tahap perambatan maju (forward propagation) harus

dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron

diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :

xe

xf

1

1)(

UNIVERSITAS SUMATERA UTARA

Page 44: PENGOPTIMALAN AKURASI PENGENALAN POLA …

27

Adapun algoritma backpropagation adalah sebagai berikut : (Fausset, 1994) :

Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil).

Kerjakan langkah - langkah berikut selama kondisi berhenti bernilai FALSE:

1. Untuk tiap - tiap pasangan elemen yang akan dilakukan pembelajaran,

kerjakan :

Tahap I. Feedforward :

a. Tiap - tiap unit input (Xi, i=1,2,3,...,n) menerima sinyal xi dan meneruskan

sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan

tersembunyi).

b. Tiap - tiap unit tersembunyi (Zj, j=1,2,3,...,p) menjumlahkan sinyal -sinyal

input terbobot :

n

i

ijijj vxvinz1

0_

Gunakan fungsi aktivasi untuk menghitung sinyal outputnya :

Zj = f(z_inj)

Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit - unit

output).

c. Tiap - tiap unit output (Yk, k=1,2,3,...,m) menjumlahkan sinyal - sinyal

input terbobot.

p

i

jkikj wzwiny1

0_

Gunakan fungsi aktivasi untuk menghitung sinyal outputnya :

yk=f(y_ink)

Dan kirimkan sinyal tersebut ke semua unit dilapisan atasnya (unit - unit

output).

Tahap II. Backpropagation:

d. Tiap - tiap unit output (Yk, k=1,2,3,...,m) menerima target pola yang

berhubungan dengan pola input pembelajaran, hitung informasi error nya :

)_()( kkkk inyfyt

Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk

memperbaiki nilai wjk) :

jkjk zW

UNIVERSITAS SUMATERA UTARA

Page 45: PENGOPTIMALAN AKURASI PENGENALAN POLA …

28

Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki

nilai w0k ) :

kkw 0

Kirimkan k ini ke unit-unit yang ada dilapisan bawahnya.

e. Tiap - tiap unit tersembunyi (Zj, j=1,2,3,...,p) menjumlahkan delta input-nya

(dari unit-unit yang berada pada lapisan diatasnya) :

m

i

jkkj win1

_

Kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung

informasi error :

)_(_ jjj inzfin

Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk

memperbaiki nilai vij):

ijjk xv

Kemudian hitung koreksi bias (yang nantinya akan digunakan untuk

memperbaiki nilai v0j):

jjv 0

f. Tiap - tiap unit output (Yk, k=1,2,3,...,m) memperbaiki bias dan bobotnya

(j=0,1,2,...,p):

jkjkjk wlamawbaruw )()(

Tiap-tiap unit tersembunyi (Zj, j=1,2,3,...,p) memperbaiki bias dan bobotnya

(i=0,1,2,...,n)

2. Cek Kondisi berhenti berdasarkan error atau epoch.

ijijij wlamavbaruv )()(

UNIVERSITAS SUMATERA UTARA

Page 46: PENGOPTIMALAN AKURASI PENGENALAN POLA …

29

2.8 Penelitian Terkait

Dalam melaksanakan penelitian ini, penulis memanfaatkan beberapa penelitian terkait

sebagai latar belakang dan referensi penulis. Adapun penelitian-penelitian tersebut

diterakan pada tabel 2.1.

Tabel 2.1 Penelitian Terkait

No Judul Nama Peneliti

dan Tahun

Penelitian

Metode Yang

Digunakan

Hasil Penelitian

1. Contextual

Restoration of

Severely

Degraded

Document Image

Jyotirmoy

Banerjee,

Anoop M.

Namboodiri,

and C.V.

Jawahar

(2009)

Markov Random

Field (MRF)

Teknik restorasi

khusus pada citra

teks ter-degradasi

2. Mobile OCR

Using Centroid to

Boundary and

Backpropagation

Neural Network

Bakti Anugrah

Pratama,

Tjokorda

Agung Budi

W, Kurniawan

Nur R,

Febryanti

Sthevanie

(2015)

Centroid to

Boundary,

Backpropagation

Teknik Ekstraksi

Fitur (Centroid to

Boundary)

menghasilkan data

input untuk

pengenalan pola

Backpropagation

3. Neural Networks

and Machine

Learning for

Pattern

Recognition

Shyla Afroge,

Boshir Ahmed,

Firoz Mahmud

(2015)

Decision Tree

(Machine

Learning),

Backpropagation

Perbandingan

akurasi antara

Decision Tree

dengan

Backpropagation

dalam melakukan

Pengenalan Pola

Huruf (A-Z).

UNIVERSITAS SUMATERA UTARA

Page 47: PENGOPTIMALAN AKURASI PENGENALAN POLA …

30

4. OCR-ANN

BackPropagation

Based Classifier

Asmaa Qasim

Shareef,

Sukaina M.

Altayar (2016)

Backpropagation Pengenalan pola

karakter (Optical

Character

Recognition)

Bakcpropagation

dengan

mengkombinasikan

beberapa teknik

pengolahan citra

(pre-processing).

5. Optical Character

Recognition using

Backpropagation

Neural Network

Shyla Afroge,

Boshir Ahmed,

Firoz Mahmud

(2016)

Backpropagation Pengenalan pola

karakter (OCR)

pada citra engan

background

ber-noise.

2.9 Perbedaan Penelitian

Penelitian ini berfokus dalam membandingkan tingkat akurasi pengenalan pola

Backpropagation pada citra huruf yang terdegradasi (ber-noise atau tidak lengkap).

Perbandingan akurasi akan didapatkan dari pengenalan pola citra huruf terdegradasi

yang sudah melalui tahapan restorasi Markov Random Field (MRF) dengan yang

belum melalui tahapan restorasi Markov Random Field (MRF).

UNIVERSITAS SUMATERA UTARA

Page 48: PENGOPTIMALAN AKURASI PENGENALAN POLA …

BAB 3

METODOLOGI PENELITIAN

3.1 Tahapan proses

Adapun tahapan proses pada pengerjaan aplikasi ini adalah :

1 Proses Noise Filtering

2 Proses Binerisasi

3 Proses Segmentasi Karakter (Cropping )

4 Proses Restorasi Huruf

5 Proses Resizing

6 Proses Ekstraksi Pola

7 Proses Algoritma Backpropagation

3.2 Proses Noise Filtering

Proses noise filtering bertujuan untuk membersihkan citra dari pixel - pixel yang tidak

dibutuhkan atau derau (noise) yang mengakibatkan terganggunya data-data yang

terkandung di dalam citra. Salah satu metode noise filtering yang dapat digunakan

yaitu metode pixel neighborhood. Pixel neighborhood merupakan istilah dalam image

processing yang artinya pixel tetangga. Maksud dari pixel tetangga ini adalah pixel

yang terdapat di sekeliling pixel yang akan diproses. Penggunaan pixel - pixel lain

yang ada di sekeliling suatu pixel yang akan diproses ini bertujuan untuk membuat

nilai dari pixel yang berada di tengah - tengah pixel lainnya tersebut menjadi berubah

sesuai dengan keinginan user. Matriks pixel neighborhood ada yang memakai model

rectangle juga ada yang memakai model star. Tetapi, yang paling sering digunakan

adalah model rectangle seperti yang terlihat pada gambar 3.1 dibawah ini.

UNIVERSITAS SUMATERA UTARA

Page 49: PENGOPTIMALAN AKURASI PENGENALAN POLA …

32

P1 P2 P3

P4 P5 P6

P7 P8 P9

Gambar 3.1 Rectangle Filter 3x3

Pada gambar 3.1, P1 sampai P9 adalah sekumpulan pixel yang terdapat pada

sebuah matriks citra berukuran 3x3. Dimana pusat matriks citra berada pada pixel P5

dan pixel yang ada disekitarnya disebut sebagai pixel tetangga (pixel neighborhood).

Setiap pixel (P1-P9) mengandung komponen warna Red, Green dan Blue dengan nilai

antara 0 sampai 255. Proses noise filtering menggunakan metode neighborhood dapat

dilihat pada contoh matriks citra RGB dengan ukuran 3x3 di bawah ini.

Langkah awal dari proses noise filtering yaitu memisahkan nilai masing-masing

komponen warna (RGB) untuk keseluruhan pixel pada matriks citra. Ilustrasi

pemisahan nilai komponen warna dapat dilihat pada matriks di bawah ini:

Red Green Blue

Setelah nilai komponen warna dipisahkan, maka kita akan mencari nilai rata-rata

dari setiap komponen warnanya menggunakan mean filtering. Proses pencarian nilai

rata-rata menggunakan mean filtering adalah sebagai berikut:

R=(0+0+0+0+255+0+0+0+0)/9 = 255/9 = 28,3 = 28

G=(0+0+0+0+0+0+0+0+0)/9 = 0/9 = 0

B=(255+255+255+255+0+255+255+255+255)/9 = 2040/9 = 226,7 = 226

Hasil yang diperoleh dari perhitungan nilai rata-rata komponen warna (RGB)

akan menggantikan nilai RGB pada piksel P5 (pixel pusat):

P1(0, 0, 255) P2(0, 0, 255) P3(0, 0, 255)

P4(0, 0, 255) P5(255, 0, 0) P6(0, 0, 255)

P7(0, 0, 255) P8(0, 0, 255) P9(0, 0, 255)

UNIVERSITAS SUMATERA UTARA

Page 50: PENGOPTIMALAN AKURASI PENGENALAN POLA …

33

Setelah dilakukan mean filtering, maka pixel P5 yang awalnya memiliki nilai

Red = 255, Green = 0 dan Blue = 0 kini berubah menjadi Red = 28, Green = 0, dan

Blue = 226. Sehingga terbentuklah nilai matriks baru seperti pada gambar 3.2.

Gambar 3.2 Contoh Hasil Penerapan Noise Filtering Neighborhood

Algoritma proses noise filtering untuk membersihkan atau mereduksi noise

pada citra adalah sebagai berikut:

1. Input citra

2. Untuk X = 0 sampai tinggi_piksel – 1, lakukan :

a. Untuk Y = 0 sampai lebar_gambar – 1, lakukan :

i. Ambil nilai piksel pada posisi (X, Y) beserta piksel tetangga.

ii. Hitung RGB dengan membagi total nilai pada RGB pada matrik citra dibagi

dengan banyak piksel. Simpan nilai perhitungan kedalam sebuah variable.

iii. Ubah nilai piksel pada posisi (X, Y) dengan nilai variable.

3. Tampilkan citra hasil reduksi noise dengan filter neighborhood.

3.3 Proses Binerisasi

Proses binerisasi merupakan suatu proses pengubahan nilai - nilai pixel citra RGB

menjadi citra hitam putih (biner). Untuk mendapatkan citra biner, maka kita harus

melakukan proses greyscale terlebih dahulu. Adapun langkah-langkah untuk

melakukan binerisasi adalah sebagai berikut:

1. Ambil nilai RGB dari setiap pixel.

2. Selanjutnya kita masuk ke proses greyscale. Untuk melakukan proses

greyscale maka hitung dengan rumus:

greyscale = R + G + B / 3

3. Setelah mendapatkan nilai greyscale, lakukan proses binerisasi dengan cara

membandingkan dengan nilai threshold yang nilai defaultnya adalah 128.

- Jika nilai greyscale < 128, maka set nilai RGB dari pixel tersebut dengan

R= 0, G= 0 dan B= 0.

- Dan jika nilai greyscale < 128, maka set nilai RGB dari pixel tersebut

dengan R= 255, G= 255 dan B= 255.

P1(0, 0, 255) P2(0, 0, 255) P3(0, 0, 255)

P4(0, 0, 255) P5(28, 0, 226) P6(0, 0, 255)

P7(0, 0, 255) P8(0, 0, 255) P9(0, 0, 255)

UNIVERSITAS SUMATERA UTARA

Page 51: PENGOPTIMALAN AKURASI PENGENALAN POLA …

34

Untuk mengubah nilai pixel RGB menjadi pixel biner dilakukan tahapan seperti

contoh di bawah ini.

Misalkan terdapat sebuah pixel P1 dengan nilai RGB-nya adalah R=120, G=250

dan B=225. Untuk mengubah nilai pixel RGB menjadi pixel biner dilakukan tahapan

seperti di bawah ini :

- Hitung nilai greyscale

greyscale = R + G + B / 3

greyscale = 120 + 250 + 255 / 3 = 198,3 = 198

- Bandingkan, apakah nilai greyscale (198) > threshold (128)?

- Karena nilai greyscale lebih besar dari threshold, maka ganti nilai RGB

pada pixel P1 menjadi R=255, G=255 dan B=255

Adapun algoritma lengkap untuk proses binerisasi adalah sebagai berikut:

1. Input citra.

2. Untuk X = 0 sampai tinggi_piksel – 1, lakukan :

a. Untuk Y = 0 sampai lebar_gambar – 1, lakukan :

i. Ambil nilai piksel pada posisi (X, Y).

ii. Jumlahkan nilai piksel RGB dan dibagi dengan tiga. Simpan hasil

perhitungan kedalam sebuah variabel sementara.

iii. Cek apakah hasil perhitungan ≥ 128, jika benar set nilai variabel menjadi

255 dan jika salah set nilai variabel menjadi 0.

iv. Ubah nilai piksel pada posisi (X, Y) dengan nilai variabel

3. Tampilkan citra hasil binerisasi.

3.4 Proses Cropping

Proses segementasi karakter (crooping) adalah proses yang digunakan untuk

memisahkan karakter huruf pada citra yang akan digunakan untuk data pelatihan dan

data pengujian. Proses segmentasi dibagi menjadi 3 tahap yaitu proses segmentasi

secara vertikal, proses segmentasi secara horizontal dan proses pemotongan citra.

Maka algoritma untuk pemisahan karakter adalah sebagai berikut:

P1

UNIVERSITAS SUMATERA UTARA

Page 52: PENGOPTIMALAN AKURASI PENGENALAN POLA …

35

a. Proses segementasi vertikal dilakukan dengan cara menghitung jumlah pixel

hitam pada posisi X dan pixel hitam pada posisi X-1 dari awal sampai lebar.

Jika jumlah hitam pada pixel X > 0 dan jumlah pixel hitam pada posisi X-1 =

0, maka pixel X adalah kiri. Jika jumlah hitam pada pixel X = 0 dan jumlah

pixel hitam pada posisi X-1 > 0, maka pixel X-1 adalah kanan. Hasil

penelusuran secara vertikal seperti terlihat pada gambar 3.5 dibawah ini.

Gambar 3.3 Hasil Croping Secara Vertikal

b. Setelah posisi kiri dan kanan pada citra ditemukan lakukan segmentasi secara

horizontal dengan cara menghitung jumlah pixel hitam pada posisi Y dan

jumlah pixel hitam pada posisi Y-1 dari kiri sampai kanan. Jika jumlah hitam

pada pixel Y > 0 dan jumlah hitam pada pixel Y-1 = 0, maka Y adalah atas.

Jika jumlah pixel Y = 0 dan jumlah pixel Y-1 > 0, maka pixel Y – 1 adalah

bawah. Hasil penelusuran seperti terlihat pada gambar 3.6 dibawah ini:

Gambar 3.4 Hasil Croping Secara Horizontal

c. Jika posisi kiri, kanan, atas dan bawah didapatkan, ambil semua pixel dari

posisi kiri ke kanan dan dari atas ke bawah. Setelah itu pindahkan semua

pixel kedalam citra baru dengan jumlah pixel yang sama dengan jumlah pixel

yang sudah diambil. Hasil crop secara vertikal dan horizontal ini akan

menghasilkan gambar satu karakter untuk setiap cropping seperti terlihat

pada gambar 3.7 dibawah ini:

Gambar 3.5 Hasil Satu Karakter Untuk Setiap Cropping

Algoritma proses segmentasi dan pengenalan karakter adalah sebagai berikut.

Algoritma ini akan memenggal setiap karakter, dengan memeriksa batas warna putih

antar karakter. Setiap piksel hitam yang bersambung akan dianggap sebagai 1

karakter. Hasil pemisahan karakter ini akan diekstraksi polanya dan kemudian

dikenali dengan menggunakan algoritma Backpropagation.

UNIVERSITAS SUMATERA UTARA

Page 53: PENGOPTIMALAN AKURASI PENGENALAN POLA …

36

A. Algoritma proses segmentasi secara vertikal adalah sebagai berikut :

1 Input citra biner

2 a. Set array left(100), right (100), top (100), bottom (100)

b. Set kiri = 0, kanan = 0, atas = 0, bawah = 0

c. Set jumlah_huruf = 0

d. Set hitam = false, putih = false

3 Untuk perulangan X = 0 sampai lebar_citra – 1, lakukan :

a. Set jumlah_hitam1 = 0, jumlah_hitam2 = 0

b.Untuk perulangan Y = 0 sampai tinggi_citra -1, lakukan :

i.Set prev_piksel = piksel(X-1, Y), piksel = piksel(X, Y)

ii.Hitung Tmp1 = (Red(X, Y). + Green(X, Y) + Blue(X, Y)) / 3 < 150, maka

set jumlah_hitam1 = jumlah_hitam1 + 1.

iii. Hitung Tmp2 = (Red(X-1, Y). + Green(X-1, Y) + Blue(X-1, Y)) / 3 < 150,

maka set jumlah_hitam2 = jumlah_hitam2 + 1.

c. Jika jumlah_hitam1 ≥ 1 dan jumlah_hitam2 = 0, maka hitam= true dan kiri =

X

d.Jika jumlah_hitam1 = 0 dan jumlah_hitam2 ≥1, maka putih = true dan kanan=

X

e. Jika hitam = true dan putih = true, maka set :

- Left(jumlah_huruf) = kiri

- Right(jumlah_huruf ) = kanan

- Jumlah_huruf = jumlah_huruf + 1

- Hitam = false, putih = false

B. Algoritma proses segmentasi secara horizontal adalah sebagai berikut:

1. Input Citra biner

2. Untuk perulangan J = 0 sampai jumlah_huruf - 1, lakukan :

a. Untuk perulangan Y = 0 sampai tinggi_citra -1, lakukan :

i. Set jumlah_hitam1 = 0, jumlah_hitam2 = 0

ii. Untuk perulangan X=left(J) sampai right (J), lakukan :

1) Set prev_piksel = piksel(X, Y-1), piksel = piksel(X, Y)

2) Hitung Tmp1 = (Red(X, Y). + Green(X, Y) + Blue(X, Y)) / 3 < 150,

maka

set jumlah_hitam1 = jumlah_hitam1 + 1.

UNIVERSITAS SUMATERA UTARA

Page 54: PENGOPTIMALAN AKURASI PENGENALAN POLA …

37

3) Hitung Tmp2 = (Red(X, Y-1). + Green(X, Y-1) + Blue(X, Y-1)) / 3 <

150

maka set jumlah_hitam2 = jumlah_hitam2 + 1.

iii. Jika jumlah_hitam1 >= 1 dan jumlah_hitam2 = 0, maka hitam= true dan

atas = Y

iv. Jika jumlah_hitam1 = 0 dan jumlah_hitam2 >= 1, maka putih = true dan

bawah =Y

v. Jika hitam = true dan putih = true, maka set :

- Top(J) = atas

- Bottom(J) = bawah

- Hitam = false, putih = false

vi. Untuk perulangan K = 0 sampai jumlah_huruf -1, lakukan :

1) Crop gambar dengan membentuk sebuah citra baru dalam bentuk

rectangle dengan fungsi VB.Net dengan posisi (Left(K), Up(K),

Right(K) – Left (K), Bottom (K) – Up(K))

3.5 Proses Restorasi Huruf

Proses restorasi huruf merupakan salah satu kunci untuk pengoptimalan pengenalan

pola menggunakan alogritma Neural Network. Jika citra huruf sudah direstorasi, maka

pola huruf akan kembali seperti aslinya tanpa ada noise. Proses ini bertujuan untuk

mengoptimalkan tingkat akurasi pada saat proses pengenalan pola.

Restorasi pada penelitian ini dilakukan secara per-huruf. Teknik Restorasi yang

digunakan yaitu Markov Random Field (MRF). Untuk melakukan restorasi ini, kita

membutuhkan data citra huruf yang berkualitas baik sebagai bahan perbandingan

kalau citra huruf yang berkualitas buruk identik dengan huruf apa pada citra yang

berkualitas baik. Adapun algoritmanya adalah sebagai berikut :

1. Bagilah setiap citra huruf menjadi patch 3 x 3.

2. Berilah setiap label untuk masing-masing patchnya mulai dari x1 sampai x9.

3. Bandingkan citra yang akan direstorasi dengan citra pada data learning, dengan

cara menghitung nilai MAP terhadap data learningnya yang disimbolkan dengan:

UNIVERSITAS SUMATERA UTARA

Page 55: PENGOPTIMALAN AKURASI PENGENALAN POLA …

38

4. Ganti (generate) patch citra yang berkualitas buruk dengan patch citra yang

memiliki nilai MAP paling tinggi.

3.6 Proses Resizing Image

Proses resizing merupakan proses perubahan ukuran citra yang sudah di crooping

menjadi citra dengan ukuran yang sudah ditentukan yaitu 10 x 10 piksel. Proses

resizing bertujuan untuk menetapkan ukuran dari citra yang akan di latih dan citra

yang akan diuji sehingga hasil pengujian dari citra tidak akan keliru. Proses resizing

dilakukan dengan memanfaatkan fungsi yang sudah ada di dalam VB.Net yaitu

dengan cara memindahkan citra hasil crooping kedalam citra baru dengan ukuran 10 x

10 pixel. Gambar hasil resizing setelah dilakukan crooping terlihat paada gambar 3.10

berikut ini.

(a). Citra awal (b). Citra setelah di resizing

Gambar 3.6 Citra Hasil Resizing

Algoritma proses resizing image adalah sebagai berikut:

1. Input citra huruf yang sudah di crooping.

2. Sediakan citra baru dengan ukuran 10 x 10 piksel.

3. Gambarkan citra huruf kedalam citra baru dengan menggunakan fungsi pada

VB.Net.

4. Set citra baru menjadi citra hasil resizing.

3.7 Proses Ekstraksi Pola

Ekstraksi pola merupakan salah satu cara untuk mengenali karakter dengan melihat

ciri – ciri khusus yang dimiliki oleh karakter tersebut. Tujuan dari proses ini adalah

untuk memberi kode yang berbeda pada setiap karakter sehingga karakter yang satu

dengan karakter yang lain dapat dipisahkan berdasarkan kode yang dimilikinya.

Proses ekstraksi pola adalah pengubahan pola atau ciri karakter menjadi sebuah nilai

digital (angka). Caranya adalah sebagai berikut:

UNIVERSITAS SUMATERA UTARA

Page 56: PENGOPTIMALAN AKURASI PENGENALAN POLA …

39

1. Dari gambar yang sudah di resizing menjadi ukuran 10 x 10 pixel, periksa jumlah

pixel hitam dan pixel putih pada masing-masing pixel.

2. Bila jumlah pixel hitam ≥ jumlah pixel putih, maka posisi pixel tersebut dijadikan

hitam dan set nilai posisi = 1.

3. Bila tidak, maka warna pixel pada posisi tersebut dijadikan putih dan set nilai

posisi = 0.

4. Simpan semua nilai posisi tersebut kedalam sebuah array.

Contoh proses ekstraksi pola adalah sebagai berikut:

Gambar 3.7 Proses Ekstraksi Pola

Algoritma proses ekstraksi pola adalah sebagai berikut:

1. Input citra huruf yang sudah di resize

2. Set Array Input(99), set n = 0

3. Untuk perulangan Y= 0 sampai tinggi_citra-1, lakukan :

a. Untuk perulangan X sampai lebar_citra-1, lakukan :

i. Piksel = piksel(X, Y)

ii. Jika, Temp = R(X,Y) + G(X,Y) + B(X,Y) / 3 >= 150 maka Input(n) =

0. Selain itu Input(n) = 1.

iii. n = n + 1

4. Data_ekstraksi = Join(input(n))

3.8 Proses Algoritma Backpropagation

Algoritma backpropagation digunakan untuk mengenali hasil ekstraksi pola dari

huruf. Proses ini terdiri dari fase pelatihan dan pengujian.

3.8.1 Fase Pelatihan

Fase pelatihan adalah proses dimana setiap ciri atau pola huruf dilatih dan hasil

perhitungan bobot sisimpan ke database untuk digunakan pada fase pengujian.

Secara ringkas, fase pelatihan backpropagation adalah sebagai berikut:

UNIVERSITAS SUMATERA UTARA

Page 57: PENGOPTIMALAN AKURASI PENGENALAN POLA …

40

0. Inisiasi nilai awal

a. Isi nilai bobot (v dan w) dengan nilai acak yang kecil.

b. Tentukan learning rate (α)

c. Set maksimum epoh atau toleransi error. Perulangan akan berhenti bila

epoh mencapai maksimum epoh atau kuadrat error berada dibawah

toleransi error.

1. Tahap Propagasi Maju (Feedforward)

a. Tiap unit masukan menerima sinyal dan meneruskan sinyal tersebut ke

semua unit tersembunyi diatasnya.

b. Hitung semua keluaran di unit tersembunyi (Zj, j=1,2,3,...,p)

n

i

jiijj vxvnetz1

0_

Zj = f(z_netj) = 1

1 +𝑒−𝑧_𝑛𝑒𝑡𝑗

c. Hitung semua keluaran jaringan di unit output (Yk,k=1,2,3,...,m)

p

i

kjjkk wzwnety1

0_

yk=f(y_netk) = 1

1 +𝑒−𝑧_𝑛𝑒𝑡𝑘

2. Propagasi Mundur (Backpropagation)

a. Hitung faktor δ unit keluaran berdasarkan kesalahan di setiap unit

keluaran 𝑦𝑘 (k = 1, 2, … , m).

)_()( kkkk inyfyt (t𝑘 − y𝑘) y𝑘(1 − y𝑘)

δ𝑘 merupakan unit kesalahan yang akan dipakai dalam perubahan bobot

layar dibawahnya. Hitung suku perubahan bobot w𝑘𝑗(yang akan dipakai

nanti untuk merubah bobot w𝑘𝑗) dengan laju percepatan α.

jkkj zW ; k = 1, 2,…, m ; j = 0, 1,…, p

b. Hitung faktor δ unit tersembunyi berdasarkan kesalahan di setiap unit

tersembunyi z𝑗 (j = 1, 2, … , p).

m

k

kjkj wnet1

_

Faktor unit tersembunyi :

)1(_)_(_ jjjjjj zznetnetzfnet

UNIVERSITAS SUMATERA UTARA

Page 58: PENGOPTIMALAN AKURASI PENGENALAN POLA …

41

Hitung suku perubahan bobot 𝑣𝑗𝑖(yang akan dipakai nanti untuk merubah

bobot 𝑣𝑗𝑖).

ijji xv ; j = 1, 2,…, p ; i = 0, 1,…, n

3. Perubahan Bobot

a. Hitung perubahan bobot garis yang menuju ke unit keluaran :

w𝑗𝑘(𝑏𝑎𝑟𝑢) = W𝑗𝑘(𝑙𝑎𝑚𝑎) + Δw𝑗𝑘

(k = 1, 2,…, m ; j = 0, 1,…, p)

b. Hitung perubahan bobot garis yang menuju unit tersembunyi :

v𝑖𝑗(𝑏𝑎𝑟𝑢) = v𝑖𝑗(𝑙𝑎𝑚𝑎) + Δv𝑖𝑗

(j = 1, 2,…, p ; i = 0, 1,…, n)

c. Tes kondisi berhenti, bila epoch mencapai maksimum epoch atau kuadrat

error < target error.

Dengan demikian, untuk setiap epoh (perulangan) akan terjadi hal berikut:

1 Tahap feedforward : update semua nilai neuron, z dan kemudian nilai y.

2 Tahap backpropagation :hitung nilai error w dan v.

3 Tahap updatebobot : ubah nilai bobot garis w dan v.

Hasil perhitungan bobot w dan bobot v akan dihitung dan disimpan kedalam

database untuk digunakan dalam fase pengujian.

Algoritma proses backpropagation terbagi atas 3 proses, yaitu proses inisialisasi

nilai awal, proses pelatihan dan proses pengujian. Sebelum menjalankan proses

pelatihan atau proses pengujian, proses inisialisasi nilai awal harus dijalankan terlebih

dahulu untuk mengisi nilai bias dan nilai awal bobot dengan nilai acak antara -0.5

sampai 0.5.

Nilai awal untuk proses backpropagation di-set secara default sebagai berikut:

1. Set n = 100(banyaknya lapisan input)

2. Set p = 50 (banyaknya lapisan tersembunyi).

3. Set m = 10 (banyaknya lapisan output)

4. Set limit = 0.002

5. Set alpha = 0.2

6. Set MaxEpoh = 1000

a. Algoritma proses inisialisasi awal untuk mengacak bobot

backpropagation adalah sebagai berikut:

UNIVERSITAS SUMATERA UTARA

Page 59: PENGOPTIMALAN AKURASI PENGENALAN POLA …

42

1. Buka recordset pola huruf.

2. Set nData = jumlah record huruf di dalam database.

3. Bentuk array bit inputX(nData, n).

4. Bentuk array bit outputT(nData, m).

5. Untuk i = 1 sampai n Data, lakukan hal berikut:

a. Set Atemp = bit input dari huruf ke-i.

b. Untuk j = 1 sampai 100, set nilai X(i,j) = Atemp(j).

c. Set Atemp = bit output dari huruf ke-i.

d. Untuk k = 1 sampai m, set nilai T(i,k) = Atemp (k).

e. Majukan pointerke record berikutnya.

6. Bentuk array bobot V(n,p).

7. Untuk i = 0 sampai n dan untuk j = 1 sampai p, set V(i,j) = nilai acak dari -

0.5 sampai 0.5.

8. Bentuk array bobot W(p, m).

9. Untuk j = 0 sampai p dan untuk k =1 sampai m, set W(j,k) = nilai acak dari

-0.5 sampai 0.5.

b. Algoritma proses pelatihan metode backpropagation adalah sebagai

berikut:

1. Bentuk array z_in(p)

2. Bentuk array z(p)

3. Bentuk array y_in(m)

4. Bentuk array Y(m)

5. Bentuk array Delta(m)

6. Bentuk array DeltaW(p,m)

7. Bentuk array Delta_in(p)

8. Bentuk array Delta2(p)

9. Bentuk array DeltaV(n, p)

10. Set Epoh =0.

11. Set KuadratError = 1.

12. Set bKuadratError = (KuadratError <= Limit).

13. Selama (Epoh < MaxEpoh) dan Not(bKuadratError), maka lakukan hal

berikut:

a. Set Epoh = Epoh + 1.

UNIVERSITAS SUMATERA UTARA

Page 60: PENGOPTIMALAN AKURASI PENGENALAN POLA …

43

b. Untuk D = 1 sampai nData, lakukan hal berikut:

c. Untuk j = 1 sampai p, lakukan hal berikut:

1. Set nTemp1 = 0

2. Untuk i =1 sampai n, set nTemp1 = nTemp1 + X(D, i) * V(i,j).

3. Set z_in(j) = V(0,j) + Math.Round(nTemp1, 4).

4. Set z(j) = Aktivasi(z_in(j)).

d. Untuk k =1 sampai m, lakukan hal berikut:

1. Set nTemp1 = 0

2. Untuk j =1 sampai p, set nTemp1= nTemp1 + z(j) * W(j,k).

3. Set y_in(k) = W(0, k) + Math.Round(nTemp1, 4).

4. Set Y(k) = Aktivasi(y_in(k)).

e. Untuk k = 1 sampai m, lakukan hal berikut:

1 Set Delta(k) =Math.Round(T(D,k) – Y(k)) * Aktivasi(y_in(k)) * (1-

Aktivasi(y_in(k))), 4).

2 Set KuadratError = Delta(k)^2

3 Set bKuadratError = bKuadratError And (KuadratError <= limit).

f. Untuk j =1 sampai p, lakukan hal berikut:

Untuk k = 1 sampai m, set DeltaW(j , k) = Math.Round(alpha * Delta(k)

* z(j), 4).

g. Untuk k = 1 sampai m, maka set DeltaW(0, k) = Math.Round(alpha *

Delta(k), 4).

h. Untuk j =1 sampai p, lakukan hal berikut:

1. Set nTemp1 = 0

2. Untuk k = 1 sampai m, set nTemp1 = nTemp1 + Delta(k) * W(j,k).

3. Set Delta_in(j) = Math.Round(nTemp1, 4).

4. Set Delta2(j) = Math.Round(Delta_in(j) * Aktivasi(z_in(j)) * (1-

Aktivasi(z_in(j))), 4).

i. Untuk i = 1 sampai n, lakukan hal berikut:

Untuk j = 1 sampai p, set DeltaV(i,j) = alpha * Delta2(j) * X(D,i)

j. Untuk j =1 sampai p, set DeltaV(0,j) = alpha * Delta2(j).

k. Untuk j =1 sampai p, lakukan hal berikut:

Untuk k =1 sampai m, set W(j,k)= W(j,k) + DeltaW(j,k)

l. Untuk i = 1 sampai n, lakukan hal berikut:

UNIVERSITAS SUMATERA UTARA

Page 61: PENGOPTIMALAN AKURASI PENGENALAN POLA …

44

Untuk j = 1 sampai p, set V(i,j) = V(i,j) + DeltaV(i,j)

14. Simpan semua bobot pelatihan W dan V kedalam database.

c. Algoritma proses pengujian metode backpropagation adalah sebagai

berikut:

1. Bentuk array z_in(p).

2. Bentuk arrayz(p).

3. Bentuk array y_in(m).

4. Bentuk arrayY(m).

5. Set X(n) = setiap bit input dari hasil ekstraksi pola yang ingin dikenali.

6. Untuk j = 1 sampai p, lakukan hal berikut:

a. Set nTemp1 = 0.

b. Untuk i = 1 sampai n, set nTemp1 = nTemp1 + X(D,i) * V(i,j).

c. Set z_in(j) = V(0,j) + Math.Round(nTemp1, 4).

d. Set z(j) = Aktivasi (y_in(j)).

7. Untuk k =1 sampai m, lakukan hal berikut:

a. Set nTemp1 = 0.

b. Untuk j = 1 sampai p, set nTemp1 = nTemp1 + z(j) * W(j,k).

c. Set y_in(k) = W(0,k) + Math.Round(nTemp1, 4).

d. Set Y(k) = Aktivasi (y_in(k)).

8. Set sHasil = “”.

9. Set Thress = 0.5.

10. Untuk k = 1 sampai m, lakukan hal berikut:

a. Jika Y(k)>Thres, maka set sHasil = sHasil & “1”.

b. Jika tidak, maka set sHasil = sHasil & “0”

11. Buka recordset dari tabel POLA, untuk memfilter record yang memiliki bit

output = sHasil.

12. Set Backpropagation = ambil nama huruf dari record yang telah terfilter.

Agar lebih jelas mengenai proses pelatihan, perhatikan contoh berikut ini.

Misalnya, huruf hasil ekstraksi ciri yang akan dilatih seperti terlihat pada gambar 3.7

dan 3.8 di bawah ini .

UNIVERSITAS SUMATERA UTARA

Page 62: PENGOPTIMALAN AKURASI PENGENALAN POLA …

45

Hasil eksraksi pola data ke-1

Gambar 3.8 Ekstraksi pola huruf ‘a’

Input ke-1 = “111001011101111”

Output ke-1 = “0001” (output berdasarkan urutan data yang dilatih)

Hasil ekstraksi pola data ke-2

Gambar 3.9 Estraktsi pola Huruf ‘q’

Input ke-2 = “011101101111001”

Output ke-2 = “0010” (output berdasarkan urutan data yang dilatih)

Parameter yang akan digunakan dalam algoritma backpropagation adalah:

1. Banyak lapisan input (n) = 15 (hasil ekstraksi ciri berupa 3 x 5 kotak)

2. Banyak lapisan hidden (p) = 10

3. Banyak lapisan output (m) = 4 (target / output bernilai 4 bit)

4. Alpha = 0.2

5. Masksimum Epoh = 10

Perhitungan pada proses pelatihan huruf a dan q diatas dengan menggunakan

algoritma backpropagation dapat dilihat pada lampiran A-1.

3.8.2 Fase Pengujian

Fase pengujian adalah proses dimana setiap pola huruf dimasukkan ke tahap

feedforward (Propagasi maju) untuk dikenali dan diuji. Tahap feedforward akan

menghasilkan nilai output yk yang bila digabungkan akan merujuk kepada satu huruf

di dalam database. Bobot w dan v untuk tahap feedforward dapat menghasilkan nilai

output yang diinginkan. Sebagai contoh, misalnya dimasukkan hasil ekstraksi ciri

pada gamabr 3.9 berikut untuk dikenali.

UNIVERSITAS SUMATERA UTARA

Page 63: PENGOPTIMALAN AKURASI PENGENALAN POLA …

46

Gambar 3.10 Pola Huruf Yang Akan Dikenali

Hasil ekstraksi ciri dari huruf (huruf a) pada gambar 3.9 adalah

“111001011101111”. Dengan mengambil nilai bobot w dan v pada contoh proses

pelatihan sebelumnya, maka perhitungan pada proses pengujian dengan mengikuti

tahap feedforward dapat dilihat pada lampiran A-2.

UNIVERSITAS SUMATERA UTARA

Page 64: PENGOPTIMALAN AKURASI PENGENALAN POLA …

BAB 4

HASIL DAN PEMBAHASAN

4.1 Pendahuluan

Pada bab ini akan dibahas mengenai hasil yang didapatkan dari pengujian metodologi

yang sudah dibahas pada bab sebelumnya. Adapun yang dibahas antara lain hasil dari

proses pengenalan pola Backpropagation terhadap data citra huruf dengan kondisi

normal dan juga terhadap data citra huruf dengan kondisi terdegradasi, baik yang belum

melewati tahapan restorasi MRF dan yang sudah melewati tahapan restorasi MRF. Dari

hasil tersebut akan didapatkan pembahasan mengenai besaran pengaruh dari restorasi

citra MRF terhadap pengoptimalan akurasi algoritma Backpropagation terhadap

pengenalan pola citra huruf terdegradasi.

4.2 Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra

Huruf Dengan Pola Yang Mirip/Sama

Adapun proses pelatihan pada jaringan saraf tiruan Backpropagation dilakukan

terhadap 110 data training (citra) dalam kondisi normal, yang datanya didapatkan dari

hasil scan 5 jenis dokumen (hardcopy) menggunakan scanner HP dengan menggunakan

dpi=600. Adapun ke 110 data tersebut meliputi 22 citra huruf (a1 - z1) bersumber dari

dokumen ke-1, 26 citra huruf (a2 - z2) bersumber dari dokumen ke-2, 24 citra huruf (a3

- z3) bersumber dari dokumen ke-3, 12 citra huruf (a4 - z4) bersumber dari dokumen

ke-44, dan 26 citra huruf (z5-a6) bersumber dari dokumen ke-5. Keseluruhan data

training tersebut dilatih dengan learning rate = 0.08, maximum error=0.003 dan

maximum epoch=1000. Jaringan Backpropagation yang dibangun memiliki 100 input

layer, 50 hidden layer, dan 10 output layer.

UNIVERSITAS SUMATERA UTARA

Page 65: PENGOPTIMALAN AKURASI PENGENALAN POLA …

48

Sebelum masuk ke tahapan pengenalan pola Backpropagation, setiap data pada

proses pelatihan maupun pengujian akan melalui tahap pre-processing (noise filtering,

bineri sasi, cropping, resizing, dan ekstraksi pola) terlebih dahulu. Hasil dari tahap pre-

processing yaitu berupa 100 bit biner yang akan digunakan sebagai data input (x1-x100)

ke dalam proses pelatihan ataupun pengujian. 100 bit biner tersebut didapatkan dari

hasil ekstraksi pola citra huruf hasil resizing yang berukuran 10 x 10 pixel. Setiap bit

biner didapatkan dari hasil perbandingan nilai RGB. Jika nilai RGB dari pixel tersebut

adalah R=255, G=255, dan B=255, maka set hasil ekstraksinya adalah ‘0’. Sebaliknya,

jika nilai RGB dari pixel tersebut adalah R=0, G=0 dan B=0, maka set hasil ekstraksinya

adalah ‘1’. Maka didapatkanlah 100 bit biner dari hasil ekstraksi pola keseluruhan pixel

pada citra resizing berukuran 10 x 10 pixel. Dan 10 bit biner untuk output (y1-y10) yang

akan digunakan pada proses pelatihan jaringan, didapatkan dari nomor urut data

pelatihan yang dikonversi menjadi 10 bit biner (misalnya data ke-1 menjadi 000000001,

data ke-2 menjadi 0000000010, dan seterusnya) . Gambaran dari beberapa contoh data

huruf yang akan dilatih dan hasil pre-processing dapat dilihat pada table data training

di bawah ini.

Tabel 4.1 Contoh 26 data training melalui proses pre-processing

No Citra

Huruf

Awal

Pre-processing

(Noise Filtering, Binerisasi, Cropping,

Resizing, Ekstraksi)

Ekstraksi

Pola

(Input

Jaringan)

Output

Jaringan

1

0000000001

2

0000000010

UNIVERSITAS SUMATERA UTARA

Page 66: PENGOPTIMALAN AKURASI PENGENALAN POLA …

49

3

0000000011

4

0000000100

5

0000000101

6

0000000110

7

0000000111

8

0000001000

UNIVERSITAS SUMATERA UTARA

Page 67: PENGOPTIMALAN AKURASI PENGENALAN POLA …

50

9

0000001001

10

0000001010

11

0000001011

12

0000001100

13

0000001101

14

0000001110

UNIVERSITAS SUMATERA UTARA

Page 68: PENGOPTIMALAN AKURASI PENGENALAN POLA …

51

15

0000001111

16

0000010000

17

0000010001

18

0000010010

19

0000010011

20

0000010100

UNIVERSITAS SUMATERA UTARA

Page 69: PENGOPTIMALAN AKURASI PENGENALAN POLA …

52

21

0000010101

22

0000010110

23

0000010111

24

0000011000

25

0000011001

26

0000011010

UNIVERSITAS SUMATERA UTARA

Page 70: PENGOPTIMALAN AKURASI PENGENALAN POLA …

53

Setelah 100 data hasil ekstraksi pola huruf dilatih menggunakan algoritma

Backpropagation, maka akan dilakukan proses pengujian dengan data citra huruf

(kondisi normal) yang mirip dengan data training. Hal ini dilakukan untuk mengetahui

kemampuan algoritma Backpropagation yang sudah dibangun dalam mengenali data

dengan pola yang mirip. Hasil pengujian dengan 100 data dengan pola yang mirip dapat

dilihat pada tabel dibawah ini.

Tabel 4.2 Hasil pengujian algoritma Backpropagation menggunakan pola huruf

yang mirip

No Nama

File

Dikenali / tidak

(Pola Yang Sama)

Hasil

Identifikasi

1 a1 a1

2 b1 b1

3 c1 c1

4 d1 d1

5 e1 e1

6 f1 f1

7 g1 g1

8 h1 h1

9 i1 i1

10 l1 l1

11 m1 z2

12 n1 n1

13 o1 o1

14 p1 p1

15 r1 r1

16 s1 s1

17 t1 t1

18 u1 u1

19 v1 v1

20 w1 w1

21 y1 y1

22 z1 z1

23 a2 a2

24 b2 b2

25 c2 c2

26 d2 d2

27 e2 e2

28 f2 f2

29 g2 g2

30 h2 h2

31 i2 i2

32 j2 j2

33 k2 k2

UNIVERSITAS SUMATERA UTARA

Page 71: PENGOPTIMALAN AKURASI PENGENALAN POLA …

54

34 l2 l2

35 m2 m2

36 n2 n2

37 o2 o2

38 p2 p2

39 q2 q2

40 r2 r2

41 s2 s2

42 t2 t2

43 u2 u2

44 v2 v2

45 w2 w2

46 x2 x2

47 y2 y2

48 z2 z2

49 a3 a3

50 b3 b3

51 c3 c3

52 d3 d3

53 e3 e3

54 f3 f3

55 g3 g3

56 h3 h3

57 j3 j3

58 k3 k3

59 m3 m3

60 n3 n3

61 o3 o3

62 p3 p3

63 q3 q3

64 r3 r3

65 s3 s3

66 t3 t3

67 u3 u3

68 v3 v3

69 w3 w3

70 x3 x3

71 y3 y3

72 z3 z3

73 a4 a4

74 b4 b4

75 c4 c4

76 d4 d4

77 f4 f4

78 g4 g4

79 h4 h4

80 i4 i4

UNIVERSITAS SUMATERA UTARA

Page 72: PENGOPTIMALAN AKURASI PENGENALAN POLA …

55

81 s4 s4

82 t4 t4

83 u4 u4

84 v4 v4

85 a5 a5

86 b5 b5

87 c5 c5

88 d5 d5

89 e5 e5

90 f5 f5

91 g5 g5

92 h5 h5

93 i5 i5

94 j5 j5

95 k5 k5

96 l5 l5

97 m5 m5

98 n5 n5

99 o5 o5

100 p5 p5

101 q5 q5

102 r5 r5

103 s5 s5

104 t5 t5

105 u5 u5

106 v5 v5

107 w5 w5

108 x5 x5

109 y5 y5

110 z5 z5

Akurasi 109 / 110 = 99,09%

Berdasarkan hasil pengujian pada tabel 4.2 di atas, jaringan Backpropagation

yang sudah dibangun mampu mengenali 98 dari 100 data yang mirip pada proses

pengujian. Ini artinya tingkat akurasi yang sudah dibangun untuk mengenali pola yang

mirip mencapai 99%. Setelah jaringan dianggap cukup mampu mengenali pola yang

mirip, selanjutnya akan dilakukan pengujian menggunakan citra huruf terdegradasi.

4.3 Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra

Huruf Terdegradasi

Setelah dilakukan pelatihan dengan 110 data terhadap jaringan Backpropagation yang

sudah dibangun, selanjutnya dilakukan pengujian terhadap jaringan dalam mengenali

citra huruf terdegradasi. Adapun yang dimaksud dengan citra huruf terdegradasi antara

UNIVERSITAS SUMATERA UTARA

Page 73: PENGOPTIMALAN AKURASI PENGENALAN POLA …

56

lain adalah citra yang warnanya sudah kabur, polanya hilang (cuts), dan ada noise pada

hurufnya (blobs). Adapun citra huruf terdegradasi akan direstorasi dengan tahapan

sebagai berikut:

1. Crop citra huruf terdegadasi.

2. Resize citra huruf terdegradasi menjadi 30 x 30 pixel.

3. Bagi citra huruf terdegradasi menjadi 9 patch (x1-x9), dengan masing-masing

patch berukuran 10 x 10 pixel.

x1 x2 x3

x4

x5

x6

x7 x8 x9

Gambar 4.1 Contoh patch citra huruf terdegradasi

4. Load citra huruf normal dari data learning secara random, resize menjadi 30 x

30 pixel, dan bagi menjadi 9 patch (y1-y9), dengan masing-masing patch

berukuran 10 x 10 pixel.

y1 y2 y3

y4

y5

y6

y7 y8 y9

Gambar 4.2 Contoh patch citra learning

5. Lakukan ekstraksi pola untuk citra terdegradasi dan citra learning, sehingga

masing-masing citra menghasilkan 900 bit biner.

6. Hitung probabilitas (P (x, y)) patch xj terhadap patch yj dengan membandingkan

bit-bit yang terkandung pada masing-masing patch-nya.

7. Hitung nilai MAP (Maximum A Posteriori) terhadap keseluruhan patch.

8. Citra learning dengan nilai MAP tertinggi akan menggantikan (generate) citra

yang terdegradasi. Pada tahapan inilah terjadi restorasi.

UNIVERSITAS SUMATERA UTARA

Page 74: PENGOPTIMALAN AKURASI PENGENALAN POLA …

57

9. Citra hasil restorasi selanjutnya akan digunakan sebagai citra inputan pada

proses pengujian pada jaringan saraf tiruan Backpropagation.

Berikut adalah contoh tampilan proses pengujian menggunakan citra huruf

terdegradasi sebelum dilakukan restorasi MRF.

Gambar 4.3 Contoh tampilan hasil pengujian menggunakan citra huruf terdegradasi

tanpa proses restorasi MRF

Dari hasil pengujian seperti yang ditampilkan pada gambar 4.3, jelas terlihat

bahwa jaringan saraf tiruan Backpropagation yang sudah dibangun tidak mampu

mengenali citra huruf terdegradasi, yang secara kasat mata huruf tersebut adalah huruf

‘e’ tetapi jaringan mengenalinya sebagai huruf ‘t’.

Setelah dilakukan pengujian terhadap citra terdegradasi tanpa melalui proses

restorasi MRF, maka selanjutnya akan dilakukan pengujian setelah melalui proses

restorasi MRF. Contoh tampilan proses pengujian setelah dilakukan restorasi MRF

dapat dilihat pada gambar di bawah ini.

UNIVERSITAS SUMATERA UTARA

Page 75: PENGOPTIMALAN AKURASI PENGENALAN POLA …

58

Gambar 4.4 Contoh tampilan hasil pengujian menggunakan citra huruf

terdegradasi setelah melalui proses restorasi MRF

Dari gambar 4.4, dapat dilihat hasil proses pengujian pada jaringan saraf tiruan

Backpropagation setelah melalui proses restorasi MRF. Dimana citra terdegradasi akan

di-generate oleh citra dari data learning yang memiliki nilai MAP paling tinggi

terhadap citra terdegradasi tersebut. Dimana pada gambar 4.4, nilai MAP paling tinggi

terdapat pada citra huruf ‘e’ yang ada di data learning terhadap citra huruf terdegradasi

(huruf ‘e’) yaitu 0.3541 (pembulatan 4 dibelakang koma).

Adapun proses pengujian terhadap citra huruf terdegradasi secara lengkap dapat

dilihat pada tabel 4.4. Pengujian dilakukan terhadap 24 citra huruf terdegradasi yang

data citranya didapatkan dari jurnal Banerje et. al yang berjudul “Contextual

Restoration of Severely Degraded Document Images”.

UNIVERSITAS SUMATERA UTARA

Page 76: PENGOPTIMALAN AKURASI PENGENALAN POLA …

59

Tabel 4.3 Hasil pengujian pada citra huruf terdegradasi

No Huruf Hasil

Identifikasi

Sebelum

Restorasi

MRF

Dikenali /

Tidak

Dikenali

(Sebelum

Restorasi)

Citra

Hasil

Restorasi

MRF

MAP

(Maximum

A

Posteriori)

Dikenali /

Tidak

Dikenali

(Setelah

Restorasi))

1

0,558

2

0,1023

3

0,3161

4

-

0,3272

5

0,2791

6

0,1192

7

0,4017

8

0,1647

9

0,6093

10

0,301

11

0,3541

12

0,2558

UNIVERSITAS SUMATERA UTARA

Page 77: PENGOPTIMALAN AKURASI PENGENALAN POLA …

60

13

0,1086

14

0,0341

15

0,441

16

0,1369

17

0,2183

18

0,1658

19

0,412

20

0,1606

21

0,0471

22

0,5596

23

0,1906

24

0,0884

UNIVERSITAS SUMATERA UTARA

Page 78: PENGOPTIMALAN AKURASI PENGENALAN POLA …

61

25

0,4181

26

0,3489

27

0,2954

28

0,3051

29

0,4475

30

0,3182

31

0,3155

32

0,3169

33

0,1901

34

-

0,1902

35

0,2153

36

0,1104

UNIVERSITAS SUMATERA UTARA

Page 79: PENGOPTIMALAN AKURASI PENGENALAN POLA …

62

37

0,2755

38

0,0892

39

0,2331

40

0,321

41

0,0568

42

0,1262

43

0,0548

44

0,0431

45

0,3704

46

0,2198

47

0,2942

48

0,395

UNIVERSITAS SUMATERA UTARA

Page 80: PENGOPTIMALAN AKURASI PENGENALAN POLA …

63

49

0,1192

50

0,0553

51

-

0,1954

52

0,0781

53

0,1132

54

0,35

55

0,2063

56

0,1095

57

0,1362

58

0,2154

59

0,0806

60

0,2778

AKURASI

(%) 11 / 60 =

18,33% 47 / 60 =

78,33%

Dari hasil pengujian yang didapatkan pada tabel 4.3, citra huruf terdegradasi

sangat berpengaruh terhadap tingkat akurasi pengenalan pola jaringan saraf tiruan

Backpropagation yang sudah dibangun. Dimana dari 60 huruf yang diuji, hanya 11 yang

UNIVERSITAS SUMATERA UTARA

Page 81: PENGOPTIMALAN AKURASI PENGENALAN POLA …

64

dikenali jika citra huruf terdegradasi tidak melalui proses restorasi MRF terlebih dahulu.

Sedangkan jika melalui proses restorasi MRF dari 60 huruf yang diuji, 47 mampu

dikenali dengan benar. Dari hasil pengujian ini terjadi peningkatan akurasi pengenalan

pola Backpropagation, dimana akurasi pengenalan citra huruf terdegradasi tanpa proses

restorasi MRF hanya 18,33% dan akurasi pengenalan citra huruf terdegradasi setelah

melalui proses restorasi MRF mencapai 78,33%.

4.4 Pembahasan

Berdasarkan proses pengujian di atas didapatkan hasil pengenalan pola

Backpropagation terhadap citra dengan pola huruf yang mirip dengan jumlah data uji

sebanyak 110 data dan menghasilkan tingkat akurasi sebesar 99,09%. Hasil tersebut

dapat tercapai karena jaringan yang sudah dibangun diuji dengan citra huruf dalam

kondisi normal (tanpa degradasi).

Sedangkan pada proses pengujian jaringan saraf tiruan Backpropagation terhadap

60 citra huruf terdegradasi memberikan perbedaan hasil akurasi pengenalan yang cukup

signifikan antara sebelum citra huruf melalui proses restorasi Markov Random Field

(MRF) dan setelah citra huruf melalui proses restorasi Markov Random Field (MRF).

Dari hasil pengujian tersebut diperoleh tingkat akurasi sebesar 18,33% sebelum

dilakukan restorasi dan 78,33% setelah dilakukan restorasi. Adapun pencapaian tingkat

akurasi pengenalan huruf terdegradasi setelah dilakukan restorasi didapatkan karena

proses restorasi Markov Random Field (MRF) mampu mengubah pola citra huruf

terdegradasi menjadi normal kembali. Sehingga tingkat akurasi proses pengenalan pola

citra huruf terdegradasi setelah melalui proses restorasi MRF menjadi lebih tinggi

dibandingkan sebelum melalui melalui proses restorasi MRF.

UNIVERSITAS SUMATERA UTARA

Page 82: PENGOPTIMALAN AKURASI PENGENALAN POLA …

BAB 5

KESIMPULAN DAN SARAN

5.1 Kesimpulan

Berdasarkan hasil penelitian yang sudah diperoleh, maka dapat diambil kesimpulan

bahwa penambahan proses restorasi citra Markov Random Field (MRF) pada tahapan

pre-processsing mampu memberikan pengoptimalan akurasi pengenalan pola

Backpropagation, khususnya terhadap pengenalan pola citra huruf terdegradasi dengan

hasil akurasi pengenalan sebesar 18,33% jika tidak melalui proses restorasi citra MRF

dan 78,33% jika melalui proses restorasi MRF. Sehingga diperoleh peningkatan akurasi

sebesar 60%. Perbedaan tingkat akurasi ini didapatkan karena proses restorasi MRF

relatif mampu mengubah pola huruf terdegradasi menjadi normal kembali. Sehingga

jaringan yang sudah dibangun dengan tingkat akurasi 99,09% dalam mengenali pola

huruf yang sama/kondisi normal, kemungkinan besar akan mampu mengenali setiap

pola huruf yang berhasil direstorasi.

5.2 Saran

Adapun saran yang diperoleh dari penelitian ini, antara lain:

1. Penelitian ini dapat dikembangkan lebih lanjut dengan melakukan pengujian

terhadap data karakter lain seperti angka, karakter khusus (titik, koma, tanda

kutip), simbol atau notasi, huruf tegak bersambung, dan lain-lain.

2. Penelitian ini dapat dikembangkan lebih lanjut dengan melakukan restorasi dan

pengujian secara per-kata atau per-kalimat.

3. Penilitian ini juga dapat dikembangkan lebih lanjut dengan melakukan restorasi

dan pengujian terhadap dokumen-dokumen kuno.

UNIVERSITAS SUMATERA UTARA

Page 83: PENGOPTIMALAN AKURASI PENGENALAN POLA …

66

DAFTAR PUSTAKA

Muharram, A.A., Noaman, K.M.G., Alqubati, I.A.A. 2015. Neural Networks and

Machine Learning for Patter Recognition. ICJA Vol.122: 29-34

Banerjee, J., Namboodiri, A.M., Jahawar, J.V. (2009). Contextual Restoration of

Severaly Degraded Document Images. India: Jurnal IEEE 2009: 517-524.

Sutiyo, T. 2009. Pengolahan Citra Digital. Yogyakarta: Penerbit ANDI.

Gonzales, R.C. & Woods, R.E. 2008. Digital Image Processing 3rd Edition. New

Jersey: Prentice-Hall.

Hermawati, F.A. 2013. Pengolahan Citra Digital. Yogyakarta: Penerbit Andi.

Sahpiro, L. & Stockman, G. 2000. Computer Vision. Washington: Pearson.

Wu, S.G. 2007. A leaf recognition algorithm for plant classification using

probabilistik neural network. IEEE ISSPIT on Computer Science and Electric

Engineering involve Artificial Intelligence and Neurology: 11-16.

Pratt, W.K. 2001. Digital Image Processing 3rd Edition. New York: John Wiley &

Sons, Inc.

Murthy, O.V.R. & Hanmandlu. M. 2011. Zoning based Devanagari Character

Recognition. Jurnal IJCA Vol.27(2): 21-25.

Hussain, E., Hannan, A., Kashyap, K. (2015). A Zoning based Feature Extraction

method for Recognition of Handwriting Assamese Characters. Junal IJCST

Vol.6(2): 226-228.

Bishop, C.M. 2006. Pattern Recognition and Machine Learning. New York: Springer.

Adi, K. & Sukmono, A.B. 2006. Pembangkitan dan Pemulihan Citra Biner Markov

Random Field (MRF) secara Stokastik Dengan Algoritma Markov Chain Monte

Carlo (MCMC). UNDIP: Berkala Fisika.

Fausett, L. 1994. Fundamentals of Neural Networks Architectures, Algorithms, and

Applications. London: Prentice Hall, Inc.

Haykin, S. 2009. Neural Network and Learning Machines 3rd Edition. New Jersey:

Prentice-Hall.

Pratama, B.A., Budi, W.T.A., Nur, R.K., Sthevanie, F. 2015. Mobile OCR Using

Centroid to Boundary and Backpropagation Neural Network. Jurnal IEEE 2015:

364-368.

UNIVERSITAS SUMATERA UTARA

Page 84: PENGOPTIMALAN AKURASI PENGENALAN POLA …

67

Afroge, S., Ahmed, B., Mahmud, F. 2016. Optical Character Recognition using

Backpropagation Neural Network. Jurnal IEEE 2016.

Shareef, A.Q. & Altayar, S.M. 2015. OCR-ANN Back-Propagation Based Classifier.

IJCSMC Vol.4(1): 307-313.

UNIVERSITAS SUMATERA UTARA

Page 85: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-1

LAMPIRAN

PERHITUNGAN BACKPROPAGATION

1. Lampiran Pelatihan

PENGACAKAN BOBOT V dan W

Pengacakan Nilai Bobot V dari nilai -0.5 sampai 0.5

V(0, 1) = -0.1993

V(0, 2) = 0.2892

V(0, 3) = -0.3074

V(0, 4) = -0.1525

V(0, 5) = 0.0043

V(0, 6) = -0.2146

V(0, 7) = -0.1908

V(0, 8) = 0.343

V(0, 9) = 0.4751

V(0, 10) = -0.3519

V(1, 1) = -0.1873

V(1, 2) = 0.0944

V(1, 3) = -0.2525

V(1, 4) = -0.4389

V(1, 5) = 0.133

V(1, 6) = 0.0888

V(1, 7) = -0.359

V(1, 8) = 0.4811

V(1, 9) = 0.1701

V(1, 10) = -0.0548

V(2, 1) = 0.1007

V(2, 2) = 0.07

V(2, 3) = -0.2629

V(2, 4) = -0.0052

V(2, 5) = -0.3704

V(2, 6) = -0.3854

V(2, 7) = -0.0136

V(2, 8) = 0.0812

V(2, 9) = -0.0765

V(2, 10) = 0.2684

V(3, 1) = 0.2939

V(3, 2) = 0.1378

V(3, 3) = -0.1139

V(3, 4) = 0.2564

V(3, 5) = -0.0044

V(3, 6) = -0.1696

V(3, 7) = 0.4608

V(3, 8) = 0.0442

V(3, 9) = 0.3976

V(3, 10) = -0.3022

V(4, 1) = -0.4146

V(4, 2) = -0.3798

V(4, 3) = 0.4967

V(4, 4) = 0.2659

V(4, 5) = 0.4775

V(4, 6) = 0.2835

V(4, 7) = 0.0647

V(4, 8) = -0.497

V(4, 9) = -0.1033

V(4, 10) = -0.1029

UNIVERSITAS SUMATERA UTARA

Page 86: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-2

V(5, 1) = -0.2337

V(5, 2) = -0.3787

V(5, 3) = 0.0528

V(5, 4) = -0.4651

V(5, 5) = 0.1596

V(5, 6) = 0.2307

V(5, 7) = 0.0521

V(5, 8) = 0.1978

V(5, 9) = -0.2821

V(5, 10) = -0.1104

V(6, 1) = 0.2991

V(6, 2) = 0.228

V(6, 3) = -0.0805

V(6, 4) = -0.2933

V(6, 5) = -0.1458

V(6, 6) = 0.1749

V(6, 7) = -0.2918

V(6, 8) = -0.0089

V(6, 9) = 0.0655

V(6, 10) = -0.1974

V(7, 1) = 0.1279

V(7, 2) = 0.0968

V(7, 3) = -0.4166

V(7, 4) = -0.0277

V(7, 5) = -0.1403

V(7, 6) = -0.0194

V(7, 7) = 0.0733

V(7, 8) = -0.0288

V(7, 9) = 0.0173

V(7, 10) = -0.1539

V(8, 1) = 0.05

V(8, 2) = -0.0167

V(8, 3) = -0.3156

V(8, 4) = -0.4736

V(8, 5) = 0.0021

V(8, 6) = 0.1726

V(8, 7) = -0.415

V(8, 8) = -0.1488

V(8, 9) = -0.4032

V(8, 10) = 0.2649

V(9, 1) = 0.2783

V(9, 2) = -0.237

V(9, 3) = -0.1737

V(9, 4) = 0.008

V(9, 5) = -0.1013

V(9, 6) = -0.1426

V(9, 7) = 0.2007

V(9, 8) = 0.2899

V(9, 9) = -0.0883

V(9, 10) = -0.1974

V(10, 1) = 0.0753

V(10, 2) = -0.4265

V(10, 3) = -0.0625

V(10, 4) = -0.4059

V(10, 5) = 0.2692

V(10, 6) = 0.1695

UNIVERSITAS SUMATERA UTARA

Page 87: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-3

V(10, 7) = -0.4621

V(10, 8) = -0.4195

V(10, 9) = 0.1752

V(10, 10) = -0.321

V(11, 1) = -0.3426

V(11, 2) = -0.4191

V(11, 3) = -0.3195

V(11, 4) = 0.3718

V(11, 5) = 0.3397

V(11, 6) = -0.1843

V(11, 7) = 0.0436

V(11, 8) = -0.1069

V(11, 9) = 0.2046

V(11, 10) = 0.1816

V(12, 1) = 0.0899

V(12, 2) = 0.357

V(12, 3) = -0.1056

V(12, 4) = 0.3007

V(12, 5) = 0.0243

V(12, 6) = -0.1351

V(12, 7) = -0.2295

V(12, 8) = 0.0755

V(12, 9) = -0.4264

V(12, 10) = -0.4977

V(13, 1) = 0.2799

V(13, 2) = 0.2834

V(13, 3) = -0.4406

V(13, 4) = -0.2854

V(13, 5) = 0.2709

V(13, 6) = -0.0236

V(13, 7) = -0.4542

V(13, 8) = -0.4097

V(13, 9) = -0.2428

V(13, 10) = 0.3327

V(14, 1) = 0.1347

V(14, 2) = -0.4955

V(14, 3) = 0.1761

V(14, 4) = 0.4177

V(14, 5) = 0.1074

V(14, 6) = 0.1974

V(14, 7) = -0.4175

V(14, 8) = -0.0454

V(14, 9) = 0.1683

V(14, 10) = -0.4171

V(15, 1) = 0.3138

V(15, 2) = -0.1924

V(15, 3) = -0.4146

V(15, 4) = 0.2302

V(15, 5) = 0.2127

V(15, 6) = 0.2182

V(15, 7) = 0.1791

V(15, 8) = 0.1369

V(15, 9) = 0.0698

V(15, 10) = -0.0957

UNIVERSITAS SUMATERA UTARA

Page 88: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-4

Pengacakan Nilai Bobot W dari nilai -0.5 sampai 0.5

W(0, 1) = -0.101

W(0, 2) = -0.0376

W(0, 3) = -0.4931

W(0, 4) = 0.1728

W(1,1) = -0.1008

W(1,2) = -0.126

W(1,3) = -0.4785

W(1,4) = 0.4659

W(2,1) = -0.3991

W(2,2) = -0.1367

W(2,3) = -0.2301

W(2,4) = -0.0467

W(3,1) = -0.3641

W(3,2) = 0.3719

W(3,3) = -0.4532

W(3,4) = 0.0855

W(4,1) = -0.319

W(4,2) = -0.0234

W(4,3) = -0.3068

W(4,4) = 0.3269

W(5,1) = -0.2176

W(5,2) = 0.3159

W(5,3) = 0.4072

W(5,4) = 0.4907

W(6,1) = -0.3114

W(6,2) = -0.0277

W(6,3) = 0.198

W(6,4) = -0.1708

W(7,1) = 0.002

W(7,2) = -0.4474

W(7,3) = 0.2973

W(7,4) = -0.091

W(8,1) = 0.0205

W(8,2) = 0.3529

W(8,3) = -0.0663

W(8,4) = -0.3277

W(9,1) = 0.4976

W(9,2) = -0.4968

W(9,3) = 0.0186

W(9,4) = -0.2666

W(10,1) = 0.1758

W(10,2) = -0.3834

W(10,3) = -0.1463

W(10,4) = -0.195

EPOH KE = 1

Data ke – 1

Input = “111001011101111”

Output = “0001”

z_in(1) = -0.1993 + 1.7283 = 1.529

z(1) = 0.8219

z_in(2) = 0.2892 + -0.1975 = 0.0917

z(2) = 0.5229

z_in(3) = -0.3074 + -2.0463 = -2.3537

z(3) = 0.0868

z_in(4) = -0.1525 + -0.6893 = -0.8418

UNIVERSITAS SUMATERA UTARA

Page 89: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-5

z(4) = 0.3012

z_in(5) = 0.0043 + 0.3977 = 0.402

z(5) = 0.5992

z_in(6) = -0.2146 + 0.1651 = -0.0495

z(6) = 0.4876

z_in(7) = -0.1908 + -1.8021 = -1.9929

z(7) = 0.12

z_in(8) = 0.343 + 0.0765 = 0.4195

z(8) = 0.6034

z_in(9) = 0.4751 + -0.1907 = 0.2844

z(9) = 0.5706

z_in(10) = -0.3519 + -1.2173 = -1.5692

z(10) = 0.1723

y_in(1) = -0.101 + -0.3746 = -0.4756

y(1) = 0.3833

y_in(2) = -0.0376 + -0.1643 = -0.2019

y(2) = 0.4497

y_in(3) = -0.4931 + -0.3237 = -0.8168

y(3) = 0.3064

y_in(4) = 0.1728 + 0.2808 = 0.4536

y(4) = 0.6115

Delta(1) = -0.3833 x 0.8219 x 0.6167 = -0.0906

Delta(2) = -0.4497 x 0.5229 x 0.5503 = -0.1113

Delta(3) = -0.3064 x 0.0868 x 0.6936 = -0.0651

Delta(4) = 0.3885 x 0.3012 x 0.3885 = 0.0923

DeltaW(0,1) = 0.2 x -0.0906 = -0.0181

DeltaW(0,2) = 0.2 x -0.1113 = -0.0223

DeltaW(0,3) = 0.2 x -0.0651 = -0.0130

DeltaW(0,4) = 0.2 x 0.0923 = 0.0185

DeltaW(1,1) = 0.2 x -0.0906 x 0.8219 = -0.0149

DeltaW(1,2) = 0.2 x -0.1113 x 0.8219 = -0.0183

DeltaW(1,3) = 0.2 x -0.0651 x 0.8219 = -0.0107

DeltaW(1,4) = 0.2 x 0.0923 x 0.8219 = 0.0152

DeltaW(2,1) = 0.2 x -0.0906 x 0.5229 = -0.0095

DeltaW(2,2) = 0.2 x -0.1113 x 0.5229 = -0.0116

DeltaW(2,3) = 0.2 x -0.0651 x 0.5229 = -0.0068

DeltaW(2,4) = 0.2 x 0.0923 x 0.5229 = 0.0097

DeltaW(3,1) = 0.2 x -0.0906 x 0.0868 = -0.0016

DeltaW(3,2) = 0.2 x -0.1113 x 0.0868 = -0.0019

DeltaW(3,3) = 0.2 x -0.0651 x 0.0868 = -0.0011

DeltaW(3,4) = 0.2 x 0.0923 x 0.0868 = 0.0016

DeltaW(4,1) = 0.2 x -0.0906 x 0.3012 = -0.0055

DeltaW(4,2) = 0.2 x -0.1113 x 0.3012 = -0.0067

DeltaW(4,3) = 0.2 x -0.0651 x 0.3012 = -0.0039

DeltaW(4,4) = 0.2 x 0.0923 x 0.3012 = 0.0056

DeltaW(5,1) = 0.2 x -0.0906 x 0.5992 = -0.0109

DeltaW(5,2) = 0.2 x -0.1113 x 0.5992 = -0.0133

DeltaW(5,3) = 0.2 x -0.0651 x 0.5992 = -0.0078

DeltaW(5,4) = 0.2 x 0.0923 x 0.5992 = 0.0111

DeltaW(6,1) = 0.2 x -0.0906 x 0.4876 = -0.0088

DeltaW(6,2) = 0.2 x -0.1113 x 0.4876 = -0.0109

DeltaW(6,3) = 0.2 x -0.0651 x 0.4876 = -0.0063

DeltaW(6,4) = 0.2 x 0.0923 x 0.4876 = 0.0090

DeltaW(7,1) = 0.2 x -0.0906 x 0.12 = -0.0022

DeltaW(7,2) = 0.2 x -0.1113 x 0.12 = -0.0027

DeltaW(7,3) = 0.2 x -0.0651 x 0.12 = -0.0016

UNIVERSITAS SUMATERA UTARA

Page 90: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-6

DeltaW(7,4) = 0.2 x 0.0923 x 0.12 = 0.0022

DeltaW(8,1) = 0.2 x -0.0906 x 0.6034 = -0.0109

DeltaW(8,2) = 0.2 x -0.1113 x 0.6034 = -0.0134

DeltaW(8,3) = 0.2 x -0.0651 x 0.6034 = -0.0079

DeltaW(8,4) = 0.2 x 0.0923 x 0.6034 = 0.0111

DeltaW(9,1) = 0.2 x -0.0906 x 0.5706 = -0.0103

DeltaW(9,2) = 0.2 x -0.1113 x 0.5706 = -0.0127

DeltaW(9,3) = 0.2 x -0.0651 x 0.5706 = -0.0074

DeltaW(9,4) = 0.2 x 0.0923 x 0.5706 = 0.0105

DeltaW(10,1) = 0.2 x -0.0906 x 0.1723 = -0.0031

DeltaW(10,2) = 0.2 x -0.1113 x 0.1723 = -0.0038

DeltaW(10,3) = 0.2 x -0.0651 x 0.1723 = -0.0022

DeltaW(10,4) = 0.2 x 0.0923 x 0.1723 = 0.0032

Delta_in(1) = 0.0973

Delta2(1) = 0.0973 x 0.8219 x 0.1781 = 0.0142

Delta_in(2) = 0.062

Delta2(2) = 0.062 x 0.5229 x 0.4771 = 0.0155

Delta_in(3) = 0.029

Delta2(3) = 0.029 x 0.0868 x 0.9132 = 0.0023

Delta_in(4) = 0.0817

Delta2(4) = 0.0817 x 0.3012 x 0.6988 = 0.0172

Delta_in(5) = 0.0033

Delta2(5) = 0.0033 x 0.5992 x 0.4008 = 0.0008

Delta_in(6) = 0.0026

Delta2(6) = 0.0026 x 0.4876 x 0.5124 = 0.0006

Delta_in(7) = 0.0219

Delta2(7) = 0.0219 x 0.12 x 0.88 = 0.0023

Delta_in(8) = -0.0671

Delta2(8) = -0.0671 x 0.6034 x 0.3966 = -0.0161

Delta_in(9) = -0.0156

Delta2(9) = -0.0156 x 0.5706 x 0.4294 = -0.0038

Delta_in(10) = 0.0183

Delta2(10) = 0.0183 x 0.1723 x 0.8277 = 0.0026

DeltaV(0,1) = 0.2 x 0.0142 = 0.00284

DeltaV(0,2) = 0.2 x 0.0155 = 0.00310

DeltaV(0,3) = 0.2 x 0.0023 = 0.00046

DeltaV(0,4) = 0.2 x 0.0172 = 0.00344

DeltaV(0,5) = 0.2 x 0.0008 = 0.00016

DeltaV(0,6) = 0.2 x 0.0006 = 0.00012

DeltaV(0,7) = 0.2 x 0.0023 = 0.00046

DeltaV(0,8) = 0.2 x -0.0161 = -0.00322

DeltaV(0,9) = 0.2 x -0.0038 = -0.00076

DeltaV(0,10) = 0.2 x 0.0026 = 0.00052

DeltaV(1,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(1,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(1,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(1,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(1,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(1,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(1,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(1,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(1,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(1,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(2,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(2,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(2,3) = 0.2 * 0.0023 * 1 = 0.00046

UNIVERSITAS SUMATERA UTARA

Page 91: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-7

DeltaV(2,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(2,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(2,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(2,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(2,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(2,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(2,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(3,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(3,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(3,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(3,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(3,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(3,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(3,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(3,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(3,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(3,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(4,1) = 0.2 * 0.0142 * 0 = 0.00000

DeltaV(4,2) = 0.2 * 0.0155 * 0 = 0.00000

DeltaV(4,3) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(4,4) = 0.2 * 0.0172 * 0 = 0.00000

DeltaV(4,5) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(4,6) = 0.2 * 0.0006 * 0 = 0.00000

DeltaV(4,7) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(4,8) = 0.2 * -0.0161 * 0 = 0.00000

DeltaV(4,9) = 0.2 * -0.0038 * 0 = 0.00000

DeltaV(4,10) = 0.2 * 0.0026 * 0 = 0.00000

DeltaV(5,1) = 0.2 * 0.0142 * 0 = 0.00000

DeltaV(5,2) = 0.2 * 0.0155 * 0 = 0.00000

DeltaV(5,3) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(5,4) = 0.2 * 0.0172 * 0 = 0.00000

DeltaV(5,5) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(5,6) = 0.2 * 0.0006 * 0 = 0.00000

DeltaV(5,7) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(5,8) = 0.2 * -0.0161 * 0 = 0.00000

DeltaV(5,9) = 0.2 * -0.0038 * 0 = 0.00000

DeltaV(5,10) = 0.2 * 0.0026 * 0 = 0.00000

DeltaV(6,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(6,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(6,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(6,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(6,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(6,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(6,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(6,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(6,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(6,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(7,1) = 0.2 * 0.0142 * 0 = 0.00000

DeltaV(7,2) = 0.2 * 0.0155 * 0 = 0.00000

DeltaV(7,3) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(7,4) = 0.2 * 0.0172 * 0 = 0.00000

DeltaV(7,5) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(7,6) = 0.2 * 0.0006 * 0 = 0.00000

DeltaV(7,7) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(7,8) = 0.2 * -0.0161 * 0 = 0.00000

DeltaV(7,9) = 0.2 * -0.0038 * 0 = 0.00000

UNIVERSITAS SUMATERA UTARA

Page 92: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-8

DeltaV(7,10) = 0.2 * 0.0026 * 0 = 0.00000

DeltaV(8,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(8,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(8,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(8,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(8,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(8,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(8,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(8,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(8,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(8,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(9,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(9,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(9,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(9,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(9,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(9,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(9,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(9,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(9,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(9,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(10,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(10,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(10,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(10,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(10,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(10,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(10,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(10,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(10,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(10,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(11,1) = 0.2 * 0.0142 * 0 = 0.00000

DeltaV(11,2) = 0.2 * 0.0155 * 0 = 0.00000

DeltaV(11,3) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(11,4) = 0.2 * 0.0172 * 0 = 0.00000

DeltaV(11,5) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(11,6) = 0.2 * 0.0006 * 0 = 0.00000

DeltaV(11,7) = 0.2 * 0.0023 * 0 = 0.00000

DeltaV(11,8) = 0.2 * -0.0161 * 0 = 0.00000

DeltaV(11,9) = 0.2 * -0.0038 * 0 = 0.00000

DeltaV(11,10) = 0.2 * 0.0026 * 0 = 0.00000

DeltaV(12,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(12,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(12,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(12,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(12,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(12,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(12,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(12,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(12,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(12,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(13,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(13,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(13,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(13,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(13,5) = 0.2 * 0.0008 * 1 = 0.00016

UNIVERSITAS SUMATERA UTARA

Page 93: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-9

DeltaV(13,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(13,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(13,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(13,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(13,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(14,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(14,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(14,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(14,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(14,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(14,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(14,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(14,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(14,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(14,10) = 0.2 * 0.0026 * 1 = 0.00052

DeltaV(15,1) = 0.2 * 0.0142 * 1 = 0.00284

DeltaV(15,2) = 0.2 * 0.0155 * 1 = 0.00310

DeltaV(15,3) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(15,4) = 0.2 * 0.0172 * 1 = 0.00344

DeltaV(15,5) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(15,6) = 0.2 * 0.0006 * 1 = 0.00012

DeltaV(15,7) = 0.2 * 0.0023 * 1 = 0.00046

DeltaV(15,8) = 0.2 * -0.0161 * 1 = -0.00322

DeltaV(15,9) = 0.2 * -0.0038 * 1 = -0.00076

DeltaV(15,10) = 0.2 * 0.0026 * 1 = 0.00052

W(0,1) = -0.1191 + -0.0181 = -0.1191

W(0,2) = -0.0599 + -0.0223 = -0.0599

W(0,3) = -0.5061 + -0.0130 = -0.5061

W(0,4) = 0.1913 + 0.0185 = 0.1913

W(1,1) = -0.1157 + -0.0149 = -0.1157

W(1,2) = -0.1443 + -0.0183 = -0.1443

W(1,3) = -0.4892 + -0.0107 = -0.4892

W(1,4) = 0.4811 + 0.0152 = 0.4811

W(2,1) = -0.4086 + -0.0095 = -0.4086

W(2,2) = -0.1483 + -0.0116 = -0.1483

W(2,3) = -0.2369 + -0.0068 = -0.2369

W(2,4) = -0.037 + 0.0097 = -0.037

W(3,1) = -0.3657 + -0.0016 = -0.3657

W(3,2) = 0.37 + -0.0019 = 0.37

W(3,3) = -0.4543 + -0.0011 = -0.4543

W(3,4) = 0.0871 + 0.0016 = 0.0871

W(4,1) = -0.3245 + -0.0055 = -0.3245

W(4,2) = -0.0301 + -0.0067 = -0.0301

W(4,3) = -0.3107 + -0.0039 = -0.3107

W(4,4) = 0.3325 + 0.0056 = 0.3325

W(5,1) = -0.2285 + -0.0109 = -0.2285

W(5,2) = 0.3026 + -0.0133 = 0.3026

W(5,3) = 0.3994 + -0.0078 = 0.3994

W(5,4) = 0.5018 + 0.0111 = 0.5018

W(6,1) = -0.3202 + -0.0088 = -0.3202

W(6,2) = -0.0386 + -0.0109 = -0.0386

W(6,3) = 0.1917 + -0.0063 = 0.1917

W(6,4) = -0.1618 + 0.0090 = -0.1618

W(7,1) = -0.0002 + -0.0022 = -0.0002

W(7,2) = -0.4501 + -0.0027 = -0.4501

W(7,3) = 0.2957 + -0.0016 = 0.2957

UNIVERSITAS SUMATERA UTARA

Page 94: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-10

W(7,4) = -0.0888 + 0.0022 = -0.0888

W(8,1) = 0.0096 + -0.0109 = 0.0096

W(8,2) = 0.3395 + -0.0134 = 0.3395

W(8,3) = -0.0742 + -0.0079 = -0.0742

W(8,4) = -0.3166 + 0.0111 = -0.3166

W(9,1) = 0.4873 + -0.0103 = 0.4873

W(9,2) = -0.5095 + -0.0127 = -0.5095

W(9,3) = 0.0112 + -0.0074 = 0.0112

W(9,4) = -0.2561 + 0.0105 = -0.2561

W(10,1) = 0.1727 + -0.0031 = 0.1727

W(10,2) = -0.3872 + -0.0038 = -0.3872

W(10,3) = -0.1485 + -0.0022 = -0.1485

W(10,4) = -0.1918 + 0.0032 = -0.1918

V(0,1) = -0.19646 + 0.00284 = -0.19646

V(0,2) = 0.2923 + 0.00310 = 0.2923

V(0,3) = -0.30694 + 0.00046 = -0.30694

V(0,4) = -0.14906 + 0.00344 = -0.14906

V(0,5) = 0.00446 + 0.00016 = 0.00446

V(0,6) = -0.21448 + 0.00012 = -0.21448

V(0,7) = -0.19034 + 0.00046 = -0.19034

V(0,8) = 0.33978 + -0.00322 = 0.33978

V(0,9) = 0.47434 + -0.00076 = 0.47434

V(0,10) = -0.35138 + 0.00052 = -0.35138

V(1,1) = -0.18446 + 0.00284 = -0.18446

V(1,2) = 0.0975 + 0.00310 = 0.0975

V(1,3) = -0.25204 + 0.00046 = -0.25204

V(1,4) = -0.43546 + 0.00344 = -0.43546

V(1,5) = 0.13316 + 0.00016 = 0.13316

V(1,6) = 0.08892 + 0.00012 = 0.08892

V(1,7) = -0.35854 + 0.00046 = -0.35854

V(1,8) = 0.47788 + -0.00322 = 0.47788

V(1,9) = 0.16934 + -0.00076 = 0.16934

V(1,10) = -0.05428 + 0.00052 = -0.05428

V(2,1) = 0.10354 + 0.00284 = 0.10354

V(2,2) = 0.0731 + 0.00310 = 0.0731

V(2,3) = -0.26244 + 0.00046 = -0.26244

V(2,4) = -0.00176 + 0.00344 = -0.00176

V(2,5) = -0.37024 + 0.00016 = -0.37024

V(2,6) = -0.38528 + 0.00012 = -0.38528

V(2,7) = -0.01314 + 0.00046 = -0.01314

V(2,8) = 0.07798 + -0.00322 = 0.07798

V(2,9) = -0.07726 + -0.00076 = -0.07726

V(2,10) = 0.26892 + 0.00052 = 0.26892

V(3,1) = 0.29674 + 0.00284 = 0.29674

V(3,2) = 0.1409 + 0.00310 = 0.1409

V(3,3) = -0.11344 + 0.00046 = -0.11344

V(3,4) = 0.25984 + 0.00344 = 0.25984

V(3,5) = -0.00424 + 0.00016 = -0.00424

V(3,6) = -0.16948 + 0.00012 = -0.16948

V(3,7) = 0.46126 + 0.00046 = 0.46126

V(3,8) = 0.04098 + -0.00322 = 0.04098

V(3,9) = 0.39684 + -0.00076 = 0.39684

V(3,10) = -0.30168 + 0.00052 = -0.30168

V(4,1) = -0.4146 + 0.00000 = -0.4146

V(4,2) = -0.3798 + 0.00000 = -0.3798

V(4,3) = 0.4967 + 0.00000 = 0.4967

UNIVERSITAS SUMATERA UTARA

Page 95: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-11

V(4,4) = 0.2659 + 0.00000 = 0.2659

V(4,5) = 0.4775 + 0.00000 = 0.4775

V(4,6) = 0.2835 + 0.00000 = 0.2835

V(4,7) = 0.0647 + 0.00000 = 0.0647

V(4,8) = -0.497 + 0.00000 = -0.497

V(4,9) = -0.1033 + 0.00000 = -0.1033

V(4,10) = -0.1029 + 0.00000 = -0.1029

V(5,1) = -0.2337 + 0.00000 = -0.2337

V(5,2) = -0.3787 + 0.00000 = -0.3787

V(5,3) = 0.0528 + 0.00000 = 0.0528

V(5,4) = -0.4651 + 0.00000 = -0.4651

V(5,5) = 0.1596 + 0.00000 = 0.1596

V(5,6) = 0.2307 + 0.00000 = 0.2307

V(5,7) = 0.0521 + 0.00000 = 0.0521

V(5,8) = 0.1978 + 0.00000 = 0.1978

V(5,9) = -0.2821 + 0.00000 = -0.2821

V(5,10) = -0.1104 + 0.00000 = -0.1104

V(6,1) = 0.30194 + 0.00284 = 0.30194

V(6,2) = 0.2311 + 0.00310 = 0.2311

V(6,3) = -0.08004 + 0.00046 = -0.08004

V(6,4) = -0.28986 + 0.00344 = -0.28986

V(6,5) = -0.14564 + 0.00016 = -0.14564

V(6,6) = 0.17502 + 0.00012 = 0.17502

V(6,7) = -0.29134 + 0.00046 = -0.29134

V(6,8) = -0.01212 + -0.00322 = -0.01212

V(6,9) = 0.06474 + -0.00076 = 0.06474

V(6,10) = -0.19688 + 0.00052 = -0.19688

V(7,1) = 0.1279 + 0.00000 = 0.1279

V(7,2) = 0.0968 + 0.00000 = 0.0968

V(7,3) = -0.4166 + 0.00000 = -0.4166

V(7,4) = -0.0277 + 0.00000 = -0.0277

V(7,5) = -0.1403 + 0.00000 = -0.1403

V(7,6) = -0.0194 + 0.00000 = -0.0194

V(7,7) = 0.0733 + 0.00000 = 0.0733

V(7,8) = -0.0288 + 0.00000 = -0.0288

V(7,9) = 0.0173 + 0.00000 = 0.0173

V(7,10) = -0.1539 + 0.00000 = -0.1539

V(8,1) = 0.05284 + 0.00284 = 0.05284

V(8,2) = -0.0136 + 0.00310 = -0.0136

V(8,3) = -0.31514 + 0.00046 = -0.31514

V(8,4) = -0.47016 + 0.00344 = -0.47016

V(8,5) = 0.00226 + 0.00016 = 0.00226

V(8,6) = 0.17272 + 0.00012 = 0.17272

V(8,7) = -0.41454 + 0.00046 = -0.41454

V(8,8) = -0.15202 + -0.00322 = -0.15202

V(8,9) = -0.40396 + -0.00076 = -0.40396

V(8,10) = 0.26542 + 0.00052 = 0.26542

V(9,1) = 0.28114 + 0.00284 = 0.28114

V(9,2) = -0.2339 + 0.00310 = -0.2339

V(9,3) = -0.17324 + 0.00046 = -0.17324

V(9,4) = 0.01144 + 0.00344 = 0.01144

V(9,5) = -0.10114 + 0.00016 = -0.10114

V(9,6) = -0.14248 + 0.00012 = -0.14248

V(9,7) = 0.20116 + 0.00046 = 0.20116

V(9,8) = 0.28668 + -0.00322 = 0.28668

V(9,9) = -0.08906 + -0.00076 = -0.08906

UNIVERSITAS SUMATERA UTARA

Page 96: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-12

V(9,10) = -0.19688 + 0.00052 = -0.19688

V(10,1) = 0.07814 + 0.00284 = 0.07814

V(10,2) = -0.4234 + 0.00310 = -0.4234

V(10,3) = -0.06204 + 0.00046 = -0.06204

V(10,4) = -0.40246 + 0.00344 = -0.40246

V(10,5) = 0.26936 + 0.00016 = 0.26936

V(10,6) = 0.16962 + 0.00012 = 0.16962

V(10,7) = -0.46164 + 0.00046 = -0.46164

V(10,8) = -0.42272 + -0.00322 = -0.42272

V(10,9) = 0.17444 + -0.00076 = 0.17444

V(10,10) = -0.32048 + 0.00052 = -0.32048

V(11,1) = -0.3426 + 0.00000 = -0.3426

V(11,2) = -0.4191 + 0.00000 = -0.4191

V(11,3) = -0.3195 + 0.00000 = -0.3195

V(11,4) = 0.3718 + 0.00000 = 0.3718

V(11,5) = 0.3397 + 0.00000 = 0.3397

V(11,6) = -0.1843 + 0.00000 = -0.1843

V(11,7) = 0.0436 + 0.00000 = 0.0436

V(11,8) = -0.1069 + 0.00000 = -0.1069

V(11,9) = 0.2046 + 0.00000 = 0.2046

V(11,10) = 0.1816 + 0.00000 = 0.1816

V(12,1) = 0.09274 + 0.00284 = 0.09274

V(12,2) = 0.3601 + 0.00310 = 0.3601

V(12,3) = -0.10514 + 0.00046 = -0.10514

V(12,4) = 0.30414 + 0.00344 = 0.30414

V(12,5) = 0.02446 + 0.00016 = 0.02446

V(12,6) = -0.13498 + 0.00012 = -0.13498

V(12,7) = -0.22904 + 0.00046 = -0.22904

V(12,8) = 0.07228 + -0.00322 = 0.07228

V(12,9) = -0.42716 + -0.00076 = -0.42716

V(12,10) = -0.49718 + 0.00052 = -0.49718

V(13,1) = 0.28274 + 0.00284 = 0.28274

V(13,2) = 0.2865 + 0.00310 = 0.2865

V(13,3) = -0.44014 + 0.00046 = -0.44014

V(13,4) = -0.28196 + 0.00344 = -0.28196

V(13,5) = 0.27106 + 0.00016 = 0.27106

V(13,6) = -0.02348 + 0.00012 = -0.02348

V(13,7) = -0.45374 + 0.00046 = -0.45374

V(13,8) = -0.41292 + -0.00322 = -0.41292

V(13,9) = -0.24356 + -0.00076 = -0.24356

V(13,10) = 0.33322 + 0.00052 = 0.33322

V(14,1) = 0.13754 + 0.00284 = 0.13754

V(14,2) = -0.4924 + 0.00310 = -0.4924

V(14,3) = 0.17656 + 0.00046 = 0.17656

V(14,4) = 0.42114 + 0.00344 = 0.42114

V(14,5) = 0.10756 + 0.00016 = 0.10756

V(14,6) = 0.19752 + 0.00012 = 0.19752

V(14,7) = -0.41704 + 0.00046 = -0.41704

V(14,8) = -0.04862 + -0.00322 = -0.04862

V(14,9) = 0.16754 + -0.00076 = 0.16754

V(14,10) = -0.41658 + 0.00052 = -0.41658

V(15,1) = 0.31664 + 0.00284 = 0.31664

V(15,2) = -0.1893 + 0.00310 = -0.1893

V(15,3) = -0.41414 + 0.00046 = -0.41414

V(15,4) = 0.23364 + 0.00344 = 0.23364

V(15,5) = 0.21286 + 0.00016 = 0.21286

UNIVERSITAS SUMATERA UTARA

Page 97: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-13

V(15,6) = 0.21832 + 0.00012 = 0.21832

V(15,7) = 0.17956 + 0.00046 = 0.17956

V(15,8) = 0.13368 + -0.00322 = 0.13368

V(15,9) = 0.06904 + -0.00076 = 0.06904

V(15,10) = -0.09518 + 0.00052 = -0.09518

Data ke-2

Input = “011101101111001”

Output = “0010”

z_in(1) = -0.19646 + 0.8416 = 0.64514

z(1) = 0.6559

z_in(2) = 0.2923 + -0.7435 = -0.4512

z(2) = 0.3891

z_in(3) = -0.30694 + -1.4499 = -1.75684

z(3) = 0.1472

z_in(4) = -0.14906 + 0.725 = 0.57594

z(4) = 0.6401

z_in(5) = 0.00446 + 0.5623 = 0.56676

z(5) = 0.638

z_in(6) = -0.21448 + -0.1895 = -0.40398

z(6) = 0.4004

z_in(7) = -0.19034 + 0.0284 = -0.16194

z(7) = 0.4596

z_in(8) = 0.33978 + -0.4559 = -0.11612

z(8) = 0.471

z_in(9) = 0.47434 + 0.2302 = 0.70454

z(9) = 0.6692

z_in(10) = -0.35138 + -1.4146 = -1.76598

z(10) = 0.146

y_in(1) = -0.1191 + -0.4147 = -0.5338

y(1) = 0.3696

y_in(2) = -0.0599 + -0.384 = -0.4439

y(2) = 0.3908

y_in(3) = -0.5061 + -0.2605 = -0.7666

y(3) = 0.3172

y_in(4) = 0.1913 + 0.3929 = 0.5842

y(4) = 0.642

Delta(1) = -0.3696 x 0.6559 x 0.6304 = -0.0861

Delta(2) = -0.3908 x 0.3891 x 0.6092 = -0.093

Delta(3) = 0.6828 x 0.1472 x 0.6828 = 0.1479

Delta(4) = -0.642 x 0.6401 x 0.358 = -0.1476

DeltaW(0,1) = 0.2 x -0.0861 = -0.0172

DeltaW(0,2) = 0.2 x -0.093 = -0.0186

DeltaW(0,3) = 0.2 x 0.1479 = 0.0296

DeltaW(0,4) = 0.2 x -0.1476 = -0.0295

DeltaW(1,1) = 0.2 x -0.0861 x 0.6559 = -0.0113

DeltaW(1,2) = 0.2 x -0.093 x 0.6559 = -0.0122

DeltaW(1,3) = 0.2 x 0.1479 x 0.6559 = 0.0194

DeltaW(1,4) = 0.2 x -0.1476 x 0.6559 = -0.0194

DeltaW(2,1) = 0.2 x -0.0861 x 0.3891 = -0.0067

DeltaW(2,2) = 0.2 x -0.093 x 0.3891 = -0.0072

DeltaW(2,3) = 0.2 x 0.1479 x 0.3891 = 0.0115

DeltaW(2,4) = 0.2 x -0.1476 x 0.3891 = -0.0115

DeltaW(3,1) = 0.2 x -0.0861 x 0.1472 = -0.0025

DeltaW(3,2) = 0.2 x -0.093 x 0.1472 = -0.0027

DeltaW(3,3) = 0.2 x 0.1479 x 0.1472 = 0.0044

UNIVERSITAS SUMATERA UTARA

Page 98: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-14

DeltaW(3,4) = 0.2 x -0.1476 x 0.1472 = -0.0043

DeltaW(4,1) = 0.2 x -0.0861 x 0.6401 = -0.0110

DeltaW(4,2) = 0.2 x -0.093 x 0.6401 = -0.0119

DeltaW(4,3) = 0.2 x 0.1479 x 0.6401 = 0.0189

DeltaW(4,4) = 0.2 x -0.1476 x 0.6401 = -0.0189

DeltaW(5,1) = 0.2 x -0.0861 x 0.638 = -0.0110

DeltaW(5,2) = 0.2 x -0.093 x 0.638 = -0.0119

DeltaW(5,3) = 0.2 x 0.1479 x 0.638 = 0.0189

DeltaW(5,4) = 0.2 x -0.1476 x 0.638 = -0.0188

DeltaW(6,1) = 0.2 x -0.0861 x 0.4004 = -0.0069

DeltaW(6,2) = 0.2 x -0.093 x 0.4004 = -0.0074

DeltaW(6,3) = 0.2 x 0.1479 x 0.4004 = 0.0118

DeltaW(6,4) = 0.2 x -0.1476 x 0.4004 = -0.0118

DeltaW(7,1) = 0.2 x -0.0861 x 0.4596 = -0.0079

DeltaW(7,2) = 0.2 x -0.093 x 0.4596 = -0.0085

DeltaW(7,3) = 0.2 x 0.1479 x 0.4596 = 0.0136

DeltaW(7,4) = 0.2 x -0.1476 x 0.4596 = -0.0136

DeltaW(8,1) = 0.2 x -0.0861 x 0.471 = -0.0081

DeltaW(8,2) = 0.2 x -0.093 x 0.471 = -0.0088

DeltaW(8,3) = 0.2 x 0.1479 x 0.471 = 0.0139

DeltaW(8,4) = 0.2 x -0.1476 x 0.471 = -0.0139

DeltaW(9,1) = 0.2 x -0.0861 x 0.6692 = -0.0115

DeltaW(9,2) = 0.2 x -0.093 x 0.6692 = -0.0124

DeltaW(9,3) = 0.2 x 0.1479 x 0.6692 = 0.0198

DeltaW(9,4) = 0.2 x -0.1476 x 0.6692 = -0.0198

DeltaW(10,1) = 0.2 x -0.0861 x 0.146 = -0.0025

DeltaW(10,2) = 0.2 x -0.093 x 0.146 = -0.0027

DeltaW(10,3) = 0.2 x 0.1479 x 0.146 = 0.0043

DeltaW(10,4) = 0.2 x -0.1476 x 0.146 = -0.0043

Delta_in(1) = -0.12

Delta2(1) = -0.12 x 0.6559 x 0.3441 = -0.0271

Delta_in(2) = 0.0194

Delta2(2) = 0.0194 x 0.3891 x 0.6109 = 0.0046

Delta_in(3) = -0.083

Delta2(3) = -0.083 x 0.1472 x 0.8528 = -0.0104

Delta_in(4) = -0.0643

Delta2(4) = -0.0643 x 0.6401 x 0.3599 = -0.0148

Delta_in(5) = -0.0235

Delta2(5) = -0.0235 x 0.638 x 0.362 = -0.0054

Delta_in(6) = 0.0834

Delta2(6) = 0.0834 x 0.4004 x 0.5996 = 0.02

Delta_in(7) = 0.0987

Delta2(7) = 0.0987 x 0.4596 x 0.5404 = 0.0245

Delta_in(8) = 0.0034

Delta2(8) = 0.0034 x 0.471 x 0.529 = 0.0008

Delta_in(9) = 0.0449

Delta2(9) = 0.0449 x 0.6692 x 0.3308 = 0.0099

Delta_in(10) = 0.0275

Delta2(10) = 0.0275 x 0.146 x 0.854 = 0.0034

DeltaV(0,1) = 0.2 x -0.0271 = -0.00542

DeltaV(0,2) = 0.2 x 0.0046 = 0.00092

DeltaV(0,3) = 0.2 x -0.0104 = -0.00208

DeltaV(0,4) = 0.2 x -0.0148 = -0.00296

DeltaV(0,5) = 0.2 x -0.0054 = -0.00108

DeltaV(0,6) = 0.2 x 0.02 = 0.004

DeltaV(0,7) = 0.2 x 0.0245 = 0.00490

UNIVERSITAS SUMATERA UTARA

Page 99: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-15

DeltaV(0,8) = 0.2 x 0.0008 = 0.00016

DeltaV(0,9) = 0.2 x 0.0099 = 0.00198

DeltaV(0,10) = 0.2 x 0.0034 = 0.00068

DeltaV(1,1) = 0.2 * -0.0271 * 0 = 0.00000

DeltaV(1,2) = 0.2 * 0.0046 * 0 = 0.00000

DeltaV(1,3) = 0.2 * -0.0104 * 0 = 0.00000

DeltaV(1,4) = 0.2 * -0.0148 * 0 = 0.00000

DeltaV(1,5) = 0.2 * -0.0054 * 0 = 0.00000

DeltaV(1,6) = 0.2 * 0.02 * 0 = 0.000

DeltaV(1,7) = 0.2 * 0.0245 * 0 = 0.00000

DeltaV(1,8) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(1,9) = 0.2 * 0.0099 * 0 = 0.00000

DeltaV(1,10) = 0.2 * 0.0034 * 0 = 0.00000

DeltaV(2,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(2,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(2,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(2,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(2,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(2,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(2,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(2,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(2,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(2,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(3,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(3,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(3,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(3,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(3,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(3,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(3,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(3,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(3,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(3,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(4,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(4,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(4,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(4,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(4,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(4,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(4,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(4,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(4,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(4,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(5,1) = 0.2 * -0.0271 * 0 = 0.00000

DeltaV(5,2) = 0.2 * 0.0046 * 0 = 0.00000

DeltaV(5,3) = 0.2 * -0.0104 * 0 = 0.00000

DeltaV(5,4) = 0.2 * -0.0148 * 0 = 0.00000

DeltaV(5,5) = 0.2 * -0.0054 * 0 = 0.00000

DeltaV(5,6) = 0.2 * 0.02 * 0 = 0.000

DeltaV(5,7) = 0.2 * 0.0245 * 0 = 0.00000

DeltaV(5,8) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(5,9) = 0.2 * 0.0099 * 0 = 0.00000

DeltaV(5,10) = 0.2 * 0.0034 * 0 = 0.00000

DeltaV(6,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(6,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(6,3) = 0.2 * -0.0104 * 1 = -0.00208

UNIVERSITAS SUMATERA UTARA

Page 100: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-16

DeltaV(6,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(6,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(6,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(6,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(6,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(6,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(6,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(7,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(7,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(7,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(7,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(7,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(7,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(7,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(7,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(7,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(7,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(8,1) = 0.2 * -0.0271 * 0 = 0.00000

DeltaV(8,2) = 0.2 * 0.0046 * 0 = 0.00000

DeltaV(8,3) = 0.2 * -0.0104 * 0 = 0.00000

DeltaV(8,4) = 0.2 * -0.0148 * 0 = 0.00000

DeltaV(8,5) = 0.2 * -0.0054 * 0 = 0.00000

DeltaV(8,6) = 0.2 * 0.02 * 0 = 0.000

DeltaV(8,7) = 0.2 * 0.0245 * 0 = 0.00000

DeltaV(8,8) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(8,9) = 0.2 * 0.0099 * 0 = 0.00000

DeltaV(8,10) = 0.2 * 0.0034 * 0 = 0.00000

DeltaV(9,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(9,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(9,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(9,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(9,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(9,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(9,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(9,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(9,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(9,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(10,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(10,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(10,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(10,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(10,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(10,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(10,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(10,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(10,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(10,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(11,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(11,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(11,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(11,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(11,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(11,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(11,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(11,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(11,9) = 0.2 * 0.0099 * 1 = 0.00198

UNIVERSITAS SUMATERA UTARA

Page 101: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-17

DeltaV(11,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(12,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(12,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(12,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(12,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(12,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(12,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(12,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(12,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(12,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(12,10) = 0.2 * 0.0034 * 1 = 0.00068

DeltaV(13,1) = 0.2 * -0.0271 * 0 = 0.00000

DeltaV(13,2) = 0.2 * 0.0046 * 0 = 0.00000

DeltaV(13,3) = 0.2 * -0.0104 * 0 = 0.00000

DeltaV(13,4) = 0.2 * -0.0148 * 0 = 0.00000

DeltaV(13,5) = 0.2 * -0.0054 * 0 = 0.00000

DeltaV(13,6) = 0.2 * 0.02 * 0 = 0.000

DeltaV(13,7) = 0.2 * 0.0245 * 0 = 0.00000

DeltaV(13,8) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(13,9) = 0.2 * 0.0099 * 0 = 0.00000

DeltaV(13,10) = 0.2 * 0.0034 * 0 = 0.00000

DeltaV(14,1) = 0.2 * -0.0271 * 0 = 0.00000

DeltaV(14,2) = 0.2 * 0.0046 * 0 = 0.00000

DeltaV(14,3) = 0.2 * -0.0104 * 0 = 0.00000

DeltaV(14,4) = 0.2 * -0.0148 * 0 = 0.00000

DeltaV(14,5) = 0.2 * -0.0054 * 0 = 0.00000

DeltaV(14,6) = 0.2 * 0.02 * 0 = 0.000

DeltaV(14,7) = 0.2 * 0.0245 * 0 = 0.00000

DeltaV(14,8) = 0.2 * 0.0008 * 0 = 0.00000

DeltaV(14,9) = 0.2 * 0.0099 * 0 = 0.00000

DeltaV(14,10) = 0.2 * 0.0034 * 0 = 0.00000

DeltaV(15,1) = 0.2 * -0.0271 * 1 = -0.00542

DeltaV(15,2) = 0.2 * 0.0046 * 1 = 0.00092

DeltaV(15,3) = 0.2 * -0.0104 * 1 = -0.00208

DeltaV(15,4) = 0.2 * -0.0148 * 1 = -0.00296

DeltaV(15,5) = 0.2 * -0.0054 * 1 = -0.00108

DeltaV(15,6) = 0.2 * 0.02 * 1 = 0.004

DeltaV(15,7) = 0.2 * 0.0245 * 1 = 0.00490

DeltaV(15,8) = 0.2 * 0.0008 * 1 = 0.00016

DeltaV(15,9) = 0.2 * 0.0099 * 1 = 0.00198

DeltaV(15,10) = 0.2 * 0.0034 * 1 = 0.00068

W(0,1) = -0.1363 + -0.0172 = -0.1363

W(0,2) = -0.0785 + -0.0186 = -0.0785

W(0,3) = -0.4765 + 0.0296 = -0.4765

W(0,4) = 0.1618 + -0.0295 = 0.1618

W(1,1) = -0.127 + -0.0113 = -0.127

W(1,2) = -0.1565 + -0.0122 = -0.1565

W(1,3) = -0.4698 + 0.0194 = -0.4698

W(1,4) = 0.4617 + -0.0194 = 0.4617

W(2,1) = -0.4153 + -0.0067 = -0.4153

W(2,2) = -0.1555 + -0.0072 = -0.1555

W(2,3) = -0.2254 + 0.0115 = -0.2254

W(2,4) = -0.0485 + -0.0115 = -0.0485

W(3,1) = -0.3682 + -0.0025 = -0.3682

W(3,2) = 0.3673 + -0.0027 = 0.3673

W(3,3) = -0.4499 + 0.0044 = -0.4499

UNIVERSITAS SUMATERA UTARA

Page 102: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-18

W(3,4) = 0.0828 + -0.0043 = 0.0828

W(4,1) = -0.3355 + -0.0110 = -0.3355

W(4,2) = -0.042 + -0.0119 = -0.042

W(4,3) = -0.2918 + 0.0189 = -0.2918

W(4,4) = 0.3136 + -0.0189 = 0.3136

W(5,1) = -0.2395 + -0.0110 = -0.2395

W(5,2) = 0.2907 + -0.0119 = 0.2907

W(5,3) = 0.4183 + 0.0189 = 0.4183

W(5,4) = 0.483 + -0.0188 = 0.483

W(6,1) = -0.3271 + -0.0069 = -0.3271

W(6,2) = -0.046 + -0.0074 = -0.046

W(6,3) = 0.2035 + 0.0118 = 0.2035

W(6,4) = -0.1736 + -0.0118 = -0.1736

W(7,1) = -0.0081 + -0.0079 = -0.0081

W(7,2) = -0.4586 + -0.0085 = -0.4586

W(7,3) = 0.3093 + 0.0136 = 0.3093

W(7,4) = -0.1024 + -0.0136 = -0.1024

W(8,1) = 0.0015 + -0.0081 = 0.0015

W(8,2) = 0.3307 + -0.0088 = 0.3307

W(8,3) = -0.0603 + 0.0139 = -0.0603

W(8,4) = -0.3305 + -0.0139 = -0.3305

W(9,1) = 0.4758 + -0.0115 = 0.4758

W(9,2) = -0.5219 + -0.0124 = -0.5219

W(9,3) = 0.031 + 0.0198 = 0.031

W(9,4) = -0.2759 + -0.0198 = -0.2759

W(10,1) = 0.1702 + -0.0025 = 0.1702

W(10,2) = -0.3899 + -0.0027 = -0.3899

W(10,3) = -0.1442 + 0.0043 = -0.1442

W(10,4) = -0.1961 + -0.0043 = -0.1961

V(0,1) = -0.20188 + -0.00542 = -0.20188

V(0,2) = 0.29322 + 0.00092 = 0.29322

V(0,3) = -0.30902 + -0.00208 = -0.30902

V(0,4) = -0.15202 + -0.00296 = -0.15202

V(0,5) = 0.00338 + -0.00108 = 0.00338

V(0,6) = -0.21048 + 0.004 = -0.21048

V(0,7) = -0.18544 + 0.00490 = -0.18544

V(0,8) = 0.33994 + 0.00016 = 0.33994

V(0,9) = 0.47632 + 0.00198 = 0.47632

V(0,10) = -0.3507 + 0.00068 = -0.3507

V(1,1) = -0.18446 + 0.00000 = -0.18446

V(1,2) = 0.0975 + 0.00000 = 0.0975

V(1,3) = -0.25204 + 0.00000 = -0.25204

V(1,4) = -0.43546 + 0.00000 = -0.43546

V(1,5) = 0.13316 + 0.00000 = 0.13316

V(1,6) = 0.08892 + 0.000 = 0.08892

V(1,7) = -0.35854 + 0.00000 = -0.35854

V(1,8) = 0.47788 + 0.00000 = 0.47788

V(1,9) = 0.16934 + 0.00000 = 0.16934

V(1,10) = -0.05428 + 0.00000 = -0.05428

V(2,1) = 0.09812 + -0.00542 = 0.09812

V(2,2) = 0.07402 + 0.00092 = 0.07402

V(2,3) = -0.26452 + -0.00208 = -0.26452

V(2,4) = -0.00472 + -0.00296 = -0.00472

V(2,5) = -0.37132 + -0.00108 = -0.37132

V(2,6) = -0.38128 + 0.004 = -0.38128

V(2,7) = -0.00824 + 0.00490 = -0.00824

UNIVERSITAS SUMATERA UTARA

Page 103: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-19

V(2,8) = 0.07814 + 0.00016 = 0.07814

V(2,9) = -0.07528 + 0.00198 = -0.07528

V(2,10) = 0.2696 + 0.00068 = 0.2696

V(3,1) = 0.29132 + -0.00542 = 0.29132

V(3,2) = 0.14182 + 0.00092 = 0.14182

V(3,3) = -0.11552 + -0.00208 = -0.11552

V(3,4) = 0.25688 + -0.00296 = 0.25688

V(3,5) = -0.00532 + -0.00108 = -0.00532

V(3,6) = -0.16548 + 0.004 = -0.16548

V(3,7) = 0.46616 + 0.00490 = 0.46616

V(3,8) = 0.04114 + 0.00016 = 0.04114

V(3,9) = 0.39882 + 0.00198 = 0.39882

V(3,10) = -0.301 + 0.00068 = -0.301

V(4,1) = -0.42002 + -0.00542 = -0.42002

V(4,2) = -0.37888 + 0.00092 = -0.37888

V(4,3) = 0.49462 + -0.00208 = 0.49462

V(4,4) = 0.26294 + -0.00296 = 0.26294

V(4,5) = 0.47642 + -0.00108 = 0.47642

V(4,6) = 0.2875 + 0.004 = 0.2875

V(4,7) = 0.0696 + 0.00490 = 0.0696

V(4,8) = -0.49684 + 0.00016 = -0.49684

V(4,9) = -0.10132 + 0.00198 = -0.10132

V(4,10) = -0.10222 + 0.00068 = -0.10222

V(5,1) = -0.2337 + 0.00000 = -0.2337

V(5,2) = -0.3787 + 0.00000 = -0.3787

V(5,3) = 0.0528 + 0.00000 = 0.0528

V(5,4) = -0.4651 + 0.00000 = -0.4651

V(5,5) = 0.1596 + 0.00000 = 0.1596

V(5,6) = 0.2307 + 0.000 = 0.2307

V(5,7) = 0.0521 + 0.00000 = 0.0521

V(5,8) = 0.1978 + 0.00000 = 0.1978

V(5,9) = -0.2821 + 0.00000 = -0.2821

V(5,10) = -0.1104 + 0.00000 = -0.1104

V(6,1) = 0.29652 + -0.00542 = 0.29652

V(6,2) = 0.23202 + 0.00092 = 0.23202

V(6,3) = -0.08212 + -0.00208 = -0.08212

V(6,4) = -0.29282 + -0.00296 = -0.29282

V(6,5) = -0.14672 + -0.00108 = -0.14672

V(6,6) = 0.17902 + 0.004 = 0.17902

V(6,7) = -0.28644 + 0.00490 = -0.28644

V(6,8) = -0.01196 + 0.00016 = -0.01196

V(6,9) = 0.06672 + 0.00198 = 0.06672

V(6,10) = -0.1962 + 0.00068 = -0.1962

V(7,1) = 0.12248 + -0.00542 = 0.12248

V(7,2) = 0.09772 + 0.00092 = 0.09772

V(7,3) = -0.41868 + -0.00208 = -0.41868

V(7,4) = -0.03066 + -0.00296 = -0.03066

V(7,5) = -0.14138 + -0.00108 = -0.14138

V(7,6) = -0.0154 + 0.004 = -0.0154

V(7,7) = 0.0782 + 0.00490 = 0.0782

V(7,8) = -0.02864 + 0.00016 = -0.02864

V(7,9) = 0.01928 + 0.00198 = 0.01928

V(7,10) = -0.15322 + 0.00068 = -0.15322

V(8,1) = 0.05284 + 0.00000 = 0.05284

V(8,2) = -0.0136 + 0.00000 = -0.0136

V(8,3) = -0.31514 + 0.00000 = -0.31514

UNIVERSITAS SUMATERA UTARA

Page 104: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-20

V(8,4) = -0.47016 + 0.00000 = -0.47016

V(8,5) = 0.00226 + 0.00000 = 0.00226

V(8,6) = 0.17272 + 0.000 = 0.17272

V(8,7) = -0.41454 + 0.00000 = -0.41454

V(8,8) = -0.15202 + 0.00000 = -0.15202

V(8,9) = -0.40396 + 0.00000 = -0.40396

V(8,10) = 0.26542 + 0.00000 = 0.26542

V(9,1) = 0.27572 + -0.00542 = 0.27572

V(9,2) = -0.23298 + 0.00092 = -0.23298

V(9,3) = -0.17532 + -0.00208 = -0.17532

V(9,4) = 0.00848 + -0.00296 = 0.00848

V(9,5) = -0.10222 + -0.00108 = -0.10222

V(9,6) = -0.13848 + 0.004 = -0.13848

V(9,7) = 0.20606 + 0.00490 = 0.20606

V(9,8) = 0.28684 + 0.00016 = 0.28684

V(9,9) = -0.08708 + 0.00198 = -0.08708

V(9,10) = -0.1962 + 0.00068 = -0.1962

V(10,1) = 0.07272 + -0.00542 = 0.07272

V(10,2) = -0.42248 + 0.00092 = -0.42248

V(10,3) = -0.06412 + -0.00208 = -0.06412

V(10,4) = -0.40542 + -0.00296 = -0.40542

V(10,5) = 0.26828 + -0.00108 = 0.26828

V(10,6) = 0.17362 + 0.004 = 0.17362

V(10,7) = -0.45674 + 0.00490 = -0.45674

V(10,8) = -0.42256 + 0.00016 = -0.42256

V(10,9) = 0.17642 + 0.00198 = 0.17642

V(10,10) = -0.3198 + 0.00068 = -0.3198

V(11,1) = -0.34802 + -0.00542 = -0.34802

V(11,2) = -0.41818 + 0.00092 = -0.41818

V(11,3) = -0.32158 + -0.00208 = -0.32158

V(11,4) = 0.36884 + -0.00296 = 0.36884

V(11,5) = 0.33862 + -0.00108 = 0.33862

V(11,6) = -0.1803 + 0.004 = -0.1803

V(11,7) = 0.0485 + 0.00490 = 0.0485

V(11,8) = -0.10674 + 0.00016 = -0.10674

V(11,9) = 0.20658 + 0.00198 = 0.20658

V(11,10) = 0.18228 + 0.00068 = 0.18228

V(12,1) = 0.08732 + -0.00542 = 0.08732

V(12,2) = 0.36102 + 0.00092 = 0.36102

V(12,3) = -0.10722 + -0.00208 = -0.10722

V(12,4) = 0.30118 + -0.00296 = 0.30118

V(12,5) = 0.02338 + -0.00108 = 0.02338

V(12,6) = -0.13098 + 0.004 = -0.13098

V(12,7) = -0.22414 + 0.00490 = -0.22414

V(12,8) = 0.07244 + 0.00016 = 0.07244

V(12,9) = -0.42518 + 0.00198 = -0.42518

V(12,10) = -0.4965 + 0.00068 = -0.4965

V(13,1) = 0.28274 + 0.00000 = 0.28274

V(13,2) = 0.2865 + 0.00000 = 0.2865

V(13,3) = -0.44014 + 0.00000 = -0.44014

V(13,4) = -0.28196 + 0.00000 = -0.28196

V(13,5) = 0.27106 + 0.00000 = 0.27106

V(13,6) = -0.02348 + 0.000 = -0.02348

V(13,7) = -0.45374 + 0.00000 = -0.45374

V(13,8) = -0.41292 + 0.00000 = -0.41292

V(13,9) = -0.24356 + 0.00000 = -0.24356

UNIVERSITAS SUMATERA UTARA

Page 105: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-21

V(13,10) = 0.33322 + 0.00000 = 0.33322

V(14,1) = 0.13754 + 0.00000 = 0.13754

V(14,2) = -0.4924 + 0.00000 = -0.4924

V(14,3) = 0.17656 + 0.00000 = 0.17656

V(14,4) = 0.42114 + 0.00000 = 0.42114

V(14,5) = 0.10756 + 0.00000 = 0.10756

V(14,6) = 0.19752 + 0.000 = 0.19752

V(14,7) = -0.41704 + 0.00000 = -0.41704

V(14,8) = -0.04862 + 0.00000 = -0.04862

V(14,9) = 0.16754 + 0.00000 = 0.16754

V(14,10) = -0.41658 + 0.00000 = -0.41658

V(15,1) = 0.31122 + -0.00542 = 0.31122

V(15,2) = -0.18838 + 0.00092 = -0.18838

V(15,3) = -0.41622 + -0.00208 = -0.41622

V(15,4) = 0.23068 + -0.00296 = 0.23068

V(15,5) = 0.21178 + -0.00108 = 0.21178

V(15,6) = 0.22232 + 0.004 = 0.22232

V(15,7) = 0.18446 + 0.00490 = 0.18446

V(15,8) = 0.13384 + 0.00016 = 0.13384

V(15,9) = 0.07102 + 0.00198 = 0.07102

V(15,10) = -0.0945 + 0.00068 = -0.0945

Proses pelatihan terus berulang dari epoh 2 sampai epoh ke-25,

sehingga didapatkan bobot baru akhir sebagai berikut :

W(0,1) = -0.4712 + -0.0032 = -0.4712

W(0,2) = -0.4453 + -0.0026 = -0.4453

W(0,3) = -0.3146 + 0.0220 = -0.3146

W(0,4) = 0.0609999999999999 + -0.0231 = 0.0609999999999999

W(1,1) = -0.3629 + -0.0016 = -0.3629

W(1,2) = -0.4211 + -0.0012 = -0.4211

W(1,3) = -0.4923 + 0.0107 = -0.4923

W(1,4) = 0.5361 + -0.0112 = 0.5361

W(2,1) = -0.5888 + -0.0016 = -0.5888

W(2,2) = -0.3495 + -0.0013 = -0.3495

W(2,3) = -0.23 + 0.0108 = -0.23

W(2,4) = -0.00700000000000002 + -0.0114 = -0.00700000000000002

W(3,1) = -0.4044 + -0.0004 = -0.4044

W(3,2) = 0.3291 + -0.0003 = 0.3291

W(3,3) = -0.4063 + 0.0026 = -0.4063

W(3,4) = 0.0448 + -0.0027 = 0.0448

W(4,1) = -0.5 + -0.0021 = -0.5

W(4,2) = -0.2137 + -0.0017 = -0.2137

W(4,3) = -0.0556000000000001 + 0.0145 = -0.0556000000000001

W(4,4) = 0.0970000000000001 + -0.0152 = 0.0970000000000001

W(5,1) = -0.4492 + -0.0021 = -0.4492

W(5,2) = 0.0617000000000001 + -0.0017 = 0.0617000000000001

W(5,3) = 0.5391 + 0.0147 = 0.5391

W(5,4) = 0.399 + -0.0154 = 0.399

W(6,1) = -0.4983 + -0.0019 = -0.4983

W(6,2) = -0.2344 + -0.0015 = -0.2344

W(6,3) = 0.2606 + 0.0127 = 0.2606

W(6,4) = -0.1977 + -0.0134 = -0.1977

W(7,1) = -0.1299 + -0.0023 = -0.1299

W(7,2) = -0.5801 + -0.0018 = -0.5801

W(7,3) = 0.6043 + 0.0156 = 0.6043

W(7,4) = -0.3907 + -0.0163 = -0.3907

W(8,1) = -0.1701 + -0.0015 = -0.1701

UNIVERSITAS SUMATERA UTARA

Page 106: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-22

W(8,2) = 0.1404 + -0.0012 = 0.1404

W(8,3) = -0.0257 + 0.0105 = -0.0257

W(8,4) = -0.3302 + -0.0110 = -0.3302

W(9,1) = 0.2603 + -0.0024 = 0.2603

W(9,2) = -0.7542 + -0.0019 = -0.7542

W(9,3) = 0.2056 + 0.0164 = 0.2056

W(9,4) = -0.4157 + -0.0172 = -0.4157

W(10,1) = 0.1135 + -0.0005 = 0.1135

W(10,2) = -0.4526 + -0.0004 = -0.4526

W(10,3) = -0.1319 + 0.0036 = -0.1319

W(10,4) = -0.1973 + -0.0038 = -0.1973

V(0,1) = -0.24334 + -0.00536 = -0.24334

V(0,2) = 0.34308 + -0.00066 = 0.34308

V(0,3) = -0.32614 + -0.0010 = -0.32614

V(0,4) = -0.12648 + -0.00046 = -0.12648

V(0,5) = 0.01782 + 0.00072 = 0.01782

V(0,6) = -0.1541 + 0.00290 = -0.1541

V(0,7) = -0.10018 + 0.00488 = -0.10018

V(0,8) = 0.3291 + 0.00168 = 0.3291

V(0,9) = 0.4975 + 0.00276 = 0.4975

V(0,10) = -0.33728 + 0.00032 = -0.33728

V(1,1) = -0.10126 + 0.00000 = -0.10126

V(1,2) = 0.1471 + 0.00000 = 0.1471

V(1,3) = -0.23556 + 0.0000 = -0.23556

V(1,4) = -0.37542 + 0.00000 = -0.37542

V(1,5) = 0.1362 + 0.00000 = 0.1362

V(1,6) = 0.05964 + 0.00000 = 0.05964

V(1,7) = -0.39286 + 0.00000 = -0.39286

V(1,8) = 0.42794 + 0.00000 = 0.42794

V(1,9) = 0.12494 + 0.00000 = 0.12494

V(1,10) = -0.05144 + 0.00000 = -0.05144

V(2,1) = 0.05666 + -0.00536 = 0.05666

V(2,2) = 0.12388 + -0.00066 = 0.12388

V(2,3) = -0.28164 + -0.0010 = -0.28164

V(2,4) = 0.02082 + -0.00046 = 0.02082

V(2,5) = -0.35688 + 0.00072 = -0.35688

V(2,6) = -0.3249 + 0.00290 = -0.3249

V(2,7) = 0.07702 + 0.00488 = 0.07702

V(2,8) = 0.0673 + 0.00168 = 0.0673

V(2,9) = -0.0541 + 0.00276 = -0.0541

V(2,10) = 0.28302 + 0.00032 = 0.28302

V(3,1) = 0.24986 + -0.00536 = 0.24986

V(3,2) = 0.19168 + -0.00066 = 0.19168

V(3,3) = -0.13264 + -0.0010 = -0.13264

V(3,4) = 0.28242 + -0.00046 = 0.28242

V(3,5) = 0.00912 + 0.00072 = 0.00912

V(3,6) = -0.1091 + 0.00290 = -0.1091

V(3,7) = 0.55142 + 0.00488 = 0.55142

V(3,8) = 0.0303 + 0.00168 = 0.0303

V(3,9) = 0.42 + 0.00276 = 0.42

V(3,10) = -0.28758 + 0.00032 = -0.28758

V(4,1) = -0.54468 + -0.00536 = -0.54468

V(4,2) = -0.37862 + -0.00066 = -0.37862

V(4,3) = 0.46102 + -0.0010 = 0.46102

V(4,4) = 0.22844 + -0.00046 = 0.22844

V(4,5) = 0.48782 + 0.00072 = 0.48782

UNIVERSITAS SUMATERA UTARA

Page 107: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-23

V(4,6) = 0.37316 + 0.00290 = 0.37316

V(4,7) = 0.18918 + 0.00488 = 0.18918

V(4,8) = -0.45774 + 0.00168 = -0.45774

V(4,9) = -0.0357400000000001 + 0.00276 = -0.0357400000000001

V(4,10) = -0.09164 + 0.00032 = -0.09164

V(5,1) = -0.2337 + 0.00000 = -0.2337

V(5,2) = -0.3787 + 0.00000 = -0.3787

V(5,3) = 0.0528 + 0.0000 = 0.0528

V(5,4) = -0.4651 + 0.00000 = -0.4651

V(5,5) = 0.1596 + 0.00000 = 0.1596

V(5,6) = 0.2307 + 0.00000 = 0.2307

V(5,7) = 0.0521 + 0.00000 = 0.0521

V(5,8) = 0.1978 + 0.00000 = 0.1978

V(5,9) = -0.2821 + 0.00000 = -0.2821

V(5,10) = -0.1104 + 0.00000 = -0.1104

V(6,1) = 0.25506 + -0.00536 = 0.25506

V(6,2) = 0.28188 + -0.00066 = 0.28188

V(6,3) = -0.09924 + -0.0010 = -0.09924

V(6,4) = -0.26728 + -0.00046 = -0.26728

V(6,5) = -0.13228 + 0.00072 = -0.13228

V(6,6) = 0.2354 + 0.00290 = 0.2354

V(6,7) = -0.20118 + 0.00488 = -0.20118

V(6,8) = -0.0228 + 0.00168 = -0.0228

V(6,9) = 0.0879 + 0.00276 = 0.0879

V(6,10) = -0.18278 + 0.00032 = -0.18278

V(7,1) = -0.00217999999999996 + -0.00536 = -0.00217999999999996

V(7,2) = 0.09798 + -0.00066 = 0.09798

V(7,3) = -0.45228 + -0.0010 = -0.45228

V(7,4) = -0.06516 + -0.00046 = -0.06516

V(7,5) = -0.12998 + 0.00072 = -0.12998

V(7,6) = 0.07026 + 0.00290 = 0.07026

V(7,7) = 0.19778 + 0.00488 = 0.19778

V(7,8) = 0.01046 + 0.00168 = 0.01046

V(7,9) = 0.08486 + 0.00276 = 0.08486

V(7,10) = -0.14264 + 0.00032 = -0.14264

V(8,1) = 0.13604 + 0.00000 = 0.13604

V(8,2) = 0.036 + 0.00000 = 0.036

V(8,3) = -0.29866 + 0.0000 = -0.29866

V(8,4) = -0.41012 + 0.00000 = -0.41012

V(8,5) = 0.0053 + 0.00000 = 0.0053

V(8,6) = 0.14344 + 0.00000 = 0.14344

V(8,7) = -0.44886 + 0.00000 = -0.44886

V(8,8) = -0.20196 + 0.00000 = -0.20196

V(8,9) = -0.44836 + 0.00000 = -0.44836

V(8,10) = 0.26826 + 0.00000 = 0.26826

V(9,1) = 0.23426 + -0.00536 = 0.23426

V(9,2) = -0.18312 + -0.00066 = -0.18312

V(9,3) = -0.19244 + -0.0010 = -0.19244

V(9,4) = 0.03402 + -0.00046 = 0.03402

V(9,5) = -0.08778 + 0.00072 = -0.08778

V(9,6) = -0.0821 + 0.00290 = -0.0821

V(9,7) = 0.29132 + 0.00488 = 0.29132

V(9,8) = 0.276 + 0.00168 = 0.276

V(9,9) = -0.0659 + 0.00276 = -0.0659

V(9,10) = -0.18278 + 0.00032 = -0.18278

V(10,1) = 0.03126 + -0.00536 = 0.03126

UNIVERSITAS SUMATERA UTARA

Page 108: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-24

V(10,2) = -0.37262 + -0.00066 = -0.37262

V(10,3) = -0.08124 + -0.0010 = -0.08124

V(10,4) = -0.37988 + -0.00046 = -0.37988

V(10,5) = 0.28272 + 0.00072 = 0.28272

V(10,6) = 0.23 + 0.00290 = 0.23

V(10,7) = -0.37148 + 0.00488 = -0.37148

V(10,8) = -0.4334 + 0.00168 = -0.4334

V(10,9) = 0.1976 + 0.00276 = 0.1976

V(10,10) = -0.30638 + 0.00032 = -0.30638

V(11,1) = -0.47268 + -0.00536 = -0.47268

V(11,2) = -0.41792 + -0.00066 = -0.41792

V(11,3) = -0.35518 + -0.0010 = -0.35518

V(11,4) = 0.33434 + -0.00046 = 0.33434

V(11,5) = 0.35002 + 0.00072 = 0.35002

V(11,6) = -0.09464 + 0.00290 = -0.09464

V(11,7) = 0.16808 + 0.00488 = 0.16808

V(11,8) = -0.06764 + 0.00168 = -0.06764

V(11,9) = 0.27216 + 0.00276 = 0.27216

V(11,10) = 0.19286 + 0.00032 = 0.19286

V(12,1) = 0.04586 + -0.00536 = 0.04586

V(12,2) = 0.41088 + -0.00066 = 0.41088

V(12,3) = -0.12434 + -0.0010 = -0.12434

V(12,4) = 0.32672 + -0.00046 = 0.32672

V(12,5) = 0.03782 + 0.00072 = 0.03782

V(12,6) = -0.0746 + 0.00290 = -0.0746

V(12,7) = -0.13888 + 0.00488 = -0.13888

V(12,8) = 0.0616 + 0.00168 = 0.0616

V(12,9) = -0.404 + 0.00276 = -0.404

V(12,10) = -0.48308 + 0.00032 = -0.48308

V(13,1) = 0.36594 + 0.00000 = 0.36594

V(13,2) = 0.3361 + 0.00000 = 0.3361

V(13,3) = -0.42366 + 0.0000 = -0.42366

V(13,4) = -0.22192 + 0.00000 = -0.22192

V(13,5) = 0.2741 + 0.00000 = 0.2741

V(13,6) = -0.05276 + 0.00000 = -0.05276

V(13,7) = -0.48806 + 0.00000 = -0.48806

V(13,8) = -0.46286 + 0.00000 = -0.46286

V(13,9) = -0.28796 + 0.00000 = -0.28796

V(13,10) = 0.33606 + 0.00000 = 0.33606

V(14,1) = 0.22074 + 0.00000 = 0.22074

V(14,2) = -0.4428 + 0.00000 = -0.4428

V(14,3) = 0.19304 + 0.0000 = 0.19304

V(14,4) = 0.48118 + 0.00000 = 0.48118

V(14,5) = 0.1106 + 0.00000 = 0.1106

V(14,6) = 0.16824 + 0.00000 = 0.16824

V(14,7) = -0.45136 + 0.00000 = -0.45136

V(14,8) = -0.09856 + 0.00000 = -0.09856

V(14,9) = 0.12314 + 0.00000 = 0.12314

V(14,10) = -0.41374 + 0.00000 = -0.41374

V(15,1) = 0.26976 + -0.00536 = 0.26976

V(15,2) = -0.13852 + -0.00066 = -0.13852

V(15,3) = -0.43334 + -0.0010 = -0.43334

V(15,4) = 0.25622 + -0.00046 = 0.25622

V(15,5) = 0.22622 + 0.00072 = 0.22622

V(15,6) = 0.2787 + 0.00290 = 0.2787

V(15,7) = 0.26972 + 0.00488 = 0.26972

UNIVERSITAS SUMATERA UTARA

Page 109: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-25

2. Lampiran Pengujian

Data Input = "111001011101111"

ntemp = -0.10126 + 1 x -0.10126

ntemp = -0.0446 + 1 x 0.05666

ntemp = 0.20526 + 1 x 0.24986

ntemp = 0.20526 + 0 x -0.54468

ntemp = 0.20526 + 0 x -0.2337

ntemp = 0.46032 + 1 x 0.25506

ntemp = 0.46032 + 0 x -0.00217999999999996

ntemp = 0.59636 + 1 x 0.13604

ntemp = 0.83062 + 1 x 0.23426

ntemp = 0.86188 + 1 x 0.03126

ntemp = 0.86188 + 0 x -0.47268

ntemp = 0.90774 + 1 x 0.04586

ntemp = 1.27368 + 1 x 0.36594

ntemp = 1.49442 + 1 x 0.22074

ntemp = 1.76418 + 1 x 0.26976

z_in(1) = -0.24334 + 1.7642 = 1.52086

z(1) = 0.8207

ntemp = 0.1471 + 1 x 0.1471

ntemp = 0.27098 + 1 x 0.12388

ntemp = 0.46266 + 1 x 0.19168

ntemp = 0.46266 + 0 x -0.37862

ntemp = 0.46266 + 0 x -0.3787

ntemp = 0.74454 + 1 x 0.28188

ntemp = 0.74454 + 0 x 0.09798

ntemp = 0.78054 + 1 x 0.036

ntemp = 0.59742 + 1 x -0.18312

ntemp = 0.2248 + 1 x -0.37262

ntemp = 0.2248 + 0 x -0.41792

ntemp = 0.63568 + 1 x 0.41088

ntemp = 0.97178 + 1 x 0.3361

ntemp = 0.52898 + 1 x -0.4428

ntemp = 0.39046 + 1 x -0.13852

z_in(2) = 0.34308 + 0.3905 = 0.73358

z(2) = 0.6756

ntemp = -0.23556 + 1 x -0.23556

ntemp = -0.5172 + 1 x -0.28164

ntemp = -0.64984 + 1 x -0.13264

ntemp = -0.64984 + 0 x 0.46102

ntemp = -0.64984 + 0 x 0.0528

ntemp = -0.74908 + 1 x -0.09924

ntemp = -0.74908 + 0 x -0.45228

ntemp = -1.04774 + 1 x -0.29866

ntemp = -1.24018 + 1 x -0.19244

ntemp = -1.32142 + 1 x -0.08124

ntemp = -1.32142 + 0 x -0.35518

ntemp = -1.44576 + 1 x -0.12434

V(15,8) = 0.123 + 0.00168 = 0.123

V(15,9) = 0.0922 + 0.00276 = 0.0922

V(15,10) = -0.08108 + 0.00032 = -0.08108

Nilai akhir bobot V dan W akan disimpan ke dalam database untuk

digunakan dalam fase pungujian.

UNIVERSITAS SUMATERA UTARA

Page 110: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-26

ntemp = -1.86942 + 1 x -0.42366

ntemp = -1.67638 + 1 x 0.19304

ntemp = -2.10972 + 1 x -0.43334

z_in(3) = -0.32614 + -2.1097 = -2.43584

z(3) = 0.0805

ntemp = -0.37542 + 1 x -0.37542

ntemp = -0.3546 + 1 x 0.02082

ntemp = -0.07218 + 1 x 0.28242

ntemp = -0.07218 + 0 x 0.22844

ntemp = -0.07218 + 0 x -0.4651

ntemp = -0.33946 + 1 x -0.26728

ntemp = -0.33946 + 0 x -0.06516

ntemp = -0.74958 + 1 x -0.41012

ntemp = -0.71556 + 1 x 0.03402

ntemp = -1.09544 + 1 x -0.37988

ntemp = -1.09544 + 0 x 0.33434

ntemp = -0.76872 + 1 x 0.32672

ntemp = -0.99064 + 1 x -0.22192

ntemp = -0.50946 + 1 x 0.48118

ntemp = -0.25324 + 1 x 0.25622

z_in(4) = -0.12648 + -0.2532 = -0.37968

z(4) = 0.4062

ntemp = 0.1362 + 1 x 0.1362

ntemp = -0.22068 + 1 x -0.35688

ntemp = -0.21156 + 1 x 0.00912

ntemp = -0.21156 + 0 x 0.48782

ntemp = -0.21156 + 0 x 0.1596

ntemp = -0.34384 + 1 x -0.13228

ntemp = -0.34384 + 0 x -0.12998

ntemp = -0.33854 + 1 x 0.0053

ntemp = -0.42632 + 1 x -0.08778

ntemp = -0.1436 + 1 x 0.28272

ntemp = -0.1436 + 0 x 0.35002

ntemp = -0.10578 + 1 x 0.03782

ntemp = 0.16832 + 1 x 0.2741

ntemp = 0.27892 + 1 x 0.1106

ntemp = 0.50514 + 1 x 0.22622

z_in(5) = 0.01782 + 0.5051 = 0.52292

z(5) = 0.6278

ntemp = 0.05964 + 1 x 0.05964

ntemp = -0.26526 + 1 x -0.3249

ntemp = -0.37436 + 1 x -0.1091

ntemp = -0.37436 + 0 x 0.37316

ntemp = -0.37436 + 0 x 0.2307

ntemp = -0.13896 + 1 x 0.2354

ntemp = -0.13896 + 0 x 0.07026

ntemp = 0.00447999999999998 + 1 x 0.14344

ntemp = -0.07762 + 1 x -0.0821

ntemp = 0.15238 + 1 x 0.23

ntemp = 0.15238 + 0 x -0.09464

ntemp = 0.07778 + 1 x -0.0746

ntemp = 0.02502 + 1 x -0.05276

ntemp = 0.19326 + 1 x 0.16824

ntemp = 0.47196 + 1 x 0.2787

z_in(6) = -0.1541 + 0.472 = 0.3179

z(6) = 0.5788

UNIVERSITAS SUMATERA UTARA

Page 111: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-27

ntemp = -0.39286 + 1 x -0.39286

ntemp = -0.31584 + 1 x 0.07702

ntemp = 0.23558 + 1 x 0.55142

ntemp = 0.23558 + 0 x 0.18918

ntemp = 0.23558 + 0 x 0.0521

ntemp = 0.0344 + 1 x -0.20118

ntemp = 0.0344 + 0 x 0.19778

ntemp = -0.41446 + 1 x -0.44886

ntemp = -0.12314 + 1 x 0.29132

ntemp = -0.49462 + 1 x -0.37148

ntemp = -0.49462 + 0 x 0.16808

ntemp = -0.6335 + 1 x -0.13888

ntemp = -1.12156 + 1 x -0.48806

ntemp = -1.57292 + 1 x -0.45136

ntemp = -1.3032 + 1 x 0.26972

z_in(7) = -0.10018 + -1.3032 = -1.40338

z(7) = 0.1973

ntemp = 0.42794 + 1 x 0.42794

ntemp = 0.49524 + 1 x 0.0673

ntemp = 0.52554 + 1 x 0.0303

ntemp = 0.52554 + 0 x -0.45774

ntemp = 0.52554 + 0 x 0.1978

ntemp = 0.50274 + 1 x -0.0228

ntemp = 0.50274 + 0 x 0.01046

ntemp = 0.30078 + 1 x -0.20196

ntemp = 0.57678 + 1 x 0.276

ntemp = 0.14338 + 1 x -0.4334

ntemp = 0.14338 + 0 x -0.06764

ntemp = 0.20498 + 1 x 0.0616

ntemp = -0.25788 + 1 x -0.46286

ntemp = -0.35644 + 1 x -0.09856

ntemp = -0.23344 + 1 x 0.123

z_in(8) = 0.3291 + -0.2334 = 0.0957

z(8) = 0.5239

ntemp = 0.12494 + 1 x 0.12494

ntemp = 0.07084 + 1 x -0.0541

ntemp = 0.49084 + 1 x 0.42

ntemp = 0.49084 + 0 x -0.0357400000000001

ntemp = 0.49084 + 0 x -0.2821

ntemp = 0.57874 + 1 x 0.0879

ntemp = 0.57874 + 0 x 0.08486

ntemp = 0.13038 + 1 x -0.44836

ntemp = 0.0644799999999999 + 1 x -0.0659

ntemp = 0.26208 + 1 x 0.1976

ntemp = 0.26208 + 0 x 0.27216

ntemp = -0.14192 + 1 x -0.404

ntemp = -0.42988 + 1 x -0.28796

ntemp = -0.30674 + 1 x 0.12314

ntemp = -0.21454 + 1 x 0.0922

z_in(9) = 0.4975 + -0.2145 = 0.283

z(9) = 0.5703

ntemp = -0.05144 + 1 x -0.05144

ntemp = 0.23158 + 1 x 0.28302

ntemp = -0.056 + 1 x -0.28758

ntemp = -0.056 + 0 x -0.09164

ntemp = -0.056 + 0 x -0.1104

UNIVERSITAS SUMATERA UTARA

Page 112: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-28

ntemp = -0.23878 + 1 x -0.18278

ntemp = -0.23878 + 0 x -0.14264

ntemp = 0.02948 + 1 x 0.26826

ntemp = -0.1533 + 1 x -0.18278

ntemp = -0.45968 + 1 x -0.30638

ntemp = -0.45968 + 0 x 0.19286

ntemp = -0.94276 + 1 x -0.48308

ntemp = -0.6067 + 1 x 0.33606

ntemp = -1.02044 + 1 x -0.41374

ntemp = -1.10152 + 1 x -0.08108

z_in(10) = -0.33728 + -1.1015 = -1.43878

z(10) = 0.1917

ntemp = -0.29783203 + 0.8207 x -0.3629

ntemp = -0.69562531 + 0.6756 x -0.5888

ntemp = -0.72817951 + 0.0805 x -0.4044

ntemp = -0.93127951 + 0.4062 x -0.5

ntemp = -1.21328727 + 0.6278 x -0.4492

ntemp = -1.50170331 + 0.5788 x -0.4983

ntemp = -1.52733258 + 0.1973 x -0.1299

ntemp = -1.61644797 + 0.5239 x -0.1701

ntemp = -1.46799888 + 0.5703 x 0.2603

ntemp = -1.44624093 + 0.1917 x 0.1135

y_in(1) = -0.4712 + -1.4462 = -1.9174

y(1) = 0.1282

ntemp = -0.34559677 + 0.8207 x -0.4211

ntemp = -0.58171897 + 0.6756 x -0.3495

ntemp = -0.55522642 + 0.0805 x 0.3291

ntemp = -0.64203136 + 0.4062 x -0.2137

ntemp = -0.6032961 + 0.6278 x 0.0617000000000001

ntemp = -0.73896682 + 0.5788 x -0.2344

ntemp = -0.85342055 + 0.1973 x -0.5801

ntemp = -0.77986499 + 0.5239 x 0.1404

ntemp = -1.20998525 + 0.5703 x -0.7542

ntemp = -1.29674867 + 0.1917 x -0.4526

y_in(2) = -0.4453 + -1.2967 = -1.742

y(2) = 0.1491

ntemp = -0.40403061 + 0.8207 x -0.4923

ntemp = -0.55941861 + 0.6756 x -0.23

ntemp = -0.59212576 + 0.0805 x -0.4063

ntemp = -0.61471048 + 0.4062 x -0.0556000000000001

ntemp = -0.2762635 + 0.6278 x 0.5391

ntemp = -0.12542822 + 0.5788 x 0.2606

ntemp = -0.00619983000000007 + 0.1973 x 0.6043

ntemp = -0.0196640600000001 + 0.5239 x -0.0257

ntemp = 0.0975896199999999 + 0.5703 x 0.2056

ntemp = 0.0723043899999999 + 0.1917 x -0.1319

y_in(3) = -0.3146 + 0.0723 = -0.2423

y(3) = 0.4397

ntemp = 0.43997727 + 0.8207 x 0.5361

ntemp = 0.43524807 + 0.6756 x -0.00700000000000002

ntemp = 0.43885447 + 0.0805 x 0.0448

ntemp = 0.47825587 + 0.4062 x 0.0970000000000001

ntemp = 0.72874807 + 0.6278 x 0.399

ntemp = 0.61431931 + 0.5788 x -0.1977

ntemp = 0.5372342 + 0.1973 x -0.3907

ntemp = 0.36424242 + 0.5239 x -0.3302

UNIVERSITAS SUMATERA UTARA

Page 113: PENGOPTIMALAN AKURASI PENGENALAN POLA …

A-29

ntemp = 0.12716871 + 0.5703 x -0.4157

ntemp = 0.0893463 + 0.1917 x -0.1973

y_in(4) = 0.0609999999999999 + 0.0893 = 0.1503

y(4) = 0.5375

Diambil nilai batas = 0.5

y(1) = 0.1282 < 0.5 --> dibulatkan menjadi 0

y(2) = 0.1491 < 0.5 --> dibulatkan menjadi 0

y(3) = 0.4397 < 0.5 --> dibulatkan menjadi 0

y(4) = 0.5375 ≥ 0.5 --> dibulatkan menjadi 1

Hasil = 0001

Pada contoh di atas, bit output yang dihasilkan adalah nilai

y(1), y(2), y(3), dan y(4). Sehingga huruf yang ditunjuk adalah

huruf yang memiliki target / bit output = 0001, huruf yang

memiliki bit output 0001 adalah huruf “a“ sesuai gambar 3.18.

Dengan demikian, huruf “a“ pada contoh proses perhitungan

backpropagation ini dapat dikenali dengan baik.

UNIVERSITAS SUMATERA UTARA