format laporan akhir images processing.docx

21
TUGAS PENGENALAN POLA KLASIFIKASI BUAH BELIMBING BERDASARKAN CITRA RED-GREEN-BLUE DAN RED- GREEN MENGGUNAKAN KNN DAN LDA OLEH : 1. Nursinta Adi Wahdani G651090171 2. Retno Nugroho Widhiasih G651090131 3. Supriyanto G651090191 Dosen : Dr. Ir. Agus Buono, M.Si, M.Kom DEPARTEMEN ILMU KOMPUTER SEKOLAH PASCA SARJANA INSTITUT PERTANIAN BOGOR

Upload: khaidir-ali

Post on 12-Dec-2014

114 views

Category:

Documents


5 download

TRANSCRIPT

Page 1: Format Laporan Akhir Images Processing.docx

TUGAS PENGENALAN POLA

KLASIFIKASI BUAH BELIMBING BERDASARKAN CITRA RED-GREEN-BLUE DAN

RED-GREEN MENGGUNAKAN KNN DAN LDA

OLEH :

1. Nursinta Adi Wahdani G651090171

2. Retno Nugroho Widhiasih G651090131

3. Supriyanto G651090191

Dosen :

Dr. Ir. Agus Buono, M.Si, M.Kom

DEPARTEMEN ILMU KOMPUTERSEKOLAH PASCA SARJANA

INSTITUT PERTANIAN BOGORBOGOR

2010

Page 2: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

KLASIFIKASI BUAH BELIMBING BERDASARKAN CITRA RED-GREEN-BLUE DAN RED-GREEN MENGGUNAKAN KNN DAN LDA

Nursinta Adi Wahanani1, Retno Nugroho Whidhiasih2, Supriyanto3

1,2,3 Departemen Ilmu Komputer IPB, FMIPA, [email protected], [email protected], [email protected]

ABSTRAK

Paper ini akan mebandingkan metode klasifikasi K-nearest neigbourhood (KNN) dan Linear Discriminant Analysis (LDA) dengan variabel R-G dan R-G-B dari citra buah belimbing untuk memprediksi tingkat kemanisan buah belimbing. Pengenalan digunakan untuk mengelompokkan buah belimbing menjadi tiga kelas yaitu kelas manis, sedang dan asam. Pada tahapan pra proses dilakukan reduksi citra dengan menggunakan analisis komponen utama 2 dimensi (2D-PCA). Hasil yang didapatkan dari penelitian ini menyatakan bahwa metode KNN dengan variabel RG menghasilkan akurasi sebesar 80 %, sedang KNN dengan variabel RGB menghasilkan akurasi sebesar 91 %. Teknik LDA dengan ukuran jarak mahalanobis menghasilkan akurasi sebesar 91 %.

Kata kunci : KNN, LDA, RG, RGB, Klasifikasi Belimbing

1. Pendahuluan

Tumbuhan belimbing manis (Averrhoa carambola Linn.), dikenal dengan beberapa nama seperti; starfruit (bahasa inggris), belimbing amis (Sunda), blimbing legi (Jawa), bainang sulapa (Makasar), dan balireng (Bugis) [1]. Untuk menjamin mutu dan meningkatkan daya saing produk maka buah belimbing digolongkan ke dalam 3 kelas mutu, yaitu kelas super, kelas A dan kelas B [2].

Untuk melakukan pemutuan buah berdasarkan rasa dilakukan dapat dilakukan dengan melakukan pengukuran Total Padatan Terlalut (TPT) di Laboratorium. Kelemahan dari teknik ini adalah buah belimbing harus di belah (desruktif) untuk dikehaui TPT nya. Untuk mengoptimalisasi teknik pemutuan maka dikembangkanlah teknik pemutuan buah dengan mengunakan citra buah. Teknik yang dilakukan adalah dengan mengetahui korelasi antara citra RGB dengan TPT yang dikandung oleh buah belimbing.

Penelitian – penelitian pemutuan buah belimbing yang telah dilakukan diantaranya adalah : Pelakukan pemutuan buah belimbing manis dengan probabilistic neural networks (PNN) yang dilakukan oleh Zaki (2009) dengan hasil

klasifikasi sekitar 90.86% [3]. Sortasi buah belimbing dengan menggunakan Jaringan Syaraf Tiruan (JST) multi-layer perceptron dengan akurasi 90,5% [4]. Teknik yang digunakan adalah dengan mengekstrak citra RGB (Red-Green-Blue) buah belimbing menjadi beberapa nilai ciri, seperti jumlah R, jumlah G, jumlah B, selisih R dengan G, R/G, ataupun nilai HSI-nya.

Agus Buono (2009) melakukan pengenalan buah belimbing dengan menggunakan Citra RGB dengan analisis komponen utama (PCA) dan ukuran jarak Euclid sebagai teknik klasifikasi dengan hasil 95% dapat diklasifikasi [5]. Agus Buono memperbaiki teknik pengenalan mutu buah berdasarkan tingkat kemanisan dengan menggunakan informasi dari piksel. Untuk itu dilakukan proses reduksi dimensi yang tetap mempertahankan informasi spasial maupun intensitasnya dari buah belimbing. Penelitian akan melakukan pembandingan dua teknik reduksi dimensi, yaitu analisis komponen utama satu dimensi (1D-PCA) dengan dua dimensi (2D-PCA).

Penelitian yang dilakukan penulis bertujuan untuk membandingkan metode k-nearest neighbor (k-nn) dan Linear Discriminan Analysis (LDA) dengan menggunakan citra RGB dengan pra-proses dengan menggunakan analisis komponen utama

2 | H a l a m a n

Page 3: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

(PCA). Penelitian ini bertujuan untuk menguji teknik lain yang dapat digunakan untuk melakukan klasifikasi buah belimbing.

Selanjutnya paper ini disajikan dengan susunan sebagai berikut : Bagian 2 mengenai teknik reduksi dimensi dengan Analisis Komponen Utama (PCA), Bagian 3 membahas teknik pengenalan pola yang digunakan yaitu KNN dan LDA. Deskripsi mengenai data buah belimbing yang digunakan dalam percobaan ini disajikan pada bagian 4. Bagian 5 akan menyajikan rancangan percobaan, data yang digunakan serta hasilnya. Selantunya kesimpulan dan saran disajikan pada bagian akhir.

2. Analisis Komponen Utama (PCA)

Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya [6]. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component.

Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas (Y) dengan menggunakan analisis regresi.

Maksud dari PCA adalah untuk menangkap variasi total di dalam kumpulan karakter yang dilatihkan, dan untuk merepresentasikan variasi ini dengan variabel yang lebih sedikit. Suatu image yang direpresentasikan dengan variabel yang sedikit akan lebih mudah untuk ditangani dan dimengerti daripada jika direpresentasikan dengan raw pixel yang banyak dari image tersebut.

Apabila didefinisikan sebuah objek u = {u1, u2,u3,...,un} sebagai vektor pada n dimensi. Objek u dapat berupa suatu gambar dan mempunyai komponen u1, u2 , u3,...,un, dimana u1, u2, u3,...,un adalah nilai pixel dari gambar tersebut. Dengan kondisi ini maka n dapat diartikan sebagai jumlah pixel (=panjang x lebar) yang terdapat dalam gambar. Kemudian, apabila objek tersebut

ditambah dengan objek-objek yang lain hingga menjadi sekumpulan atau sekelompok objek maka : ui = {ui1 , ui2,..., uin }, dimana i = 1,...m dan m < n.

3. Pengenalan Objek

Teknik pengenalan obyek yang digunakan dalam penelitian ini adalah teknik k-nearest neighbor (k-nn) dengan menggunakan ukuran jarak Euclid dan Liniear Discriminant Analysis (LDA).

3.1. K Nearset Neighbor

Algoritma k-nearest neighbor (Pencarian tetanga terdekat) merupakan teknik klasifikasi yang sangat popular yang diperkenalkan oleh Fix dan Hodges [7], yang telah terbukti menjadi algoritma sederhana yang baik. K-nn merupakan salah satu metode yang digunakan dalam pengklasifikasian dengan menggunakan algoritma supervised [8].

Tujuan dari algoritma ini adalah mengklasifikasikan obyek baru berdasarkan jarak suatu obyek yang akan diklasifikasikan terhadap data contoh. Classifier hanya menggunakan fungsi jarak dari data baru ke data training.

Prinsip kerja K-Nearest Neighbor (KNN) adalah mencari jarak terdekat antara data yang akan dievaluasi dengan K tetangga (neighbor) terdekatnya dalam data pelatihan. Data pelatihan diproyeksikan ke ruang berdimensi banyak, dimana masing-masing dimensi merepresentasikan fitur dari data. Ruang ini dibagi menjadi bagian-bagian berdasarkan klasifikasi data pelatihan. Sebuah titik pada ruang ini ditandai kelas c, jika kelas c merupakan klasifikasi yang paling banyak ditemui pada k buah tetangga terdekat titik tersebut. Dekat atau jauhnya tetangga biasanya dihitung berdasarkan jarak Euclidean. Berikut rumus pencarian jarak menggunakan rumus Euclidian:

Dengan:

3 | H a l a m a n

Page 4: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

x1 = sampel data, x2 = data uji, i = variabel data, dist = jarak, p = dimensi data

Pada fase pembelajaran, algoritma ini hanya melakukan penyimpanan vektor-vektor fitur dan klasifikasi dari data pembelajaran. Pada fase klasifikasi, fitur-fitur yang sama dihitung untuk data test (yang klasifikasinya tidak diketahui). Jarak dari vektor yang baru ini terhadap seluruh vektor data pembelajaran dihitung, dan sejumlah k buah yang paling dekat diambil. Titik yang baru klasifikasinya diprediksikan termasuk pada klasifikasi terbanyak dari titik-titik tersebut.

Nilai k yang terbaik untuk algoritma ini tergantung pada data. Umumnya, nilai k yang tinggi akan mengurangi efek noise pada klasifikasi, tetapi membuat batasan antara setiap klasifikasi menjadi lebih kabur. Nilai k yang bagus dapat dipilih dengan optimasi parameter, misalnya dengan menggunakan cross-validation. Kasus khusus di mana klasifikasi diprediksikan berdasarkan data pembelajaran yang paling dekat (dengan kata lain, k = 1) disebut algoritma nearest neighbor.

Ketepatan algoritma k-NN ini sangat dipengaruhi oleh ada atau tidaknya fitur-fitur yang tidak relevan, atau jika bobot fitur tersebut tidak setara dengan relevansinya terhadap klasifikasi. Ketika jumlah data mendekati tak hingga, algoritma ini menjamin error rate yang tidak lebih dari dua kali Bayes error rate (tingkat minimum pada distribusi data tertentu).

3.2. Linear Discriminant Analysis (LDA)

Linier Discriminant Analysis (LDA) atau analisis diskriminan merupakan klasifier dimana dari data yang ada terdapat beberapa data yang sudah diketahui kelasnya atau labelnya. Data yang sudah diketahui labelnya digunakan untuk menemukan fungsi diskriminan. Untuk data yang belum diketahui kelasnya/labelnya, kita menggunakan fungsi diskriminan yang telah ditemukan.

LDA berkaitan erat dengan ANOVA (analisis varians) dan analisis regresi, yang juga berusaha untuk mengungkapkan satu variabel dependen sebagai kombinasi linier dari fitur-fitur lain atau

pengukuran [9] [10]. Variabel dependen pada ANOVA adalah besaran numerik, sedangkan pada LDA itu adalah variabel kategorikal (yaitu label kelas).

LDA erat kaitannya dengan Analisis Komponen Utama (PCA) dan analisis faktor yang baik mencari kombinasi linier dari variable yang paling menjelaskan data [11]. LDA eksplisit merupakan teknik yang digunakan untuk membentuk kelas data, sementara PCA tidak memperhitungkan perbedaan kelas dan analisis faktor membangun kombinasi fitur berdasarkan perbedaaan dari kesamaan.

4. Data Percobaan

Data yang digunakan pada penelitian ini diperoleh dari [5], yang terdiri dari 4 tahap pemanenan (usia 40, 50, 60, dan 70 hari), masing-masing 75 buah. Pengelompokan data didasarkan pada Total Padatan Terlalur (TPT) yang diukur melalui pengamatan Laboratorium. Dalam hal ini makin tinggi nilai TPT maka rasa buah makin manis. Gambar 1 menyajikan perbandingan boxplot nilai TPT antara buah manis, sedang dan asam dari beberapa buah yang diuji cita rasa kemanisannya.

Sumber : Buono, 2009

Gambar 1. Boxplot Tiga Cita Rasa Manis Belimbing

Pengkatogorian kemanisan buah sesuai nilai TPT [5] menggunakan aturan berikut :

Manis : TPT > 7.6 Sedang : 5.0 < TPT < 7.6 Asam : TPT < 5.0

Pada penelitian ini pengenalan pola menggunakan data R-G-B dari citra yang diperoleh

4 | H a l a m a n

Page 5: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

dari pemotretan buah. Fitur yang digunakan pada percobaan ini adalah R-G pada k-nn serta R-G-B pada knn, LDA-linier dan LDA-mahalanobis.

5. Rancangan Percobaan dan Hasil

Percobaan ini dilakukan dengan mengikuti alur percobaan yang diperlihatkan pada Gambar 1. Percobaan dilakukan dengan menggunakan 3 fold cross validation. Mula-mula data dibagi ke dalam 3 bagian, bagian 1,2 digunakan sebagai data pelatihan dan bagian 3 digunakan sebagai data uji. Selanjutnya data 2,3 sebagai data training dan bagian 1 sebagai data uji. Langkah terakhir data 1,3 sebagai data training dan bagian 2 sebagai data uji.

Gambar 2. Alur Proses Percobaan

Pada metode k-nn data yang diujikan dibagi ke dalam dua jenis yaitu data citra R-G dan data citra RGB buah belimbing kemudian yang telah direduksi dengan Analisis Komponen Utama (PCA). Selanjutnya data dibagi dua untuk dijadikan data training dan data uji. Pada metode LDA digunakan data R-G-B yang diklasifikasikan dengan LDA Linear dan LDA dengan Jarak Mahalanobis.

Tabel 1. Akurasi Hasil Percobaan

Tabel 1 menunjukkan akurasi dari hasil percobaan yang dilakukan. Akurasi dari metode klasifikasi dengan menggunakan k-nn dengan data citra R-G adalah sebeser 80,80%, akurasi lebih baik pada klasifikasi yang dilakukan dengan citra R-G-B yaitu sebesar 91%. Sementara itu akurasi yang dihasilkan dari teknik klasifikasi dengan menggunakan LDA linier dan LDA – Mahalanobis adalah sebesar 91 %.

Setelah melakukan analisis pada R-G menggunakan metode knn didapatkan akurasi sebesar total 80.80%, akurasi meningkat menjadi 91% setelah dilakukan analisis R-G-B dengan metode yang sama. Analisis R-G-B dibandingkan juga dengan metode LDA-linier dan LDA-mahalanobis, hasil yang didapatkan adalah sama yaitu 91%.

Akurasi yang dihasilkan untuk belimbing asam pada metode k-nn dan LDA adalah sebesar 100% baik dengan R-G maupun R-G-B. Hal ini dapat diartikan bahwa untuk klasifikasi belimbing asam tidak terdapat kesalahan. Sedangkan untuk manis dan sedang masih terjadi beberapa kesalahan.

Jika dikaitkan dengan penelitian sebelumnya yaitu klasifikasi 1D-PCA dan 2D-PCA yang menyatakan bahwa citra RGB dengan tingkat kemanisan (kandungan TPT) memberikan hasil yang sepadan. Hal ini menunjukkan bahwa teknik klasifikasi k-nn dan LDA dapat digunakan sebagai alternatif teknik klasifikasi buah belimbing.

6. KESIMPULAN DAN SARAN

Dari pembahasan yang telah dilakukan dapat diambil beberapa kesimpulan sebagai berikut :1. Pengelompokan buah belimbing berdasar RGB

yang sepadan hasilnya dengan kandungan TPT

5 | H a l a m a n

Page 6: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

dapat dikelompokkan menjadi dua kelas, yaitu kelas asam dan kelas tidak asam.

2. Klasifikasi buah belimbing ke dalam tingkat manis, sedang, asam dengan teknik KNN 2 variabel R-G menghasilkan akurasi 80 %. KNN dengan 3 variabel R-G-B menghasilkan akurasi 91 %. Dengan teknik LDA linier maupun Mahalanobis menghasilkan akurasi 91 %

3. Teknik klasifikasi menggunakan knn dan LDA kurang mampu membedakan antar kelas sedang dan kelas manis.

4. Sebagian besar kesalahan klasifikasi adalah tidak mampu membedakan kelas sedang dan manisUntuk penelitian selanjutnya dapat dilakukan

pemilihan komponen R-G-B yang tepat agar klasifikasi dengan k-nn dan LDA dapat dilakukan dengan baik dan akurat.

7. Ucapan Terima Kasih

Penulis mengucapkan terimakasih kepada Dr. Agus Buono M.Si, M.Kom, dosen Departemen Ilmu Komputer IPB, atas penggunaan data citra belimbing pada penelitian ini.

8. Referensi

[1] Wiryowidagdo, S, dan Sitanggang, M. 2002. Tanaman Obat untuk Penyakit Jantung, Dar ah Tinggi, dan Kolesterol. AgroMedia Pustaka : Jakarta

[2] Badan Standarisasi Nasional. 2009. SNI Buah Belimbing no 4491:2009.

[3] Zaki F, ”Pengembangan probabilistic neural networks untuk penentuan kematangan belimbing manis”, Skripsi Jurusan Ilmu Komputer, tidak dipublikasikan, 2009.

[4] Abdullah M.Z., M. Saleh J., F. Syahir, dan M. Azemi, ”Discrimination and classification of fresh-cut starfruits (Averrhoa carambola L) using automated machine vision system”, Journal of Food Engineering, 2005.

[5] Buono, Agus & Irmansyah. 2009. Pengenalan kadar total padat terlarut pada buah belimbing manis berdasar citra RGB dengan analisis komponen utama sebagai ekstraksi ciri dan jarak euclidean sebagai pengenal pola. Jurnal Ilmu Komputer dan Informasi, Volume 2, Nomor 1, ISSN 1979 – 0732.

[6] Abdi, Herve & Lynne J. Williams. 2010. Principal Component Anlysis. Wiley Interdisciplinary Reviews: Computational Statistics.

[7] E. Fix, and J. Hodges. 1951. “Discriminatory analysis. Nonparametric discrimination : Consistency properties”. Technical Report 4, USAF School of Aviation Medicine,Randolph Field, Texas.

[8] Belur V. Dasarathy. 1991. “Nearest Neighbor (NN) Norms: NN Pattern Classification Techniques”. Mc Graw-Hill Computer Science Series, IEEE Computer Society Press, Las Alamitos, California, pp. 217-224.

[9] Ronald Fisher (1936)The Use of Multiple Measurements in Taxonomic Problems In: Annals of Eugenics, 7, p. 179--188

[10] McLachlan (2004)Discriminant Analysis and Statistical Pattern Recognition In: Wiley Interscience

[11] Chan, Lih-Heng, Sh-Hussain Salleh dan Chee-Ming Ting. 2010. Face Biometrics Based on Principal Component Analysis and Linear Discriminant Analysis. Journal of Computer Science 6 (7) : 639-699, 2010. ISSN 1549-3636

6 | H a l a m a n

Page 7: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

LAMPIRAN

7 | H a l a m a n

Page 8: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

KNN-3 VARIABEL akurasi 91%

Keterangan

1. Kelas Manis

2. Kelas Sedang

3. Kelas Asam

R G BTaha

pKelas

Prediksi

0,3335

0,3716

0,2949

1 3 3

0,3387

0,3640

0,2973

1 3 3

0,3358

0,3598

0,3044

1 3 3

0,3434

0,3627

0,2939

1 3 3

0,3320

0,3653

0,3027

1 3 3

0,3405

0,3656

0,2939

1 3 3

0,3347

0,3606

0,3047

1 3 3

0,3368

0,3592

0,3039

1 3 3

0,3368

0,3687

0,2945

1 3 3

0,3371

0,3645

0,2984

1 3 3

0,3359

0,3623

0,3017

1 3 3

0,3398

0,3673

0,2929

2 3 3

0,3426

0,3609

0,2964

2 3 3

0,3427

0,3656

0,2916

2 3 3

0,3401

0,3631

0,2968

2 3 3

0,3414

0,3604

0,2981

2 3 3

0,3416

0,3603

0,2981

2 3 3

0,3379

0,3706

0,2915

2 3 3

0,3380

0,3586

0,3034

2 3 3

0,3404

0,3654

0,2942

2 3 3

0,3377

0,3692

0,2931

2 3 3

0,3408

0,3681

0,2911

2 3 3

0,348 0,368 0,283 3 3 3

1 5 40,340

10,361

80,298

13 3 3

0,3434

0,3711

0,2855

3 3 3

0,3377

0,3615

0,3007

3 3 3

0,3404

0,3596

0,2999

3 3 3

0,3363

0,3647

0,2990

3 3 3

0,3374

0,3652

0,2973

3 3 3

0,3372

0,3650

0,2978

3 3 3

0,3370

0,3654

0,2976

3 3 3

0,3337

0,3690

0,2973

3 3 3

0,3417

0,3660

0,2923

3 3 3

0,3690

0,3515

0,2796

1 2 2

0,3767

0,3459

0,2774

1 2 2

0,3684

0,3482

0,2834

1 2 2

0,3569

0,3509

0,2921

1 2 2

0,3539

0,3496

0,2965

1 2 2

0,3555

0,3472

0,2973

1 2 2

0,3634

0,3457

0,2908

1 2 2

0,3621

0,3520

0,2860

1 2 2

0,3623

0,3595

0,2782

1 2 2

0,3606

0,3476

0,2918

1 2 2

0,3602

0,3471

0,2927

1 2 2

0,3471

0,3469

0,3060

2 2 1

0,3575

0,3462

0,2963

2 2 2

0,3704

0,3485

0,2811

2 2 2

0,3641

0,3500

0,2859

2 2 2

0,3584

0,3469

0,2947

2 2 2

0,3680

0,3434

0,2885

2 2 2

0,3726

0,3453

0,2821

2 2 2

8 | H a l a m a n

Page 9: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

0,3583

0,3506

0,2911

2 2 2

0,3536

0,3444

0,3020

2 2 1

0,3672

0,3522

0,2806

2 2 2

0,3692

0,3480

0,2828

2 2 2

0,3727

0,3512

0,2761

3 2 2

0,3659

0,3457

0,2884

3 2 2

0,3496

0,3490

0,3014

3 2 1

0,3637

0,3481

0,2882

3 2 2

0,3707

0,3489

0,2804

3 2 2

0,3689

0,3474

0,2837

3 2 2

0,3665

0,3581

0,2754

3 2 2

0,3653

0,3478

0,2868

3 2 2

0,3576

0,3475

0,2949

3 2 2

0,3613

0,3485

0,2902

3 2 2

0,3743

0,3491

0,2766

3 2 2

0,3623

0,3384

0,2993

1 1 1

0,3872

0,3407

0,2721

1 1 1

0,3480

0,3463

0,3057

1 1 1

0,3592

0,3357

0,3051

1 1 1

0,3792

0,3391

0,2817

1 1 1

0,3382

0,3406

0,3213

1 1 1

0,4072

0,3283

0,2645

1 1 1

0,3562

0,3418

0,3020

1 1 1

0,3555

0,3437

0,3008

1 1 1

0,3756

0,3452

0,2792

1 1 2

0,3615

0,3450

0,2935

1 1 2

0,3558

0,3402

0,3040

2 1 1

0,3550

0,3396

0,3054

2 1 1

0,3739

0,3364

0,2897

2 1 1

0,385 0,339 0,275 2 1 1

0 9 10,381

50,348

20,270

32 1 2

0,3684

0,3366

0,2950

2 1 1

0,3631

0,3451

0,2918

2 1 2

0,3597

0,3356

0,3047

2 1 1

0,3507

0,3476

0,3017

2 1 1

0,3649

0,3411

0,2940

2 1 1

0,3676

0,3386

0,2938

2 1 1

0,3607

0,3374

0,3019

3 1 1

0,3688

0,3355

0,2957

3 1 1

0,3766

0,3362

0,2872

3 1 1

0,3808

0,3412

0,2779

3 1 1

0,3789

0,3359

0,2852

3 1 1

0,3607

0,3409

0,2984

3 1 1

0,3534

0,3418

0,3049

3 1 1

0,3532

0,3442

0,3026

3 1 1

0,3539

0,3363

0,3097

3 1 1

0,3505

0,3434

0,3061

3 1 2

0,3549

0,3425

0,3026

3 1 1

LDA-LINIER-3VAR akurasi 91%

R G B Thp Kelas Pred

0,3335 0,3716 0,2949 1 3 3

0,3387 0,3640 0,2973 1 3 3

0,3358 0,3598 0,3044 1 3 3

0,3434 0,3627 0,2939 1 3 3

0,3320 0,3653 0,3027 1 3 3

0,3405 0,3656 0,2939 1 3 3

0,3347 0,3606 0,3047 1 3 3

0,3368 0,3592 0,3039 1 3 3

0,3368 0,3687 0,2945 1 3 3

0,3371 0,3645 0,2984 1 3 3

0,3359 0,3623 0,3017 1 3 3

0,3398 0,3673 0,2929 2 3 3

0,3426 0,3609 0,2964 2 3 3

9 | H a l a m a n

Page 10: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

0,3427 0,3656 0,2916 2 3 3

0,3401 0,3631 0,2968 2 3 3

0,3414 0,3604 0,2981 2 3 3

0,3416 0,3603 0,2981 2 3 3

0,3379 0,3706 0,2915 2 3 3

0,3380 0,3586 0,3034 2 3 3

0,3404 0,3654 0,2942 2 3 3

0,3377 0,3692 0,2931 2 3 3

0,3408 0,3681 0,2911 2 3 3

0,3481 0,3685 0,2834 3 3 3

0,3401 0,3618 0,2981 3 3 3

0,3434 0,3711 0,2855 3 3 3

0,3377 0,3615 0,3007 3 3 3

0,3404 0,3596 0,2999 3 3 3

0,3363 0,3647 0,2990 3 3 3

0,3374 0,3652 0,2973 3 3 3

0,3372 0,3650 0,2978 3 3 3

0,3370 0,3654 0,2976 3 3 3

0,3337 0,3690 0,2973 3 3 3

0,3417 0,3660 0,2923 3 3 3

0,3690 0,3515 0,2796 1 2 2

0,3767 0,3459 0,2774 1 2 2

0,3684 0,3482 0,2834 1 2 2

0,3569 0,3509 0,2921 1 2 2

0,3539 0,3496 0,2965 1 2 2

0,3555 0,3472 0,2973 1 2 2

0,3634 0,3457 0,2908 1 2 2

0,3621 0,3520 0,2860 1 2 2

0,3623 0,3595 0,2782 1 2 2

0,3606 0,3476 0,2918 1 2 2

0,3602 0,3471 0,2927 1 2 2

0,3471 0,3469 0,3060 2 2 2

0,3575 0,3462 0,2963 2 2 2

0,3704 0,3485 0,2811 2 2 2

0,3641 0,3500 0,2859 2 2 2

0,3584 0,3469 0,2947 2 2 2

0,3680 0,3434 0,2885 2 2 2

0,3726 0,3453 0,2821 2 2 2

0,3583 0,3506 0,2911 2 2 2

0,3536 0,3444 0,3020 2 2 1

0,3672 0,3522 0,2806 2 2 2

0,3692 0,3480 0,2828 2 2 2

0,3727 0,3512 0,2761 3 2 2

0,3659 0,3457 0,2884 3 2 2

0,3496 0,3490 0,3014 3 2 2

0,3637 0,3481 0,2882 3 2 2

0,3707 0,3489 0,2804 3 2 2

0,3689 0,3474 0,2837 3 2 2

0,3665 0,3581 0,2754 3 2 2

0,3653 0,3478 0,2868 3 2 2

0,3576 0,3475 0,2949 3 2 2

0,3613 0,3485 0,2902 3 2 2

0,3743 0,3491 0,2766 3 2 2

0,3623 0,3384 0,2993 1 1 1

0,3872 0,3407 0,2721 1 1 1

0,3480 0,3463 0,3057 1 1 2

0,3592 0,3357 0,3051 1 1 1

0,3792 0,3391 0,2817 1 1 1

0,3382 0,3406 0,3213 1 1 1

0,4072 0,3283 0,2645 1 1 1

0,3562 0,3418 0,3020 1 1 1

0,3555 0,3437 0,3008 1 1 1

0,3756 0,3452 0,2792 1 1 2

0,3615 0,3450 0,2935 1 1 2

0,3558 0,3402 0,3040 2 1 1

0,3550 0,3396 0,3054 2 1 1

0,3739 0,3364 0,2897 2 1 1

0,3850 0,3399 0,2751 2 1 1

0,3815 0,3482 0,2703 2 1 2

0,3684 0,3366 0,2950 2 1 1

0,3631 0,3451 0,2918 2 1 2

0,3597 0,3356 0,3047 2 1 1

0,3507 0,3476 0,3017 2 1 2

0,3649 0,3411 0,2940 2 1 1

0,3676 0,3386 0,2938 2 1 1

0,3607 0,3374 0,3019 3 1 1

0,3688 0,3355 0,2957 3 1 1

0,3766 0,3362 0,2872 3 1 1

0,3808 0,3412 0,2779 3 1 2

0,3789 0,3359 0,2852 3 1 1

0,3607 0,3409 0,2984 3 1 1

0,3534 0,3418 0,3049 3 1 1

0,3532 0,3442 0,3026 3 1 1

0,3539 0,3363 0,3097 3 1 1

0,3505 0,3434 0,3061 3 1 1

0,3549 0,3425 0,3026 3 1 1

LDA-MAHALANOBIS-3VARIABEL akurasi 91%

R G BTaha

pKela

sPrediks

i0,3335 0,3716 0,2949 1 3 3

10 | H a l a m a n

Page 11: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

0,3387 0,3640 0,2973 1 3 3

0,3358 0,3598 0,3044 1 3 3

0,3434 0,3627 0,2939 1 3 3

0,3320 0,3653 0,3027 1 3 3

0,3405 0,3656 0,2939 1 3 3

0,3347 0,3606 0,3047 1 3 3

0,3368 0,3592 0,3039 1 3 3

0,3368 0,3687 0,2945 1 3 3

0,3371 0,3645 0,2984 1 3 3

0,3359 0,3623 0,3017 1 3 3

0,3398 0,3673 0,2929 2 3 3

0,3426 0,3609 0,2964 2 3 3

0,3427 0,3656 0,2916 2 3 3

0,3401 0,3631 0,2968 2 3 3

0,3414 0,3604 0,2981 2 3 3

0,3416 0,3603 0,2981 2 3 3

0,3379 0,3706 0,2915 2 3 3

0,3380 0,3586 0,3034 2 3 3

0,3404 0,3654 0,2942 2 3 3

0,3377 0,3692 0,2931 2 3 3

0,3408 0,3681 0,2911 2 3 3

0,3481 0,3685 0,2834 3 3 3

0,3401 0,3618 0,2981 3 3 3

0,3434 0,3711 0,2855 3 3 3

0,3377 0,3615 0,3007 3 3 3

0,3404 0,3596 0,2999 3 3 3

0,3363 0,3647 0,2990 3 3 3

0,3374 0,3652 0,2973 3 3 3

0,3372 0,3650 0,2978 3 3 3

0,3370 0,3654 0,2976 3 3 3

0,3337 0,3690 0,2973 3 3 3

0,3417 0,3660 0,2923 3 3 3

0,3690 0,3515 0,2796 1 2 2

0,3767 0,3459 0,2774 1 2 1

0,3684 0,3482 0,2834 1 2 2

0,3569 0,3509 0,2921 1 2 2

0,3539 0,3496 0,2965 1 2 2

0,3555 0,3472 0,2973 1 2 2

0,3634 0,3457 0,2908 1 2 2

0,3621 0,3520 0,2860 1 2 2

0,3623 0,3595 0,2782 1 2 2

0,3606 0,3476 0,2918 1 2 2

0,3602 0,3471 0,2927 1 2 2

0,3471 0,3469 0,3060 2 2 1

0,3575 0,3462 0,2963 2 2 2

0,3704 0,3485 0,2811 2 2 2

0,3641 0,3500 0,2859 2 2 2

0,3584 0,3469 0,2947 2 2 2

0,3680 0,3434 0,2885 2 2 2

0,3726 0,3453 0,2821 2 2 2

0,3583 0,3506 0,2911 2 2 2

0,3536 0,3444 0,3020 2 2 1

0,3672 0,3522 0,2806 2 2 2

0,3692 0,3480 0,2828 2 2 2

0,3727 0,3512 0,2761 3 2 2

0,3659 0,3457 0,2884 3 2 2

0,3496 0,3490 0,3014 3 2 2

0,3637 0,3481 0,2882 3 2 2

0,3707 0,3489 0,2804 3 2 2

0,3689 0,3474 0,2837 3 2 2

0,3665 0,3581 0,2754 3 2 2

0,3653 0,3478 0,2868 3 2 2

0,3576 0,3475 0,2949 3 2 2

0,3613 0,3485 0,2902 3 2 2

0,3743 0,3491 0,2766 3 2 2

0,3623 0,3384 0,2993 1 1 1

0,3872 0,3407 0,2721 1 1 1

0,3480 0,3463 0,3057 1 1 1

0,3592 0,3357 0,3051 1 1 1

0,3792 0,3391 0,2817 1 1 1

0,3382 0,3406 0,3213 1 1 1

0,4072 0,3283 0,2645 1 1 1

0,3562 0,3418 0,3020 1 1 1

0,3555 0,3437 0,3008 1 1 1

0,3756 0,3452 0,2792 1 1 1

0,3615 0,3450 0,2935 1 1 1

0,3558 0,3402 0,3040 2 1 1

0,3550 0,3396 0,3054 2 1 1

0,3739 0,3364 0,2897 2 1 1

0,3850 0,3399 0,2751 2 1 1

0,3815 0,3482 0,2703 2 1 2

0,3684 0,3366 0,2950 2 1 1

0,3631 0,3451 0,2918 2 1 2

0,3597 0,3356 0,3047 2 1 1

0,3507 0,3476 0,3017 2 1 1

0,3649 0,3411 0,2940 2 1 1

0,3676 0,3386 0,2938 2 1 1

0,3607 0,3374 0,3019 3 1 1

0,3688 0,3355 0,2957 3 1 1

0,3766 0,3362 0,2872 3 1 1

0,3808 0,3412 0,2779 3 1 2

0,3789 0,3359 0,2852 3 1 1

11 | H a l a m a n

Page 12: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

0,3607 0,3409 0,2984 3 1 1

0,3534 0,3418 0,3049 3 1 2

0,3532 0,3442 0,3026 3 1 1

0,3539 0,3363 0,3097 3 1 2

0,3505 0,3434 0,3061 3 1 1

0,3549 0,3425 0,3026 3 1 1

KNN-2VARIABEL(R-G) akurasi 80,80%

R GTaha

pKela

sKnn-2Var

0,3335

0,3716 1 3 3

0,3387

0,3640 1 3 3

0,3358

0,3598 1 3 3

0,3434

0,3627 1 3 3

0,3320

0,3653 1 3 3

0,3405

0,3656 1 3 3

0,3347

0,3606 1 3 3

0,3368

0,3592 1 3 3

0,3368

0,3687 1 3 3

0,3371

0,3645 1 3 3

0,3359

0,3623 1 3 3

0,3398

0,3673 2 3 3

0,3426

0,3609 2 3 3

0,3427

0,3656 2 3 3

0,3401

0,3631 2 3 3

0,3414

0,3604 2 3 3

0,3416

0,3603 2 3 3

0,3379

0,3706 2 3 3

0,3380

0,3586 2 3 3

0,3404

0,3654 2 3 3

0,3377

0,3692 2 3 3

0,3408

0,3681 2 3 3

0,348 0,3685 3 3 3

10,340

10,3618 3 3 3

0,3434

0,3711 3 3 3

0,3377

0,3615 3 3 3

0,3404

0,3596 3 3 3

0,3363

0,3647 3 3 3

0,3374

0,3652 3 3 3

0,3372

0,3650 3 3 3

0,3370

0,3654 3 3 3

0,3337

0,3690 3 3 3

0,3417

0,3660 3 3 3

0,3690

0,3515 1 2 2

0,3767

0,3459 1 2 2

0,3684

0,3482 1 2 1

0,3569

0,3509 1 2 2

0,3539

0,3496 1 2 2

0,3555

0,3472 1 2 2

0,3634

0,3457 1 2 2

0,3621

0,3520 1 2 2

0,3623

0,3595 1 2 2

0,3606

0,3476 1 2 2

0,3602

0,3471 1 2 2

0,3471

0,3469 2 2 1

0,3575

0,3462 2 2 1

0,3704

0,3485 2 2 1

0,3641

0,3500 2 2 1

0,3584

0,3469 2 2 1

0,3680

0,3434 2 2 1

0,3726

0,3453 2 2 1

0,3583

0,3506 2 2 2

12 | H a l a m a n

Page 13: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

0,3536

0,3444 2 2 1

0,3672

0,3522 2 2 1

0,3692

0,3480 2 2 1

0,3727

0,3512 3 2 2

0,3659

0,3457 3 2 2

0,3496

0,3490 3 2 1

0,3637

0,3481 3 2 2

0,3707

0,3489 3 2 2

0,3689

0,3474 3 2 2

0,3665

0,3581 3 2 2

0,3653

0,3478 3 2 2

0,3576

0,3475 3 2 2

0,3613

0,3485 3 2 2

0,3743

0,3491 3 2 2

0,3623

0,3384 1 1 1

0,3872

0,3407 1 1 1

0,3480

0,3463 1 1 2

0,3592

0,3357 1 1 1

0,3792

0,3391 1 1 1

0,3382

0,3406 1 1 2

0,4072

0,3283 1 1 1

0,3562

0,3418 1 1 1

0,3555

0,3437 1 1 1

0,3756

0,3452 1 1 2

0,3615

0,3450 1 1 2

0,3558

0,3402 2 1 1

0,3550

0,3396 2 1 1

0,3739

0,3364 2 1 1

0,3850

0,3399 2 1 1

0,381 0,3482 2 1 1

50,368

40,3366 2 1 1

0,3631

0,3451 2 1 2

0,3597

0,3356 2 1 1

0,3507

0,3476 2 1 2

0,3649

0,3411 2 1 1

0,3676

0,3386 2 1 1

0,3607

0,3374 3 1 1

0,3688

0,3355 3 1 1

0,3766

0,3362 3 1 1

0,3808

0,3412 3 1 1

0,3789

0,3359 3 1 1

0,3607

0,3409 3 1 1

0,3534

0,3418 3 1 1

0,3532

0,3442 3 1 2

0,3539

0,3363 3 1 1

0,3505

0,3434 3 1 1

0,3549

0,3425 3 1 1

KNN>> X1=BelimbingKNN(12:33,1:3);>> X2=BelimbingKNN(45:66,1:3);>> X3=BelimbingKNN(78:99,1:3);>> X=[X1;X2;X3];>> Y1=BelimbingKNN(12:33,4);>> Y2=BelimbingKNN(45:66,4);>> Y3=BelimbingKNN(78:99,4);>> Y=[Y1;Y2;Y3];>> P1=BelimbingKNN(1:11,1:3);>> P2=BelimbingKNN(34:44,1:3);>> P3=BelimbingKNN(67:77,1:3);>> P=[P1;P2;P3];>> T1=BelimbingKNN(1:11,4);>> T2=BelimbingKNN(34:44,4);>> T3=BelimbingKNN(67:77,4);>> T=[T1;T2;T3];

>> class=knnclassify(P,X,Y,3);

X1=BelimbingKNN(1:11,1:3);>> X2=BelimbingKNN(23:33,1:3);

13 | H a l a m a n

Page 14: Format Laporan Akhir Images Processing.docx

Tugas Mata Kuliah Pengenalan Pola, S2 Ilmu Komputer, Institut Pertanian Bogor - 2010

>> X3=BelimbingKNN(34:44,1:3);>> X4=BelimbingKNN(56:66,1:3);>> X5=BelimbingKNN(67:77,1:3);>> X6=BelimbingKNN(89:99,1:3);>> X=[X1;X2;X3;X4;X5;X6];>> Y1=BelimbingKNN(1:11,4);>> Y2=BelimbingKNN(23:44,4);>> Y3=BelimbingKNN(56:77,4);>> Y4=BelimbingKNN(89:99,4);>> Y=[Y1;Y2;Y3;Y4];>> P1=BelimbingKNN(12:22,1:3);>> P2=BelimbingKNN(45:55,1:3);>> P3=BelimbingKNN(78:88,1:3);>> P=[P1;P2;P3];>> class=knnclassify(P,X,Y,3);

X1=BelimbingKNN(1:22,1:3);>> X2=BelimbingKNN(34:55,1:3);>> X3=BelimbingKNN(67:88,1:3);>> X=[X1;X2;X3];>> Y1=BelimbingKNN(1:22,4);>> Y2=BelimbingKNN(34:55,4);>> Y3=BelimbingKNN(67:88,4);>> Y=[Y1;Y2;Y3];>> P1=BelimbingKNN(23:33,1:3);>> P2=BelimbingKNN(56:66,1:3);>> P3=BelimbingKNN(89:99,1:3);>> P=[P1;P2;P3];>> class=knnclassify(P,X,Y,3)Note : Untuk 2 variabel dengan mengganti isian X=BelimbingKNN(1:22,1:2),

LDA>> X1=BelimbingKNN(12:33,1:3);>> X2=BelimbingKNN(45:66,1:3);>> X3=BelimbingKNN(78:99,1:3);>> X=[X1;X2;X3];>> Y1=BelimbingKNN(12:33,4);>> Y2=BelimbingKNN(45:66,4);>> Y3=BelimbingKNN(78:99,4);>> Y=[Y1;Y2;Y3];>> P1=BelimbingKNN(1:11,1:3);

>> P2=BelimbingKNN(34:44,1:3);>> P3=BelimbingKNN(67:77,1:3);>> P=[P1;P2;P3];>> T1=BelimbingKNN(1:11,4);>> T2=BelimbingKNN(34:44,4);>> T3=BelimbingKNN(67:77,4);>> T=[T1;T2;T3];

>> class=classify(P,X,Y,’linear’);

X1=BelimbingKNN(1:11,1:3);>> X2=BelimbingKNN(23:33,1:3);>> X3=BelimbingKNN(34:44,1:3);>> X4=BelimbingKNN(56:66,1:3);>> X5=BelimbingKNN(67:77,1:3);>> X6=BelimbingKNN(89:99,1:3);>> X=[X1;X2;X3;X4;X5;X6];>> Y1=BelimbingKNN(1:11,4);>> Y2=BelimbingKNN(23:44,4);>> Y3=BelimbingKNN(56:77,4);>> Y4=BelimbingKNN(89:99,4);>> Y=[Y1;Y2;Y3;Y4];>> P1=BelimbingKNN(12:22,1:3);>> P2=BelimbingKNN(45:55,1:3);>> P3=BelimbingKNN(78:88,1:3);>> P=[P1;P2;P3];>> class=classify(P,X,Y,’linear’);

X1=BelimbingKNN(1:22,1:3);>> X2=BelimbingKNN(34:55,1:3);>> X3=BelimbingKNN(67:88,1:3);>> X=[X1;X2;X3];>> Y1=BelimbingKNN(1:22,4);>> Y2=BelimbingKNN(34:55,4);>> Y3=BelimbingKNN(67:88,4);>> Y=[Y1;Y2;Y3];>> P1=BelimbingKNN(23:33,1:3);>> P2=BelimbingKNN(56:66,1:3);>> P3=BelimbingKNN(89:99,1:3);>> P=[P1;P2;P3];>> class=classify(P,X,Y,’linear’);Note : untuk mahalanobis, dgn mengganti kata liner

14 | H a l a m a n