algoritma c 4.5

30
ALGORITMA C 4.5 2. ANNISAK IZHATY JAMHUR (141321067) 1. ALFANNISA ANNURULLAH FAJRIN (141321065) 3. HARIYADI (141321075) 4. NURUL AZWANTI (141321084) KELOMPOK 1 Mata Kuliah : Teknologi Database Dosen : Dr. Sarjon Defit, M.Kom.,M.Sc 12/03/22 1 23C

Upload: nurulazwanti

Post on 07-Nov-2015

319 views

Category:

Documents


9 download

DESCRIPTION

pembahasan algoritma C4.5

TRANSCRIPT

ALGORITMA C 4.5

ALGORITMA C 4.52. ANNISAK IZHATY JAMHUR (141321067)1. ALFANNISA ANNURULLAH FAJRIN (141321065)3. HARIYADI (141321075)4. NURUL AZWANTI (141321084)KELOMPOK 1Mata Kuliah : Teknologi DatabaseDosen : Dr. Sarjon Defit, M.Kom.,M.ScJumat, 21 Nopember 2014123C1

Pohon KeputusanDasar algoritma C4.5 adalah pembentukan pohon keputusan (decision tree). Decision tree merupakan salah satu metode klasifikasi yang menggunakan representasi struktur pohon(tree) dimana setiap node merepresentasi-kan atribut, cabangnya merepresentasikan nilai dari atribut, dan daun merepresentasikan kelas

Jumat, 21 Nopember 2014223C

Konsep Pohon Keputusanmengubah bentuk data (tabel) menjadi model pohon, mengubah model pohon menjadi rule, dan menyederhanakan ruleDATADECISION TREERULEJumat, 21 Nopember 2014323C

Model Pohon Keputusan

Jumat, 21 Nopember 2014423C

Algoritma C 4.5Salah satu algoritma induksi pohon keputusan yaitu ID3 (Iterative Dichotomiser 3). ID3 dikembangkan oleh J. Ross Quinlan. Dalam prosedur algoritma ID3, input berupa sampel training, label training dan atribut. Algoritma C4.5 merupakan pengembangan dari ID3.23CJumat, 21 Nopember 2014523C

Algoritma C 4.5 :Pilih atribut sebagai akarBuat cabang untuk tiap-tiap nilaiBagi kasus di dalam cabangUlangi Proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yang sama

Jumat, 21 Nopember 2014623C

Untuk memilih atribut akar, didasarkan pada nilai GAIN tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai GAIN, harus ditentukan terlebih dahulu nilai ENTROPYJumat, 21 Nopember 2014723C

Contoh KasusPELAMARIPKPSIKOLOGIWAWANCARADITERIMAP1BagusTinggiBaikYaP2BagusSedangBaikYaP3BagusSedangBurukYaP4BagusRendahBurukTidakP5CukupTinggiBaikYaP6CukupSedangBaikYaP7CukupSedangBurukYaP8CukupRendahBurukTidakP9KurangTinggiBaikYaP10KurangSedangBurukTidakP11KurangRendahBaikYaJumat, 21 Nopember 2014823C

Solusi :Hitung Jumlah KasusHitung Jumlah Keputusan YaHitung Jumlah Keputusan TidakHitung : Entropy (IPK), Entropy (Psikologi), dan Entropy (Wawancara)

Jumat, 21 Nopember 2014923C

Jumat, 21 Nopember 20141023CNODEJUMLAH KASUS(S)TIDAK(S1)YA(S2)ENTROPYGAIN1Total1138*IPKBagus413Cukup413Kurang312*PsikologiTinggi303Sedang514Rendah321*WawancaraBaik606Buruk532

Rumus Entropy :Keterangan :S= Himpunan Kasusn= Jumlah Partisi Spi = Proporsi dari Si terhadap S

Jumat, 21 Nopember 20141123C

Jumat, 21 Nopember 20141223CEntropy (IPK)

Jumat, 21 Nopember 20141323CEntropy (Psikologi)

Entropy (Wawancara)

Jumat, 21 Nopember 20141423Ce. Hitung : Gain (Total, IPK) Gain (Total, Psikologi) Gain (Total, Wawancara)

Rumus Gain :Keterangan :S= Himpunan KasusA= Atributn= Jumlah Partisi Atribut A| Si | = Jumlah Kasus pada partisi ke-i| S |= Jumlah Kasus dalam SJumat, 21 Nopember 20141523C

Jumat, 21 Nopember 20141623C

NODEJUMLAH KASUS(S)TIDAK(S1)YA(S2)ENTROPYGAIN1Total11380,8454*IPK0,004809Bagus4130,8113Cukup4130,8113Kurang3120,9187*Psikologi0,266664Tinggi3030Sedang5140,722Rendah3210,9183*Wawancara0,404036Baik6060Buruk5320,971Jumat, 21 Nopember 20141723C

Pohon Keputusan Node 1 (root node)Jumat, 21 Nopember 201423C18

Gain Tertinggi ialah WAWANCARAdan akan menjadi node akar

Dari tabel terlihat, dari 6 pelamar dengan Wawancara Baik, semua memiliki kelas "Ya (Diterima), sehingga fungsi ID3 akan berhenti, dan membentukkesimpulan bahwa seluruh pelamar dengan nilai Wawancara Baik akan diterima di perusahaan.Jumat, 21 Nopember 201423C19

PELAMARIPKPSIKOLOGIWAWANCARADITERIMAP3BagusSedangBurukYaP4BagusRendahBurukTidakP7CukupSedangBurukYaP8CukupRendahBurukTidakP10KurangSedangBurukTidakJumat, 21 Nopember 20142023C

e. Hitung : Entropy (Wawancara-Buruk)Entropy (IPK)Entropy (Psikologi)

Jumat, 21 Nopember 20142123C

Entropy (IPK)Jumat, 21 Nopember 20142223C

Entropy (Psikologi)Jumat, 21 Nopember 20142323C

f. Hitung : Gain (Wawancara-Buruk,IPK)Gain (Wawancara-Buruk,Psikologi)Jumat, 21 Nopember 20142423C

Jumat, 21 Nopember 20142523CNodeJumlah Kasus(S)Tidak(S1)Ya(S2)EntropyGain1.1Entropy Wawancara-Buruk5320,971*IPK0,171Bagus2111Cukup2111Kurang1100*Psikologi0,42002Tinggi0000Sedang3120,9183Rendah2200

Pohon Keputusan Analisis Node 1.1Jumat, 21 Nopember 20142623C

Jumat, 21 Nopember 20142723CKarena nilai "Tinggi" = 0, maka perlu dibuat 1 simpul daun (leaf node, simpul yang tidak punya anak dibawahnya) dengan label yang paling sering muncul pada Sampelburuk yaitu tidak.

PELAMARIPKPSIKOLOGIWAWANCARADITERIMAP3BagusSedangBurukYaP7CukupSedangBurukYaP10KurangSedangBurukTidakJumat, 21 Nopember 20142823C

Pohon Keputusan AkhirJumat, 21 Nopember 20142923C

TERIMA KASIHJumat, 21 Nopember 20143023C