paper decision tree

28
A. Latar Belakang Konsep pohon merupakan salah satu konsep teori graf yang paling penting. Pemanfaatan struktur pohon dalam kehidupan sehari-hari adalah untuk menggambarkan hierarki dan memodelkan persoalan, contohnya pohon keputusan (decision tree). Iterative dichotomiser 3 ( ID3 ) merupakan suatu metode dalam learning yang akan membangun sebuah pohon keputusan untuk pemodelan dalam mencari solusi dari persoalan. 1 Algoritma dasar untuk induksi pohon keputusan adalah algoritma greedy yang membangun pohon keputusan dari atas ke bawah (top-down) secara rekursif dengan cara divide dan conquer. Masukan dari algoritma ini adalah himpunan data yang berisi sampel-sampel data dan kandidat atribut yang harus ditelaah, terdiri dari minimal sebuah atribut prediktor dan sebuah atribut kelas. Atribut prediktor dapat bertipe diskret atau numerik, sedangkan atribut kelas harus bertipe diskret. Dalam terminologi basisdata, himpunan data ini berupa tabel, sedangkan sampel adalah rekord. Himpunan data ini dapat memiliki atribut (kolom tabel) bertipe diskret maupun kontinyu. 2 B.Tujuan Tujuan dari algoritma Induction Decision Tree adalah mengkonstruksi struktur data pohon (dinamakan pohon keputusan) yang dapat digunakan untuk memprediksi kelas dari sebuah kasus atau rekord baru yang belum memiliki kelas. Mengkonstruksi pohon keputusan bisa dengan strategi 1

Upload: maghfirahekasarilaitjinara

Post on 03-Oct-2015

23 views

Category:

Documents


1 download

DESCRIPTION

uuytu

TRANSCRIPT

A. Latar Belakang Konsep pohon merupakan salah satu konsep teori graf yang paling penting. Pemanfaatan struktur pohon dalam kehidupan sehari-hari adalah untuk menggambarkan hierarki dan memodelkan persoalan, contohnya pohon keputusan (decision tree). Iterative dichotomiser 3 ( ID3 ) merupakan suatu metode dalam learning yang akan membangun sebuah pohon keputusan untuk pemodelan dalam mencari solusi dari persoalan.1Algoritma dasar untuk induksi pohon keputusan adalah algoritma greedy yang membangun pohon keputusan dari atas ke bawah (top-down) secara rekursif dengan cara divide dan conquer. Masukan dari algoritma ini adalah himpunan data yang berisi sampel-sampel data dan kandidat atribut yang harus ditelaah, terdiri dari minimal sebuah atribut prediktor dan sebuah atribut kelas. Atribut prediktor dapat bertipe diskret atau numerik, sedangkan atribut kelas harus bertipe diskret. Dalam terminologi basisdata, himpunan data ini berupa tabel, sedangkan sampel adalah rekord. Himpunan data ini dapat memiliki atribut (kolom tabel) bertipe diskret maupun kontinyu.2

B. Tujuan Tujuan dari algoritma Induction Decision Tree adalah mengkonstruksi struktur data pohon (dinamakan pohon keputusan) yang dapat digunakan untuk memprediksi kelas dari sebuah kasus atau rekord baru yang belum memiliki kelas. Mengkonstruksi pohon keputusan bisa dengan strategi divide dan conquer. Algoritma ini memilih pemecahan kasus-kasus yang terbaik dengan menghitung dan membandingkan gain ratio, kemudian pada node-node yang terbentuk di level berikutnya, algoritma divide dan conquer akan diterapkan lagi .

(1)(2) Wahyuddin, 2009. Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penyeleksian Penerimaan Mahasiswa Baru

C. Pembahasan DECISION TREEDecision tree learning adalah salah satu metode belajar yang sangat populer dan banyak digunakan secara praktis. Metode ini merupakan metode yang berusaha menemukan fungsi-fungsi pendekatan yang bernilai diskrit dan tahan terhadap data-data yang terdapat kesalahan (noisy data) serta mampu mempelajari ekspresi-ekspresi disjunctive (ekspresi OR). Iterative Dychotomizer version 3 (ID3) adalah salah satu jenis Decision tree yang sangat populer. Konsep Decision Tree Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan (rule).3

DataDecision TreeRule

Decision tree adalah struktur flowcart yang mempunyai tree(pohon), dimana setiap simpul internal menandakan suatu tes atribut,setiap cabang merepresentasikan hasil tes, dan simpul daun merepresentasikan kelas atau distribusi kelas. alur pada decision tree ditelusuri dari simpul ke akar ke simpul daun yang memegang prediksi kelas untuk contoh tersebut. decision tree mudah untuk dikonversi ke aturan klasifikasi (classification rule). Konsep data dalam decision tree dinyatakan dalam bentuk tabel dengan atribut dan record. Pembangunan tree dimulai dengan data pada simpul akar (root node) yang dilanjutkan dengan pemilihan sebuah atribut, formulasi sebuah logical test pada atribut tersebut dan pencabangan pada setiap hasil dari test. Langkah ini terus bergerak ke subset ke contoh yang memenuhi hasil dari simpul anak cabang (internal node) yang sesuai melalui proses rekursif pada setiap simpul anak cabang. Langkahlangkah tersebut diulangi hingga dahan-dahan dari tree memiliki contoh dari satu kelas tertentu. Beberapa model decision tree yang sudah dikembangkan antara lain adalah IDS, ID3, C4.5, CHAID dan CART.4

3Wahyuddin, 2009. Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penyeleksian Penerimaan Mahasiswa Baru.4Defianty Sofi, 2008. Perbandingan Kinerja Algoritma ID3 dan C4.5 Dalam Klasifikasi Spam-Mail.

INDUCTION OF DECISION TREES 1. The diagnosis of a medical condition from symptoms, in which the classes could be either the various disease states or the possible therapies;2. Determining the game-theoretic value of a chess position, with the classes won for white, lost for white, and drawn; and3. deciding from atmospheric observations whether a severe thunderstorm is unlikely, possible or probable. 5Pohon(Tree)Pohon merupakan sebuah graf terhubung yang tidak mengandung sirkuit. Konsep pohon (tree) dalam teori graf merupakan konsep yang sangat penting, karena terapannya diberbagai bidang ilmu. Oleh karenanya antara pohon (tree) sangat erat hubungannya dengan teori graf. Definisi pohon adalah graf tak berarah terhubung yang tidak mengandung sirkuit,Menurut definisi tersebut, ada dua sifat penting pada pohon yaitu terhubung dan tidak mengandung sirkuit. Pohon (tree) merupakan graf dimana dua simpul memiliki paling banyak satu lintasan yang menghubungkannya. Pohon seringkali memiliki akar . karena setiap simpul pada pohon hanya memiliki satu lintasan akses dari setiap simpul lainnya, maka tidak mungkin bagi sebuah lintasan untuk membentuk simpul (loop) atau siklus (cycle) yang secara berkesinambungan melalui serangkaian simpul.6

5Quinlan, J.R, 2007. Induction of Decision Trees6Wahyuddin, 2009. Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penyeleksian Penerimaan

ALGORITMA ID3Iterative Dichotomicer 3 (ID3) adalah algoritma decision tree learning (algoritma pembelajaran pohon keputusan) yang paling dasar. Algoritma ini melakukan pencarian secara rakus /menyeluruh (greedy) pada semua kemungkinan pohon keputusan. Salah satu algoritma induksi pohon keputusan yaitu ID3 (Iterative Dichotomiser 3). ID3 dikembangkan oleh J. Ross Quinlan. Algoritma ID3 dapat diimplementasikan menggunakan fungsi rekursif (fungsi yang memanggil dirinya sendiri). Algoritma ID3 berusaha membangun decision tree (pohon keputusan) secara top-down (dari atas ke bawah), mulai dengan pertanyaan : atribut mana yang pertama kali harus dicek dan diletakkan pada root? pertanyaan ini dijawab dengan mengevaluasi semua atribut yang ada dengan menggunakan suatu ukuran statistic (yang banyak digunakan adalah information gain) untuk mengukur efektivitas suatu atribut dalam mengklasifikasikan kumpulan sampel data.

Decision Tree adalah sebuah struktur pohon, dimana setiap node pohon merepresentasikan atribut yang telah diuji, setiap cabang merupakan suatu pembagian hasil uji, dan node daun (leaf) merepresentasikan kelompok kelas tertentu. Level node teratas dari sebuah decision tree adalah node akar (root) yang biasanya berupa atribut yang paling memiliki pengaruh terbesar pada suatu kelas tertentu. Beberapa peneliti menyebut struktur model yang dihasilkan ID3 sebagai pohon keputusan (decision tree) sementara peneliti yang lain menyebutnya pohon aturan (rule tree). 7

7Defianty Sofi, 2008. Perbandingan Kinerja Algoritma ID3 dan C4.5 Dalam Klasifikasi Spam-Mail.

Secara ringkas, langkah kerja Algoritma ID3 dapat digambarkan sebagai berikut: 1. Penghitungan Information Gain dari setiap atribut dengan menggunakan

Dimana

2. . Pemilihan atribut yang memiliki nilai information gain terbesar,3. Pembentukan simpul yang berisi atribut tersebut,4. Ulangi proses perhitungan information gain akan terus dilaksanakan sampai semua data telah termasuk dalam kelas yang sama. Atribut yang telah dipilih tidak diikutkan lagi dalam perhitungan nilai information gain

CONTOH KASUS14 Minggu Permainan Tenis pada Setiap Sabtu PagiMingguRamalan_CuacaSuhuKelembabanAnginBermain_Tenis

M1CerahPanasTinggiLemahTidak

M2CerahPanasTinggiKuatTidak

M3MendungPanasTinggiLemahYa

M4HujanSejukTinggiLemahYa

M5HujanDinginNormalLemahYa

M6HujanDinginNormalKuatTidak

M7MendungDinginNormalKuatYa

M8CerahSejukTinggiLemahTidak

M9CerahDinginNormalLemahYa

M10HujanSejukNormalLemahYa

M11CerahSejukNormalKuatYa

M12MendungSejukTinggiKuatYa

M13MendungPanasNormalLemahYa

M14HujanSejukTinggiKuatTidak

Atribut Tujuan adalah Bermain Tenis yang memiliki value ya atau tidak.Atribut adalah Ramalan_Cuaca, Suhu, Kelembaban, dan Angin.8

ENTROPY & INFORMATION GAINSebuah obyek yang diklasifikasikan dalam pohon harus dites nilai entropinya. Entropy adalah ukuran dari teori informasi yang dapat mengetahui karakteristik dari impuryt ,dan homogenity dari kumpulan data. Dari nilai entropy tersebut kemudian dihitung nilai information gain (IG) masing- masing atribut. Entropy(S) = - p+ log2p + -p -log2pdimana: S adalah ruang (data) sample yang digunakan untuk training. P+ adalah jumlah yang bersolusi positif (mendukung) pada data sample untuk kriteria tertentu. P- adalah jumlah yang bersolusi negatif (tidak mendukung) pada data sample untuk kriteria tertentu.

Dari rumus entropy diatas dapat disimpulkan bahwa definisi entropy (S) adalah jumlah bit yang diperkirakan dibutuhkan untuk dapat mengekstrak suatu kelas (+ atau -) dari sejumlah data acak pada suatu ruang sampel S. Entropy bisa dikatakan sebagai kebutuhan bit untuk menyatakan suatu kelas. Semakin kecil nilai entropy maka semakin baik digunakan dalam mengekstraksi suatu kelas. Panjang kode untuk menyatakan informasi secara optimal adalah log2p bits untuk messages yang mempunyai probabilitas p. Sehingga jumlah bit yang diperkirakan untuk mengekstraksi S ke dalam kelas adalah : - p+log2 p+ - p- log2 p-

Information GainSetelah mendapat nilai entropy untuk suatu kumpulan data, maka kita dapat mengukur efektivitas suatu atribut dalam mengklasifikasikan data. Ukuran efektifitas ini disebut information gain. Secara matematis, infomation gain dari suatu atribut A,dituliskan sebagai berikut :Gain(S,A) = Entropy(S) Entropy(Sv),dimana :A : atributV : suatu nilai yang mungkin untuk atribut A Values (A) : himpunan yang mungkin untuk atribut A|Sv| : jumlah sampel untuk nilai v|S| : jumlah seluruh sampel dataEntropy(Sv): entropy untuk sampel-sampel yang memilki nilai v.9

ALGORITMA DAN FLOWCHARTEntropy adalah formula untuk menghitung homogenitas dari sebuah sample/contoh. Solusi menggunakan entropy dari contoh kasus di atas :S adalah koleksi dari 14 contoh dengan 9 contoh positif dan 5 contoh negatif, ditulis dengan notasi [9+,5-]. Positif di sini maksudnya value Bermain_Tenis = Ya sedangkan negatif sebaliknya. Entropy dari S adalah :

Entropy(S) = - pi log2 pi

pi = Zi = contoh positif + contoh negatifN = jumlah dataEntropy([9+,5-])= - (9/14) log2 (9/14) - (5/14) log2 (5/14)= - (0.6429) ((log (9/14))/log 2) - (0.3571) ((log (5/14))/log 2)= - (0.6429) (-0.1919/0.3010) - (0.3571) (-0.4472/0.3010)= - (0.6429) (-0.6375) - (0.3571) (-1.4857)= 0.4098 + 0.5305= 0.94029Catatan : Entropy(S) = 0, jika semua contoh pada S berada dalam kelas yang sama. Entropy(S) = 1, jika jumlah contoh positif dan jumlah contoh negatif dalam S adalah sama. 0 < Entropy(S) < 1, jika jumlah contoh positif dan jumlah contoh negatif dalam S tidak sama.

Gain(S,A) adalah Information Gain dari sebuah atribut A pada koleksi contoh S :

Gain(S,A) = Entropy(S) - Entropy(Sv)1. Values(Angin)= Lemah, KuatSLemah= [6+,2-]SKuat= [3+,3-]Gain(S,Angin)= Entropy(S) - (8/14)Entropy(SLemah) - (6/14)Entropy(SKuat)= 0.94029 - (8/14)0.81128 - (6/14)1.0000= 0.048132. Values(Kelembaban)= Tinggi, NormalSTinggi= [3+,4-]SNormal= [6+,1-]Gain(S,Kelembaban)=Entropy(S)-(7/14)Entropy(STinggi)-(7/14)Entropy(SNormal)= 0.94029 - (7/14)0.98523 - (7/14)0.59167= 0.15184

3. Values(Suhu)= Panas, Sejuk, DinginSPanas= [2+,2-]SSejuk= [4+,2-]SDingin= [3+,1-]Gain(S,Suhu)=Entropy(S) -(4/14)Entropy(SPanas) - (6/14)Entropy(SSejuk) - (4/14)Entropy(SDingin)= 0.94029 -(4/14)1.00000 - (6/14)0.91830 - (4/14)0.81128= 0.02922

4. Values(Ramalan_Cuaca)= Cerah, Mendung, HujanSCerah= [2+,3-]SMendung= [4+,0-]SHujan= [3+,2-]Gain(S,Ramalan_Cuaca)=Entropy(S)-(5/14)Entropy(SCerah)- (4/14)Entropy(SMendung) - (5/14)Entropy(SHujan)= 0.94029 - (5/14)0.97075 - (4/14)1.00000 - (5/14)0.97075= 0.24675Jadi, information gain untuk 3 atribut yang ada adalah : Gain(S,Angin) = 0.04813 Gain(S,Kelembaban) = 0.15184 Gain(S,Suhu) = 0.02922 Gain(S,Ramalan_Cuaca) = 0.24675Tampak bahwa attribute Ramalan_Cuaca akan menyediakan prediksi terbaik untuk target attribute Bermain_Tenis.10

(8)(9)(10) Manongga, Danny (2005). Teori&Aplikasi Iterative Dichotomizer Three dalam Pembelajaran Mesin. Fakultas Teknologi Informasi UKSW, Salatiga.

??YaCerahHujanMendungRamalan_Cuaca[M1, M2, ..., M14][9+,5-][M1, M2, M8, M9, M11][2+,3-][M4, M5, M6, M10, M14][3+,2-]

KuatLemahTinggiNormalTidakTidakYaYaTinggiNormalTidakTidakYaYaKuatLemah

Untuk node cabang Ramalan_Cuaca = Cerah,SCerah = [M1, M2, M8, M9, M11]

MingguRamalan_CuacaSuhuKelembabanAnginBermain_Tenis

M1CerahPanasTinggiLemahTidak

M2CerahPanasTinggiKuatTidak

M8CerahSejukTinggiLemahTidak

M9CerahDinginNormalLemahYa

M11CerahSejukNormalKuatYa

1. Values(Suhu)= Panas, Sejuk, DinginSPanas= [0+,2-]SSejuk= [1+,1-]SDingin= [1+,0-]Gain(SCerah,Suhu)=Entropy(SCerah) - (2/5)Entropy(SPanas) - (2/5)Entropy(SSejuk) - (1/5)Entropy(SDingin)= 0.97075 - (2/5)0.00000 - (2/5)1.00000 - (1/5)0.00000= 0.57075

2. Values(Kelembaban)= Tinggi, NormalSTinggi= [0+,3-]SNormal= [2+,0-]Gain(SCerah,Kelembaban)=Entropy(SCerah) - (3/5)Entropy(STinggi) - (2/5)Entropy(SNormal)= 0.97075 - (3/5)0.00000 - (2/5)0.00000= 0.97075

3. Values(Angin)= Lemah, KuatSLemah= [1+,2-]SKuat= [1+,1-]Gain(SCerah,Angin)=Entropy(SCerah) - (3/5)Entropy(SLemah) - (2/5)Entropy(SKuat)= 0.97075 - (3/5)0.91830 - (2/5)1.00000= 0.01997

Atribut Kelembaban menyediakan prediksi terbaik pada level ini.

KelembabanYaTidakNormalTinggi?YaCerahHujanMendung[M1, M2, ..., M14][9+,5-]Ramalan_Cuaca[M1, M2, M8, M9, M11][2+,3-][M4, M5, M6, M10, M14][3+,2-][M1, M2, M8][0+,3-][M9, M11][2+,0-]

Untuk node cabang Ramalan_Cuaca = Hujan,SHujan = [M4, M5, M6, M10, M14]MingguRamalan_CuacaSuhuKelembabanAnginBermain_Tenis

M4HujanSejukTinggiLemahYa

M5HujanDinginNormalLemahYa

M6HujanDinginNormalKuatTidak

M10HujanSejukNormalLemahYa

M14HujanSejukTinggiKuatTidak

1. Values(Suhu)= Sejuk, Dingin (Tidak ada suhu = panas saat ini)SSejuk= [2+,1-]SDingin= [1+,1-]Gain(SHujan,Suhu)=Entropy(SHujan) - (3/5)Entropy(SSejuk) - (2/5)Entropy(SDingin)= 0.97075 - (3/5)0.91830 - (2/5)1.00000= 0.01997

2. Values(Kelembaban)= Tinggi, NormalSTinggi= [1+,1-]SNormal= [2+,1-]Gain(SHujan,Kelembaban)=Entropy(SHujan) - (2/5)Entropy(STinggi) - (3/5)Entropy(SNormal)= 0.97075 - (2/5)1.00000 - (3/5)0.91830= 0.019973. Values(Angin)= Lemah, KuatSLemah= [3+,0-]SKuat= [0+,2-]Gain(SHujan,Angin)=Entropy(SHujan) - (3/5)Entropy(SLemah) - (2/5)Entropy(SKuat)= 0.97075 - (3/5)0.00000 - (2/5)0.00000= 0.97075Atribut Angin menyediakan prediksi terbaik pada level ini.

KelembabanCerahHujanMendung[M1, M2, ..., M14][9+,5-]Ramalan_Cuaca[M1, M2, M8, M9, M11][2+,3-][M4, M5, M6, M10, M14][3+,2-]YaTidakNormalTinggi[M1, M2, M8][0+,3-][M9, M11][2+,0-]YaTidakLemahKuat[M4, M5, M10][3+,0-][M6, M14][0+,2-]YaAnginAlgoritma :

If Ramalan_Cuaca = Cerah AND Kelembaban = Tinggi THEN Bermain_Tenis = TidakIf Ramalan_Cuaca = Cerah AND Kelembaban = Normal THEN Bermain_Tenis = YaIf Ramalan_Cuaca = Mendung THEN Bermain_Tenis = YaIf Ramalan_Cuaca = Hujan AND Angin = Kuat THEN Bermain_Tenis = TidakIf Ramalan_Cuaca = Hujan AND Angin = Lemah THEN Bermain_Tenis = Ya

Ramalan_CuacaSuhuKelembabanAnginBermain_Tenis

CerahPanasTinggiKuatTidak

CerahPanasTinggiLemahTidak

CerahPanasNormalKuatYa

CerahPanasNormalLemahYa

CerahSejukTinggiKuatTidak

CerahSejukTinggiLemahTidak

CerahSejukNormalKuatYa

CerahSejukNormalLemahYa

CerahDinginTinggiKuatTidak

CerahDinginTinggiLemahTidak

CerahDinginNormalKuatYa

CerahDinginNormalLemahYa

MendungPanasTinggiKuatYa

MendungPanasTinggiLemahYa

MendungPanasNormalKuatYa

MendungPanasNormalLemahYa

MendungSejukTinggiKuatYa

MendungSejukTinggiLemahYa

MendungSejukNormalKuatYa

MendungSejukNormalLemahYa

MendungDinginTinggiKuatYa

MendungDinginTinggiLemahYa

MendungDinginNormalKuatYa

MendungDinginNormalLemahYa

HujanSejukTinggiKuatTidak

HujanSejukTinggiLemahYa

HujanSejukNormalKuatTidak

HujanSejukNormalLemahYa

HujanDinginTinggiKuatTidak

HujanDinginTinggiLemahYa

HujanDinginNormalKuatTidak

HujanDinginNormalLemahYa

Flowchart :

AnginRamalan_CuacaKelembabanYaYaYaTidakTidakCerahHujanMendungNormalTinggiLemahKuat

KEUNTUNGAN DAN KERUGIAN ID3Keuntungan :1. Dapat membuat aturan prediksi yang mudah dimengerti.2. Membangun pohon keputusan dengan cepat.3. Membangun pohon keputusan yang pendek.4. Hanya membutuhkan beberapa tes atribut hingga semua data diklasifikasikan.Kerugian :1. Jika contoh yang diteliti terlalu kecil / sederhana mungkin membuat data over-classified2. Hanya satu atribut yang dapat dites dalam satu waktu untuk membuat keputusan.3. Mengelompokkan data yang berkelanjutan mungkin terhitung mahal, sebanyak pohon yang harus dibuat untuk melihat dimana menghentikan proses kelanjutannya.11

(11)Manongga, Danny (2005). Teori&Aplikasi Iterative Dichotomizer Three dalam Pembelajaran Mesin. Fakultas Teknologi Informasi UKSW, Salatiga.

D. Pertanyaan dan jawaban1. Apa yang dimaksud dengan Entropy?Entropy adalah formula untuk menghitung homogenitas dari sebuah sample/contoh.2. Mengapa konsep pohon dalam teori graph sangat penting?Karena konsep pohon dapat diterapkan dalam berbagai bidang dan Definisi pohon adalah graf tak berarah terhubung yang tidak mengandung sirkuit, menurut definisi tersebut, ada dua sifat penting pada pohon yaitu terhubung dan tidak mengandung sirkuit. Pohon (tree) merupakan graf dimana dua simpul memiliki paling banyak satu lintasan yang menghubungkannya.3. Mengapa Algoritma ID3 melakukan pencarian secara rakus dan meyeluruh?Karena Algoritma ID3 berusaha membangun decision tree (pohon keputusan) secara top-down (dari atas ke bawah)4. Apakah tujuan dari penggunaan algoritma ID3?Tujuan dari algoritma Induction Decision Tree adalah mengkonstruksi struktur data pohon (dinamakan pohon keputusan) yang dapat digunakan untuk memprediksi kelas dari sebuah kasus atau rekord baru yang belum memiliki kelas. Mengkonstruksi pohon keputusan bisa dengan strategi divide dan conquer.5. Bagaimana alur dari Decision Tree ?Dari simpul ke akar ke simpul daun. Konsep datanya dinyatakan dalam bentuk tabel dengan atribut / record.

Daftar pustakaDefianty Sofi, 2008. Perbandingan Kinerja Algoritma ID3 dan C4.5 Dalam Klasifikasi Spam-Mail.Manongga, Danny (2005). Teori&Aplikasi Iterative Dichotomizer Three dalam Pembelajaran Mesin. Fakultas Teknologi Informasi UKSW, Salatiga.Quinlan, J.R, 2007. Induction of Decision TreesWahyuddin, 2009. Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penyeleksian Penerimaan

19