edisi khusus, nopember 2004 oleh - ipb university

13
Edisi Khusus, Nopember 2004 Terakreditasi oleh Dirjen Dikti Depdiknas No. 52/Dikti/Kep/2002 Sistem Informasi Geografis Daerah Penangkapan Ikan di Perairan Natuna-Laut Cina Selatan Berbasis Data Satelit NOAAlAVHRR dan SEAWIFS . YusSholva Perbandingan Model Two-Tier dengan Three-Tier dalamArsitektur ClientlServer·untuk Mengolah Perintah Query pada Aplikasi Database Wahyu Pujiyono, M, Idham Ananta Timur, Savitri Teknologi Informasi Keruangan: Pengalarrian Penerapan di Lingkungan . Pemerintahan Kota di Indonesia Agus Prijadi Saido Kompresi Data Menggunakan Algoritma Huffman Julio Adisantoso, Danny Dimas Sulistio, Bib Paruhum Silalahi Memilih Vendor Pengembang Sistem Informasi Manajemen Menggunakan Metode Analytic Hierarchy Process: Kasus Pengembangan Sistem Informasi Akademik STIE Indonesia Agus Hidayat, Gatot Prabantoro Pengkayaan UML dengan Metode Formal Pujianto Yugopuspito Technology Acceptance Model untuk Memprediksi Adopsi Internet di Indonesia Fathul Wahid Sistem Fuzzy Berorientasi Objek Teduh Dirgahayu ISSN 0853-8697 111111111111111111111111 770853 869710 1i k ' : Ed" Kh HI 1 84! Yogyakarta ; ISSN: e nom : 151 usus m. - ! No ember 2004, _

Upload: others

Post on 25-Oct-2021

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Edisi Khusus, Nopember 2004 oleh - IPB University

Edisi Khusus, Nopember 2004 TerakreditasiolehDirjen Dikti DepdiknasNo. 52/Dikti/Kep/2002

Sistem Informasi Geografis Daerah Penangkapan Ikan di Perairan Natuna-Laut CinaSelatan Berbasis Data Satelit NOAAlAVHRR dan SEAWIFS .

YusSholva

Perbandingan Model Two-Tier dengan Three-Tier dalamArsitektur ClientlServer·untukMengolah Perintah Query pada Aplikasi DatabaseWahyu Pujiyono, M, Idham Ananta Timur, Savitri

Teknologi Informasi Keruangan: Pengalarrian Penerapan di Lingkungan .Pemerintahan Kota di Indonesia

Agus Prijadi Saido

Kompresi Data Menggunakan Algoritma HuffmanJulio Adisantoso, Danny Dimas Sulistio, Bib Paruhum Silalahi

Memilih Vendor Pengembang Sistem Informasi Manajemen Menggunakan Metode AnalyticHierarchy Process: Kasus Pengembangan Sistem Informasi Akademik STIE Indonesia

Agus Hidayat, Gatot Prabantoro

Pengkayaan UML dengan Metode FormalPujianto Yugopuspito

Technology Acceptance Model untuk Memprediksi Adopsi Internet di IndonesiaFathul Wahid

Sistem Fuzzy Berorientasi ObjekTeduh Dirgahayu

ISSN 0853-8697

111111111111111111111111770853 869710

1i k ' : Ed" Kh HI 1 84! Yogyakarta ; ISSN:e nom : 151 usus m. - ! No ember 2004, _

Page 2: Edisi Khusus, Nopember 2004 oleh - IPB University

TEKNOINJurnal Teknologi Industri

Terakreditasi oleh Dirjen Dikti DepdiknasNo. 52/Dikti/Kep/2002

Jurnal Teknologi lndustri TEKNOIN adalah jurnal yang mengkaji masalah yangberhubungan dengan teknologi industri. Penelitian yang dilaporkan dapat berupa

penelitian untuk pengembangan keilmuan atau terapan .

. Jurnal ini terbit ernpat kali dalam setahun,setiapbulan Maret, [uni, September, clan Desember,

PelindungBachrun Sutrisno

Pemimpin UmumHari Purnomo

Pemimpin RedaksiAgus Taufiq

Sekretaris RedaksiFathul Wahid .

Dwi Ana Ratna Wati

Dewan RedaksiAdhi Susanto

Adi Djoko GuritnoAhmad Zuhdan Fathoni

Ali ParkhanAsmanto SubagyoBenny Sutrisno

Gumbolo Hadi SusantoIndah Molektuz ZuchairahIra Promasanti Rachmadewi

JamasriParyana PuspaputraR. Chairul SalehSoedjatmikoSri Hartati

Sri KusumadewiSubanar

Alamat RedaksiFakultas Teknologi Industri Universitas Islam Indonesia

JI. Kaliurang Km. 14 Yogyakarta 55501Telp. (0274) 895287, Faks. (0274) 895007

E-mail: [email protected]

Page 3: Edisi Khusus, Nopember 2004 oleh - IPB University

Edisi Khusus, Nopember 2004 TEI{NOINJumal Tekrologl Industri

ISSN0853-8697

DAFTARISI

1-14 Yus SholvaSistem Informasi Geografis Daerah Penangkapan Ikan diPerairan Natuna-Laut Cina Selatan Berbasis Data SatelitNOAA/ AVHRR dan SEAWIFS

15-22 Wahyu PujiyoIlo, M. Idham Ananta Timur, SavitriPerbandingan Model Two-Tier dengan Three-Tier dalam

Arsitektur Client/Server untuk Mengolah Perintah Query padaAplikasi Database

Agus Prijadi SaidoTeknologi Informasi Keruangan: Pengalaman Penerapan diLingkungan Pemerintahan Kota di Indonesia

23-31

33-41 Julio Adisantoso, Danny Dimas Sulistio, Bib Paruhum SilalahiKompresi Data Menggunakan Algoritma Huffman

43-53 Agus Hrd ayat, Gatot PrabantotoMemilih Vendor Pengembang Sistem Informasi ManajemenMenggunakan Metode Analytic Hierarchy Process: KasusPengernbangan Sistem Informasi Akademik STIE Indonesia

55-66 Pujianto YtigopuspitoPengkayaan UML dengan Metode Formal

67-77 Fathul WahidTechnology Acceptance Model untuk Memprediksi AdopsiInternet di Indonesia

79-84 Teduh DirgahayuSistem Fuzzy Berorientasi Objek

~<' .

Redaksi menerima tulisan yang belum pemah diierbitkan dari kalangan akademisi danpeneliti. Redaksi berhak menguban iuiisan tanpa mengurangi atau mengubah maksudnsja.Pedoman penulisan. iercantum pada oagian akhir Jurnal ini. Tallggullgjmuab isi tuiisanada pada penulis scpenulinva.

Untuk ntembantu kontinuiias pcnerbitan, sctiap tulisan yang ditnuat dikenakan biayasebesar Rp 150.000 dan dapat dikirintkan ke rekellillg nomor 10040012324 Ballk BukopinCaballg Petnbantu [alan Kaliurang Yogyakarta alas llama lr. Aglls Taufiq, M.Sc.

Page 4: Edisi Khusus, Nopember 2004 oleh - IPB University

DARI REDAKSI

TEKNOIN edisi k.husus ini memuat enam artikel terbaik dari Seminar NasionalAplikasi Teknologi lnformasi (SNATI) 2004. SNATI 2004 diselenggarakan olehJurusan Teknik Informatika, Fakultas Teknologi Industri Universitas IslamIndonesia pada 19 [uni 2004 di Yogyakarta. Artikel-artikel tersebut membahasberbagai penerapan teknologi informasi dalam bidang yang sangat beragam.

Artikel pertama yang ditulis oleh Sholva membahas pengembangan SistemInformasi Geografis untuk membantu menentukan zona perikanan yang palingpotensial di Perairan Natuna-Laut Cina Selatan menggunakan data satelitNOAA/ AVHRR dan SEAWIFS. Artikel selanjutnya yang ditulis oleh Pujiyono etal. meIaporkan penelitian yang membandingkan dua arsitektur client-server, yaitumodel2-tier dan 3-tier untuk mengolah perintah query.

Saido dalam artikelnya yang membahas salah satu aplikasi teknologi informasidalam pemerintahan, yaitu untuk masalah keruangan. Pengalaman penerapannyadi lingkungan beberapa pemerintahan kota diIndonesia membuat artikel uusemakin menarik. Artikel selanjutnya yang ditulis oleh Adisantoso et al.mernbahas kompresi data menggunakan algoritma Huffman.

Selanjutnya, Hidayat dan Prabantoro dalam artikelnya menjelaskan contohpenerapan metode pengambilan keputusan Analytic Hierarchy Process pada sebuahranah masalah yang sering dihadapi oleh para pengambil keputusan di bidangteknologi inforrnasi, yaitu menentukan pengembang sistem informasi manajernen.Artikel terakhir dari SNATI merribahas pengkayaan UML derigan metode formalyang ditulis oleh Yugopuspito.

Selain enam artikel tersebut, TEKNOIN edisi khusus ini juga memuat dua artikelmenarik yang ditulis masing-masingoleh Wahi<:Iqan Dirgahayu. Artikel Wahidmembahas model penerimaan teknologi (technologtj acceptance mode0 untukmemprediksi adopsi Internet, sedang artikel Dirgahayu membahas penerapanmetode berorientasi obyek pada sistem fuzzy.

Kami telah dan akan semakin meneguhkan komitmen untuk menjadi salah satumedia ilmiah penyebaran pengetahuan yang terkait dengan teknologi industri.Karenanya, kami men gun dang pada praktisi dan akademisi untuk memberikankontribusinya dalam bentuk artikel bermutu.

Redaksi

+

Page 5: Edisi Khusus, Nopember 2004 oleh - IPB University

ISSN 0853-8697

KOMPRESI DATA MENGGUNAKAN ALGORITMA HUFFMAN

Julio Adisantoso, Danny Dimas SuHstio, Bib Paruhurn SilalahiDepartemen Ilmu Kompuier Institut Pertanian Bogor

Kampus IPB Baranangsiang, [alan Raya Pajajaran BogarTelp.jFaks. (0251) 356653E-mail: [email protected]

ABSTRACTText compression algorithms are normally defined in terms of a source alphabet of 8-

bit ASCII codes. HJ1ffman algorithm is the most popular methods of text compression. Thisresearch used static and adaptif Huffman algorithms to compress text data, and alsocompare it. Variation of character occurs will decrease compression ratio. Iteration time ofstatic Huffman algorithm for compress and decompress is faster than adapiif Huffmanalgorithm, but performance of adaptij Huffman algorithm is best.

Keywords: text compression, static, and adaptif huffman algorithm.

1.· PENDAHULUAN·Pada saat ini kebutuhan akan informasi sangatlah diperlukan oleh

masyarakat umum. Dengan semakin banyaknya informasi yang perIu disimpansecara digital, secara automatis akan meningkatkan keperluan untuk menyediakan.media penyimparian data yang Iebih besar lagi. Oleh karenaitu diperIukan suatualternatif mekanisme penyimpanan data sehingga dengan media penyimpananyang ada, kita dapat menyimpan data sebanyak-banyaknya.

Pemampatan atau kompresi data merupakan salah satu metode untukmemperkecil ruang penyimpanan data pada suatu media penyimpanan, Selainberguna dalam penyimpanan data, kompresi data dapat membantu memperkecilukuran data yang drtransmisikan di dalam suatu media jaringan, seperti internetsehingga memperkedl waktu transfer data.

Salah satu metode kompresi data yang telah banyak dikenal ialah denganmenggunakan metode Huffman. Algoritma Huffman merupakan salah satupelopor lahirnya kompresi data, sehingga ukuran data yang perIu disimpanmenjadi lebih kecil dibandingkan dengan ukuran data sebenarnya .

.Penelitian mengenai kompresi terhadap data teks menggunakan algoritmaHuffman telah dilakukan sebelumnya oleh Hutasoit [3] mengenai pengaruh n-gram dalam pembentukan kode Huffman pada file teks berbahasa Indonesia danLayungsari [4] mengenai implementasi kompresi multi tahap menggunakanalgoritma Huffman pada file teks. Kesimpulan dari Hutasoit [3] adalah pengaruhn-gram dapat menghasilkan rasio kompresi yang lebih baik yang ditunjukandengan rasio kompresi untuk tree yang monogram lebih kecil dibandingkandengan tree digram. Sedangkan Layungsari [4] menyimpulkan bahwa hasilkompresi file teks menggunakan kompresi multi tahap Huffman menunjukan hasil

33

Page 6: Edisi Khusus, Nopember 2004 oleh - IPB University

yang tidak memuaskan. Hal ini dikarenakan file hasil kompresi oleh kompresitahap pertama telah menghasilkan kode prefiks yang optimal.

. Penelitian yang menelaah tentang pengembangan algoritma Huffman itusendiri belum banyak dilakukan. Hal ini diperlukan agar semakin sempurnametode kompresi data yang dilakukan. Salah satu pengembangan algoritmaHuffman statik adalah algoritma adaptif. Oleh karena itu penelitian ini bertujuanuntuk menelaah algoritma Huffman adaptif dibanding dengan algoritma Huffmanstatik pad a mekanisme kompresi data berbasis teks.

2. LANDASAN TEORIKompresi data dapat dilihat sebagai kumpulan teori informasi dim ana

tujuan utamanya adalah untuk memperkecil ukuran data yang akan

ditransmisikan [5]. Secara sederhana, karakteristik dari kompresi data dapatdianalogikan sebagai sebuah proses untuk mengubah sebuah string yangmerupakan kumpulan karakter menjadi sebuah string yang baru dengan informasiyang sarna namun dengan lebar atau ukuran yang lebih kecil, Suatu cara untukmengembalikan data yang telah terkompresi menjadi seperti sedia kala dikenaldengan istilah dekompresi data.

Secara garis besar kompresi data dapat dikelompokkan ke dalam duametode yaitu metode kompresi lossy dan metode kompresi lossless. Metodekompresi lossy adalah suatu metode kompresi data dim ana data yang telahterkompresi apabila dikembalikan ke dalam benruk semula akan terdapatbeberapa inforrnasi yang hilang. Contoh dari metode ini adalah pemampatan datagambar dan suara. Sedangkan metode kompresi loss less merupakan suatu metodekornpresi data dimana data yang telah terkompresi .akan dapat dikembalikanseperti sernula tanpaada informasi yang hilang. Implementasi dari metode iniyaitu pada pemampatan data teks atau dokumen ASCII.

2.1 Model Kompresi DataPad a metode kompresi lossless terdapat dua buah model utama yaitu metode

loss less dengan menggunakan model statistik dan model kamus, Pada modelstatistik, kompresi data diawali dengan melakukan perhitungan setiap karakteryang ada di dalam file, kemudian dengan statistik karakter yang ada akandilakukan pengkodean karakter dengan representasi lain. Representasi tersebutapabila dibandingkan dengan karakter asli diharapkan akan lebih kecil ukurannya.Model ini digunakan pada algoritma Huffman dan algoritma Aritmatik

Sedangkan untuk model kamus, kompresi data diawali dengan melakukanperhitungan setiap string yang terdapat di dalam file. String-string terse but akandisusun seperti sebuah indeks dan string-string tersebut akan disimbolkan dengansebuah representasi yang unik, Model ini digunakan pada algoritma Lempel-Zivdan turunannya (LZW, LZSS, LZRW, dan sebagainya).

Pada setiap model kompresi, dilakukan proses konversi simbol darirepresentasi string menjadi representasi kode lain, dan sebaliknya. Ada dua alatkonversi dalam hal ini, yaitu mesin enkoder dan mesin dekoder. Mesin enkodermerupakan sebuah alat yang menjalankan suatu mekanisme untuk melakukan

34 Adisantoso et al. - Kompresi Data Menggunakan Algoritma Huffman

Page 7: Edisi Khusus, Nopember 2004 oleh - IPB University

konversi simbol dari suatu representasistring menjadi suatu representasi kodelainnya yang bersifat unik. Mekanism.e yang dilakukan oleh alat ini sering dikenaldengan istilah pengkodean (encoding). Sedangkan mesin dekoder merupakansebuah alat yang menjalankan suatu mekanisme untuk mengembalikanrepresentasi unik dari suatu string menjadi sebuah representasi string seperti sediakala. Mekanisme yang dilakukan oleh alat ini sering dikenal dengan :istilahpendekodean (decoding).

2.2 AIgoritma HuffmanAIgoritma Huffman diperkenalkan oleh D.A. Huffman pad a paper yang ia

tulis sebagai salah satu tugas kuliahnya di MIT pada tahun 1950 [2]. Algoritm.a inimerupakan pengembangan lebih lanjut dari algoritma_kompresi yangdilakukanoleh Claude Shannon dan R.M. Fano pada tahun yang sarna. Ide dasar darialgoritma ini adalah membuat kode dengan representasi bit yang lebih pendekuntuk karakter ASCII yang sering muncul didalam file dan mernbuat kode denganrepresentasi bit yang lebih panjang untuk karakter ASCII yang jarang muneuldidalam file. Di dalam perkembangannya algoritma Huffman terpeeah menjadidua buah kategori yaitu statik dan adaptif.

2.2.1 Algoritma Huffman Statik _ _Algoritma Huffman Statik menggunakan kemungkinan kemuneulan dari

setiap karakter yang telah ditetapkan pada awal pengkodean dan kemungkinankernunculan karakter tersebut juga dapat diketahui baik oleh enkoder maupundekoder.

Cara kerja dari algoritma Huffman Statik untuk mengkompresi data yaitudengan cara sebagai berikut:a. Hitung jumlah karakter yang muncul di dalam file, sehingga masing-masing

karakter yang ada akan memiliki bobot sesuai dengan banyaknya karaktertersebut didalam file. Kemudian susunlah suatu pohon bineryang dibangunberdasarkan bobot karakter yang ada. Inti dari pem.bangunan pohon bineradalah menggabungkan dua buah karakter dengan tingkat kemunculan(bobot) yang lebih kecil, kemudian membangkitkan satu buah node parentyang memiliki bobot gabungan dari kedua karakter tersebut.

b. Lakukan pengkodean (encoding) karakter yang ada didalam file menjadi suaturepresentasi bit sesuai dengan urutan pada pohon biner yang telah dibangun.

2.2.2 Algoritma Huffman AdaptifAIgoritma Huffman Adaptif adalah algoritma dengan kemungkinan

kemunculan dari setiap simbol tidak dapat ditentukan dengan pasti selamapengkodean. Hal ini disebabkan oleh perubahan pengkodean secara dinamisberdasarkan frekuensi dari sim.bolyang telah diolah sebelum.nya.

Algoritrna Huffman Adaptif merupakan pengembangan lebih lanjut darialgoritma Huffman. Ide dasar dari algoritma ini adalah meringkas tahapanalgoritrna Huffman tanpa perlu menghitung jurnlah karakter keseluruhan dalammembangun pohon biner. Algoritma ini dikembangkan oleh trio Faller, Gallager,dan Knuth dan kemudian dikembangkan lebih lanjut oleh Vitter, sehingga tercipta

TEKNOIN, Edisi Khusus, Nopember 2004, 33-41 35

Page 8: Edisi Khusus, Nopember 2004 oleh - IPB University

dua buah algorima Huffman adaptif yaitu algoritma FGK dan algoritma V. Secaraumum algoritma Huffman Adaptif adalah sebagai berikut:a. Pada mesin enkoder:

initialize model();dol -

c=getc(input);encode (e,output):update model (e);

)while (e!=eof);

b. Pada mesin dekoder:initialize model();while((c=decode(input» !=eof);I

putc(c/output);update_model(c);

3. METODE PENELITIANSecara umum kompresi data menggunakan algoritma Huffman statik

diawali denganmembacadahulu file teks yang akan dikompresi. Hal ini dilakukanuntuk mendapatkan informasi mengenai jumlah dari masing-masing karakteryang terdapat d id a larn file. Setelah itu kita ~kan rnernbarigtm sebuah pohon biner'yang dibangun dengan kriteria yang telah dijelaskan sebelumnya. Kernudian kitaakan mengubah representasi dari masing-masing karakter yang ada di daiam filesesuai dengan representasi yang dihasilkan oleh pohon biner yang dituliskan padafile baru. Proses penulisah pada file hasil kompresi diawali dengan penulisanpohon biner yang kernud ian disarnburig deiigan isi file yang telah dikodekan.

Untuk dekompresi data, yang pertama kali dilakukan adalah membangunpohon Huffman yang merepresentasikan statistik data. Kemudian dilakukanpembacaan setiap bit sampai ditemukan node leaf yang sesuai. Hal ini dilakukanterus menerus sampai bit terakhir.

Sedangkan proses kompresi data dengan menggunakan algoritma HuffmanAdaptif diawali dengan membentuk sebuah pohon biner yang berisi sebuah nodeNYT dengan bobot nol. Kemudian dilakukan pembacaan file sumber setiapkarakter. Apabila ditemui sebuah karakter yang belum didefinisikan didalarnpohon biner, maka kode NYT akan dituliskan kedalam file baru disambungdengan kode ASCII dari karakter barn tersebut. Setelah itu akan dibuatkan sebuahnode yang berisi informasi tentang karakter baru dengan bobot satu dan kemudianpohon biner dimodifikasi ulang. Setelah itu dibaca karakter selanjutnya sampai. akhir file. Pada saat dibaca karakter yang telah didefinisikan pad a pohon, rnakabobot karakter tersebut ditambah satu, kernudianpohon akan dirnocliffkast ulang.Modifikasi dari pohon biner berlangsung selama proses pembacaan karakter.Sehingga pada file baru tidak perlu tambahkan informasi mengenai pohon biner.

3.1 Bahan PenelitianData yang digunakan adalah data teks dengan berbagai ukuran file, yaitu

kurang dari 20.000 byte, 20.000 - 40.000 byte, dan lebih dari 40.000 byte. File tekstersebut berisi potongan tajuk rencana harian sebuah media cetak online (Media

36 Adisanioso et al. - Kampresi Data MengguniJkan Algaritma Huffman

Page 9: Edisi Khusus, Nopember 2004 oleh - IPB University

Indonesia) yang beredar antara bulan [uni sampai November 2003. Selain itudigunakan sebuah mekanisme untuk membangkitkan karakter dengan rentangbervariasi dari satu buah variasi karakter.

3.2 Analisis DataDalam penelitian ini dilakukan beberapa pengujian yang antara lain:

a. Melihat pola rasio pemampatan dan lamanya eksekusi algoritmadenganmenggunakan data yang berasal dari potongan artikel.

b. Melakukan simulasi dengan menggunakan file teks yang hanya memilikisebuah variasi karakter kemudian diIihat pola rasio pemampatan dan lamanyaeksekusi dalam rentang 1.000 byte, 2.000 byte, 3.000 byte sampai 100.000 byte.

c. Mengamati rasio dan lamanya eksekusi algoritma pada file yang memiliki limabuah karakter yang berbeda, dan 256 karakter yang berbeda.

d. Penarikan kesimpulan menggunakan uji Analisis Keragaman (ANOVA)Percobaan yang telah dirancang selanjutnya diuji coba dan dilakukan

analisis terhadap kinerja algoritma yang dibatasi dengan melihat rasiapemampatan dan waktu proses kompresi. Rasio pemampatan (R) . didefinisikansebagai:

d imaria f" ada lah ukuran filea wal, clan fb aclalah ukuran file hasil k om pres i.

4. HASIL PENELITIAN4.1 Ukuran File

Lama waktu kompresi file berukuran kurang dari 20.000 byte oleh HuffmanStatik berkisar antara 0,05 detik sampai 0,06 detik, sedangkan Huffman adaptifmemerlukan waktu sekitar 0,11 detik sampai 0,13 detik dengan pola menaik untukukuran file yang semakin besar.

Rasia kampresi kedua algoritma rnenunjukan nilai yang fluktuatif. Hal inidisebabkan perbedaan banyaknya variasi karakter yang muncul dari kesepuluhfile yang digunakan, Pada lamanya dekompresi Huffmanstatik memerlukanwaktu antara 0,035 detik sampai 0,04 detik, sedangkan Huffman adaptifmemerIukan waktu antara 0,105 detik sampai 0,12 detik.

Untuk file berukuran antara 20.000 - 40.000 bytes, lamanya waktu kompresiyang diperIukan oleh Huffman Statile berkisar antara 0,05 detik sampai 0,06 detik.sedangkan Huffman adaptif memerlukan waktu sekitar 0,11 detik sampai 0,13detik dengan pola menaik untuk ukuran file yang semakin besar, Rasio kompresikedua algoritma meriunjukan nilai yang fluktuatif. Hal ini disebabkan perbedaanbanyaknya variasi karakter yang muneul dari kesepuluh file yang digunakan, Padalamanya dekompresi Huffman statik memerlukan waktu antara 0,035 detik sampai0,04 detik, sedangkan Huffman adaptif memerlukan waktu antara 0,105 detiksampai 0,12 detik.

Sedangkan untuk file berukuran lebih dari 40.000 bytes, hasil kompresikurang Iebih sarna dengan percobaan sebelumnya yaitu iterasi yang diperlukan

TEKNOIN, Edisi Khusus, Nopember 2004, 33-41 37

Page 10: Edisi Khusus, Nopember 2004 oleh - IPB University

oleh algoritma Huffman adaptif Iebih lambat dibandingkan algoritma Huffmanstatik, namun dengan rasio kompresi yang lebih baik.

Tabell menunjukkan bahwa waktu iterasi untuk kompresi dan dekompresiHuffman statik lebih cepat dibandingkan waktu iterasi kompresi dan dekompresiHuffman adaptif. Namun rasio pemampatan Huffman adaptif lebih besardibandingkan rasio pemampatan Huffman Statik. Hal ini menjadikan file kompresiyang dihasilkan oIeh Huffman Adaptif akan Iebih kecil ukurannya dibandingkandengan file kompresi yang dihasilkan oleh Huffman Statik. Selain itu dapat kitalihat semakin besar ukuran file yang akan dikompresi berimpikasi pada lamaiterasi yang semakin lama.

Tabell. Rata-rata lama dan rasio kompresi._ .. -

Ukuranfile Kont'!1'esi DekompresiLamats) Ra5io(%)' Lama (5) Ra5io(%)

<20KB 0,0564441 42,6445 0,03934281 -74,363. Huffman

20s/d 40 KB 0,0656619 43,1081 0,04878656 -75,777Statik>40KB . 0,0763654 43,2218. 0,05559875 -76,13

<20KB 0,1235163 4:3,3365 0;11193219 - -76,493 .Huffman

20 sid 40 KBAdaptif 0,2234394 43,4659 0,18995875 -76,889> 40 KB . 0,3226191 43,4665 {),26700437 -76,893

4.2 Variasi KarakterTujuan ·dari pereobaan ini adalah untuk mendapatkan rasio dan lamanya

waktu eksekusi dari kedua algoritma untuk file yang memiliki karakter deng<ln. peluang kernunculan adalah satu. Hasil iterasi kedua algoritma pada saatditampilkan akan dibedakan dengan warna, pad a hasil iterasralgoritma Huffman

. Statik ditunjukkan dengan warna hitam dim untuk hasil algoritma HuffmanAdaptif ditunjukkan dengan warna abu tua.

Lama iterasi untuk kompresi dan dekompresi Huffman Statik untuk satuvariasi karakter eenderung lebih cepat dibandingkan dengan Huffman Adaptif,walaupun pada rentang file 1,000 byte sampai20.000 byte masih terjadi fluktuasidisebabkan faktor ukuran file yang terlalu keeil dan iterasi yang eukup eepat(Gambar 1 dan 2). Sedangkan rasio kompresi Huffman .Adaptif Iebih baikdibandingkan rasio kompresi Huffrrian Statik, dengan keeenderungan semakinstabil seiring semakin besarnya ukuran file (Gambar 3).

Pada kompresi file yang berisi 5 karakter terjadi suatu anomali (Tabel 2),dimana hasil kompresi yang seharusnya mengecil menjadi membesar. Padaalgoritma Huffman Statik hal ini disebabkan penambahan karakter diawal, berupaheader terkompresi tidaknya file (4 byte), 1 byte kode CRC, 4 byte untuk menyirnpanukuran file sumber, dan 2 byte untuk menyimpan banyaknya karakter. Ditambahkebutuhan untuk menyimpan tree berupa 2 byte untuk mastng-mastng karaktcr,disambung representasi tree dan representasi hasil kompresi.

Sedangkan pada algoritma Huffman Adaptif mengalami pembesaranukuran file karena selairrmenyimpan setiap variasi karakter yang muncul, akandisimpan pula hasil pengkodean berdasarkan tree.

38 Adisantoso et at - Kompresi Data Menggunakan Algoritma Huffrnan

Page 11: Edisi Khusus, Nopember 2004 oleh - IPB University

0.125

0.1

0.075

0.05

1 6 1i 16 21 26 31 36 41 46 51 56 61

File uji

Gambar 1. Lama kompresi kedua algoritma pad a satu karakter

'coIV~0.125 .

B-'" .oS 0.1 j.

~ 0075 [

I,ODS!

!0.025

1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 961'---" .___._.~lIe ujl j __HStat.~"W\daPtlti

Gambar 2. Lama dekompresi kedua algoritma pada satu karakter

1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96

File ujii'I-+-- H.Statik ,···0····

_.__L~_. _

Carnbar 3. Rasia kompresi kedua algorihna pada satu karakter

TEKNOIN, Edisi Khusus, Nopember 2004,33-41 39

Page 12: Edisi Khusus, Nopember 2004 oleh - IPB University

Karena tree yang dibentuk pada Huffman Adaptif tidak perlu disimpan, halini menjadikan rasio kompresi Huffman Adaptif lebih baik dibandingkan denganrasio kompresi Huffman Statik. .

Pad a percobaan dengan file berisi 256 karakter terjadi pula anomali sepertihalnya yang terjadi pada percobaan 5 karakter, Seperti yang dapat dilihat padaTabel 3, rasio kompresi kedua algorihna ruenu.njukari riila i negatif yang berartihasil kompresi mengalami pembengkakan ukuran.

Tabel2. Kompresi file 5 buah karakter

Huffman Statile Lama iterasi (detikl 0,01328Rasio pampati%) -400Ukuran hasil(byte) 25

Huffman Adaptif Lama iterasi (detik) 0,008969Rasio pampat (%) -40Ukuran hasil (byte) 7

Tabe13. Kompresi file 256 karakter

Hufftnan Statile I Lama iterasi (detik) 0,025. Rasio 2ampat (%) -304,297Ukuran hasil (byte} 1035

I Huff!nan Adaetif Lama iterasi (detik) 0,011344Rasio pampat (%) .. -100,781Ukuran hasil (byte) 514

L.

Padaalgoritma Huffrrian Statik lebih 'disebabkan karena besarnya tempatyang diperlukan untuk menyimpan statistik karakter. Karena pada percobaan inidigunakan 256 karakter yang berbeda, maka secant otornatis ak.ari diperlukanminimal 512 byte untuk menyimpan informasi karakter. Hal ini belum termasukpenyimpanan header, dan penyimpanan hasil pengkodean file sumber. Sedangkanpada algoritma huffman statik selain menyimpan 256 byte yang merepresentasikankarakter yang berbeda, perlu juga disimpan hasil pengkodean file sumber.

5. SIMPULANSemakin variatif karakter yang muncul, akan memperkecil rasio korrrprest

yang dihasilkan, baik oleh algoritma Huffman Statik, maupun pada algoritmaHuffman Adaptif. Rasio kompresi terbaik terjadipada file yang rnernifiki kara kte rdengan peluang kemuncu lan mendekati 1 (bobot karakter hampir sebesar ukuranfile). Rasio terbaik yang didapat selama penelitian yaitu sebesar 87,489 %. Rasiokompresi terburuk terjadi pada file yang memiliki variasi karakter besar dan padafile yang berukuran kecil, Hal ini ditandai dengan terjadinya pembesaran ukuranfile hasil dibandingkan ukuran file awal.

40 Adisantoso et al. - Kornpresi Data Menggunatcan Algontma Huffman

Page 13: Edisi Khusus, Nopember 2004 oleh - IPB University

Dengan menggunakan metode kompresi apapun memiliki trade off, dimanakita akan diberi pilihan hasil maksimum dengan iterasi yang lama atau iterasi yangsangat cepat namun dengan hasil yang biasa.

Hasil percobaan yang terdapat pada pembahasan menunjukan bahwa waktuiterasi yang diperlukan oleh algoritma Huffman Stahl untuk melakukan kompresidan dekompersi adalah cenderung lebih kecil dibandingkan dengan yangdilakukan oleh algoritma Huffman Adaptif. Namun untuk hasil kompresi terIihatunjuk kerja Huffman Adaptif adalah lebih baik dibandingkan Huffman Statik.

6. SARANPada saat mengimplementasikan algoritma Huffman Adaptif digunakan

prosedur yang menjadikan kompleksitas aIgoritma Huffman Adaptif menjadiO(n.m). Seharusnya kompleksitas Huffman adaptif hampir sama dengan algoritmaHuffman Statis yaitu O(n 19 m). Pengembangan selanjutnya untuk perbandingankompresi Huffman statik dan adaptif ini dapat diterapkan pada mekanismepengiriman paket data terkompresi pada media jaringan.

PUSTAKA[1] Cormen, T. H., Leiserson, C. E., dan Rivest, R. L. (1990). Introduction to

Algorithms. Mc Graw Hill Company.[2] Huffman, D. A. (1952). A Method for the Construction of Minimum-

Redundancy Codes. Proc. IRE, Vol. 40, 1098-1101.[3] Hutasoit, Y. E. (2001). Huffman Coding Untuk Kompresi Data Teks Berbahasa

Indonesia. Skripsi. jur usan Ilmu Komputer Fakultas MIPA IPB. Bogor,Indonesia.

[4] Layungsar-i. (2003). Penyempurnaan dan Implementasi Software KompresiMulti Tahap Menggunakan Huffman Coding. Skripsi. [urusan Ilinu KomputerFakultas MIPA IPB. Bogar, Indonesia.

[5] Lelewer, D. A., dan HirschbergD. S. (1987). Data Compression: ACMComputing Suroefs, Vol. 19, 261-296. .

[6] Moore, D. S. (1994). The Basic Practice of Statistics. ISBN 0-7167-2628-9. W.H.Freeman and Company. New York

[7] Vitter, J. S. (1987). Design and Analysis of Dynamic Huffman Codes. Journal ofACM, Vol. 344, 825-845.

[8] Vitter, J. S. (1989). ALGORITHM 673: Dyriarnic Huffman Codes. ACMTransactions on Mathematical Software, Vol. 15, No.2, 158-167.

TEKNOIN, Edisi Khusus, Nopember 2004,33-41 41