bab ii landasan teori - library.binus.ac.idlibrary.binus.ac.id/ecolls/ethesisdoc/bab2/tsa-2010-0062...
TRANSCRIPT
9
BAB II
LANDASAN TEORI
2.1 Cross-selling
Cross-selling berkaitan dengan upaya untuk meningkatkan jumlah produk
atau jasa yang pelanggan gunakan dalam suatu perusahaan. Cross-selling produk
dan jasa kepada pelanggan yang ada membutuhkan biaya yang lebih rendah dari
biaya untuk memperoleh pelanggan baru, karena perusahaan sudah memiliki
hubungan dengan pelanggan. Sebuah implementasi yang tepat dari cross-selling
hanya dapat dicapai jika ada suatu infrastruktur informasi yang memungkinkan
manajer untuk menawarkan produk dan layanan kepada pelanggan yang cocok
dengan kebutuhan mereka, tetapi belum dijual kepada mereka (Kamakura et al,
2003).
Selain itu, cross-selling juga efektif untuk retensi pelanggan dengan
meningkatkan biaya peralihan dan meningkatkan loyalitas pelanggan, sehingga
secara langsung berkontribusi terhadap keuntungan yang didapat dari pelanggan
dan lifetime value. Semakin banyak layanan perusahaan yang digunakan oleh
pelanggan, semakin tinggi pula biaya peralihan ke perusahaan lain, yang pada
akhirnya akan mengarah pada kesetiaan dan kepemilikan pelanggan atas
perusahaan. Hubungan tersebut diilustrasikan oleh Kamakura et al. (2003) seperti
pada Gambar 2.1 dari hasil penelitiannya mengenai cross-selling pada institusi
finansial. Grafik ini menunjukkan hubungan jumlah tahun menjadi pelanggan
10
terhadap jumlah jasa yang digunakan. Gambar 2.1 menunjukkan hubungan positif
yang kuat dari jumlah tahun menjadi pelanggan dengan jumlah jasa yang
digunakan dari perusahaan. Semakin lama hubungan, pelanggan cenderung
menggunakan lebih banyak layanan dari perusahaan dan ketika pelayanan yang
digunakan lebih banyak, biaya peralihan meningkatkan, sehingga mengakhiri
hubungan dengan perusahaan menjadi kurang menarik. Kesimpulannya, retensi
pelanggan meningkat melalui cross-selling seiring dengan biaya peralihan yang
meningkat karena adanya beberapa hubungan layanan.
Gambar 2.1 Hubungan antara Jumlah Tahun Menjadi Pelanggan terhadap Jumlah Layanan yang Digunakan
Bersamaan dengan meningkatnya intensitas interaksi yang memuaskan
dengan pelanggan, perusahaan belajar lebih banyak tentang kebutuhan dan
11
keinginan pelanggan. Hal ini membuat kemampuan perusahaan untuk menjaga
loyalitas pelanggan dan melawan pesaing meningkat. Pada saat yang sama,
loyalitas yang meningkat mengarah pada peningkatan keuntungan. Dan
selanjutnya, penggunaan layanan yang lebih banyak akan mengarah pada
keuntungan yang lebih besar, jika layanan tersebut dicross-sell dengan benar.
Kamakura et al. (2003) menggambarkan hal ini pada Gambar 2.2. Gambar ini
memetakan profitabilitas pelanggan terhadap jumlah layanan yang mereka
gunakan dari perusahaan. Satu lagi bukti bahwa ada hubungan positif yang
signifikan yang menunjukkan bahwa cross-selling secara langsung meningkatkan
keuntungan dengan meningkatkan lifetime value dari pelanggan.
Gambar 2.2 Hubungan antara Kontribusi Pelanggan terhadap Jumlah Layanan yang Digunakan
12
Common sense assessment atau penilaian berdasarkan akal sehat dari
karakteristik atau perilaku kostumer adalah salah satu cara yang paling umum
digunakan para praktisi melakukan prediksi atas produk tambahan yang akan
diambil oleh kostumer. Biasanya dilakukan dengan mengidentifikasi grup atau
segmen kostumer yang paling banyak mengadopsi sebagian produk dan
menargetkan mereka. Rossi, McCulloch & Allenby (1996) menemukan bahwa
prediktor perilaku kostumer di masa depan yang bagus adalah informasi penjualan
di masa lalu, dengan tingkat respon hingga 250%. Bahkan mereka menemukan
bahwa dengan mengetahui produk yang saat ini dimiliki kostumer, dapat
meningkatkan peluang pengadopsian produk baru hingga 50%.
Reinartz & Kumar (2003) menemukan bahwa data sosio-demografis dapat
menjelaskan karakteristik retensi kostumer dan kondisi sosio-demografis yang
disarankan untuk mengidentifikasi kostumer yang tertarik pada suatu produk.
2.2 Data warehouse
2.2.1 Pengertian Data warehouse
Dalam sebuah organisasi, umumnya data disimpan dalam banyak
database. Masing-masing database terpisah menurut sistemnya masing-masing
dan tidak terintegrasi menjadi satu. Contohnya data untuk pemasaran, sales,
payroll, dan sebagainya. Masing-masing database bersifat unik, dengan logical
relationship antar satu dengan yang lainnya, akan tetapi tanpa physical
relationship. Data warehouse digunakan untuk menggabungkan data ke pusat
data dan menyusun untuk membuat analisis yang lebih mudah, sebab lebih sedikit
13
dinormalisasi daripada database aplikasi tradisional. Data dari data warehouse
harus dapat digunakan untuk menjawab permasalahan bisnis dari manajemen dan
pengguna lainnya.
Menurut Inmon (2005, p29), data warehouse adalah koleksi data yang
mempunyai sifat berorientasi pada subjek, terintegrasi, variasi waktu, dan koleksi
data-nya non-volatile dalam mendukung proses pengambilan keputusan di
manajemen.
Data warehouse berbentuk data-data yang telah dikelompokkan menurut
jenis dan karakteristik data yang sama. Pada data warehouse, database berisi
(dalam mayoritas kasus) data-data historis perusahaan yang disimpan sedemikian
rupa sehingga dapat membantu analisis. Data pada data warehouse dapat berasal
dari relational database, text file, maupun data source lain.
Data-data pembentuk data warehouse ini diperoleh dari proses OLTP (On-
Line Transaction Processing), dimana setiap pengkinian atau manipulasi data
akan disesuaikan kembali dengan data pada data warehouse. Pengambilan data
dari OLTP dan penyimpanan di data warehouse biasa dideskripsikan sebagai
proses ETL, yang merupakan kepanjangan dari Extract, Transform, and Loading.
• Proses Extract adalah proses pengambilan data dari source ke staging area.
Pada proses ini dilakukan bulk copy, yaitu penyalinan data secara langsung
dari raw data (data asli atau mentah), tanpa melakukan proses manipulasi
data. Tujuannya adalah agar proses ini berlangsung cepat dan tidak
mengganggu proses transaksi pada OLTP.
14
• Proses Transform data adalah proses manipulasi data pada staging area,
sehingga data tersebut cocok dengan struktur data pada data warehouse.
• Proses Load adalah proses pemasukan data dari staging area ke data
warehouse.
Data pada data warehouse dirancang agar dapat diquery secara cepat.
Pada OLTP, tabel-tabel biasanya terdapat dalam bentuk normal ke 3 (N-3).
Sedangkan dalam data warehouse, tabel-tabel yang dipakai membentuk suatu star
schema, yaitu gabungan antara sebuah fact table dan beberapa dimension table.
Model ini akan menghasilkan query yang cepat. Tujuan utama data warehouse
adalah memprovide data dari seluruh perusahaan ke suatu keadaan dimana data
tersebut dapat digunakan oleh user yang akan mengambil keputusan bisnis. Tidak
akan ada redudansi data, dikarenakan sumber data berpusat pada satu data
warehouse.
2.2.2 Karakteristik Data warehouse
Menurut Inmon (2005, p29) data warehouse memiliki empat karakteristik
utama, antara lain sebagai berikut:
1. Subject-Oriented
Data warehouse berorientasi subyek artinya data warehouse didesain untuk
menganalisa data berdasarkan subyek-subyek tertentu dalam organisasi, bukan
pada proses atau fungsi aplikasi tertentu.
15
Data warehouse diorganisasikan di sekitar subyek-subyek utama dari
perusahaan (kostumer, produk dan penjualan) dan tidak diorganisasikan pada
area-area aplikasi utama (tagihan kostumer, kontrol stok dan penjualan
produk). Hal ini dikarenakan kebutuhan dari data warehouse untuk
menyimpan data-data yang bersifat sebagai penunjang suatu keputusan, dari
pada aplikasi yang berorientasi terhadap data. Jadi dengan kata lain, data yang
disimpan adalah berorientasi kepada subyek bukan terhadap proses.
2. Integrated
Data warehouse dapat menyimpan data-data yang berasal dari sumber-sumber
yang terpisah kedalam suatu format yang konsisten dan saling terintegrasi satu
dengan lainnya. Dengan demikian data tidak bisa dipecah-pecah karena data
yang ada merupakan suatu kesatuan yang menunjang keseluruhan konsep data
warehouse itu sendiri. Syarat integrasi sumber data dapat dipenuhi dengan
berbagai cara sepeti konsisten dalam penamaan variabel, konsisten dalam
ukuran variabel, konsisten dalam struktur pengkodean dan konsisten dalam
atribut fisik dari data.
16
Gambar 2.3 Pokok persoalan dari integrasi
3. Time Variant
Model analisis yang diterapkan pada sebuah data warehouse berfokus pada
perubahan data faktual berdasarkan waktu. Dalam hal ini data warehouse
harus mampu menyimpan data untuk suatu obyek tertentu dalam kurun waktu
yang berbeda-beda. Waktu merupakan bagian data yang sangat penting di
dalam data warehouse.
17
Gambar 2.4 Time Variant
4. Non-volatile
Karakteristik keempat dari data warehouse adalah non-volatile, maksudnya
data pada data warehouse tidak di-update secara real time tetapi di refresh
dari sistem operasional secara reguler. Data yang baru selalu ditambahkan
sebagai suplemen bagi database itu sendiri dari pada sebagai sebuah
perubahan. Database tersebut secara kontinu menyerap data baru ini,
kemudian secara incremental disatukan dengan data sebelumnya.
Berbeda dengan database operasional yang dapat melakukan update, insert
dan delete terhadap data yang mengubah isi dari database sedangkan pada
data warehouse hanya ada dua kegiatan memanipulasi data yaitu loading data
(mengambil data) dan akses data (mengakses data warehouse seperti
melakukan query atau menampilan laporan yang dibutuhkan, tidak ada
kegiatan updating data).
18
Gambar 2.5 Pokok persoalan dari non-volatile
2.2.3 Bentuk Data warehouse
Berikut ini adalah bentuk-bentuk dari data warehouse:
1. Functional Data warehouse
Functional data warehouse ini merupakan bentuk database dimana data
warehouse dibuat lebih dari satu dan dikelompokkan berdasarkan masing-
masing fungsi yang ada dalam perusahaan, seperti fungsi finansial/keuangan,
fungsi marketing/pemasaran, fungsi kinerja personalia, dan lain-lain.
Keuntungan dari bentuk ini adalah sistem akan mudah dibangun dengan biaya
yang relatif murah. Kerugian dari penggunaan bentuk ini adalah resiko
kehilangan konsistensi data dan terbatasnya kemampuan pengguna dalam hal
pengumpulan data.
19
Gambar 2.6 Functional Data warehouse
2. Centralized Data warehouse
Centralized data warehouse ini merupakan database fisikal tunggal yang
memuat semua data untuk area fungsional yang khusus, departemen, divisi,
atau perusahaan. Data warehouse ini digunakan ketika terdapat kebutuhan
akan data informasional dan terdapat banyak end-user yang sudah terhubung
ke komputer pusat atau jaringan.
Gambar 2.7 Centralized Data warehouse
20
Bentuknya menyerupai functional data warehouse, akan tetapi sumber
datanya lebih dahulu dikumpulkan atau diintegrasikan pada suatu tempat
terpusat, baru kemudian data tersebut dibagi-bagi berdasarkan fungsi-fungsi
yang dibutuhkan oleh perusahaan. Bentuk data warehouse terpusat ini sering
digunakan oleh perusahaan-perusahaan yang belum mempunyai jaringan
eksternal. Keuntungan bentuk centralized Data warehouse ini adalah data
benar-benar terpadu karena konsistensi yang tinggi. Namun demikian
membutuhkan waktu yang lama dan biaya yang mahal dalam membentuk data
warehouse seperti ini.
3. Distributed Data warehouse
Distributed data warehouse adalah data warehouse dimana komponen tertentu
dari data warehouse tersebut didistribusikan melewati sebuah database fisikal
yang berbeda. Distributed data warehouse biasanya melibatkan data yang
paling teredundansi, dan sebagai akibatnya, menimbulkan proses load dan
update yang sangat kompleks.
Gambar 2.8 Distributed Data warehouse
21
Distributed data warehouse ini menggunakan gateway yang berfungsi sebagai
jembatan antara lokasi data warehouse dengan workstation yang
menggunakan sistem yang beranekaragam, sehingga pada bentuk data
warehouse ini memungkinkan perusahaan untuk mengakses sumber data yang
terdapat diluar lokasi perusahaan (eksternal). Bentuk data warehouse ini
mempunyai kelebihan dalam hal pengaksesan data dari luar perusahaan yang
telah mengalami sinkronisasi terlebih dahulu dan tetap terjaga konsistensinya.
Tetapi bentuk ini juga memiliki kerugian yaitu bentuk ini merupakan yang
paling mahal dan paling kompleks untuk diterapkan karena sistem operasinya
dikelola secara terpisah.
2.2.4 Arsitektur Data warehouse
Arsitektur data warehouse berdasar pada sebuah server relational
database management system yang berfungsi sebagai pusat penyimpanan data
yang bersifat informatif.
a. Operational Data
Sumber data untuk data warehouse disediakan dari:
• Mainframe data operasional disimpan dalam generasi pertama hirarki
database dan database jaringan.
• Data–data antar bagian departemen yang tersimpan dalam beraneka ragam
sistem proprietary file.
22
• Data internal yang tersimpan di workstation dan private server.
• Data yang berasal dari sistem-sistem eksternal.
b. Operational Datastore
Operational Datastore (ODS) adalah tempat penyimpanan data operasional
terkini dan terintegrasi yang digunakan untuk analisa. ODS sering terstruktur
dan datanya disediakan dengan cara yang sama seperti pada data warehouse.
c. Load Manager
Load manager melaksanakan semua operasi yang berhubungan dengan
ekstraksi dan pemuatan data ke dalam data warehouse. Data diperoleh
langsung dari sumber data atau dari operational datastore. Load manager juga
melakukan transformasi data sederhana untuk mempersiapkan data sebelum
masuk ke dalam data warehouse.
d. Warehouse Manager
Warehouse manager melaksanakan semua operasi yang berhubungan dengan
manajemen data dalam data warehouse. Operasi-operasi yang dilaksanakan
oleh warehouse manager meliputi hal-hal sebagai berikut.
• Analisis data untuk memastikan konsistensinya
• Transformasi dan penggabungan sumber data dari tempat penyimpanan
sementara ke dalam tabel-tabel data warehouse
• Pembuatan index dan view pada tabel-tabel dasar
23
• Generate denormalisasi (jika diperlukan)
• Generate Aggregation (jika diperlukan)
• Back-up dan archive data
e. Query Manager
Query Manager (juga disebut komponen back-end) melaksanakan semua
operasi yang berhubungan dengan manajemen dari query user. Komponen ini
dibuat dengan tool data akses end-user, tool pengawasan data warehouse,
fasilitas database, dan program yang dibuat sendiri.
f. Detailed Data
Pada bagian ini merupakan tempat data warehouse menyimpan semua rincian
data dalam skema database, yang bertujuan untuk melengkapi kumpulan data
untuk data warehouse.
g. Lightly dan Highly Summarized Data
Bagian data warehouse ini menyimpan semua rangkuman data yang
dihasilkan oleh warehouse manager. Tujuan dari rekapitulasi informasi baik
Lightly dan Highly Summarized Data ini adalah untuk mempercepat kinerja
query.
h. Archive/Backup Data
Bagian data warehouse ini menyimpan data detail dan rekapitulasi data untuk
tujuan archive dan backup.
24
i. Meta-Data
Bagian data warehouse ini digunakan untuk menyimpan seluruh definisi
meta-data (data tentang data) yang digunakan oleh seluruh proses di dalam
proses data warehouse.
j. End-user Access Tools
Tujuan utama dari data warehouse adalah menyediakan informasi kepada user
untuk mendukung pengambilan keputusan. User akan berinteraksi dengan
data warehouse menggunakan tools akses end-user.
2.3 Business Intelligence
2.3.1 Definisi Business Inteligence
Turban (2007) menjelaskan Business Intelligence sebagai pendekatan baru
bagi perusahaan yang mengumpulkan, mengatur, dan menggunakan informasi.
Dia percaya bahwa cara lama telah berubah untuk merefleksikan teknologi yang
baru dan masa kini, karena perusahaan membutuhkan keputusan yang cepat (real-
time) berdasarkan data yang ada.
Saat ini, dalam situasi bisnis yang berdaya saing tinggi, nilai dari sistem
informasi strategis sangat terlihat. Tingginya tingkat adopsi dan investasi pada
software BI dan pelayanannya membuktikan bahwa sistem ini sangat dibutuhkan
dalam mendukung pengambilan keputusan bagi perusahaan dalam kondisi pasar
saat ini.
25
Turban mengumpamakan Business Intelligence sebagai sebuah payung,
yang melingkupi arsitektur, tools, database, aplikasi dan metodologi. Turban juga
mengatakan bahwa tujuan utama dari Business Intelligence adalah memungkinkan
akses interaktif dan eksploitasi terhadap data, serta menyediakan data tersebut
untuk digunakan oleh para manajer dan para analis. (Turban et al., 2007)
Dobbs menjelaskan sumber data yang berbeda yang telah dikumpulkan
dan disimpan di perusahaan harus diekstrak dari berbagai sumber, kemudian
diubah menjadi format yang konsisten dan dimuat serta disimpan dalam data
warehouse dan dianalisa untuk mendapatkan keputusan yang tepat, sehingga
menjadi efisien bagi perusahaan. Dengan ini perusahaan dapat membuat
keputusan bisnis yang lebih baik dan lebih cepat dibandingkan dengan para
pesaingnya. (Dobbs et al., 2002)
Green mengindikasikan sebuah bisnis memiliki 8 (delapan) nilai
penggerak yang menyusun kerangkanya. Green juga menambahkan kunci untuk
menangkap informasi bisnis adalah memberikan pertanyaan yang tepat dan
mengetahui dengan jelas apa yang dibutuhkan untuk menjawab pertanyaan
tersebut. Masing-masing nilai penggerak ini mencerminkan pertanyaan utama
yang bersamaan dengan kinerjanya. Berikut dibawah ini adalah layer dari
informasi bisnis yang menempatkan bisnis untuk membangun sebuah intelligence.
26
Gambar 2.9 Menyelaraskan pengendali kapasitas dengan operasi bisnis
Beberapa orang menjelaskan Business Intelligence dengan pendekatan
yang berbeda, salah satu pendekatan ini telah dijelaskan oleh Green. Green
percaya bahwa Business Intelligence membaur menjadi informasi bisnis dan
bukan merupakan entitas tunggal. Green mengumpulkan 3 (tiga) komponen yaitu:
Relationship Intelligence, Competence Intelligence dan Structure Intelligence.
• Relationship Intelligence mengenal bagaimana relasi antara para pekerja
knowledge mempengaruhi kinerja perusahaan.
• Competence Intelligence mengenal bagaimana kemampuan dari para pekerja
knowledge mempengaruhi kinerja perusahaan.
• Structure Intelligence mengenal bagaimana lingkungan infrastruktur
perusahaan mempengaruhi kinerja perusahaan. (Green, 2007)
27
Tabel 2.1 Business Intelligence dengan Tiga Komponen Besar di dalamnya
Chou menegaskan bahwa banyak perusahaan yang menggunakan BI agar
perusahaan dapat merasiokan ROI (return on investment) mereka. Menurut
pandangan Chou, BI mengumpulkan data dengan menggunakan ERP, CRM
(Customer Relationship Management) dan data intensif lainnya. Sistem BI dapat
menggambarkan data dalam sistem ERP dan kemudian menghasilkan analisa-
analisa yang beragam dan kemudian menjadikannya dalam bentuk laporan yang
28
akan membantu para pengguna dalam mengambil keputusan dengan akurat dan
tepat waktu.
Chou juga menambahkan bahwa BI sangat kompeten untuk menganalisa
skenario bisnis baik dalam jangka waktu yang pendek maupun jangka waktu yang
panjang; hal ini dapat terjadi dengan menggunakan data yang mudah diakses dan
dibatasi oleh sistem informasi perusahaan tersebut. Teknologi BI dapat
diutilisasikan untuk perusahaan apapun untuk melakukan konfigurasi informasi ke
dalam sistem ERP dan data-data lainnya seperti data warehouse dan data lainnya
untuk mencapai pengambilan keputusan yang efektif. Banyak perusahaan harus
bergantung pada sumber informasi tunggal (contoh sistem transaksi) untuk
menjalankan operasi harian mereka. Bagaimanapun juga, sistem transaksi ini
tidak pernah menemukan kebutuhan dari pihak manajemen untuk menemukan
tren dan model yang akan meningkatkan bisnis mereka. (Chou et al, 2005)
Rasmussen percaya bahwa perusahaan membutuhkan BI yang efektif
untuk pengambilan keputusan yang lebih baik. Rasmussen mengatakan bahwa
pada masa lalu, perusahaan telah menghabiskan waktu yang banyak dalam
menyiapkan data dan laporan keuangan, tetapi mereka menghabiskan waktu yang
sedikit untuk melakukan analisa terhadap data. (Rasmussen et al, 2002)
Chou mempertimbangkan proses BI sebagai competitive advantage bagi
perusahaan dalam pangsa pasar masa kini. Knowledge dan informasi mengenai
para customer, dealer, produk, dan pasar akan memperbolehkan pengambilan
keputusan yang bijaksana dalam perusahan yang akan mengakibatkan
pertambahan pendapatan, pengurangan biaya dan menambah keuntungan atau
29
profit. Terpisah dari alat-alat pelaporan yang kuno seperti, spreadsheet, alat
laporan yang disediakan oleh BI menyediakan interface secara visual untuk
mengarahkan dan mengemudikan melalui sumber data yang multi dimensional
yang tersimpan dalam sistem transaksi. Hal ini dapat dijadikan pertanda bagi para
pengambil keputusan dan para analisator akan mendapatkan akses yang lebih
mudah, lebih cepat untuk mengakses informasi yang updated dan yang tentu saja
akan mendukung pengambilan keputusan yang lebih cepat dan lebih baik. Pada
akhirnya Chou menyimpulkan bahwa BI dapat merubah pandangan yang berbeda
dari sistem data yang tersedia. (Chou et al, 2005)
Gambar 2.10 Mengapa solusi dari Business Intelligence sangat dibutuhkan
2.3.2 Business Inteligence Tools
Business Intelligence memiliki beberapa tools; dimana tools tersebut dapat
digunakan untuk memproduksi beberapa aspek dari sudut pandang bisnis melalui
30
pengontrolan terhadap data yang telah ada (existing data) yang direkam oleh
sistem informasi milik perusahaan.
Cody menyatakan bahwa Business Intelligence menyelesaikan pembuatan
keputusan dengan cara memanfaatkan data warehouse dan online analytical
processing techniques (OLAP). Ia menjelaskan bahwa data warehouse sebagai
proses untuk mengumpulkan data-data yang berhubungan dan memasukkannya ke
dalam tempat penyimpanan data, dimana semua data diatur dan diberikan
otorisasi sehingga tujuan untuk pengambilan keputusan dapat dicapai.
Adanya beberapa jenis data bisnis telah ditransformasi dan diambil dari
sistem transaksi menjadi data warehouse. Yang terpenting dari proses data
warehouse adalah data cleansing dimana adanya variasi terhadap skema data dan
nilai data dari sistem transaksi ditetapkan dan ditentukan.
Tools dari berbagai vendor menyediakan cara permintaan data dan
tampilan ke data warehouse yang berbeda untuk semua penggunanya. Untuk data
yang besar, data warehouse dapat menahan hingga 10 TB data (Cody et al., 2002;
Herschel dan Jones, 2005).
Azvine memperkenalkan fitur-fitur yang umum pada Business Intelligence
software yaitu sebagai berikut:
• Laporan dan Visualisasi dengan menggunakan trend analysis,
• Customer behavior analysis, dan
• Predictive modeling.
31
Ia mengindikasikan bahwa Business Intelligence membutuhkan 3 (tiga)
kategori utama dari teknologi – data warehouse, analytical tools, dan reporting
tools. Ia menjelaskan bahwa data warehouse sebagai alat untuk mengumpulkan
data dari sumber-sumber yang berbeda, dimana bisa saja itu berupa database, teks
yang tidak terstruktur dan menyatukan mereka untuk dilakukan analisa yang lebih
dalam lagi. Sedangkan analytical tools sebagai alat untuk menganalisa dan yang
kemudian mendapatkan pengetahuan. Visualisasi dan alat untuk pelaporan
menciptakan output yang didesain untuk para pengguna informasi yang biasanya
merupakan pengguna bisnis dan bukan analis. Tools yang disebutkan diatas
menghasilkan laporan-laporan dengan beberapa detil yang berbeda (Azvine et al.,
2005).
Chou menekankan bahwa Business Intelligence memainkan peran besar
dari modifikasi yang terjadi terhadap kualitas pengambilan keputusan. Bisnis
perlu memfokuskan kegiatan Business Intelligence mereka dalam area
pengurangan biaya, analisa profitabilitas, analisa penggunaan produk / jasa, target
pemasaran, hubungan pemasaran dan CRM dalam rangka untuk membuat bisnis
mereka semakin kompetitif. (Chou et al., 2005)
2.3.3 Model-Model Business Inteligence
Von Krogh memperkenalkan Business Intelligence sebagai proses untuk
mengumpulkan semua informasi dari berbagai bidang bisnis; proses
mentransformasi data menjadi informasi dan kemudian menjadi knowledge. BI
merupakan kompetensi inti yang sangat berharga dan harus dikelola seperti faktor
32
tradisional tenaga kerja, modal dan bahan baku (Von Krogh et al., 1998; dikutip
oleh Green, 2006).
Schermerhorn mengatakan bahwa proses Business Intelligence umumnya
terdiri dari serangkaian kegiatan yang melibatkan mengidentifikasi,
mengumpulkan, mengembangkan, menganalisa, dan menyebarkan informasi.
Salah satu langkah penting dalam proses ini adalah untuk mengidentifikasi
pelanggan, pemasok, pesaing, pemegang saham, kelompok masyarakat yang
berkepentingan, serikat buruh, partai politik, pemerintah atau variabel lain di
lingkungan yang akan dipantau (Schermerhorn, 2001; dikutip oleh Chau et al,
2006).
Azvine telah memperkenalkan cara pandang yang berbeda dari BI dan
menetapkan bahwa BI adalah tentang bagaimana memotret, mengakses,
memahami, menganalisis dan mengubah salah satu aset yang paling berharga dari
suatu perusahaan - data mentah - menjadi informasi bermanfaat dalam rangka
meningkatkan kinerja bisnis. (Azvine et al., 2005)
Michalewicz menggambarkan tujuan umum dari sistem BI sebagai
berikut; (1) Penerimaan data dari beragam sumber yang berbeda, (2)
mengkonversi data menjadi informasi, dan kemudian menjadi pengetahuan, dan
(3) menyediakan sebuah antarmuka grafis yang dapat diakses untuk menampilkan
pengetahuan ini. Dalam pandangannya sistem BI bertanggung jawab atas
pengumpulan dan pengolahan data, dan menyajikan pengetahuan dengan cara
yang mudah dipahami, yang berarti meningkatkan kemampuan pengguna akhir
33
untuk membuat keputusan yang baik. Gambar berikut ini menunjukkan proses
yang mendukung sistem BI tradisional. (Michalewicz et al., 2007)
Gambar 2.11 Transformasi data menjadi pengetahuan
Dalam gambar ini, Anda dapat melihat proses BI.
Gambar 2.12 Business Intelligence - merubah data menjadi informasi kemudian menjadi tindakan
Nadeem menjelaskan BI sebagai proses pengumpulan informasi
berkualitas tinggi dan bermakna tentang subyek yang diteliti yang akan membantu
34
individu menganalisis informasi, menarik kesimpulan atau membuat asumsi.
(Jonathan, DMR 2000; dikutip oleh Nadeem dan jaffri, 2007)
Gambar 2.13 Proses BI
Rieger menjelaskan BI sebagai proses tiga langkah. Proses tersebut adalah:
"integrasi data, penyimpanan data dan penggunaan data" dan ia menunjukkan
bahwa langkah yang paling penting dalam proses ini adalah integrasi data, yang
mencakup teknik untuk mengambil data dari sumber data internal atau eksternal.
Umumnya, data diambil dari sistem database melalui suatu proses yang disebut
ETL (extract, transform, and load). (Rieger, 2005)
Giovinazzo mendefinisikan proses BI sebagai loop yang terdiri dari tiga
langkah mendasar: "memperoleh data, menganalisis data, dan mengambil
tindakan berdasarkan data". (Giovinazzo, 2002)
35
Gambar 2.14 Business Intelligence loop
2.4 Data mining
2.4.1 Definisi Data mining
Menurut arti kata secara harafiahnya data mining berarti menambang data
atau informasi. Informasi tersebut haruslah bersifat valueable atau mempunyai arti
bagi perusahaan dan memberikan keuntungan. Secara makro, algoritma data
mining adalah bagian dari KDD (Knowledge Discovery in Database). Data
mining tidak spesifik untuk tiap industri. Data mining menyediakan teknologi
yang pintar dan kemampuan untuk menjelajahi kemungkinan informasi atau
pengetahuan yang tersimpan di sebuah data (Berson, Alex, 1999, p33).
Data mining merupakan perkembangan proses setelah proses data
warehouse. Perbedaan mendasar antara data mining dengan data warehouse atau
36
pun data analysis adalah data mining mengambil sumber-sumber data yang
hendak diolah dari data warehouse. Data tersebut kemudian akan di analisis lebih
lanjut untuk mendapatkan informasi berharga (Comaford, 1997). Salah satu
kegunaan data mining adalah prosesnya dapat digunakan untuk menemukan pola
yang bernilai dan hubungan yang tersembunyi dalam database yang sangat besar.
Oleh karena pencarian menggunakan tabel dan record sangat jarang menemukan
pola yang berguna, maka data biasanya dianalisa secara otomatisasi (Adriaans dan
Zantinge 1996, p5).
Data mining adalah pengembangan manual ilmu statistik dengan sedikit
artificial intelligence; seperti sebuah mesin yang mempelajari data untuk
mengatasi masalah dengan menghasilkan informasi yang tidak kelihatan atau
tidak disadari oleh pengguna informasi tersebut (Thearling, Kurt, 1997).
Pada dasarnya data mining menyangkut analisis data dan penggunaan
teknik-teknik dalam menemukan pola dan keteraturan kumpulan data. Pada proses
data mining, komputerlah yang bertanggung jawab untuk menemukan pola
dengan identifikasi rules dan fitur dalam data. Idenya adalah menemukan “emas”
di tempat yang tidak terduga. Data mining menggali pola-pola yang tidak terlihat
sebelumnya atau yang tidak disadari sebelumnya (www.pcc.qub.ac.uk). Data
mining adalah proses penemuan korelasi baru, pola dan trend yang bermanfaat
dengan menggali sejumlah besar kumpulan data yang tersimpan dalam data
warehouse (Berson, 1999, p33).
37
2.4.2 Tahapan Data mining
Istilah data mining sering kali digunakan secara bergantian untuk
menjelaskan proses penggalian informasi tersembunyi dalam suatu database yang
besar. Data mining adalah suatu rangkaian proses. Data mining dapat dibagi
menjadi beberapa tahap sebagai berikut.
1. Data selection
Pemilihan (seleksi) data baru sekumpulan data operasional perlu dilakukan
sebelum tahap penggalian informasi dalam data mining dimulai. Data hasil
seleksi yang akan digunakan untuk proses data mining, disimpan dalam suatu
berkas; terpisah dari database operasional.
2. Pre-processing Cleaning
Sebelum proses data mining dapat dilaksanakan, perlu dilakukan proses
pembersihan pada data yang menjadi fokus data mining. Proses pembersihan
mencakup antara lain membuang duplikasi data, memeriksa data yang tidak
konsisten, dan memperbaiki kesalahan pada data, seperti juga kesalahan cetak
(tipografi). Juga dilakukan proses enrichment, yaitu proses “memperkaya”
data yang sudah ada dengan data atau informasi lain yang relevan dan
diperlukan untuk data mining, seperti data atau informasi eksternal.
3. Tranformation
Coding adalah proses transformasi pada data yang telah dipilih, sehingga data
tersebut sesuai untuk proses data mining. Proses coding dalam data mining
38
merupakan proses kreatif dan sangat tergantung pada jenis atau pola informasi
yang akan dicari dalam database.
4. Data mining
Data mining adalah proses mencari pola atau informasi menarik dalam data
terpilih dengan menggunakan teknik atau metode tertentu. Teknik, metode,
atau algoritma dalam data mining sangat bervariasi. Pemilihan metode atau
algoritma yang tepat sangat bergantung pada tujuan dan proses data mining
secara keseluruhan.
5. Interpretation Evaluation
Pola informasi yang dihasilkan dari proses data mining perlu ditampilkan
dalam bentuk yang mudah dimengerti oleh pihak yang berkepentingan. Tahap
ini merupakan bagian proses data mining yang disebut dengan interpretation.
Tahap ini mencakup pemeriksaan apakah pola atau informasi yang ditemukan
bertentangan dengan fakta atau hipotesis yang ada sebelumnya.
Dalam proses data mining yang sesungguhnya, dapat saja terjadi iterasi atau
pengulangan pada tahap-tahap tertentu. Seorang analis dapat saja kembali ke
tahap sebelumnya pada proses data mining. Pada saat coding atau data mining
misalnya, analis menyadari proses cleaning belum dilakukan dengan sempurna,
atau mungkin saja analis menemukan data atau informasi baru untuk
“memperkaya” data yang sudah ada.
39
2.4.3 Metode Data mining
Walaupun data mining adalah bagian kecil dari KDD, tetapi pada saat
penerapannya, sangat dirasakan bahwa sembilan proses perencanaan dari KDD
semuanya terkait jelas dan masuk ke dalam bagian proses data mining. Sebagai
salah satu bagian dari sistem informasi, data mining meyediakan perencanaan,
mulai dari ide hingga implementasi akhir. Komponen-komponen perencanan data
mining adalah sebagai berikut (Goebel, Gruenwalds, 1999).
• Analisis masalah berdasarkan tingkatan fakta yang ada dilapangan
• Memilih atau membuat tabel-tabel data yang hendak dipelajari
• Mengekstrak dan membersihkan data untuk kemudian diintegrasikan
• Memvalidasi data, mengurangi redundansi dan kerusakan data
• Membuat dan melatih model, namun tidak lupa membuat hipotesisnya
• Query data
• Memilih dan menerapkan teknik data mining yang tepat, sesuai dengan
kondisi fakta yang berlaku di lapangan
• Memprediksi hasil data mining tersebut, supaya gambarannya bisa diperoleh
secara visual
• Hasil data mining tersebut diuji kembali dalam berbagai kondisi, kemudian
baru dilakukan proses pemeliharaan data mining atau maintance data
mining’s software.
40
Menurut Seidman, sebagai salah satu bagian dari sistem informasi, data
mining menyediakan perencanaan, mulai dari ide dasar hingga implementasi
akhir. Komponen-komponen dari rencana data mining adalah sebagai berikut
(Seidman, 2000, pp 9-11).
1. Analisis masalah
Data sumber harus dianalisis, apakah layak untuk dijadikan data mining atau
tidak. Kualitas dan kelimpahan data adalah faktor utama untuk memutuskan
apakah data tersebut cocok. Sebagai tambahan, proses data mining harus
dilakukan dengan hati-hati dan dipastikan bahwa data tersebut mengandung
jenis informasi yang tepat dan dapat diekstrak.
2. Mengekstrak dan membersihkan data
Data pertama kali diekstrak dari data aslinya seperti OLTP Database, text file,
Microsoft Access database, dan bahkan spreadsheet. Kemudian data tersebut
diletakkan dalam data warehouse yang mempunyai struktur model data yang
kompatibel. Umumnya Data Transformation Services (DTS) dipakai untuk
mengekstrak data dan membersihkan data yang tidak konsisten dan yang tidak
kompatibel dengan format tertentu.
3. Validasi Data
Setelah data diekstrak dan dibersihkan, data tersebut ditelusuri kembali agar
data tersebut ada dan lengkap.
41
4. Membuat dan melatih model
Ketika algoritma diterapkan pada model, maka sebuah struktur dibangun.
Pada tahap ini sangat penting untuk memastikan bahwa data yang dibangun
sesuai dengan fakta yang ada pada sumber. Hal ini tidak dapat dilakukan
secara rinci, akan tetapi keanehan data yang serius dapat ditemukan dengan
mudah pada model yang dibangun.
5. Membuat query model data dari Data mining
Ketika model yang tepat telah diciptakan dan dibangun, data tersebut siap
digunakan sebagai pendukung keputusan. Hal ini biasanya melibatkan
penulisan aplikasi front end query dengan suatu program aplikasi atau suatu
program database seperti SQL Server melalui OLE DB atau melalui data
mining.
6. Pemeliharaan model data mining
Karakteristik data mining yang telah terisi harus terjaga validasinya, seperti
persediaan jumlah ikan pada toko ikan. Apabila terjadi suatu perubahan pada
persediaan stok ikan tersebut maka perubahan tersebut haruslah dicatat
(updated), sehingga data mining yang terbentuk akan menjadi lebih efektif.
2.4.4 Teknik Data mining
Dilihat dari sejarahnya data mining berasal dari gabungan berbagai cabang
ilmu. Berbagai cabang ilmu tersebut meliputi matematika, statistika, dan teknik
42
informasi. Untuk klasifikasi, teknik data mining dikelompokkan menjadi vector
machines, tingkat korelasi sederhana, regresi linier, regresi non linier, algoritma
genetika, jaringan syaraf tiruan, dan sistem pengambilan keputusan berdasarkan
model pohon pengambilan keputusan, serta pemodelan-pemodelan ilmu
matematika dan statistika. Sampai saat ini para ilmuwan belum dapat
mengelompokannya secara makro. Pohon pengambilan keputusan atau decision
tree akan dijelaskan lebih lanjut pada bagian berikutnya. Contoh gambar
pengambilan keputusan berdasarkan model pohon pengambilan keputusan adalah
sebagai berikut.
Gambar 2.15 Pohon Pengambil Keputusan
Perkembangan cabang-cabang ilmu tersebut mendorong perkembangan
teknik-teknik data mining. Salah satu teknik, adalah Evolutionary Operations
(EVOP, George B Dantzig, 1947) yang terbagi antara algoritma metode simplex
43
dan metode simplex M. Penerapan EVOP sudah dilakukan pada perusahaan
farmasi di beberapa negara eropa sejak tahun 1991. Perkembangan EVOP
memunculkan metode baru yakni fungsi variabel simplex berdasarkan skala
proses produksi yang besar. Contohnya terlihat pada gambar berikut ini.
Gambar 2.16 Fungsi Variabel Simplex Skala Besar
Seiring perkembangannya, teknik data mining disusun dan dirapikan secara
keilmuan, lalu dihasilkanlah dua pembagian teknik mendasar (makro), yaitu
teknik klasik (Classical Techniques) dan teknik generasi berikut (Next
Generation). Teknik klasik terdiri dari teknik statistik, neighborhoods, dan
clustering, sedangkan teknik generasi berikut atau yang biasa dikenal predictive
analytics terdiri dari decision trees, networks, dan rules.
44
1. Teknik Klasik
a. Statistik
Statistik adalah salah satu cabang ilmu matematika mengenai lokasi dan
deskripsi data. Teknik statistik pada data mining adalah teknik yang
dikendalikan oleh data dan digunakan untuk menemukan pola-pola informasi
dan membangun model-model prediktif.
Salah satu hal terpenting tentang statistik adalah dalam hal representasi
high-level view dari database yang ada, yang menyediakan informasi-
informasi berguna tanpa mengharuskan setiap record dimengerti secara detail
(Berson, 2000, p126).
Salah satu cara terbaik dalam meringkas data adalah dengan
menyediakan histogram data tersebut. Beberapa kategori yang paling sering
digunakan untk meringkas data antara lain adalah sebagai berikut.
• Max, yaitu nilai maksimum dari predictor
• Min, yaitu nilai minimum dari predictor.
• Mean, yaitu nilai rata-rata dari predictor.
• Median, yaitu nilai tengah dari predictor.
• Modulus, yaitu nilai yang paling sering muncul dari predictor.
• Variance, yaitu ukuran sebaran nilai rata-rata.
b. Neighborhoods
45
Nearest neighbor adalah suatu teknik prediksi yang hampir sama seperti
clustering. Teknik ini digunakan untuk memprediksi nilai prediksi dalam
suatu record, mencari record lain yang mempunyai nilai prediksi yang mirip
dalam database historik, dan menggunakan nilai prediksi dari record yang
terdekat dengan record yang belum diklarifikasi (Berson, 2000, pp 134-139).
Teknik nearest neighbor adalah teknik data mining yang paling mudah
digunakan dan dimengerti karena teknik ini bekerja seperti cara manusia
berpikir, yaitu dengan mengenali contoh-contoh yang hampir sama. Teknik
algoritma prediksi nearest neighbor dapat dinyatakan sebagai berikut.
“Obyek-obyek yang saling berdekatan akan memiliki nilai prediksi yang
hampir sama. Karena itu, jika diketahui nilai prediksi dari salah satu obyek-
obyek tersebut, maka dapat memprediksi nilai obyek yang paling dekat
(nearest neighbor).”
Aspek lain, yang juga penting pada sistem yang digunakan untuk
prediksi, adalah pengguna tidak hanya diberikan prediksi, tetapi juga tingkat
kepercayaan pada prediksi itu. Algoritma nearest neighbor menyediakan
informasi dengan tingkat kepercayaan melalui berbagai cara. Jika
“tetangganya” memiliki nilai yang sangat mirip atau sama persis, maka tingkat
kepercayaannya akan lebih tinggi daripada jika “tetangga” terdekatnya
memiliki nilai yang jauh.
c. Clustering
Clustering adalah suatu metode di mana record dikelompokkan bersama.
Hal ini dilakukan untuk memberikan high-level view terhadap apa yang ada
46
dalam database. Clustering kadang-kadang digunakan untuk membuat
segmentasi pasar, yang sangat berguna bagi orang-orang pemasaran.
Cluster membangun seluruh record yang terdapat di dalamnya yang
memiliki nilai yang sama dari predictor tertentu yang dikelompokkan.
Membentuk cluster yang homogen dengan nilai predictor yang sama sulit
untuk dilakukan, jika terdapat banyak predictor dan atau predictor lain
memiliki nilai yang berbeda (high cardinality). Cluster yang homogen
dibentuk dan memecah cluster yang tidak homogen dipecah menjadi cluster
yang lebih kecil dan homogen.
Batasan penting dalam clustering adalah jumlah cluster secara logis
dibentuk. Logis atau tidak logis ditetapkan oleh pengguna. Namun sulit untuk
mengukur cluster yang tidak dapat diterima (terlalu generalisasi) dan banyak
cluster dan record asli yang juga tidak diterima. Banyak algoritma clustering
memperbolehkan pengguna untuk memilih jumlah kelompok yang ingin
dibentuk dari database. Atau algoritma memperbolehkan pengguna
membentuk sejumlah kelompok secara interaktif setelah clustering terbentuk
(Berson, 2000, pp 139-146).
2. Teknik Predictive Analytics
a. Decision tree
Decision tree adalah sebuah predictive model yang dapat dilihat sebagai
pohon. Masing masing cabang dari pohon mengklasifikasikan pertanyaan dan
47
daun dari pohon merupakan bagian dari dataset dengan klasifikasinya.
Decision tree mewakili serangkaian pertanyaan-pertanyaan. Jika pertanyaan-
pertanyaan tersebut dipilih sangat baik, serangkaian pertanyaan pendek cukup
untuk menggolongkan secara akurat sebuah record yang masuk.
Decision tree merupakan tools yang paling bagus dan paling terkenal
untuk klasifikasi dan prediksi. Pada metode berbasis tree, decision tree
mewakili rules yang bertolak belakang dengan neural network.
Algoritma untuk merancang decision tree bervariasi dan masing-masing
memiliki ciri-ciri explicability. Dua algoritma yang paling sering digunakan
adalah CART (Classification and Regression Trees) adalah suatu algoritma
prediksi dan explorasi data, dikembangkan oleh Leo Breiman, Jerome
Friedman, Richard Olshen, dan Charles Stone dan CHAID (Chi-Square
Automatic Interaction Detector). CHAID menggunakan chi square test untuk
menentukan predictor categorical mana yang lebih jauh dari independent
dengan nilai yang diprediksi. Teknik-teknik tersebut menggunakan klasifikasi
dan regresion trees serta deteksi interasi secara otomatis chi-squared.
Algoritma yang lebih baru adalah C4.5 yang semakin terkenal (Berson, 2000,
pp156-165).
b. Neural network
Neural network merupakan teknik data mining yang paling umum.
Neural network mempelajari dari training set dan membentuk suatu pola di
dalamnya untuk klasifikasi dan prediksi. Keuntungan utama dari neural
network adalah dapat diterapkan secara luas. Teknik ini sangat menarik karena
48
dapat mendeteksi pola data secara analog, sejalan dengan pikiran manusia;
merupakan bagian penting untuk data mining tool.
Neural network memiliki dua kekurangan utama. Pertama, sulit untuk
mengerti model yang dihasilkan. Kedua, kadang-kadang sensitif terhadap
format data yang masuk. Representasi data yang berbeda dapat menghasilkan
hasil yang berbeda pula. Karena itu pengaturan data merupakan bagian yang
sangat penting sebelum digunakannya (Berson, 2000, p167).
c. Rule Induction
Rule induction merupakan salah satu bentuk utama dari data mining dan
mungkin bentuk paling umum dari knowledge discovery dalam unsupervise
learning system. Teknik ini juga merupakan bentuk dari data mining yang
paling mendekati proses berpikir sebagian besar orang berpikir mengenai data
mining. Data mining adalah menggali emas melalui database besar. Emasnya
dalam hal ini merupakan sebuah rule yang memberikan sesuatu mengenai
database yang tidak diketahui dan mungkin tidak secara jelas dikemukakan.
Rule induction di dalam database dapat menjadi usaha besar, di mana
semua pola diambil dari data secara sistematis. Kemudian keakuratan dan
kepentingan ditambahkan agar pengguna mengetahui seberapa kuat pola
tersebut dan seberapa sering pola tersebut muncul kembali.
Rules yang diambil dari database digali dan dipesan untuk disajikan
kepada pengguna, berdasarkan persentase kebenarannya dan seberapa sering
dipergunakan.
49
Kelemahan rule induction ternyata sekaligus merupakan kekuatannya
juga. Teknik ini menghasilkan segala kemungkinan pola yang menarik dari
database. Hal ini merupakan kekuatan karena tidak ada input yang lolos.
Kelemahannya adalah pengguna dihadapkan pada rules dalam jumlah besar
yang sulit untuk ditelusuri satu per satu (Berson, 2000, p183).
2.4.5 Penggunaan Data mining
Banyak perusahaan menggunakan data mining untuk keperluan sebagai
berikut (Berson, 2000, p34).
1. Knowledge Discovery
Tujuan dari penemuan adalah untuk menemukan korelasi, hubungan atau pola
tersembunyi pada data yang tersimpan dalam database suatu perusahaan.
2. Visualize Data
Seorang analis harus dapat memvisualisasikan informasi yang besar yang
tersimpan di dalam database. Tujuannya adalah mengurangi besar data yang
harus ditangani dan menemukan cara yang jitu untuk menampilkannya.
3. Correct Data
Jika beberapa database digabungkan, sering terjadi ketidaklengkapan data
yang terdiri dari informasi yang salah dan saling bertentangan. Teknik data
mining dapat membantu mengidentifikasian dan memperbaiki kesalahan
secara konsisten.
50
2.4.6 Kategori Data mining
Teknik data mining berhubungan dengan penemuan dan pembelajaran.
Pembelajaran tersebut dapat dibagi menjadi tiga metode utama, yaitu supervised,
unsupervised, dan reinforcement (Berson, 2000, pp36-37).
1. Supervised
Teknik ini melibatkan tahap pelatihan di mana data lama yang telah dilatih
tersebut memiliki characteristic map yang telah diketahui terlebih dahulu
untuk diberikan pada algoritma data mining. Proses ini melatih algoritma
untuk mengenali variabel dan nilai-nilai kunci yang kemudian menjadi dasar
untuk membuat prediksi ketika membaca data baru.
2. Unsupervised
Tidak melibatkan tahap pelatihan, tetapi bergantung pada penggunaan
algoritma yang mendeteksi semua bentuk seperti asosiasi dan rangkaian yang
terjadi berdasarkan kriteria yang spesifik dalam memasukkan data.
Pendekatan ini menghasilkan bentuk yang mempunyai banyak peraturan, yang
menggolongkan penemuan asosiasi, cluster, dan segment. Peraturan ini
kemudian akan menentukan pola secara universal.
3. Reinforcement
Walaupun jarang digunakan dibandingan metode lain, tetapi reinforcement
memiliki aplikasi guna mengoptimalkan waktu dan penyesuaian kontrol.
Metode ini sangat mirip dengan realita karena tidak menyediakan tindakan
51
untuk melakukan koreksi dengan segera tetapi dapat digunakan untuk
memecahkan sebagian masalah ketergantungan waktu yang sulit.
2.5 Kualitas Informasi (Information Quality)
2.5.1 Hubungan Antara Kualitas Informasi dan Business Intelligence
Fokus pada kualitas informasi yang terkait dengan business intelligence
telah disorot oleh sejumlah artikel (Dubois, 2005; Raghunathan, 1999; Watson &
Wixom, 2007; Wixom et al., 2001; Han & Gao, 2009; Yeoh et al. , 2008)
"Kemampuan aplikasi BI untuk membantu para eksekutif membuat
keputusan akhirnya tergantung pada kualitas relatif dari data dalam aplikasi"
(Dubois, 2005, hal.1)
Kualitas informasi telah menjadi bagian dari implementasi sistem informasi
sejak DeLone & McLean mengusulkannya sebagai faktor penting untuk
implementasi pada tahun 1992. Yeoh et al. (2008, hal 90) juga menemukan
bahwa:
"Kualitas data, khususnya pada sistem sumber, sangat penting jika sistem BI
ingin diimplementasi dengan sukses."
Yeoh et al. (2008) menyatakan bahwa data perusahaan hanya dapat
dimanfaatkan untuk nilai yang lebih besar jika kualitas dan integritas data telah
terjamin. Mereka juga menemukan bahwa tidak cukup waktu untuk memastikan
bahwa kualitas informasi yang dikelola oleh proses pemerintahan data.
52
Raghunathan (1999) meneliti pengaruh kualitas informasi dan kualitas
pengambilan keputusan pada kualitas keputusan untuk menyelidiki apakah
kualitas informasi dapat meningkatkan kinerja aktual pengambilan keputusan.
Kualitas pengambil keputusan kualitas mengacu pada kualitas proses pengambilan
keputusan. Mereka sampai pada kesimpulan bahwa:
"Dalam situasi di mana hubungan yang tepat antar variabel masalah ada,
kualitas keputusan meningkat bersamaan dengan peningkatan kualitas informasi
untuk para pengambil keputusan dengan pengetahuan yang akurat tentang
hubungan tersebut. Namun, untuk pembuat keputusan yang tidak memiliki
pengetahuan cukup akurat tentang hubungan tersebut, kualitas keputusan bisa
menurun ketika kualitas informasi meningkat. Jika kualitas pengambil keputusan
meningkat secara bersamaan dengan kualitas informasi, maka kinerja meningkat
dengan kualitas informasi." (Ragunathan, 1999, hal 284)
Strong et al. (1997) menyajikan beberapa contoh masalah kualitas informasi
yang dapat berguna ketika menggambarkan area tersebut. Misalnya, ada masalah
ketidakkonsistenan di mana dua sistem yang seharusnya berisi informasi yang
sama tetapi ternyata tidak. Hal ini juga bisa menyulitkan atau memakan waktu
dalam menggunakan informasi karena jumlah informasi dalam sistem sangat
banyak. Masalah-masalah ini mempengaruhi penggunaan informasi (Strong et al.,
1997) dan seperti yang telah dijelaskan oleh Ragunathan (1999) di atas, aspek-
aspek kualitas informasi dan pengetahuan pengambil keputusan tentang aspek-
aspek yang mempengaruhi pembuat keputusan dan keputusan mereka. Tujuan
utama dari BI adalah untuk mendukung pengambilan keputusan suara (Marshall et
al., 2004).
53
2.5.2 Membangun Kualitas Informasi
BI bergantung pada beberapa jenis data warehouse untuk
mengkonsolidasikan data dan karena itu penting untuk menyertakan hubungan
antara IQ dan DW. Banyak artikel berpengaruh tentang IQ juga disusun dengan
fokus pada DW dan mencoba untuk menjelaskan bahwa DW pasti menciptakan
beberapa peningkatan dalam IQ, masih ada lagi perbaikan yang bisa dibuat dan
banyak isu-isu terkait pada area ini (Watson et al., 2001).
Bagian paling penting dari DW, menurut Han dan Gao (2009), bukan
teknologi itu sendiri, melainkan untuk mencapai sebuah cara yang berkelanjutan
untuk memastikan kualitas informasi. English (1996) menyatakan bahwa kualitas
informasi di sebuah data warehouse sangat penting dan bahwa keberhasilan
kualitas informasi tergantung pada data cleansing dan peningkatan kualitas data.
Data cleansing merujuk kepada:
"Proses ekstraksi data dari sumber yang paling otoritatif, pengkondisian atau
rekondisi ke keadaan berkualitas, dan memuatnya ke warehouse. Hal ini termasuk
menganalisa data untuk menemukan makna atau penggunaan sebenarnya,
standardisasi data ke dalam atribut atom, mengidentifikasi dan
mengkonsolidasikan duplikasi, menghitung turunan dan ringkasan data, dan
akhirnya memuat data ke dalam warehouse." (English, 1996, p56)
Perbaikan kualitas data, bagaimanapun juga, memperhatikan proses
mencegah data yang tidak berkualitas agar tidak masuk (English, 1996).
Han & Gao (2009) menyoroti fakta bahwa terlalu banyak pengembang DW
salah memulai karena fokus awal mereka adalah untuk membuat business
54
intelligence dan membuat analisa atau pelaporan analisis. Ini tidak dapat dicapai
tanpa adanya data yang dapat diandalkan dan untuk membuat data yang dapat
diandalkan perlu melangkah lebih jauh dari sekedar membersihkan data yang ada
(Han & Gao, 2009).
"Jika sistem secara konsisten melanggar aturan bisnis atau jika aturan bisnis
tidak didefinisikan dengan baik, maka sebanyak apapun pekerjaan yang dilakukan
di daerah staging (persiapan, format dan pembersihan data untuk penggunaan
DW) tetap tidak akan menghasilkan data yang bersih." (Han & Gao, 2009, hal
216-217)
Pentingnya memahami hubungan antar variabel data (Raghunathan, 1999)
serta menetapkan aturan bisnis dan proses tata kelola yang baik, untuk
memastikan bahwa data yang dibersihkan tetap bersih dan kualitatif (Han & Gao,
2009; English, 1996) adalah penting dalam realisasi Kualitas Informasi.