lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-ta-alexander rudy.pdflib.ui.ac.id

206
UNIVERSITAS INDONESIA IMPLEMENTASI DATAMART DAN OLAP DALAM PELAPORAN DAN MONITORING PENYISIHAN CADANGAN KERUGIAN PENURUNAN NILAI (CKPN) PADA PORTFOLIO PEMBIAYAAN BANK ‘X’ SESUAI DENGAN PSAK 50/55 KARYA AKHIR ALEXANDER RUDY GUNAWAN 1106041804 FAKULTAS ILMU KOMPUTER PROGRAM STUDI MAGISTER TEKNOLOGI INFORMASI JAKARTA JULI 2014 Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Upload: truongxuyen

Post on 17-May-2019

225 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

UNIVERSITAS INDONESIA

IMPLEMENTASI DATAMART DAN OLAP DALAM PELAPORAN DAN MONITORING PENYISIHAN

CADANGAN KERUGIAN PENURUNAN NILAI (CKPN) PADA PORTFOLIO PEMBIAYAAN BANK ‘X’ SESUAI DENGAN

PSAK 50/55

KARYA AKHIR

ALEXANDER RUDY GUNAWAN

1106041804

FAKULTAS ILMU KOMPUTER PROGRAM STUDI MAGISTER TEKNOLOGI INFORMASI

JAKARTA JULI 2014

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 2: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

HALAMAN JUDUL

UNIVERSITAS INDONESIA

IMPLEMENTASI DATAMART DAN OLAP DALAM PELAPORAN DAN MONITORING PENYISIHAN

CADANGAN KERUGIAN PENURUNAN NILAI (CKPN) PADA PORTFOLIO PEMBIAYAAN BANK ‘X’ SESUAI DENGAN

PSAK 50/55

KARYA AKHIR

Diajukan sebagai salah satu syarat memperoleh gelar Magister Teknologi Informasi

ALEXANDER RUDY GUNAWAN

1106041804

FAKULTAS ILMU KOMPUTER PROGRAM STUDI MAGISTER TEKNOLOGI INFORMASI

JAKARTA JULI 2014

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 3: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

ii

HALAMAN PERNYATAAN ORISINALITAS

Karya Akhir ini adalah hasil karya saya sendiri,

dan semua sumber, baik yang dikutip maupun dirujuk

telah saya nyatakan dengan benar.

Nama : Alexander Rudy Gunawan

NPM : 1106041804

Tanda Tangan : ……………………………

Tanggal : 14 Juli 2014

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 4: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

iii

HALAMAN PENGESAHAN

Karya Akhir ini diajukan oleh : Nama : Alexander Rudy Gunawan NPM : 1106041804 Program Studi : Magister Teknologi Informasi Judul Karya Akhir : Implementasi Datamart dan OLAP dalam

Pelaporan dan Monitoring Penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) pada Portfolio Pembiayaan Bank X sesuai dengan PSAK 50/55.

Telah berhasil dipertahankan di hadapan Dewan Penguji dan diterima sebagai bagian persyaratan yang diperlukan untuk memperoleh gelar Magister Teknologi Informasi pada Program Studi Magister Teknologi Informasi, Fakultas Ilmu Komputer, Universitas Indonesia.

DEWAN PENGUJI

Pembimbing : Yova Ruldeviyani, M. Kom.

Penguji : Dr. Achmad Nizar Hidayanto.S.Kom.,M.Kom

Penguji : Dr. Ir. Petrus Mursanto M.Sc

Ditetapkan di : Jakarta Tanggal : 2 Juli 2014

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 5: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

iv

KATA PENGANTAR

Puji syukur saya haturkan kepada Tuhan Yang Maha Esa yang telah

memberikan berkat dan rahmat-Nya sehingga saya dapat menyelesaikan Karya

Akhir ini. Saya menyadari, tanpa bantuan dari berbagai pihak, sangatlah sulit bagi

saya untuk menyelesaikannya. Dalam penyusunan, penulis banyak menemui

kesulitan dan hambatan. Namun karena bantuan berbagai pihak hingga penulis

dapat menyelesaikan Karya Akhir ini.

Dalam kesempatan ini penulis megucapkan terimakasih atas segala

dukungan dan bantuan dari berbagai pihak yang sudah diberikan kepada:

1. Ibu Yova Ruldeviyani, M.Kom, selaku dosen pembimbing yang telah

menyediakan waktu, tenaga, dan pikiran untuk mengarahkan saya dalam

penyusunan Karya Akhir ini;

2. Pihak perusahaan objek studi, yang telah membantu memberikan data

penelitian Karya Akhir ini;

3. Dosen pengajar, Dosen penguji Bapak Dr. Achmad Nizar

H.S.Kom.,M.Kom dan Dr. Ir. Petrus Mursanto M.Sc serta staf MTI UI

yang telah memberikan ilmu dan pengetahuan serta berbagai wawasan

dan dukungan yang berkesinambungan;

4. Teman teman kampus dan khususnya MTI UI 2011SB untuk

kebersamaan, dukungan dan diskusi yang membantu saya dalam

penulisan; dan

5. Seluruh pihak yang tidak dapat saya sebutkan satu per satu yang telah

memberikan dukungan kepada saya dalam menyelesaikan Karya Akhir ini.

Saya mohon maaf apabila saya hanya dapat memberikan ucapan terima

kasih dan doa. Semoga Allah SWT membalas segala kebaikan semua pihak yang

telah membantu.Semoga Karya Akhir ini membawa manfaat bagi kemajuan ilmu

pengetahuan.

Jakarta, 14 Juli 2014

Penulis

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 6: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

v

HALAMAN PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS

Sebagai sivitas akademik Universitas Indonesia, saya yang bertanda tangan di bawah ini: Nama : Alexander Rudy Gunawan NPM : 1106041804 Program Studi : Magister Teknologi Informasi Departemen : - Fakultas : Ilmu Komputer Jenis Karya : Karya Akhir Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada Universitas Indonesia Hak Bebas Royalti Noneksklusif (Non-exclusive Royalty- Free Right) atas karya ilmiah saya yang berjudul : "Implementasi Datamart dan OLAP dalam Pelaporan dan Monitoring Penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) pada Portfolio Pembiayaan Bank X sesuai dengan PSAK 50/55" Beserta perangkat yang ada (jika diperlukan). Dengan Hak Bebas Royalti Noneksklusif ini, Universitas Indonesia berhak menyimpan, mengalihmedia/formatkan, mengelola dalam bentuk pangkalan data (database). Merawat, dan mempublikasikan karya akhir saya tanpa meminta izin dari saya selama tetap mencantumkan saya sebagai penulis/pencipta dan sebagai pemilik Hak Cipta. Demikian pernyataan ini saya buat dengan sebenarnya. Dibuat di : Jakarta Pada tanggal : 14 Juli 2014

Yang menyatakan

(Alexander Rudy Gunawan)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 7: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

vi Universitas Indonesia

ABSTRAK

Nama : Alexander Rudy Gunawan Program Studi : Magister Teknologi Informasi Judul : Implementasi datamart dan OLAP dalam Pelaporan dan

Monitoring penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) pada portfolio Pembiayaan Bank ‘X’ sesuai dengan PSAK 50/55.

Implementasi PSAK 50/55 di masing-masing Bank di Indonesia merupakan salah satu syarat regulatory compliance dari Bank Indonesia dan Ikatan Akuntan Indonesia. Salah satu cakupan dari PSAK 50/55 adalah Penyisihan Kerugian Kredit (Loan-Loss Provisionin / Loan Impairment) atau dikenal dengan istilah Cadangan Kerugian Penurunan Nilai (CKPN) yang wajib dibentuk oleh Bank, sebagai akibat dari penyaluran kredit atau pembiayaan.

Perhitungan CKPN membutuhkan data pembiayaan dari berbagai source system (core banking) dalam kurun waktu minimal 3 tahun. Oleh karena itu tantangan yang dihadapi Bank adalah kesiapan dalam menyusun laporan pembentukan CKPN secara tepat waktu dan akurat sesuai dengan metodologi perhitungan yang disyaratkan oleh regulator. Tantangan lainnya adalah terkait dengan pengambilan keputusan akibat volatilitas pembentukan CKPN sesuai dengan aturan PSAK 50/55. Volatilitas tersebut akan berpengaruh kepada tingkat profitabilitas Bank itu sendiri dan potensi kerugian risiko kredit. Apabila penyisihan terlalu besar, maka berdampak pada profitabilitas bank, sedangkan apabila penyisihan terlalu kecil, maka dapat meningkatkan risiko kredit bank khususnya apabila kredit yang bermasalah meningkat.

Oleh karena itu dibutuhkan datamart PSAK 50/55 yang mampu mengumpulkan berbagai sumber data pembiayaan yang dapat digunakan untuk perhitungan CKPN sesuai dengan ketentuan PSAK 50/55. Dengan adanya datamart ini penyusunan laporan penyisihan kerugian kredit (CKPN) oleh Bank X dapat dicapai secara tepat waktu dan akurat. Implementasi datamart juga merupakan fondasi dalam penerapan OLAP yang dapat memberikan jawaban atas tantangan pengambilan keputusan, sehingga dapat memberikan efisiensi dan efektivitas bagi Bank X.

Penelitian dilakukan dengan pengumpulan data, pemahaman kebutuhan bisnis dan informasi, perancangan arsitektur datawarehouse dan perancangan dan implementasi datamart, termasuk proses ETL dan penerapan OLAP. Hasil penelitian ini berupa implementasi datamart PSAK 50/55 dan penerapan OLAP dalam pelaporan dan monitoring penyisihan CKPN pada portfolio pembiayaan sesuai dengan PSAK 50/55.

Kata kunci: data warehouse, datamart, ETL, OLAP xv+ 191 halaman; 27 gambar; 56 tabel; 11 lampiran

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 8: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

vii Universitas Indonesia

ABSTRACT

Name : Alexander Rudy Gunawan Study Program : Master of Information Technology Title : Datamart and OLAP Implementation for Reporting and

Monitoring Allowance of Impairment Provision (CKPN) on Financing Portfolio Bank ‘X’ in accordance with PSAK 50/55

Implementation of PSAK 50/55 in each Bank in Indonesia is one of the

regulatory compliance requirements from Bank Indonesia (BI) and Indonesia Accountants Association (IAI). The scope of PSAK 50/55 is the allowance for credit losses or known as CKPN.

In order to calculate loan impairment allowance, Banks need to consolidate from variety of source systems (core banking) with at least 3 years loan historical data. The challenge faced is the readiness of Banks in preparing the report of impairment allowance in timely and accurate manner. Other challenge is the decision making made by the Bank related to the volatility of impairment provision as a result of PSAK 50/55. This volatility will affect Bank’s profitability and credit risk exposure. If the allowance is too high, it impact on the profitability, whereas if the allowance is too small, credit risk is impacted, particularly when the bad debt is also increase.

Therefore it required a datamart, which is able to consolidate a variety of data sources in a single view, spesific for the purpose of calculation impairment allowance in accordance with PSAK 50/55. Preparation of the report can be achieved on time and provide accurate result along with analytical capability for decision making support. Implementation datamart is also the foundation for OLAP application which can answers to the challenges of decision making. Those all benefits provide efficiencies and effectiveness of the Bank X.

This research start with data collection, understanding the requirements of business and information, design of datawarehouse architecture and datamart design and implementation, including ETL processes and end with OLAP application. The result of this research is the implementation of PSAK 50/55 datamart and OLAP for the reporting and monitoring allowance for impairment in accordance with PSAK 50/55.

Keywords : data warehouse, datamart, ETL,OLAP xv+ 191 pages; 27 figures; 56 tables; 11 attachments

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 9: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

viii Universitas Indonesia

DAFTAR ISI

HALAMAN JUDUL ........................................................................................... i HALAMAN PERNYATAAN ORISINALITAS ............................................... ii HALAMAN PENGESAHAN ........................................................................... iii KATA PENGANTAR ....................................................................................... iv HALAMAN PERNYATAAN PERSETUJUAN PUBLIKASI ......................... v ABSTRAK ......................................................................................................... vi ABSTRACT ..................................................................................................... vii DAFTAR ISI ................................................................................................... viii DAFTAR GAMBAR ......................................................................................... xi DAFTAR TABEL ........................................................................................... xiii BAB 1 PENDAHULUAN................................................................................... 1 1.1 Latar Belakang............................................................................................ 1 1.2 Rumusan Masalah ....................................................................................... 3 1.3 Tujuan dan Manfaat Penelitian .................................................................... 7 1.4 Ruang Lingkup Penelitian ........................................................................... 7 1.5 Sistematika Penulisan ................................................................................. 8 BAB 2 TINJAUAN PUSTAKA ....................................................................... 10 2.1 Datawarehouse dan Datamart .................................................................... 10

2.1.1 Pengertian Data warehouse dan Datamart ....................................... 10

2.1.2 Extraction Transformation Loading (ETL) ....................................... 12

2.1.3 Keuntungan Data Warehouse ........................................................... 15

2.1.4 Isu Data warehouse.......................................................................... 16

2.2 Metodologi Perancangan Data Warehouse/Datamart ................................ 18 2.3 Arsitektur Datamart .................................................................................. 21 2.4 Konsep Permodelan Data Warehouse ....................................................... 23

2.4.1 Star Schema ..................................................................................... 23

2.4.2 Snowflake Schema ........................................................................... 24

2.4.3 Schema Galaxy / Fact Constellation ................................................. 25

2.4.4 Slowly Changing Dimension (SCD) ................................................. 26

2.5 Business Intelligence dan OLAP ............................................................... 28 2.5.1 On-Line Analytical Processing (OLAP) ........................................... 29

2.5.2 Tipe-tipe operasi OLAP ................................................................... 30

2.6 Penelitian Sebelumnya .............................................................................. 31 2.7 Pedoman Akuntansi Perbankan Indonesia (PAPI) ..................................... 35

2.7.1 Latar Belakang ................................................................................. 35

2.7.2 Tujuan dan Ruang Lingkup .............................................................. 35

2.7.3 Perbedaan Perhitungan Pembentukan Penyisihan Aktiva Sebelum dan Sesudah Menggunakan PSAK 50 dan 55 ......................................... 37

2.7.4 Pengertian Penurunan Nilai .............................................................. 38

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 10: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

ix Universitas Indonesia

2.7.5 Kriteria Evaluasi Penurunan Nilai .................................................... 39

2.7.6 Penurunan Nilai dan Tidak Tertagihnya Aset Keuangan ................... 41

BAB 3 METODOLOGI PENELITIAN .......................................................... 43 3.1 Perumusan masalah................................................................................... 44 3.2 Studi Literatur ........................................................................................... 45 3.3 Pengumpulan Data .................................................................................... 45 3.4 Analisis kebutuhan bisnis dan informasi ................................................... 46 3.5 Perancangan Arsitektur Datamart .............................................................. 47 3.6 Perancangan dan Implementasi Datamart .................................................. 47 3.7 Implementasi OLAP ................................................................................. 48 3.8 Kesimpulan dan Saran .............................................................................. 48 BAB 4 ANALISA, PERANCANGAN DAN IMPLEMENTASI DATAMART

PSAK 50/55 ......................................................................................... 49 4.1 Identifikasi Kebutuhan Bisnis ................................................................... 49

4.1.1 Analisa Kebutuhan Informasi dan Proses Bisnis ............................... 49

4.1.2 Analisa Sumber Data ........................................................................ 63

4.1.3 Analisa Transformasi sesuai dengan kebutuhan bisnis ...................... 68

4.2 Perancangan Arsitektur DataMart ............................................................. 78 4.3 Perancangan Permodelan Data Warehouse ............................................... 84

4.3.1 Pemilihan Proses Bisnis (Choosing the process) ............................... 84

4.3.2 Pemilihan Grain (Choosing the Grain) ............................................. 86

4.3.3 Identifikasi dan Penyesuaian Dimensi (Identifiying and Conforming the Dimensions) ............................................................................... 89

4.3.4 Pemilihan Fakta (Choosing the Fact) ............................................... 92

4.3.5 Penyimpanan Pre-Calculation pada Tabel Fakta (Storing Pre-Calculation in the Fact Tabel) ......................................................... 92

4.3.6 Melengkapi Tabel Dimensi (Rounding Out the Dimension Tabel) .... 95

4.3.7 Pemilihan Durasi dan Basis data (Choosing the duration of the database) ....................................................................................... 105

4.3.8 Melacak Perubahan Dimension Secara Perlahan (Tracking Slowly Changing Dimensions)................................................................... 105

4.3.9 Memutuskan Prioritas dan Mode dari Query (Deciding the Query Priorities and the Query Modes) .................................................... 108

4.4 Proses ETL ............................................................................................. 111 4.4.1 Proses Ekstrak dan Transformasi Data Staging .............................. 112

4.4.2 Proses Transformasi dan Load Tabel Dimensi ............................... 132

4.4.3 Proses Transformasi dan Load ke Tabel Fakta ............................... 141

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 11: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

x Universitas Indonesia

BAB 5 IMPLEMENTASI OLAP .................................................................. 152 5.1 Implementasi .......................................................................................... 152

5.1.1 Informasi Pembiayaan .................................................................... 153

5.1.2 Informasi Cadangan Kerugian Penurunan Nilai .............................. 158

5.2 Uji Coba ................................................................................................. 167 BAB 6 KESIMPULAN DAN SARAN ........................................................... 169 6.1 Kesimpulan............................................................................................. 169 6.2 Saran ...................................................................................................... 170 DAFTAR PUSTAKA ..................................................................................... 172 DAFTAR LAMPIRAN .................................................................................. 174

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 12: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

xi Universitas Indonesia

DAFTAR GAMBAR

Gambar 2.1 Datawarehouse Model (Kimball, 2005) ....................................... 11

Gambar 2.3 Perancangan Star Schema ............................................................ 24

Gambar 2.4 Perancangan Skema Snow Flake ................................................. 25

Gambar 2.5 Perancangan Skema Fact Constellation(Conolly & Begg, 2005) . 26

Gambar 3.1 Metode Penelitian ....................................................................... 43

Gambar 4.1 Alur Proses Perhitungan CKPN ................................................... 61

Gambar 4.2 Hasil Rancangan Arsitektur Data Mart PSAK 50/55 .................... 81

Gambar 4.3 Skema Pembiayaan (Loan) ........................................................ 103

Gambar 4.4 Skema Cadangan Kerugian Penurunan Nilai (CKPN) ................ 104

Gambar 4.5 Ekstraksi dan Transformasi Data Pembiayaan ke masing-masing

tabel .......................................................................................... 112

Gambar 4.6 Overal Proses Transformasi Perhitungan Impairment (CKPN) .. 122

Gambar 5.1 Struktur Cube Informasi Pembiayaan ........................................ 154

Gambar 5.2 Presentasi Laporan rasio NPL per masing-masing cabang ......... 155

Gambar 5.3 Presentasi Laporan Pembiayaan berdasarkan lamanya jatuh tempo

.................................................................................................. 156

Gambar 5.4 Presentasi Laporan Pembiayaan berdasarkan pergerakan

kolektibilitas ............................................................................. 157

Gambar 5.5 Presentasi summary Analisa Persentase pergerakan kolektibilitas

.................................................................................................. 157

Gambar 5.6 Struktur Cube pada informasi CKPN ......................................... 159

Gambar 5.7 Presentasi Laporan monitoring CKPN Forecast, CKPN Aktual,

PPAP,dan Impaired Loan Ratio berdasarkan cabang, main branch

dan area ..................................................................................... 160

Gambar 5. 8 Presentasi Drill down dari Area ke Main Branch untuk Laporan

monitoring CKPN Forecast, CKPN Aktual, PPAP, dan Impaired

Loan Ratio berdasarkan cabang, main branch dan area .............. 161

Gambar 5. 9 Presentasi Drill down dari Main Branch ke Branch dengan CKPN

Total terbesar di periode Februari 2014. .................................... 162

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 13: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

xii Universitas Indonesia

Gambar 5.10 Presentasi Drill down dari Branch ke daftar customer dengan

CKPN Total terbesar di periode Februari 2014. ......................... 163

Gambar 5.11 Presentasi laporan Trend PD dan LGD ...................................... 163

Gambar 5.12 Presentasi laporan perbandingan PPAP dengan CKPN .............. 164

Gambar 5.13 Presentasi laporan Movement CKPN Charged terbesar

dikelompokkan berdasarkan cabang pada periode April 2014 .... 164

Gambar 5.14 Presentasi laporan Movement CKPN Released terbesar

dikelompokkan berdasarkan cabang pada periode April 2014 .... 165

Gambar 5.15 Presentasi laporan collective Impairment berdasarkan group of

Impairment ................................................................................ 165

Gambar 5.16 Presentasi laporan collective Impairment berdasarkan Segmentasi

Pembiayaan pada bulan April 2014 ........................................... 166

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 14: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

xiii Universitas Indonesia

DAFTAR TABEL

Tabel 2.1 Contoh penerapan SCD Type 6 ................................................... 27

Tabel 4.1 Tabel Daftar Kebutuhan Informasi dan Kebutuhan Analisa ......... 55

Tabel 4.2 Tabel Sumber Data Yang Akan Digunakan ................................. 64

Tabel 4.3 Tabel sumber tabel dan tujuan tabel serta transformation rule yang

melekat sebagai persiapan data CKPN ......................................... 69

Tabel 4.4 Tabel Analisa Perbandingan Arsitektur Inmon dan Kimball serta

keterangan dalam arsitektur datamart PSAK 50/55 ...................... 78

Tabel 4.5 Tabel pemilihan grain atas informasi yang dapat dianalisa........... 88

Tabel 4.6 Tabel Grain dan Dimensi pada Pembiayaan ................................ 90

Tabel 4.7 Tabel Grain dan Dimensi pada Pembentukan CKPN ................... 90

Tabel 4.8 Tabel Identifikasi Dimensi .......................................................... 91

Tabel 4.9 Tabel Penjelasan Dimensi ........................................................... 95

Tabel 4.10 Deskripsi Tabel DIM_PERIOD ................................................... 97

Tabel 4.11 Deskripsi Tabel DIM_AKAD ...................................................... 97

Tabel 4.12 Deskripsi Tabel DIM_SEGMENT............................................... 98

Tabel 4.13 Deskripsi Tabel DIM_IMPAIRMENT_GROUP ......................... 98

Tabel 4.14 Deskripsi Tabel DIM_CURRENCY ............................................ 99

Tabel 4.15 Deskripsi Tabel DIM_AREABRANCH ...................................... 99

Tabel 4.16 Deskripsi Tabel DIM_MAINBRANCH ...................................... 99

Tabel 4.17 Deskripsi Tabel DIM_BRANCH ............................................... 100

Tabel 4.18 Deskripsi Tabel DIM_COLLECTIBILITY................................ 100

Tabel 4.19 Deskripsi Tabel DIM_PRODUCT ............................................. 100

Tabel 4.20 Deskripsi Tabel DIM_COLLECTABILITY_MOVEMENT ...... 101

Tabel 4.21 Deskripsi Tabel DIM_MATURITY_PROFILE ......................... 101

Tabel 4.22 Deskripsi Tabel DIM_IMPAIRMENT_FLAG .......................... 102

Tabel 4.23 Deskripsi Tabel DIM_CUSTOMER .......................................... 102

Tabel 4.24 Durasi dan Basis Data Datamart PSAK 50/55 ........................... 105

Tabel 4.25 Tabel Pelacakan Perubahan Dimensi ......................................... 106

Tabel 4.26 Tabel Estimasi Data Staging pada PSAK_MASTER_ACCOUNT

untuk periode Mei 2010-Desember 2013 ................................... 109

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 15: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

xiv Universitas Indonesia

Tabel 4.27 Struktur Tabel PSAK_MASTER_ACCOUNT .......................... 113

Tabel 4.28 Struktur Tabel PSAK_IMPR_OVERRIDES .............................. 117

Tabel 4.29 Struktur Tabel TBLT_PAYMENTEXPECTED ........................ 118

Tabel 4.30 Struktur Tabel PSAK_EXPECTED_RECOV_UPLOAD .......... 119

Tabel 4.31 Struktur Tabel PSAK_COLL_SHORTFALL_UPLOAD ........... 119

Tabel 4.32 Struktur Tabel PSAK_CKPN_TARGET ................................... 119

Tabel 4.33 Struktur Tabel PSAK_INDIVIDUAL_IMPAIRMENT ............. 120

Tabel 4.34 Struktur Tabel PSAK_DPD_MASTER ..................................... 120

Tabel 4.35 Struktur Tabel PSAK_DPD_MASTER_HEADER .................... 121

Tabel 4.36 Tabel Transformasi PSAK_ENR ............................................... 123

Tabel 4.37 Tabel Transformasi PSAK_LGD (Flow Rate Calculation) ........ 124

Tabel 4.38 Tabel Transformasi PSAK_LGD (Average Flow Rate) ............. 125

Tabel 4.39 Tabel Transformasi PSAK_LGD (Flow To Loss Calculation) ... 126

Tabel 4.40 Tabel Transformasi PSAK_ENR_MIGRATION ....................... 128

Tabel 4.41 Tabel Transformasi PSAK_FLOWRATE_MIGRATION .......... 129

Tabel 4.42 Tabel Transformasi PSAK_COMPOUND_FLOW_TO_LOSS . 130

Tabel 4.43 Tabel Transformasi PSAK_LGD ............................................... 130

Tabel 4.44 Tabel Transformasi PSAK_MASTER_ACCOUNT .................. 131

Tabel 4.45 Tabel Sumber, Tujuan dan Rules Dimensi Customer ................. 133

Tabel 4.46 Tabel Sumber, Tujuan dan Rules Dimensi Segment .................. 135

Tabel 4.47 Tabel Sumber, Tujuan, dan Rules Dimensi Impairment Group .. 136

Tabel 4.48 Tabel Sumber, Tujuan, dan Rules Dimensi Area ....................... 137

Tabel 4.49 Tabel Sumber, Tujuan, dan Rules Dimensi Cabang Utama ........ 138

Tabel 4.50 Tabel Sumber, Tujuan dan Rules Dimensi Cabang .................... 139

Tabel 4.51 Tabel Sumber, Tujuan dan Rules Dimensi Product .................... 140

Tabel 4.52 Tabel Sumber, Tujuan, dan Rules Dimensi Maturity Profile ...... 141

Tabel 4.53 Tabel transformasi FACTLOANACCOUNT sebagai tabel input

sebelum load ke tabel FACT_LOAN......................................... 143

Tabel 4.54 Tabel Load ke Tabel Fakta Pembiayaan (FACT_LOAN) .......... 145

Tabel 4.55 Tabel Load ke Tabel Fakta CKPN (FACT_CKPN) ................... 148

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 16: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

1 Universitas Indonesia

BAB 1

PENDAHULUAN

1.1 Latar Belakang

Perbankan merupakan urat nadi perekonomian di seluruh negara, tidak terkecuali

di Indonesia. Peran perbankan nasional dalam membangun perekonomian

merupakan salah satu sektor yang diharapkan berperan aktif dalam menunjang

kegiatan pembangunan nasional atau regional. Peran Perbankan diwujudkan

dalam fungsi utamanya sebagai lembaga intermediasi atau institusi perantara

antara debitor dan kreditor, sebagai lembaga perantara yang menghimpun dana

dan menempatkannya dalam bentuk aktiva produktif, dalam hal ini kredit yang

diberikan. Penyaluran kredit atau pembiayaan merupakan kegiatan usaha yang

mendominasi pengalokasian dana bank. Pemberian kredit yang dilakukan oleh

bank mengandung resiko yaitu berupa tidak lancarnya pembayaran kredit atau

dengan kata lain kredit bermasalah (NonPerforming Loan) sehingga akan

mempengaruhi kinerja bank. Untuk meminimalkan potensi kerugian dari kredit

bermasalah tersebut yaitu dengan menjagakualitas aktiva dan membentuk

cadangan kerugian penurunan nilai (CKPN). Dengan besarnya kredit yang

diberikan kepada nasabah, bank mempunyai risiko pengembalian piutang yang

macet, hal tersebut dapat meningkatkan kredit bermasalah (Non Performing Loan)

maka akibatnya bank harus menyediakan cadangan kerugian yang cukup.

Implementasi PSAK (Pernyataan Standar Akuntansi Keuangan) 50/55 di masing-

masing Bank di Indonesia merupakan salah satu syarat regulatory compliance dari

Bank Indonesia dan Ikatan Akuntan Indonesia, ditunjukkan melalui Surat Edaran

Bank Indonesia No. 11/4/DPNP mengenai Pelaksanaan Pedoman Akuntansi

Perbankan Indonesia (PAPI) dan No. 15/26/DPbs mengenai pelaksanaan Pedoman

Akuntansi Perbankan Syariah Indonesia (PAPSI). Salah satu cakupan dari PSAK

50/55 adalah Penyisihan Kerugian Kredit (Loan-Loss Provisioning atau/ Loan

Impairment) atau dikenal dengan perhitungan Cadangan Kerugian Penurunan

Nilai (CKPN). Sebagaimana diketahui bahwa tujuan daripada penyisihan kerugian

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 17: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

2

Universitas Indonesia

kredit adalah untuk menutup kemungkinan kerugian yang timbul sehubungan

dengan alokasi dana ke dalam pemberian kredit.

Terhitung 1 Januari 2014 Bank harus mengukur penurunan nilai dan membentuk

CKPN berdasarkan data historis kerugian kredit yang sudah terjadi atau incurred

loss. Cadangan Kerugian Penurunan Nilai (CKPN) ini dipakai sebagai ganti dari

perhitungan PPAP (Penyisihan Penghapusan Aktiva Produktif). Pada aturan PPAP

Bank hanya menyisihkan cadangan kerugian dengan maksimum berdasarkan

persentase tertentu untuk setiap kualitas kredit.

Adapun CKPN dihitung berdasarkan 2 kategori; Kategori pertama adalah

perhitungan CKPN secara individual per level debitur, dimana pembentukan atau

penyisihan dana dari kredit dinilai dari hasil evaluasi kredit debitur yang

dilakukan oleh internal bank sesuai dengan kebijakan yang berlaku. Maka kita

harus menentukan terlebih dahulu kredit dari debitur mana saja yang mengalami

penurunan nilai, misalnya: debitur mengalami wanprestasi atau mempunyai

tunggakan pembayaran oleh debitur, restrukturisasi kredit oleh Bank atau kondisi

ekonomi yang berkorelasi dengan wanprestasi atas aset dalam kelompok tersebut.

Setelah itu, maka besarnya nilai cadangan dana kredit itu ditentukan dari selisih

antara nilai tunggakan kredit debitur tersebut sebelum dan sesudah terjadinya

penurunan nilai. Kategori kedua adalah perhitungan CKPN secara kolektif, yang

melibatkan perkalian beberapa komponen, yakni potensi gagal bayar (probability

of default) dikalikan jumlah kredit yang bersangkutan. Komponen lainnya loss

given default (LGD) yang merupakan porsi kerugian riil akibat gagal bayar yang

benar-benar tak tertagih, di luar tingkat kembalian tagihan (recovery rate).

Probability of default yang dihitung dari pengalaman kerugian yang sudah terjadi

berdasarkan data historis setiap jenis kredit bank tersebut minimal selama 2

sampai 5 tahun terakhir.

Salah satu isu yang penting adalah mengenai kesiapan bank dalam memenuhi

syarat regulatory compliance dari regulator dalam menyiapkan laporan

pembentukan CKPN secara tepat waktu dan akurat sesuai dengan metodologi

perhitungan yang disyaratkan. Isu yang penting lainnya terkait dengan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 18: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

3

Universitas Indonesia

pengambilan keputusan terkait dengan volatilitas pembentukan CKPN sesuai

dengan PSAK 50/55, yang mana akan berpengaruh kepada tingkat profitabilitas

Bank itu sendiri dan potensi kerugian risiko kredit. Apabila penyisihan terlalu

besar, maka dampaknya kepada profitabilitas bank itu sendiri, sedangkan apabila

penyisihan terlalu kecil, maka dapat meningkatkan risiko kredit Bank, terutama

apabila kredit yang bermasalah meningkat.

Untuk dapat menghitung CKPN pada portfolio pembiayaan, dibutuhkan beberapa

data dari berbagai sumber Core Banking System. Namun apabila data tersebut

tidak tersedia dibutuhkan input secara manual. Oleh karena itu penelitian yang

dilakukan adalah merancang dan mengimplementasikan datamart PSAK 50/55

sebagai syarat kepatuhan (compliance) Bank X kepada regulator, dan untuk

mendukung pengambilan keputusan dalam penentuan kebijakan perhitungan

CKPN sesuai dengan PSAK 50/55. Untuk memenuhi kebutuhan penyusunan

laporan CKPN yang cepat dan pengambilan keputusan, maka dibuatlah

implementasi datamart. Pemilihan implementasi datamart dikarenakan

kebutuhannya spesifik untuk Departemen Akuntansi. Datamart merupakan

kumpulan dari berbagai data source dan dibuat untuk tujuan pelaporan. Analisis

yang bersifat read only digunakan sebagai fondasi dari penunjang keputusan.

Selanjutnya proses pelaporan dan analisa dapat menggunakan fitur OLAP (Online

Analytical Processing) dan fitur query data tanpa menganggu database

operasional, sehingga penggunaan datamart dapat memberikan efisiensi dan

efektifitas bagi Bank X.

1.2 Rumusan Masalah

Implementasi PSAK 50/55 terkait pengaturan penentuan nilai CKPN, membawa

dampak yang tidak mudah bagi perbankan,antara lain :

1. Ketersediaan data yang diharuskan oleh regulator dalam perumusan CKPN

adalah data tunggakan pokok, data histori pembayaran, day past due,

kolektibilitas, write off, recovery, agunan, data histori nomor rekening 2-5

tahun ke belakang, dan lain lain. Banyaknya data berkisar +/-150 ribu records

per level nomor kartu pembiayaan setiap bulannya dan data tersebut

dikumpulkan dari berbagai unit bisnis dan berbagai source system (credit card

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 19: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

4

Universitas Indonesia

operations, mortgage systems, Joint Finance, core financing system dan

informasi dari loans operations) dalam format yang beragam (flat file ataupun

database ) serta tingkat granularitas data yang berbeda untuk masing-masing

sumber data. Hal tersebut menyebabkan konsolidasi pembuatan laporan

menjadi sulit dan memakan waktu yang cukup lama.

2. Informasi mengenai nilai CKPN tidak tersedia secara langsung pada sumber

data, sehingga diperlukan proses perhitungan tertentu sesuai dengan aturan

PSAK 50/55 dengan menggunakan seluruh data pembiayaan.

3. Keharusan dari Bank Indonesia untuk dapat menyediakan laporan mengenai

CKPN ini maksimal pada setiap tanggal 5, dimana waktu ditentukan sepihak

saja oleh Bank Indonesia sebagai regulator. Termasuk tuntutan untuk hasil

laporan yang tepat dan cepat, dalam mengambil serta mengolah data data

pembiayaan sesuai dengan regulasi dari Bank Indonesia. Karena

ketidaktepatan (baik data maupun waktu) dapat berakibat pinalti dari pihak

Bank Indonesia kepada bank pelapor.

4. Banyaknya permintaan laporan dari masing-masing unit kerja (credit

operations, compliance, manajemen risiko dan accounting) dengan format

yang beragam baik dari sisi ringkasan dan rincian dan kadangkala bersifat

mendadak (adhoc). Hal tersebut sangat memerlukan upaya besar untuk

menyiapkan dan menyajikan data dimaksud secara cepat dan lengkap.

5. Ditambah belum adanya fasilitas yang dapat dipergunakan untuk menyediakan

dan menyajikan data secara interaktif dengan berbagai skenario sesuai dengan

kebutuhannya, maka diperlukan tambahan effort dalam persiapan pelaporan

kepada pucuk pimpinan. Hal ini membuat informasi yang diperoleh menjadi

sulit diolah dan dianalisis oleh pihak eksekutif. Aplikasi OLAP dianggap

perlu karena pada perusahaan tersebut belum terdapat alat yang dapat melihat

trend perkembangan pembentukan CKPN dari waktu ke waktu secara cepat.

6. Untuk dapat melihat trend perkembangan seperti ini dan adanya kebijakan dari

Manajemen Risiko untuk memonitor kualitas debitur setiap 6 bulanan. Maka

dari itu diperlukan waktu dan effort tambahan untuk pengumpulan dan

pemrosesan ulang dari unit kerja manajemen risiko, dimana sumber datanya

adalah berasal dari data laporan bulanan yang sifatnya rincian yang cukup

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 20: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

5

Universitas Indonesia

besar jumlah datanya (+/- 150-300 ribu records per satu tanggal bulan

pelaporan) dan keterbatasan kapabilitas tools yang ada sekarang yaitu

Microsoft Excel untuk senantiasa menampung dan memonitor data histori

selama 6 bulanan. Hal ini membuat informasi yang diperoleh menjadi sulit

diolah dan dianalisis oleh pihak eksekutif.

Dari beberapa uraian permasalahan tersebut, maka Bank membutuhkan

tersedianya datamart spesifik untuk kebutuhan divisi Akuntasi dan Keuangan

serta divisi Manajemen Risiko yang dapat membantu untuk mengumpulkan,

menyimpan, menganalisis dan menyediakan akses ke data guna membantu

pengguna mengambil keputusan secara akurat dengan melakukan berbagai

aktivitas diantaranya, sistem pendukung keputusan, query, pelaporan, dan online

analytical processing (OLAP).

Perancangan datamart PSAK 50/55 dan OLAP akan menampilkan monitoring

dan analisa dari hasil pembentukan CKPN berdasarkan kalkulasi PSAK 50/55

secara bank wide yang meliputi informasi:

1. Laporan Total Pembiayaan berdasarkan Cabang, berdasarkan Produk dan

berdasarkan segment. Laporan Total Pembiayaan berdasarkan Tanggal Jatuh

Tempo.

2. Laporan distribusi pembiayaan yang mengalami perubahan kolektibilitas(ke

lebih baik atau lebih buruk atau pembiayaan tersebut matured) dari periode

pelaporan bulan ini dan bulan sebelumnya per masing-masing produk,

segment, mata uang, cabang.

3. Laporan RatioNon Performing Loan per masing-masing cabang.

4. Laporan Probability Default(PD) dan Loss Given Default (LGD) Trend,

dimana laporan ini berfungsi untuk menampilkan kecendrungan perubahan

nilai PD dari jangka waktu periode tertentu berdasarkan segementasi

pengelompokkan pembiayaan dan masing-masing kolektibilitas.

5. Laporan CKPN Kolektif / Collective Assesment Provision yang berisi hasil

dari perhitungan CKPN secara Kolektif berdasarkan kelompokdari group of

impairment.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 21: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

6

Universitas Indonesia

6. Laporan Perbandingan antara CKPN Kolektif / Collective Assesment

Provision dengan PPAP (Penyisihan Penghapusan Aktiva Produktif)

berdasarkan segmentasi, cabang, produk, dan collective group impairment.

7. Laporan mengenai nilai variance antara CKPN actual dan CKPN forecast

untuk setiap cabang dan segmentasi pembiayaan.

8. Laporan Impairment Loan Ratio per masing-masing cabang. Impairment

Ratio ini didapat dengan membagi Total CKPN dalam mata uang Rupiah

dibagi dengan Total Outstanding dalam mata uang Rupiah per masing-masing

cabang.

9. Laporan Movement CKPN (Charged atau Released) untuk setiap cabang

dalam mata uang rupiah. Charged berarti diperlukan tambahan sejumlah

biaya tertentu sebagai tambahan biaya pembentukan CKPN. Sedangkan

released berarti terdapat pengurangan biaya CKPN dibandingkan dengan

bulan sebelumnya.

10. Laporan Klasifikasi Loan Impairment dan Pembiayaan berdasarkan

Segmentasi dan Laporan Individual Impairment. Laporan Individual

Impairment berisi informasi daftar customer number yang sudah di daftarkan

dengan flag individual impairment.

Dari rangkaian masalah dan alternatif solusi tersebut, maka penulis tertarik untuk

menjawab pertanyaan penelitian

1. Bagaimana pengembangan datamart dalam perhitungan dan monitoring

penyisihan Cadangan Kerugian Penurunan Nilai(CKPN) sesuai dengan

Pernyataan Standar Akuntansi Keuangan (PSAK) 50/55 pada portfolio

pembiayaan di Bank ‘X’ ?

2. Bagaimana penerapan OLAP sehingga dapat membantu pengguna dan

eksekutif dalam mempersiapkan laporan, monitoring dan menganalisa

mengenai konsentrasi risiko pembiayaan terkait besarnya penyisihan

cadangan kerugian penurunan nilai (CKPN) dalam portfolio pembiayaan di

Bank ‘X’ setiap periode?

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 22: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

7

Universitas Indonesia

1.3 Tujuan dan Manfaat Penelitian

Adapun tujuan penelitian ini adalah:

1. Perancangan dan penerapan data mart untuk divisi Manajemen Risiko dan

Divisi Akuntansi dan Keuangan pada Bank ‘X’, mengenai penerapan PSAK

50/55 dalam konteks perhitungan CKPN untuk kepentingan Central Bank dan

Internal Management dapat tersedia secara cepat dan tepat waktu.

2. Penerapan teknologi OLAP untuk membantu menyediakan informasi berupa

laporan cadangan kerugian penurunan nilai sesuai dengan aturan PSAK 50/55

dan analisa untuk tujuan pengambilan keputusan.

Manfaat yang diperoleh dari penelitian ini adalah:

1. Perusahaan dapat memperoleh laporan yang dibutuhkan sesuai dengan

ketentuan regulator baik itu Bank Indonesia dan Ikatan Akuntan Indonesia

secara cepat dalam regular basis.

2. Informasi dapat ditampilkan ke dalam sebuah laporan yang sesuai dengan

keinginan para pihak terkait termasuk pihak eksekutif, sehingga dapat

membantu dalam pengambilan keputusan dan pelaporan. Informasi dapat

dilihat dari berbagai sudut pandang (perspektif) yang berbeda. Laporan dapat

dimodifikasi dan dibuat spesifik oleh pengguna dan disimpan sebagai

informasi personal.

3. Mempermudah manajemen dalam menganilisis perkembangan kualitas aktiva

kredit pada Bank X.

1.4 Ruang Lingkup Penelitian

Penelitian ini melibatkan berbagai disiplin ilmu, yang diantaranya adalah Basis

Data, statistika, datamart, Akuntansi dan Manajemen Risiko Perbankan. Dalam

penelitian ini batasan dan ruang lingkup yang diambil adalah

1. Proses dan aturan bisnis dari Bank X terkait implementasi Pernyataan Standar

Akuntansi Keuangan (PSAK) 50/55 untuk penyisihan cadangan kerugian

penurunan nilai (CKPN) pada Bank ‘X’.

2. Sumber data berasal dari masing-masing sumber sistem yang terdapat pada

Bank ‘X’.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 23: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

8

Universitas Indonesia

3. Aplikasi yang digunakan untuk proses pembuatan data mart menggunakan

software Microsoft Business Intelligence Studio, Cognos Insight, dan

Database Microsoft SQL Server Database 2012.

1.5 Sistematika Penulisan

Untuk memberikan gambaran yang jelas dan sistematis mengenai isi penelitian

karya akhir ini, maka penelitian ini dibagi menjadi enam bab, dan disusun dengan

sistematika sebagai berikut:

BAB I PENDAHULUAN

Bab pertama berisi latar belakang pengambilan topik, permasalahan penelitian,

pertanyaan penelitian, tujuan dan manfaat penelitian, ruang lingkup penelitian

serta sistematika penulisan yang digunakan.

BAB II TINJAUAN PUSTAKA

Bab kedua berisi teori-teori mengenai datamart, arsitektur datamart. Metodologi

perancangan datamartmenurut Kimball, prosesETL, OLAP, serta Pedoman

Akuntansi Perbankan Indonesia mengenai PSAK 50/55.

BAB III METODOLOGI PENELITIAN

Bab ketiga berisi tahapan melakukan penelitian dan metodologi yang digunakan

pada penelitian ini.

BAB IV ANALISA, PERANCANGAN, DAN IMPLEMENTASI DATAMART

PSAK50/55

Bab ini akan menjelaskan mengenai implementasi datamart PSAK 50/55 dalam

rangka pelaporan dan monitoring penyisihan cadangan kerugian penurunan nilai

(CKPN) untuk portfolio pembiayaan Bank X. Pemaparan dimulai dari identifikasi

kebutuhan laporan, kebutuhan informasi dan proses bisnis, perancangan arsitektur

datawarehouse, perancangan permodelan datamart berdasarkan Metode Kimball

dengan 9 langkah yang terdiri dari pemilihan proses, pemilihan grain, identifikasi

dan penyesuaian dimensi, pemilihan fakta, penentuan data pre-kalkulasi dari tabel

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 24: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

9

Universitas Indonesia

fakta, melengkapi tabel dimensi, pemilihan durasi dari basis data, melacak

perubahan dimensi secara perlahan, penentuan prioritas dan mode dari query dan

pemrosesan ETL

BAB V IMPLEMENTASI OLAP

Berisi mengenai informasi yang disediakan oleh datamart dimana informasi

tersebut digunakan dalam menghasilkan laporan yang terkait dengan Pembiayaan

dan CKPN menurut PSAK 50/55 dengan visualisasi dari OLAP

BAB VI KESIMPULAN DAN SARAN

Bab terakhir ini memuat kesimpulan yang merupakan evaluasi dari seluruh

kegiatan dalam penelitian ini serta saran untuk pengembangan lebih lanjut.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 25: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

10 Universitas Indonesia

BAB 2

TINJAUAN PUSTAKA

2.1 Datawarehouse dan Datamart

Pada bagian ini dijelaskan mengenai pengertian mengenai data warehouse dan

datamart, pemrosesan ETL, keuntungan penggunaan datamart dan isu-isu dalam

penggunaan datamart

2.1.1 Pengertian Data warehouse dan Datamart

Data warehouse didefinisikan sebagai sekumpulan data yang berorientasi subyek,

terintegrasi, berasal dari jangka waktu yang bervariasi dan cenderung permanen,

yang digunakan untuk mendukung proses pengambilan keputusan bagi pihak

manajemen sebuah organisasi (Connoly & Begg, 2005). Dan biasanya menyimpan

data histori dan data sekarang, dimana tujuan akhirnya adalah untuk mendapatkan

informasi yang dapat digunakan untuk analisa ke depan.

Data warehouse adalah sebuah sistem yang melakukan ekstraksi, clean, conforms,

dan memberikan sumber data ke dalam menyimpan data dimensi dan kemudian

mendukung dan menerapkan query dan analisis untuk tujuan pengambilan

keputusan. Dalam data warehouse, data disimpan dalam bentuk yang dapat

mendukung pengambilan keputusan dan analisis yang disebut sebagai Online

Analytical Processing Systems (OLAP).

Sedangkan Data mart adalah bagian (subset) dari data warehouse yang

mendukung kebutuhan informasi dari departemen tertentu atau fungsi dari bisnis

dalam perusahaan (Connolly & Begg, 2005). Adapun beberapa karakteristik yang

membedakan data warehouse dengan datamart, datamart merupakan spesifik

bisnis atau unit tertentu, subyek pengguna dari datamart biasanya departemental,

dan sifatnya desentralisasi.

Sistem OLAP berbeda dari sistem OLTP (Online Transactional Processing)

tradisional, atau yang dikenal sebagai sistem pengolahan transaksional secara

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 26: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

11

Universitas Indonesia

online. Sistem OLTP sangat dinormalisasi data model agar kinerja query lebih

cepat, tetapi dalam OLAP data model didasarkan pada denormalization untuk

membuat data agregasi yang digunakan dalam analisis dan pengambilan

keputusan untuk bisnis. Gambar 2.1 menjelaskan 4 komponen dari data

warehouse menurut Ralph Kimball.

Gambar 2.1 Datawarehouse Model

(Sumber : Kimball, 2002)

1. Operational Source Systems: sistem operasional yang digunakan untuk

transaksional bisnis sehari-hari. Isi dari sumber data dari operational sistem

tidak dalam termasuk ke dalam data warehouse karena data warehouse tidak

memiliki kontrol atas data transaksi operasional.

2. Data Staging Area: Data staging area di data warehouse diproses melalui

proses ETL menggunakan input dari ekstrak source system. Ekstraksi adalah

langkah pertama dalam proses penyediaan data dari sistem sumber ke data

warehouse. Ekstrak berarti membaca dan memahami sumber data dan

menyalin data yang diperlukan untuk data warehouse ke staging area. Setelah

data diekstrak ke staging area, dilakukan proses transformasi data, seperti

pembersihan data (standarisasi format data, validasi karakter khusus dalam

data, eliminsasi data yang null atau tidak lengkap), melakukan konversi tipe

data, validasi integritas referensi data, penggabungan data dan perhitungan

dengan melakukan agregasi. Transformasi ini diperlukan untuk memuat data

ke dalam data warehouse presentation area.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 27: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

12

Universitas Indonesia

3. Data Presentation Area: adalah tempat dimana data tersebut diorganisasi,

disimpan dan dibuat untuk tujuan direct query oleh pengguna akhir, reporting

dan kebutuhan analitical.

4. Data Access Tools: Alat merujuk pada berbagai pilihan bahwa pengguna

bisnis dapat memanfaatkan untuk menganalisis data untuk analisis

pengambilan keputusan. Menurut definisi, semua alat akses data query data di

daerah presentasi data warehouse itu. Pengaksesan data dapat sesederhana

sebagai alat query ad hoc atau sekompleks data mining.

5. Metadata: Salah satu komponen yang paling penting dari data warehouse

adalah metadata. Metadata adalah semua informasi dalam lingkungan data

warehouse yang mana bukan merupakan data aktual itu sendiri. Atau dapat

dikatakan sebagai informasi tentang data. Cakupan metadata mulai dari

source system sampai dengan pada staging area. Metadata digunakan sebagai

sumber informasi untuk memfasilitasi proses transformasi dan proses loading,

termasuk staging file dan layout tabel, transformasi dan pembersihan, tabel

dimensi dan fact table, definisi agregasi, dan penjadwalan pelaksanaan ETL

dan menghasilkan file log. Bahkan kode pemrograman yang dibuat secara

kustom di ETL merupakan bagian dari metadata. Data staging area metadata

juga digunakan oleh data presentation dan data access tools untuk kontrol

proses dan dapat digunakan untuk logic tertentu tergantung dari kebutuhan

informasi yang dihasilkan. Tujuan akhir adalah membuat catalog,

mengintegrasikan dan memanfaatkannya sebagai dokumentasi library.

2.1.2 Extraction Transformation Loading (ETL)

ETL merupakan proses mengambil data aplikasi yang dibutuhkan dan

mengintegrasikannya ke dalam data warehouse. ETL adalah proses

menyiapkan data yang meliputi pengambilan data yang dibutuhkan,

pengubahan dan pengintegrasian data, serta pemuatan data dari sumber data ke

dalam data warehouse. (Inmon, 2005)

Di dalam jurnal yang ditulis oleh (Steinacher, 2000), proses ETL dibagi menjadi 3

bagian, yaitu:

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 28: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

13

Universitas Indonesia

1. Data extraction; Untuk memulai proses ETL, programmer akan

menjalankan rutin extraction untuk membaca record dari database

sumber dan membuat data pada record dapat dipakai untuk proses

transformasi.

2. Data transformation; Setelah melakukan proses extraction, data kemudian

ditransformasikan ke dalam bentuk yang cocok dengan lingkungan data

warehouse. Terdapat beberapa teknik tranformasi yang sering dilakukan,

yaitu aggregation, value translation, field derivation, dan cleansing.

Sebelum melakukan loading ke data warehouse, biasanya programmer

akan melakukan aggregate data terlebih dahulu. Aggregation akan

menggantikan sejumlah record detail dengan beberapa baris record

ringkasan. Sebagai contoh, andaikan data penjualan dalam setahun

disimpan dalam beberapa ribu record dalam database yang sudah

dinormalisasi. Melalui aggregation, data tersebut ditransformasi menjadi data

ringkas yang akan disimpanpada data warehouse penjualan. Value

translation merupakan salah satu teknik dalam transformasi data.

Database operasional menyimpan kode informasi untuk membatasi

redudansi data dan merupakan syarat penyimpanan. Sebagai contoh, kode

barang ditulis di dalam file faktur karena panjangnya yang pendek,

daripada menulis deskripsi produk dalam faktur. Karena data warehouse

mengandung informasi ringkasan dan dirancang untuk kemudahan

penggunaan, programmer biasanya mengganti kode tersebut dengan

deskripsi yang lebih jelas. Inilah yang disebut sebagai value translation. Field

derivation merupakan teknik ketiga dalam mentransformasikan data.

Melalui field derivation, informasi baru diciptakan untuk pengguna.

Sebagai contoh, andaikan database operasional mengandung kolom untuk

jumlah penjualan dan harga per unit. Daripada membuat pengguna

menghitung penghasilan, programmer dapat membuat kolom penghasilan

selama proses transformasi. Produk-produk ETL telah memungkinkan

programmer untuk menggunakan operasi matematika, fungsi statistik,

manipulasi string, date arithmetic, dan logika kondisional untuk

menurunkan kolom baru. Teknik transformasi yang keempat, cleansing,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 29: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

14

Universitas Indonesia

mempunyai banyak kegunaan. Programmer bergantung pada algoritma

cleansing untuk menjaga agar data yang tidak akurat tidak masuk ke dalam

sistem. Sebagai contoh, cleansing biasanya memastikan bahwa kolom numeric

mengandung data angka. Cleansing dapat juga digunakan dalam kasus

dimana satu nilai unik direpresentasikan dalam banyak cara di database.

Sebagai contoh, IBM dapat digambarkan sebagai IBM Co. atau

International Businesss Machines, dan lain sebagainya. Selama proses

cleansing, versi-versi lain dari elemen data yang sama diganti dengan

nilai tunggal. Tipe-tipe transformasi yang biasa di implementasikan pada

data warehouse adalah sebagai berikut :

Format-Changes, dimana setiap data field dari sistem operasional

disimpan dalam format dan tipe data yang berbeda. Individual data ini

akan di modifikasi selama proses transformasi ke dalam format yang di

standarisasi.

De-duplication, record dari beberapa sumber dibandingkan untuk

mengidentifikasi adanya duplikasi berdasarkan nilai dari suatu field.

Data yang terduplikasi bisa di merge menjadi suatu single record.

Record yang potensial mengalami duplikasi akan dipisahkan dalam suatu

tempat untuk di pilah secara manual.

Splitting up fields, data dari source system sangat mungkin untuk di

pisahkan dalam satu atau beberapa field dalam data warehouse. Hal

yang sering terjadi adalah pemisahan data informasi customer yang

terdiri dari satu field dipisahkan menjadi beberapa field di data

warehouse seperti nama jalan, nama gedung, kota, kode pos dan

sebagainya.

Integrating fields, kebalikan dari splitting up fields dimana dua buah field

atau lebih akan di integrasikan dalam satu field.

Replacement of values, jika data dalam system operasional memliki

makna yang kurang informatf bagi pengguna warehouse, akan

ditransformasikan kedalam bentuk yang lebih sesuai.

Derived values, field yang dihasilkan dari formulasi fungsi agregasi.

Dengan melakukan penghitungan sebelum dimasukkan ke dalam data

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 30: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

15

Universitas Indonesia

warehouse maka kemungkinan kesalahan yang akan dilakukan oleh

pengguna warehouse akan berkurang. Sebagai contoh field balance, ratio

dan sebagainya

Aggregate, field yang diagregasi secara atomik juga dapat dilakukan

sebelum dimasukkan ke dalam data warehouse.

3. Data loading; Setelah data ditransformasikan, programmer menggunakan

prosedur load untuk menulis data tersebut ke dalam database yang

menjadi target. Selama tahap ini, kita harus menentukan apakah akan

menyebarkan data secara berkala atau terus-menerus. Penambahan terjadi

secara teratur, seperti harian, mingguan, atau bulanan. Pendekatan ini

merekam kondisi sistem operasional pada saat-saat spesifik. Jika

pengguna menginginkan informasi terkini, continuous propagation dapat

memuat data ke dalam database target pada basis waktu real-time. Kita

bisa mengkategorikan data loading berdasarkan metode yang dipakai

untuk mereplikasi data. Dalam replikasi push, aplikasi sumber

“mendorong‟ data yang telah ditransformasi ke aplikasi target. Dalam

replikasi pull, aplikasi target “menarik‟ data yang diperlukan olehnya,

seperti ketika pengguna menjalankan sebuah query. Kita juga bisa merancang

prosedur load yang menggunakan proses pull dan push. Pada pendekatan tipe

ini, aplikasi sumber biasanya mendorong data ke staging database, dimana

data tersebut akan ditransformasi dan kemudian ditarik ke dalam aplikasi

target ketika diperlukan saja. Pendekatan tipe ini memerlukan ruang disk

yang lebih besar, tapi dapat meningkatkan performa.

2.1.3 Keuntungan Data Warehouse

Data warehouse dapat memberikan keuntungan kepada perusahaan seperti

(Connoly & Begg, 2005):

1. Potensi pengembalian yang besar dari investasi (potential high returns on

investment). Sebuah perusahaan harus mengeluarkan sejumlah besar dana

untuk memastikan keberhasilan penerapan data warehouse dan biayanya

dapat bervariasi tergantung dari solusi teknis yang diberikan. Potensi

pengembalian dari investai ke dalam data warehouse sangat besar.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 31: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

16

Universitas Indonesia

Tergantung dari bagaimana para pengambil keputusan memakai data

warehouse dalam proses pengambilan keputusan.

2. Keuntungan kompetitif (competitive advantage). Pengembalian yang besar

atas investasi perusahaan merupakan hasil dari keuntungan kompetitif

yang didapatkan dari penggunaan teknologi ini. Keuntungan kompetitif

dapat diperoleh dengan memfasilitasi para pengambil keputusan

mengakses data yang dapat memperlihatkan apa yang sebelumnya tidak

dapat dilihat karena keterbatasan teknologi, seperti pelanggan, tren, dan

permintaan.

3. Meningkatkan produktivitas dari para pengambil keputusan (increased

productivity of corporate decision-makers). Data warehouse dapat

meningkatkan produktivitas dari para pengambil keputusan dengan

membuat sebuah database terpadu dari data-data yang konsisten,

berorientasi subjek, dan bersifat historis. Data warehouse menyatukan data

dari berbagai sistem dan dijadikan data yang lebih konsisten. Dengan

mengubah data menjadi informasi yang berguna, data warehouse

memungkinkan para pengambil keputusan untuk melakukan analisis yang

lebih nyata, akurat, dan konsisten.

2.1.4 Isu Data warehouse

Beberapa faktor yang dapat dikaitkan dengan masalah kualitas informasi, berikut

ini adalah penyebab utama dari kesalahan informasi dalam data warehouse

1. Perubahan pada sumber data.

Perubahan dalam sumber data menyebabkan perubahan code pada proses

ETL. Contohnya : proses ETL pada risiko kredit pada data dalam lembaga

keuangan tertentu memiliki sekitar 25 kesalahan setiap kuartal. Meskipun

telah melampaui quality assurance tetap saja selalu ada ruang untuk

kesalahan. Daftar berikut menguraikan jenis potensi kesalahan yang dapat

terjadi karena perubahan dalam proses ETL:

Logika pada ekstraksi tidak mencakup data tertentu yang belum ditest.

Logika transformasi memungkinkan melakukan agregasi 2 tipe data yang

berbeda (contoh: Pinjaman Mobil, Pinjaman Kapal) ke dalam satu

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 32: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

17

Universitas Indonesia

kategori, yaitu kategori pinjaman mobil. Dalam beberapa kasus, logika

transformasi dapat mengecualikan beberapa jenis data yang tidak relevan,

sehingga catatan lengkap di data warehouse.

Isu-isu serupa juga sering terjadi pada proses loading.

2. Kegagalan proses. Saat pemrosesan mungkin saja gagal, karena kesalahan

sistem atau kesalahan transformasi, sehingga loading data yang tidak lengkap.

Kesalahan transformasi juga mungkin disebabkan karena format sumber data

atau format tujuan transformasi yang salah.

3. Perubahan atau update pada data referensi. Data referensi outdated, tidak

lengkap atau salah akan menyebabkan kesalahan dalam informasi data

warehouse. Misalnya, kesalahan dalam parameter tabel komisi tingkat

penjualan dapat mengakibatkan perhitungan yang salah tentang jumlah komisi

yang diterima oleh masing-masing agen.

4. Isu kualitas data dengan sistem sumber. Data ini mungkin tidak lengkap atau

tidak konsisten. Sebagai contoh, catatan pelanggan dalam source system

mungkin memiliki kode pos hilang. Sebuah sistem sumber yang sama

berkaitan dengan penjualan dapat menggunakan singkatan dari nama-nama

produk dalam database-nya. Ketidaklengkapan dan inkonsistensi dalam data

sistem sumber akan menyebabkan masalah kualitas dalam data warehouse.

Adapun yang merupakan contoh kontrol yang dapat diterapkan untuk setiap

informasi pada data warehouse antara lain :

- Validasi antara source system, data warehouse, datamart, dan sistem target

lainnya.

- Validasi secara independen pada masing-masing environment, yaitu

environment tempat pemrosesan ETL, environment yang menjadi tempat

sumber data dan environment tujuan load.

- Penerapan kontrol pada format data dari semua sumber data dan tabel tujuan

transformasi.

- Membuat laporan exceptions untuk setiap kali pemrosesan data, yang berisi

informasi status, jumlah data, dan waktu dari setiap hasil proses ETL termasuk

audit trail dari setiap hasil pemrosesan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 33: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

18

Universitas Indonesia

Biasanya pendekatan yang dilakukan dalam rangka kontrol pada data warehouse

antra lain melakukan manual balancing, tracking dan rekonsiliasi untuk

memastikan akurasi dari data, sesuai dengan kebutuhan melakukan ad hoc query

dan pelaporan untuk mendukung kegiatan audit, dimana secara tidak langsung

merupakan bagian dari solusi regulatory reporting. Dan secara periodik

melakukan pemeriksaan dan mendiagnosa serta memperbaiki problem yang ada.

Sedangkan yang terkait dengan isu dari perancangan data warehouse, (Yao, 2003)

memberikan rangkuman yang komprehensif mengenai isu dari perancangan ini

meliputi:

- Granularity : Level dari detail atau rangkuma setiap unit data.

- Partitioning : memisahkan data ke dalam physical unit yang berbeda.

- Data : Tiga tipe data yaitu raw data , aggregated data dan metadata

- Data sources : Sumber dari sistem operasional tempat sumber data yang akan

di populasi ke data warehouse.

- ETL process : proses antara source system dan data warehouse, termasuk

proses didalam data warehouse itu sendiri.

- User access : antar muka dan alat-alat analisis yang dibuat dapat tersedia

untuk pengguna

2.2 Metodologi Perancangan Data Warehouse/Datamart

Menurut Kimball terdapat sembilan langkah dalam merancang database untuk

data warehouse (Kimbal & Ross, 2002) yaitu :

Langkah 1: Memilih proses

Proses ini merujuk pada subjek data warehouse tertentu. Data warehouse

yang dibangun pertama kali haruslah data warehouse yang dapat dikerjakan

dan selesai tepat waktu, biaya yang cukup, dan menjawab pertanyaan bisnis

paling penting. Contoh pemilihan proses adalah yang berkaitan dengan proses

penjualan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 34: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

19

Universitas Indonesia

Langkah 2: Memilih grain

Memilih grain berarti kita memutuskan secara tepat apa yang

direpresentasikan oleh record pada tabel fakta. Sebagai contoh, entitas

PropertySale merepresentasikan fakta tentang tiap-tiap penjualan properti dan

menjadi tabel fakta dari star schema penjualan properti. Oleh karena itu,

grain dari tabel fakta PropertySale adalah setiap record penjualan properti.

Ketika kita sudah memilih grain dari tabel fakta, maka kita bisa

mengidentifikasikan dimensi-dimensi dari tabel fakta.

Langkah 3: Identifikasi dan membuat dimensi yang sesuai

Dimensi mengatur konteks untuk mengajukan pertanyaan tentang fakta-fakta

dalam tabel fakta. Dimensi yang dirancang dengan baik membuat datamart

lebih mudah dimengerti dan digunakan. Dimensi yang tidak lengkap dan kurang

akan menurunkan manfaat dari sebuah datamart bagi perusahaan. Jika terdapat

dimensi yang muncul dalam dua datamart, mereka harus merupakan dimensi

yang persis sama, atau salah satu harus merupakan subset matematis dari

yang lain. Hanya dengan cara ini, dua datamart dapat saling berbagi satu

atau lebih dimensi pada aplikasi yang sama. Ketika sebuah dimensi

digunakan pada lebih dari satu data mart, maka dimensi itu disebut sedang

disesuaikan. Kalau dimensi tersebut tidak disinkronisasi, maka keseluruhan data

warehouse akan gagal karena kedua datamart tidak akan dapat digunakan secara

bersama-sama.

Langkah 4: Memilih fakta

Grain pada tabel fakta menentukan fakta mana yang dapat digunakan dalam

datamart. Semua fakta harus diekspresikan pada tingkatan yang telah

dinyatakan oleh grain. Dengan kata lain, kalau grain dari tabel fakta adalah

setiap record pada penjualan properti, maka semua fakta numerik harus merujuk

pada penjualan jenis ini. Dan juga, fakta harus berupa numerik dan hasil

penjumlahan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 35: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

20

Universitas Indonesia

Langkah 5: Menentukan data pre-kalkulasi dari tabel fakta

Ketika fakta telah dipilih, maka masing-masing fakta tersebut harus diperiksa

ulang untuk menentukan apakah ada kemungkinan untuk menggunakan pre-

kalkulasi. Contoh umum akan kebutuhan menyimpan pre-kalkulasi terjadi

ketika terdapat fakta yang terdiri dari pernyataan laba dan rugi. Situasi ini akan

sering terjadi ketika tabel fakta berdasarkan penjualan atau invoice.

Langkah 6: Melengkapi tabel dimensi

Pada langkah ini, kita melengkapi tabel dimensi dengan menambahkan

keterangan ke dalamnya. Deskripsi ini harus intuitif dan mudah dimengerti

oleh pengguna.

Langkah 7: Memilih durasi dari basis data

Kita harus menentukan seberapa jauh durasi waktu yang ditampung di dalam

tabel fakta. Untuk perusahaan seperti perusahaan asuransi, mengharuskan

untuk menyimpan data sampai 5 tahun atau lebih. Tabel fakta yang sangat

besar menimbulkan setidaknya dua masalah signifikan pada data warehouse.

Pertama, semakin tua suatu data, maka akan ada masalah dalam membaca dan

menginterpretasikan file tua tersebut. Kedua, wajib untuk menggunakan versi

lama dari dimensi penting, bukan versi yang baru. Ini dikenal sebagai

masalah pada slowly changing dimension.

Langkah 8: Melacak dimensi yang berubah secara perlahan

Ada tiga tipe dimensi yang berubah secara perlahan (slowly changing dimension),

yaitu: Tipe 0, yaitu dimensi yang tidak pernah mengalami perubahan, contohnya

dimensi waktu. Tipe 1, yaitu perubahan dimensi menyebabkan data lama di-

overwrite. Tipe 2, yaitu perubahan dimensi menyebabkan pembentukan record

baru. Tipe 3 yaitu perubahan dimensi menyebabkan pembuatan atribut

alternatif sehingga nilai yang lama dan nilai yang baru dapat diakses secara

bersama pada dimensi yang sama.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 36: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

21

Universitas Indonesia

Langkah 9: Menentukan prioritas dan mode dari query

Pada langkah ini, kita mempertimbangkan permasalahan desain fisik.

Permasalahan desain fisik paling kritis yang mempengaruhi persepsi

pengguna terhadap data mart adalah urutan fisik dari tabel fakta pada disk dan

kehadiran ringkasan atau aggregation yang telah disimpan.

2.3 Arsitektur Datamart

Gambar 2.2 Arsitektur Data warehouse

(Sumber : Conolly & Begg, 2005)

Gambar 2.2 mengenai arsitektur data warehouse oleh Connoly dan Begg

dijelaskan sebagai berikut:

Operasional data: Sumber data dari data warehouse dapat diambil langsung

dari mainframe, basis data relasional seperti Oracle, Ms SQL Server dan

sebagainya. Selain itu dapat melalui Operational Data Source (ODS). ODS

menampung data yang diekstrak dari sistem utama atau sumber-sumber data

yang ada dan kemudian data hasil ekstraksi tersebut disesuaikan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 37: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

22

Universitas Indonesia

Load manager : Load Manager juga disebut komponen front-end yang

bertugas melakukan seluruh operasi yang berhubungan dengan ekstrasi dan

me-load data ke data warehouse.

Warehouse manager: Warehouse manager melakukan seluruh operasi-

operasi yang berhubungan dengan kegiatan manajemen data didalam data

warehouse. Operasi-operasi tersebut meliputi: analisis terhadap data untuk

memastikan konsistensi, transformasi dan penggabungan sumber data dari

tempat penyimpanan sementara menjadi tabel-tabel data warehouse,

penciptaan indeks-indeks dan view berdasarkan tabel-tabel dasar, melakukan

denormalisas dan agregasi jika diperlukan dan backup atau pengarsipan data.

Query Manager : Query manager juga disebut komponen back-end,

melakukan operasi-operasi yang berhubungan dengan manajemen user

queries. Operasi-operasi yang dilakukan oleh komponen itu termasuk query

kepada tabel-tabel yang tepat dan menjadwalkan eksekusi dari query tersebut.

Detailed data : Pada rancangan data warehouse, detailed data menyimpan

semua detail dari data di dalam skema basis data. Biasanya detailed data

tidak disimpan secara online melainkan dibuat dengan melakukan agregasi

data. Tetapi pada dasarnya detailed data ditambahkan ke data warehouse

untuk melengkapi data agregasi. Detailed data dibagi menjadi dua yaitu:

current detailed data dan old detailed data.

Lightly and highly summarized data : Pada rancangan data warehouse, ligthly

and highly summarized data adalah tempat penyimpanan semua data

predefined lightly dan highly summarized yang dihasilkan oleh warehouse

manager. Tujuan dari ringkasan informasi ini adalah memercepat tanggapan

terhadap permintaan user. Ringkasan data dilakukan update terus-menerus

seiring dengan bertambahnya jumlah data dalam data warehouse.

Archieve/backup data : Pada rancangan data warehouse, archieve/backup

data digunakan sebagai tempat penyimpanan detailed data dan data yang

telah diringkas. Data yang telah diringkas dan disimpan akan ditransfer ke

media penyimpanan seperti magnetic tape danoptical disk.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 38: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

23

Universitas Indonesia

Metadata : Pada rancangan data warehouse, metadata digunakan sebagai

tempat penyimpanan semua definisi keterangan mengenai data yang

digunakan diseluruh proses data warehouse.

End-user access tools (EUAT) : Prinsip atau tujuan utama dibangunnya data

warehouse adalah untuk menyediakan informasi bisnis kepada pengguna

untuk dapat melakukan pengambilan keputusan secara cepat dan tepat.

Pengguna ini berinteraksi dengan data warehouse melalui end-user access

tools.

2.4 Konsep Permodelan Data Warehouse

Konsep Permodelan data warehouse dibedakan menjadi beberapa pendekatan

perancangan termasuk penentuan perancangan dimensi yang digunakan.

2.4.1 Star Schema

Star schema adalah struktur logikal yang dibentuk dari sebuah tabel fakta yang

mengandung data fakta pada bagian tengah, dikelilingi oleh tabel-tabel

dimensi yang mengandung data referensi, dimana data tersebut dapat

didenormalisasi (Connoly & Begg, 2005). Star schema mengeksploitasi

karakteristik dari data faktual seperti fakta yang dihasilkan oleh peristiwa

yang muncul pada waktu yang lalu dan tidak berubah, tanpa memperhatikan

bagaimana mereka dianalisis. Penting untuk memperlakukan data fakta sebagai

data referensi yang bersifat read-only. Star schema dapat dipakai untuk

meningkatkan kecepatan performa kinerja query dengan melakukan

denormalisasi informasi referensi ke dalam tabel dimensi tunggal.

Denormalisasi dianjurkan ketika terdapat sejumlah entitas yang berhubungan

dengan tabel dimensi yang sering diakses. Gambar 2.3 merupakan contoh

perancangan star schema.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 39: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

24

Universitas Indonesia

Gambar 2.3 Perancangan Star Schema

2.4.2 Snowflake Schema

Snowflake schema adalah variasi lain dari star schema dimana tabel dimensi tidak

berisi data yang didenormalisasi (Connoly & Begg, 2005). Pada snowflake

schema, sebuah tabel dimensi dapat mempunyai tabel dimensi lainnya.

Keuntungan yang didapat dengan menggunakan skema ini adalah penghematan

memory, tetapi waktu yang dibutuhkan untuk pemrosesan query menjadi lebih

lama. Gambar 2.contoh perancangan snowflake skema.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 40: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

25

Universitas Indonesia

Gambar 2.4 Perancangan Skema Snow Flake

2.4.3 Schema Galaxy / Fact Constellation

Fact constellation schema adalah dimensional model yang didalamnya terdapat

lebih dari satu tabel fakta yang membagi satu atau lebih tabel dimension. Skema

ini lebih kompleks daripada star schema karena berisi berbagai tabel fakta. Dalam

skema fact constellation, satu dimensi tabel dapat digunakan di beberapa tabel

fakta sehingga desainnya lebih kompleks. Keuntungan dari skema fact

constellation adalah kemampuan untuk memodelkan bisnis lebih akurat

menggunakan beberapa tabel fakta dan dapat menghemat memori dan mengurangi

kesalahan yang mungkin terjadi. Skema Fact Constellation biasanya digunakan

dalam sebuah desain Enterprise Data Warehouse, sedangkan dua desain lainnya

(star skema dan snow flake skema) digunakan untuk membangun data warehouse

atau datamar tdengan skala yang lebih kecil yang spesifik untuk memenuhi

kebutuhan sebuah bagian/unit bisnis dari sebuah organisasi. Gambar 2.5 contoh

perancangan dengan skema fact constellation.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 41: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

26

Universitas Indonesia

Gambar 2.5 Perancangan Skema Fact Constellation (Conolly & Begg, 2005)

2.4.4 Slowly Changing Dimension (SCD)

Slowly Changing Dimension (Kimball, 2008) adalah nama dari sebuah proses

pengelolaan data yang memuat data ke dalam tabel dimensi yang berisi data.

Untuk mengadopsi SCD, data harus berubah secara perlahan pada jadwal yang

tidak teratur, random dan variabel. Dalam suatu datamart, terdapat kebutuhan

untuk melacak perubahan dalam dimensi atribut dalam rangka pelaporan data

historis. Dengan kata lain, menerapkan salah satu jenis SCD harus memungkinkan

pengguna menetapkan nilai atribut dimensi yang tepat untuk tanggal tertentu.

Contoh dimensi seperti itu bisa: pelanggan, geografi, karyawan. Ada 6 jenis saat

ini metodologi SCD, yaitu Tipe 0, Tipe 1, Tipe 2, Tipe 3, Tipe 4, dan Tipe 6. Jenis

SCD paling umum dilakukan adalah Type 1, 2 dan 3.

Tipe 0 adalah tipe dari SCD yang tidak pernah mengalami perubahan data. Nilai-

nilai asli tetap berada di dimensi sewaktu tabel dimensi ini pertama kali dibuat.

Tipe 1 adalah type dari SCD yang mengupdate isi data yang lama dengan data

yang baru. SCD Tipe 1 adalah tipe perubahan dimensi yang mudah untuk di-

maintain, namun tidak ada data histori yang disimpan pada datawarehouse.

Tipe 2 adalah tipe dari SCD yang menambahkan satu record baru apabila

terdapat perubahan data, sehingga setiap kali ada perubahan data tersimpan dalam

data histori.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 42: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

27

Universitas Indonesia

Tipe 3 adalah tipe dari SCD yang melakukan update perubahan data yang baru

pada kolom yang baru.

Tipe 4 menggunakan tabel histori, dengan memindahkan record lama yang

berubah pada tabel histori (archive) dan me-maintain record yang baru / terudpate

pada tabel yang current.

Tipe 6 SCD adalah metodologi hybrid tipe 1, 2 dan 3. Pada tipe ini kita miliki

dalam tabel dimensi kolom tambahan seperti:

current_type: untuk menjaga nilai saat ini dari atribut. Semua record histori

untuk diberikan item atribut memiliki nilai yang sama saat ini.

historical_type : untuk menjaga nilai histori atribut. Semua histori record

untuk diberikan item atribut bisa memiliki nilai yang berbeda.

start_date: untuk menjaga tanggal mulai 'tanggal efektif' histori atribut itu.

end_date: untuk menjaga tanggal akhir dari 'tanggal efektif' histori atribut itu.

current_flag: untuk menjaga informasi tentang catatan terbaru.

Contoh penerapan SCD Tipe-6 dapat dilihat pada Tabel 2.1

Tabel 2.1 Contoh penerapan SCD Type 6

Customer_

ID

Customer_N

ame

Current_T

ype

Historical_T

ype

Start_D

ate

End_D

ate

Current_F

lag

1 Cust_1 Corporate Retail 11-01-

2011

28-07-

2011 N

2 Cust_1 Corporate Other 29-07-

2011

17-05-

2012 N

3 Cust_1 Corporate Corporate 18-05-

2012

31-12-

9999 Y

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 43: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

28

Universitas Indonesia

2.5 Business Intelligence dan OLAP

Business Intelligence adalah seperangkat teori, metodologi, proses, arsitektur, dan

teknologi yang mengubah data mentah menjadi informasi yang bermakna dan

berguna untuk tujuan bisnis. BI dapat menangani sejumlah besar informasi untuk

membantu mengidentifikasi dan mengembangkan peluang baru. Memanfaatkan

peluang baru dan menerapkan strategi yang efektif dapat memberikan keuntungan

pasar kompetitif dan stabilitas jangka panjang.

Business Intelligence sebagai pendekatan baru bagi perusahaan yang

mengumpulkan, mengatur, dan menggunakan informasi. Dia percaya bahwa cara

lama telah berubah untuk merefleksikan teknologi yang baru dan masa kini,

karena perusahaan membutuhkan keputusan yang cepat (real-time) berdasarkan

data yang ada. Saat ini, dalam situasi bisnis yang berdaya saing tinggi, nilai dari

sistem informasi strategis sangat terlihat. Tingginya tingkat adopsi dan investasi

pada software BI dan pelayanannya membuktikan bahwa sistem ini sangat

dibutuhkan dalam mendukung pengambilan keputusan bagi perusahaan dalam

kondisi pasar saat ini (Turban, 2007).

Turban mengumpamakan Business Intelligence sebagai sebuah payung, yang

melingkupi arsitektur, tools, database, aplikasi dan metodologi. Turban juga

mengatakan bahwa tujuan utama dari Business Intelligence adalah memungkinkan

akses interaktif dan eksploitasi terhadap data, serta menyediakan data tersebut

untuk digunakan oleh para manajer dan para analis. (Turban et al., 2007)

Sumber data yang berbeda yang telah dikumpulkan dan disimpan di perusahaan

harus diekstrak dari berbagai sumber, kemudian diubah menjadi format yang

konsisten dan dimuat serta disimpan dalam data warehouse dan dianalisa untuk

mendapatkan keputusan yang tepat, sehingga menjadi efisien bagi perusahaan.

Dengan ini perusahaan dapat membuat keputusan bisnis yang lebih baik dan lebih

cepat dibandingkan dengan para pesaingnya.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 44: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

29

Universitas Indonesia

Business intelligence report lahir untuk menjawab tantangan yang tidak bisa

dipenuhi oleh standard pelaporan, yaitu yang berkaitan dengan empat hal yaitu

accessibility, timeliness, format, data integrity.

Business Intelligence memiliki sambungan langsung ke Data warehouse sehingga

accessibility dan timeliness menjadikan hal yang biasa dilakukan. User selalu

mendapatkan akses terhadap informasi yang dibutuhkan (accessibility) secara

cepat (timeliness).

Business Intelligence memberikan kebebasan kepada pengguna untuk

mendefinisikan format laporan sesukanya, sedangkan Data Integrity dipenuhi oleh

Data warehouse di mana BI ini dijalankan. Salah satu yang menjadi kelebihan

dari Business Intelligence adalah memanjakan pengguna dengan struktur data

yang memudahkan pembuatan laporan secara self-service dalam bentuk dimensi

dan measures. Dengan mengkombinasikan measures dan dimensi yang tepat,

pengguna mendapatkan laporan yang diinginkan. Selanjutnya diajuga dapat

menyajikannya dalam bentuk tabel atau dalam berbagai bentuk grafik yang dapat

dipilih. Setelah laporan disajikan, pengguna diberi fasilitas untuk menyimpan

tampilan laporan tersebut dalam bentuk excel, xml, pdf, jpeg, dan lain-lain sesuai

kebutuhan.

2.5.1 On-Line Analytical Processing (OLAP)

On-Line Analytical Processing (OLAP) merupakan suatu jenis pemrosesan yang

dapat memanipulasi dan menganalisa data bervolume besar dari berbagai

perspektif (multidimensi). OLAP seringkali disebut analisis data multidimensi

Kegunaan utama OLAP adalah fitur interaktifnya untuk membantu pimpinan

organisasi melihat data dari berbagai perspektif. OLAP dapat membantu

pengguna untuk menganalisis data pada sebuah data warehouse dengan berbagai

tampilan data, dan representasi grafik yang dinamis. Dalam tampilan tersebut

dimensi-dimensi data berbeda menunjukkan karakteristik bisnis yang berbeda

pula. OLAP sangat membantu untuk melihat data dimensional dari berbagai sudut

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 45: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

30

Universitas Indonesia

pandang. Maka dari itu OLAP dapat membantu end-user menarik kesimpulan dan

keputusan.

2.5.2 Tipe-tipe operasi OLAP

Fitur-fitur dibawah ini merupakan fitur dari pemanfaatan OLAP (Han & Kamber,

2004)

Roll-up

Operasi ini melakukan agregasi pada kubus data dengan cara menaikkan tingkat

suatu hirarki konsep atau mengurangi dimensi. Misalkan pada kubus datadari

kelompok kota di-roll up menjadi kelompok propinsi atau negara. Contoh lainnya

kubus data menampilkan agregasi total penjualan berdasarkan lokasi dan waktu,

roll up mereduksi dimensi dapat dilakukan dengan menurunkan tingkat suatu

hirarki konsep atau menambahkan dimensi menghilangkan waktu sehingga hanya

menampilkan agregasitotal penjualan berdasarkan lokasi.

Drill-down

Drill-down adalah kebalikan dari rollup. Operasi ini mempresentasikan data

menjadi lebih detil. Drill-down dilakukan dengan cara menurunkan tingkat suatu

hirarki konsep atau menambahkan dimensi. Misalkan dari kelompok tahun di drill

down menjadi kelompok triwulan, bulan, atau hari.

Slice dan dice

Operasi slice and dice adalah operasi untuk melihat data sebagai visualisasi dari

cube. Dengan slice and dice, pengguna dapat melihat suatu data dengan berbagai

perspektif. Operasi slice yaitu melakukan pemilihan atau pemotongan terhadap

satu dimensi dari data cube yang ada sehingga menghasilkan bagian sub cube.

Operasi dice mendefinisikan sub cube dengan melakukan pemilihan dua atau

lebih dimensi dari suatu cube.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 46: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

31

Universitas Indonesia

Pivot (rotate)

Pivot adalah operasi visualisasi dengan memutar koordinat data pada tampilan

yang bertujuan untuk menyediakan presentasi atau perspektif alternatif dari data.

2.6 Penelitian Sebelumnya

Pada bagian ini dijelaskan mengenai penelitian sebelumnya yang berkaitan

dengan perancangan datawarehouse atau perancangan datamart, perancangan

arsitektur datawarehouse, pemrosesan dan permodelan ETL serta implementasi

business intelligence.

Penelitian oleh (Indra, 2011) mengenai perancangan dan penerapan data

warehouse dan business intelligence untuk efisiensi pelaporan menjelaskan nilai

tambah bagi organisasi dalam penyusunan laporan yang lebih cepat dan efisien.

Metodologi yang digunakan dalam penelitian ini terdiri dari identifikasi

kebutuhan informasi, pengumpulan data, perancangan data warehouse dan

perancangan dashboard. Perancangan data warehouse pada penelitian ini

mengikuti proses: cleansing dan ETL, perancangan tabel dimensi dan tabel fakta,

perancangan cube dan OLAP dan perancangan dashboard dengan visualisasi data

dengan solusi Microsoft business intelligence.

Penelitian oleh (Ariyachandra dan Hugh J. Watson, Business Intelligence Journal

Volume-11) mengenai arsitektur datawarehouse yang terbaik, alternatif arsitektur

yang diteliti pada penelitian ini dibedakan menjadi 5 arsitektur, yang terdiri dari

(1) independent datamart, (2) datamart bus architecture dengan keterkaitan

hubungan dengan dimensional data mart, (3) hub and-spoke, (4) centralized data

warehouse (no dependent datamart), dan (5) federated. Penilaian yang dilakukan

dengan mengkategorisasikan data warehouse yang didasarkan atas beberapa

aspek yang terdiri dari information quality (information accuracy, completeness,

and consistency), system quality (flexibility, scalability,integration), dampak

terhadap individual dan dampak terhadap organisasi terhadap masing-masing

arsitektur. Hasilnya bus architecture dan arsitektur hub and spoke memperoleh

penilaian yang mendekati.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 47: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

32

Universitas Indonesia

Penelitian oleh (Nitin Anand, 2013 - 4th ICCCNT 2013) mengenai Modeling dan

optimasi proses ETL pada data warehouse, dimana siklus dari pengembangan

data warehouse dan proses ETL didalamnya dimulai dari Reverse Engineering

dan Pengumpulan Requirement untuk memahami struktur data dan isinya

termasuk mengidentifikasikan tipe dari pengguna, tahapan berikutnya melakukan

perancangan logis dari datawarehouse, selanjutnya dilakukan perancangan fisikal

dan parameter terkait, dan fase terakhir adalah kontruksi software. Keterkaitan

proses perancangan logical dan fisikal perlu didefinisikan per masing-masing role

dari designer khususnya berkaitan dengan rancangan dan administrasi dari

keseluruhan proses ETL. Pada perancangan logikan designer perlu

mengidentifikasi eksekusi plan dari setiap skenario, pendaftaran dari setiap job

ETL, skedul dari eksekusi, termasuk recovery plan atau pemrosesan ulang apabila

terdapat kegagalan eksekusi. Sedangkan dari sisi perancangan secara fisik perlu

pendefisian person in charge atau software yang bertanggung jawab melakukan

eksekusi workflow ETL serta pemeliharaan operasional.

Penelitian oleh (Vangipuram Radhakrishna, Vangipuram SravanKiran, K.

Ravikiran, 2012) mengenai otomasi proses ETL dengan teknologi scripting tanpa

ketergantungan dengan fitur dari ETL tools yang digunakan. Tekniknya dengan

mengumpulkan berbagai macam sumber data ke dalam target database terlebih

dahulu apa adanya dengan format data original serta kemungkinan struktur data

yang tidak terstruktur. Setelah data terkumpul di database tujuan, maka proses

selanjutnya adalah menggunakan scripting secara backend database untuk

menghandel spesifik proses ektrasi, transformasi dan load lengkap dengan

pendefinisian statistic dan error logging. Ketergantungan dengan ETL tools akan

membuat pemeliharaan secara manual akan setiap job yang menghandel proses

ETL satu persatu terhadap validitas sumber data dan proses transformasi ke

database tujuan.

Penelitian oleh (Angreine Kewo, 2013) pada 2013 International Conference of

Information and Communication Technology (ICoICT) bahwa Business

Intelligence (BI) dengan On line Analytical Processing (OLAP) memainkan peran

penting dalam dalam era kini. Tujuan dari penelitian ini adalah untuk merancang

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 48: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

33

Universitas Indonesia

dan membandingkan solusi OLAP yang berfokus pada industri bisnis makanan

yang diterapkan dalam studi kasus. Rancangan OLAP dilakukan dengan beberapa

langkah dimulai dari pengechekan relationship antar tabel dan melakukan data

cleansing untuk database tertentu, identifikasi kebutuhan informasi, melakukan

query terhadap kebutuhan informasi, melakukan perancangan dengan star skema,

melakukan proses ekstraksi, transformasi dan load, membuat design cube dan

melakukan presentasi di Microsoft Excel dengan menggunakan Pivot Tabel.

Perancangan OLAP dilakukan dengan menggunakan metode Kimball.

Penelitian oleh (Hasa & Hyland, 2010) mengenai Penggunaan OLAP dan data

multidimensional untuk pengambilan keputusan. Multidimensional database

sering digunakan dalam hubungannya dengan sebuah datawarehouse untuk

pendukung executive information system. Manager sering mengunakan informasi

dengan melakukan slice and dice, drilling down, rolling up dan melakukan

filtering atas data tertentu berdasarkan keinginan pengguna. Oleh karena itu

pendekatan dalam perancangan multidimensional dibedakan menjadi Relational

OLAP (ROLAP) dan Multidimensional OLAP (MOLAP). Pendekatan ROLAP

biasanya merupakan hasil dari bottom up approach yang fokusnya adalah sistem

yang sedang berjalan dan database yang dapat melakukan analisa terhadap

relational database secara on the fly, sedangkan MOLAP merupakan hasil dari top

down approach yang fokusnya adalah pada business planning. Keputusan

penggunaan ROLAP atau MOLAP adalah terkait dengan dilemma space dan

waktu. MOLAP akan melibatkan space yang lebih besar karena dengan

pembuatan physical cube, yang menyebabkan duplikasi namun mempunyai

kemampuan akses data yang lebih cepat. Sedangkan ROLAP menggunakan space

yang lebih sedikit namun terdapat kendala dari sisi kecepatan akses.

Penelitian oleh (Mary Breslin, 2004) pada business intelligence journal winter

mengenai perbandingan model antara Kimball dan Inmon, dimana pada

pendekatan Kimball merekomendasikan untuk membuat satu datamart per

masing-masing bisnis proses. Gabungan dari beberapa datamart di dalam

organisasi menggambarkan data warehouse, maka bus architecture memastikan

interoperability antara datamart yang ada. Kimball merekomendasikan bahwa

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 49: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

34

Universitas Indonesia

data model dimensional memegang peran dalam perancangan datamart, dimana

tabel fakta berisi data yang dapat diukur dan tabel dimensi merupakan hal yang

mengubah data. Pengguna dapat secara efektif merancang datamart dengan

kemudahan penggunaan dan renspon query yang lebih cepat dari hasil

perancangan datamart secara dimensional. Sedangkan pendekatan Inmon

mengarahkan penggunaan database tools dan methodology, seperti ERD, DIS dan

perancangannya banyak melibatkan IT daripada pengguna. Inmon metodologi

merupakan adaptasi dari pengembangan database secara tradisional dimana data

warehouse merupakan bagian yang lebih besar daripada pengembangan database,

atau lebih dikenal dengan Corporate Information Factory. Pendekatan Inmon

lebih cocok untuk pengembangan data warehouse secara enterprise yang bersifat

strategis untuk kepentingan perusahaan secara menyeluruh, bukan untuk

kepentingan departmen tertentu atau tujuan tertentu misalnya tujuan pelaporan.

Pada penelitian oleh (Sandip Singh, 2011) pada Journal of Global Research in

Computer Science, Volume 2, May 2011 mengenai perancangan data warehouse

dan metodenya menyimpulkan bahwa dari banyak arsitektur datamart yang

diteliti, Independent datamart merupakan solusi arsitektur yang dipilih apabila

sumber daya terbatas dan fokus kepada penggunaan informasi yang spesifik dan

ingin cepat tersaji dimana merupakan langkah awal dalam pengumpulan berbagai

informasi yang dibutuhkan oleh suatu department ke dalam suatu database,

namun terdapat kekurangan seperti kemungkinan akan redundant processing dan

redundant data. Sedangkan arsitektur menggunakan bus architecture dipilih

karena tingginya kebutuhan tukar menukar dan sharing data antara berbagai

departmen dengan implementasi yang cepat yang mana merupakan

penggabungan dari beberapa datamart yang ada menjadi datawarehouse.

Arsitektur terakhir adalah hub and spoke atau centralized architecture dipilih

apabila data warehouse merupakan bagian dari strategi enterprise dimana

dibutuhkan data yang paling granular antara berbagai sumber data yang dapat

digunakan secara independensi dengan satu sumber data yang sama.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 50: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

35

Universitas Indonesia

2.7 Pedoman Akuntansi Perbankan Indonesia (PAPI)

2.7.1 Latar Belakang

Laporan keuangan bank bertujuan untuk menyediakan informasi yang

menyangkut posisi keuangan, kinerja serta perubahan posisi keuangan.Selain itu

laporan keuangan bank juga bertujuan untuk pengambilan keputusan. Suatu

laporan keuangan akan bermanfaat apabila informasi yang disajikan dalam

laporankeuangan tersebut dapat dipahami, relevan, andal dan dapat

diperbandingkan. Akan tetapi, perlu disadari pula bahwa laporan keuangan tidak

menyediakan semua informasi yang mungkin dibutuhkan oleh pihak-pihak yang

berkepentingan dengan bank, karena secara umum laporan keuangan hanya

menggambarkan pengaruh keuangan dari kejadian masa lalu, dan tidak

diwajibkan untuk menyediakan informasi non-keuangan. Walaupun demikian,

dalam beberapa hal bank perlu menyediakan informasi nonkeuangan yang

mempunyai pengaruh keuangan di masa depan.

2.7.2 Tujuan dan Ruang Lingkup

2.7.2.1 Tujuan

Tujuan dari penyusunan Pedoman Akuntansi Perbankan Indonesia (PAPI) antara

lain adalah:

a. Untuk membantu pengguna dalam menyusun laporan keuangan agar sesuai

dengan tujuannya, yaitu untuk:

1) Pengambilan keputusan investasi dan kredit

Laporan keuangan bertujuan untuk menyediakan informasi yang

bermanfaat bagi pihak-pihak yang berkepentingan dalam pengambilan

keputusan yang rasional. Oleh karena itu, informasinya harus dapat

dipahami oleh pelaku bisnis dan ekonomi serta pihak-pihak lain yang

berkepentingan antara lain meliputi: deposan, kreditur, pemegang saham,

otoritas pengawasan, Bank Indonesia, pemerintah, lembaga penjamin

simpanan, dan masyarakat.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 51: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

36

Universitas Indonesia

2) Menilai prospek arus kas

Laporan keuangan bertujuan untuk memberikan informasi yang dapat

mendukung deposan, investor, kreditur dan pihak-pihak lain dalam

memperkirakan jumlah, saat, dan kepastian dalam penerimaan kas di masa

depan. Prospek penerimaan kas sangat tergantung pada kemampuan bank

untuk meng-hasilkan kas guna memenuhi kewajiban yang telah jatuh

tempo, kebutuhan operasional, reinvestasi dalam operasi, dan pembayaran

dividen. Persepsi dari pihak-pihak yang berkepentingan atas kemampuan

bank tersebut akan mempengaruhi harga pasar efek bank yang

bersangkutan. Persepsi mereka umumnya dipengaruhi oleh harapan atas

tingkat pengembalian dan risiko dari dana yang mereka tanamkan.

Deposan, investor, dan kreditur akan memaksimalkan pengembalian dana

yang telah mereka tanamkan dan akan melakukan penyesuaian terhadap

risiko yang mereka perkirakan akan terjadi pada bank yang bersangkutan.

3) Memberikan informasi atas sumber daya ekonomi

Pelaporan keuangan bertujuan memberikan informasi tentang sumber daya

ekonomi bank (economic resources), kewajiban bank untuk mengalihkan

sumber daya tersebut kepada entitas lain atau pemilik saham, serta

kemungkinan terjadinya transaksi dan peristiwa yang dapat mempengaruhi

perubahan sumber daya tersebut.

b. Menciptakan keseragaman dalam penerapan perlakuan akuntansi dan

penyajian laporan keuangan, sehingga meningkatkan daya banding diantara

laporan keuangan bank.

c. Menjadi acuan minimum yang harus dipenuhi oleh perbankan dalam

menyusun laporan keuangan. Namun keseragaman penyajian sebagaimana

diatur dalam PAPI tidak menghalangi masing-masing bank untuk memberikan

informasi yang relevan bagi pengguna laporan keuangan sesuai kondisi

masing-masing bank.

2.7.2.2 Ruang Lingkup

Pedoman Akuntansi Perbankan Indonesia (PAPI) berlaku untuk bank umum

konvensional. Dalam hal bank umum konvensional mempunyai unit usaha

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 52: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

37

Universitas Indonesia

syariah, maka unit usaha syariah tersebut menggunakan Pedoman Akuntansi

Perbankan Syariah Indonesia (PAPSI) kecuali untuk hal-hal yang tidak diatur

dalam Pedoman Akuntansi Perbankan Syariah Indonesia tersebut.

2.7.3 Perbedaan Perhitungan Pembentukan Penyisihan Aktiva Sebelum dan

Sesudah Menggunakan PSAK 50 dan 55

Sebelum PSAK 50 dan 55

Kolektibilitas yang ada di Bank sudah ditentukan oleh Bank Indonesia, dan

berdasarkan SK BI No. 31/148/KEP/DIR tanggal 12 november 1998,

pembentukan PPA minimal sebesar sebagai berikut:

a. Cadangan umum

kol. 1 → sebesar 1% x aktiva produktif lancar x risiko bank

b. Cadangan khusus

kol. 2→ sebesar 5% x aktiva produktif dalam perhatian khusus (DPK) x

risiko bank

kol. 3→ sebesar 15% x (aktiva produksi kurang lancar – nilai agunan) x

risiko bank

kol. 4→ sebesar 50% x (aktiva produktif diragukan – nilai agunan) x risiko

bank

kol. 5→ sebesar 100% x (aktiva produksi macet – nilai agunan) x risiko

bank

Agunan yang dapat dijadikan pengurang dalam pembentukan PPA terdiri dari:

Giro, deposito, tabungan dan setoran jaminan dalam mata uang rupiah dan

valuta asing yang diblokir disertai dengan surat kuasa pencairan.

Sertifikat Bank Indonesia dan surat utang pemerintah.

Surat berharga yang aktif diperdagangkan di pasar modal.

Tanah, gedung, rumah tinggal, pesawat udara, dan kapal laut dengan

ukuran diatas 20 kubik.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 53: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

38

Universitas Indonesia

Setelah PSAK 50 dan 55

a. Apabila terdapat selisih dalam nilai tercatat kredit dan present value, maka

akan muncul akun cadangan kerugian penurunan nilai (CKPN)

b. Terdapat dua teknik evaluasi penurunan nilai yaitu secara individual dan

kolektif

c. Cadangan kerugian penurunan nilai kredit yang telah dibentuk bank dianggap

sebagai pembentukan penyisihan aktiva (PPA) yang telah dibentuk. Apabila

terdapat selisih kurang antara cadangan kerugian penurunan nilai yang telah

dibentuk dan PPA yang wajib dibentuk sesuai ketentuan Bank Indonesia,

maka selisih kurang tersebut harus diperhitungkan sebagai faktor

pengurangan modal inti dalam perhitungan Kewajiban Penyediaan Modal

Minimum (KPMM).

d. Pada semua kejadian yang termasuk dalam kategori bukti yang obyektif di

bawah ini maka nilai kreditnya harus diimpare (diturunkan).

2.7.4 Pengertian Penurunan Nilai

Penurunan nilai adalah suatu kondisi dimana terdapat bukti obyektif terjadinya

peristiwa yang merugikan sebagai akibat dari satu atau lebih peristiwa yang terjadi

setelah pengakuan awal kredit tersebut, dan peristiwa yang merugikan tersebut

berdampak pada estimasi arus kas masa datang atas aset keuangan atau kelompok

aset keuangan yang dapat diestimasi secara andal (PAPI, 2008). Cadangan

kerugian penurunan nilai kredit adalah penyisihan yang dibentuk apabila nilai

tercatat kredit setelah penurunan nilai kurang dari nilai tercatat awal (PAPI, 2008).

Penurunan nilai pada dasarnya disebabkan oleh dampak kombinasi dari beberapa

peristiwa. Kerugian yang diperkirakan timbul akibat peristiwa dimasa datang

tidak dapat diakui, terlepas hal tersebut sangat mungkin terjadi. Bukti obyektf

bahwa aset keuangan atau kelompok aset keuangan mengalami penurunan nilai

meliputi data yang dapat diobservasi yang menjadi perhatian dari pemegang aset

tersebut mengenai peristiwa-peristiwa yang merugikan berikut ini:

a) Kesulitan keuangan signifikan yang dialami penerbit atau pihak peminjam,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 54: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

39

Universitas Indonesia

b) Pelanggaran kontrak, seperti terjadinya wanprestasi atau tunggakan

pembayaran pokok atau bunga,

c) Pihak pemberi pinjaman, dengan alasan ekonomi atau hukum sehubungan

dengan kesulitan keuangan yang dialami pihak peminjam, memberikan

keringanan (konsesi) pada pihak peminjam yang tidak mungkin diberikan jika

pihak peminjam tidak mengalami kesulitan tersebut,

d) Terdapat kemungkinan bahwa pihak peminjam akan dinyatakan pailit atau

melakukan reorganisasi keuangan lainnya,

e) Hilangnya pasar aktif dari aset keuangan akibat kesulitan keuangan, atau

f) Data yang dapat diobservasi mengindikasikan adanya penurunan yang dapat

diukur atas esti masi arus kas masa datang dari kelompok aset keuangan sejak

pengakuan awal aset dimaksud. Penurunan nilai mencakup seluruh kredit yang

tidak dievaluasi secara individual dan yang dievaluasi secara individual,

namun tidak terdapat bukti obyektif terjadinya penurunan nilai.

2.7.5 Kriteria Evaluasi Penurunan Nilai

Untuk dapat melalukan evaluasi, maka kita harus mengerti kriteria-kriteria yang

digunakan untuk mengevaluasi penurunan nilai. Kriteria evaluasi penurunan nilai

tersebut adalah sebagai berikut (PAPI, 2008:183):

A. Secara Individual

Bank wajib menentukan tingkat signifikansi kredit yang akan dievaluasi secara

individual yang disertai dengan dokumentasi yang memadai yang harus dikaji

ulang secara periodik;

Dalam hal tidak terdapat bukti obyektif penurunan nilai dari kredit yang

dievaluasi secara individual, maka kredit tersebut harus dimasukkan ke dalam

kategori kredit yang akan dievaluasi penurunan nilainya secara kolektif.

Dalam hal terdapat bukti obyektif penurunan nilai dari kredit yang dievaluasi

secara individual namun tidak terdapat kerugian penurunan nilai, maka kredit

tersebut tidak dimasukkan ke dalam kategori kredit yang akan dievaluasi

penurunan nilainya secara kolektif. Contoh: ketika debitur berada dalam kondisi

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 55: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

40

Universitas Indonesia

macet (tidak ada estimasi arus kas selain arus kas dari agunan), dimana nilai kini

arus kas agunan sama dengan atau lebih besar dari nilai tercatat kredit. Menurut

PAPI (2008:184) evaluasi secara individual didasarkan pada 2 konsep, yaitu:

1. Estimasi jumlah kerugian kredit didasarkan pada seluruh informasi yang

tersedia dan experienced credit judgement, serta memperhatikan berbagai

aspek seperti:

a) Kekuatan dan kemampuan debitur untuk membayar kembali kewajiban

(repayment capacity);

b) Jenis dan jumlah agunan;

c) Ketersediaan garansi; dan

d) Prospek usaha debitur di masa datang.

2. Estimasi jumlah yang dapat diperoleh kembali didasarkan pada identifikasi

arus kas masa datang dan estimasi nilai kini dari arus kas tersebut.

B. Secara kolektif

1. Evaluasi penurunan nilai secara kolektif mencakup seluruh kredit yang:

1. Tidak dievaluasi secara individual; dan

2. Dievaluasi secara individual, namun tidak terdapat bukti obyektif

terjadinya penurunan nilai.

2. Bank wajib mengelompokkan kredit yang akan dinilai secara kolektif

berdasarkan kesamaan karakteristik risiko kredit yang mengindikasikan

kemampuan debitur untuk membayar seluruh kewajiban yang jatuh tempo

sesuai persyaratan kontrak. Sebagai contoh, kredit dapat dikelompokkan

berdasarkan satu atau lebih karakteristik berikut ini:

a) Estimasi probabilitas terjadinya gagal bayar atau peringkat risiko

b) Kredit;

c) Tipe (contohnya, pinjaman kartu kredit);

d) Lokasi geografis;

e) Tipe jaminan;

f) Tipe pihak kedua (contoh, konsumen, bisnis, atau pemerintah);

g) Status tunggakan; dan

h) Jatuh tempo.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 56: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

41

Universitas Indonesia

3. Pengelompokkan kredit berdasarkan kesamaan karakteristik tersebut harus

disertai dengan dokumentasi yang memadai yang dikaji ulang secara periodik.

Terhadap kredit yang dikelompokkan tersebut, bank harus melakukan evaluasi

apakah terdapat bukti obyektif terjadinya penurunan nilai. Hal-hal yang perlu

diperhatikan antara lain:

a) Terdapat data yang dapat diobservasi yang mengindikasikan terjadinya

penurunan dalam estimasi arus kas masa datang yang dapat diukur dari

kelompok kredit,

b) Penurunan yang dapat diukur tersebut telah terjadi sejak pengakuan awal

kredit, dan

c) Penurunan tersebut belum dapat diidentifikasi terkait dengan kredit

tertentu dalam kelompok kredit.

4. Evaluasi penurunan nilai secara kolektif merupakan langkah antara sampai

penurunan nilai kredit secara individual dapat diidentifikasi. Segera setelah

penurunan nilai suatu kredit secara individual dalam kelompok kredit tersebut

diidentifikasi, maka kredit tersebut harus dikeluarkan dari kelompok kredit

dan selanjutnya dinilai secara individual. Namun bank dapat

mempertimbangkan analisa biaya dan manfaat yang dituangkan dalam

kebijakan internal bank untuk menentukan apakah analisa individual perlu

dilakukan.

2.7.6 Penurunan Nilai dan Tidak Tertagihnya Aset Keuangan

Pada setiap tanggal neraca entitas mengevaluasi apakah terdapat bukti yang

objektif bahwa aset keuangan atau kelompok aset keuangan mengalami penurunan

nilai.

Aset keuangan atau kelompok aset keuangan diturunkan nilainya dan kerugian

penurunan nilai telah terjadi, jika dan hanya jika, terdapat bukti yang obyektif

mengenai penurunan nilai tersebut sebagai akibat dari satu atau lebih peristiwa

yang terjadi setelah pengakuan awal aset tersebut (peristiwa yang merugikan), dan

peristiwa yang merugikan tersebut berdampak pada estimasi arus kas masa depan

atau aset keuangan atau kelompok aset keuangan yang dapat diestimasi secara

andal.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 57: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

42

Universitas Indonesia

Bukti obyektif bahwa aset keuangan atau kelompok aset keuangan mengalami

penurunan nilai meliputi data yang dapat diobservasi yang menjadi perhatian dari

pemegang aset tersebut mengenai peristiwa-peristiwa yang merugikan sebagai

berikut:

1. Kesulitan keuangan signifikan yang dialami penerbit atau pihak peminjam;

2. Pelanggaran kontrak, seperti terjadinya wanprestasi atau tunggakan

pembayaran pokok atau bunga;

3. Pihak pemberi pinjaman, dengan alasan ekonomi atau hukum sehubungan

dengan kesulitan keuangan yang dialami pihak peminjam, memberikan

keringanan (konsesi) pada pihak peminjam yang tidak mungkin diberikan jika

pihak peminjam tidak mengalami kesulitan tersebut;

4. Terdapat kemungkinan bahwa pihak peminjam akan dinyatakan pailit atau

melakukan reorganisasi keuangan lainnya;

5. Hilangnya pasar aktif dari aset keuangan akibat kesulitan keuangan;

6. Data yang dapat diobservasi mengindikasikan adanya penurunan yang dapat

diukur atas estimasi arus kas masa depan dari kelompok aset keuangan sejak

pengakuan awal aset yang dimaksud, meskipun penurunannya belum dapat

diidentifikasi terhadap aset keuangan secara individual dalam kelompok aset

tersebut, termasuk:

Memburuknya status pembayaran pihak peminjam dalam kelompok

tersebut (misalnya meningkatnya tunggakan pembayaran atau

meningkatnya jumlah pihak peminjam kartu kredit yang mencapai batas

kreditnya dan hanya mampu membayar cicilan bulanan minimal);

Kondisi ekonomi nasional atau lokal yang berkorelasi dengan wanprestasi

atas aset dalam kelompok tersebut (misalnya bertambahnya tingkat

pengangguran di area geografis pihak peminjam, turunnya harga properti

untuk kredit properti di wilayah yang relevan, turunnya harga minyak

untuk pinjaman yang diberikan kepada produsen minyak, atau

memburuknya kondisi industri yang mempengaruhi pihak peminjam

dalam setiap kelompok tersebut). .

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 58: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

43 Universitas Indonesia

BAB 3

METODOLOGI PENELITIAN

Pada bab ini akan menjelaskan langkah-langkah metodologi yang digunakan

dalam membahas permasalahan penelitian. Metodologi penelitian didasarkan dari

studi literatur penelitian sejenis mengenai perancangan datamart dan penelitian

mengenai requirement analysis dalam perancangan arsitektur dan proses ETL

untuk mendukung perancangan datamart yang baik. Maka dari itu metodologi

penelitian ini dirumuskan sesuai dengan gambar 3.1

Gambar 3.1 Metode Penelitian

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 59: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

44

Universitas Indonesia

3.1 Perumusan masalah

Dalam tahapan ini dilakukan penentuan pokok masalah dan tujuan dari penelitian,

berikut ruang lingkup penelitian. Diangkat dari regulasi Bank Indonesia melalui

Surat Edaran Bank Indonesia No. 11/4/DPNP mengenai Pelaksanaan Pedoman

Akuntansi Perbankan Indonesia (PAPI) dan No. 15/26/DPbs mengenai

pelaksanaan Pedoman Akuntansi Perbankan Syariah Indonesia (PAPSI), dimana

hal tersebut merupakan input dalam penelitian ini yaitu identifikasi kebutuhan

penerapan PSAK 50/55 dan observasi pada objek penelitian di Bank ‘X’

khususnya pada divisi keuangan, akuntansi dan manajemen risiko dalam rangka

penerapan regulasi Bank Indonesia yaitu penyisihan cadangan kerugian

penurunan nilai sesuai dengan PSAK 50/55.

Akan terdapat permasalahan baru untuk perbankan, apabila proses perhitungan

penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) ini dilakukan secara

manual, mengingat persyaratan yang diperlukan yaitu penggunaan data historis

pembiayaan selama 3 tahun terakhir, effort dalam pengumpulan data dari berbagai

source system pada objek penelitian, proses perhitungan berdasarkan berbagai

model statistika ditambah dengan penyesuaian dengan kebijakan yang ada di

masing-masing Bank. Kesemuanya itu tentunya terkait dengan lamanya waktu

yang diperlukan untuk menyediakan informasi final nilai perhitungan CKPN ini.

Termasuk concern lainnya adalah bahwa informasi ini dibutuhkan oleh

manajemen perusahaan untuk memutuskan langkah selanjutnya, bagaimana

dampak terhadap laporan rugi laba suatu bank atas hasil bentukan Cadangan

Kerugian Penurunan Nilai ini sesuai dengan PSAK 50/55. Dapat dirangkum

bahwa permasalahan bank tidak hanya fungsi untuk menghitung dan penyediaan

laporan tetapi juga terkait dengan analisa untuk menentukan keputusan

selanjutnya. Selanjutnya setelah didapatkan akar dari masalah dari penelitian yang

ada, maka dibentuk pertanyaan penelitian yang akan dijawab melalui penelitian

ini. Pertanyaan penelitiannya adalah Bagaimana rancangan dan implementasi

data mart dari Bank X yang sesuai dengan kebutuhan informasi regulator dalam

penyajian dan pengungkapan (PSAK 50) dan pengakuan dan pengukuran (PSAK

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 60: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

45

Universitas Indonesia

55) untuk ruang lingkup pelaporan dan monitoring penyisihan Cadangan

Kerugian Penurunan Nilai (CKPN) portfolio pembiayaan ?

3.2 Studi Literatur

Setelah dilakukan perumusan masalah, maka langkah berikutnya adalah

melakukan studi literatur untuk mempelajari landasan teori yang akan digunakan

dalam penelitian ini. Yang menjadi input pada tahapan studi literatur ini adalah

berupa pertanyaan penelitian, manajemen risiko kredit perbankan dan akuntansi,

jurnal-jurnal ilmiah, buku teks, dan tesis peneliti sebelumnya. Studi literatur

mencakup pemahaman teori-teori dasar seperti identifikasi dan analisa business

requirement berbasis proses ETL, perancangan arsitektur data warehouse,

perancangan data warehouse menurut Ralph R. Kimball, serta penelitian

sebelumnya, dimana hasil akhir dari studi literatur ini adalah theoretical

framework.

3.3 Pengumpulan Data

Proses pengumpulan data dilakukan pemahaman terhadap aturan dan petunjuk

dari regulator, dimana hal ini adalah mengacu kepada surat edaran Bank Indonesia

nomor 11/4/DPNP perihal pelaksanaan pedoman akuntansi perbankan Indonesia

dan nomor 15/26/DPbs perihal pelaksanaan Pedoman Akuntansi Perbankan

Syariah Indonesia.

Data juga dapat diambil melalui teknik observasi langsung ke Bank X untuk

memperoleh gambaran mengenai proses yang berjalan saat ini terkait dengan

proses pelaporan, proses penyimpanan data, dan pengolahan data yang digunakan

untuk menerapkan ketentuan dari Bank Indonesia dan Ikatan Akuntan Indonesia.

Observasi dilakukan dengan beberapa langkah antara lain dengan melakukan

pengamatan dan menganalisa kondisi objek penelitian, terutama pada

ketersediaan data dan alur informasi yang saat ini digunakan untuk mendukung

penerapan pelaporan sesuai dengan standard PSAK 50/55.

Metode pengumpulan data lainnya dilakukan dengan teknik wawancara dan

diskusi terutama terkait dengan kebutuhan bisnis yang disyaratkan menurut

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 61: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

46

Universitas Indonesia

standar PSAK 50/55. Wawancara dan diskusi dilakukan terhadap masing-masing

unit bisnis (divisi pembiayaan/kredit, divisi remedial, unit keuangan dan

akuntansi, unit teknologi informasi dan unit manajemen risiko) untuk memahami

proses yang ada saat ini baik dari sisi kebijakan dan operasional bisnis dan sumber

data yang digunakan.

Yang menjadi output pada tahapan ini berupa dokumentasi proses bisnis yang ada

sekarang, dan sumber data dari core banking system yang akan digunakan sebagai

input dalam rangka pembuatan data mart PSAK.

3.4 Analisis kebutuhan bisnis dan informasi

Pada tahap ini dilakukan analisa lebih dalam mengenai kebutuhan bisnis dan

informasi yang diharapkan oleh Divisi Keuangan, Akunting dan Manajemen

Risiko sebagai syarat kepatuhan (compliance) terhadap regulasi pelaporan

perbankan di Indonesia menurut standar akuntansi PSAK 50/55. Tahap

identifikasi dan analisis kebutuhan merupakan kelanjutan dari tahapan

pengumpulan data. Setelah data terkumpul baik dari sisi proses bisnis yang

berjalan sekarang dan sumber data yang akan digunakan pada objek penelitian di

Bank X, maka selanjutnya diperlukan analisa kebutuhan bisnis dan informasi yang

dibutuhkan dalam rangka penerapan pelaporan PSAK 50/55. Analisa ini

diperlukan agar dapat memberikan hasil yang sesuai dengan harapan yaitu dengan

menyajikan Gap Analysis business requirement PSAK 50/55 terhadap obyek

penelitian di Bank X berupa daftar laporan, daftar kebutuhan informasi, daftar

analisa dari setiap informasi, status ketersediaan sumber data, serta pemetaan

terhadap masing-masing sumber data termasuk didalamnya aturan transformasi

yang harus dipenuhi dalam penerapan datamart PSAK 50/55.

Gap Analisis didapatkan dengan membandingkan gap pemetaan proses bisnis dan

kebutuhan data pada keadaan sekarang dan ekspektasi yang dibutuhkan, sesuai

dengan kerangka dasar penyusunan pelaporan PSAK 50/55 sesuai dengan

standard Pedoman Akuntansi Perbankan Indonesia dan Pedoman Akuntansi

Perbankan Syariah Indonesia. Dalam hal ini fokus kepada analisis user

requirement khususnya untuk setiap proses bisnis akan tercermin pada proses

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 62: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

47

Universitas Indonesia

ETL yang menentukan sumber dan target dalam perancangan datamart PSAK

50/55.

3.5 Perancangan Arsitektur Datamart

Perancangan dan pemilihan arsitektur datamart PSAK 50/55 yang akan digunakan

dilakukan dengan membandingkan 2 model best practice arsitektur data

warehouse yaitu menurut Bill Inmon dengan model hub and spoke arsitektur dan

arsitektur data warehouse menurut Ralph Kimball yaitu dengan arsitektur

dimensional data model. Dasar pemilihan arsitektur tersebut didasarkan atas

beberapa kriteria yang harus diperhatikan sesuai dengan kebutuhan organisasi di

Bank X. Kriteria tersebut antara lain : Ketergantungan informasi antara

organisasi, perspektif approach, Data Orientation, Struktur Data, Persistency of

Data, Data Integration Requirements, Time to Delivery, Kemudahan Akses

Pengguna dan Profile Penggunanya, Time Frame, Nature of the organization’s

decision support requirements.

3.6 Perancangan dan Implementasi Datamart

Perancangan data warehouse pada penelitian ini dilakukan mengikuti 9 tahap

perancangan data warehouse menurut Kimball (Kimball & Ross, 2002), yaitu

mulai dari pemilihan proses, menentukan grain, identifikasi dan membuat

dimensi, pemetaaan sumber data ke tabel fakta, menentukan data pre-kalkulasi

dari tabel fakta, melengkapi tabel dimensi, memilih durasi dari basis data,

melacak dimensi yang berubah secara perlahan dan menentukan prioritas dan

mode dari query yaitu dengan mempresentasikan datamart ke dalam bentuk

laporan.

Selain dalam Dalam perancangan dan implementasi datamart ini, juga diperlukan

penentuan sumber data dan format atau tipe data, pembuatan ekstrak dari data

sumber dan proses data cleansing, bagaimana proses transformasi dilakukan,

kemudian pemuatan ke data mart dengan teknik dimensional data modeling. Oleh

karena itu yang menjadi output pada tahapan ini adalah data staging, proses ETL,

tabel fakta, tabel dimensi dan datamart.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 63: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

48

Universitas Indonesia

3.7 Implementasi OLAP

Setelah rancangan datamart PSAK 50/55 terbentuk, maka tahapan berikutnya

adalah perancangan aplikasi pelaporan dan tools analisa yang akandigunakan oleh

divisi keuangan, akuntansi dan manajemen risiko. Melanjutkan dari perancangan

laporan ini kemudian akan dikembangkan untuk tools analisa dengan pengolahan

visualisasi Online Analytical Processing (OLAP). OLAP dapat mendayagunakan

konsep multidimensional dan memungkinkan para pemakai menganalisa data

sampai mendetail, tanpa mengetikkan satupun perintah query. Diharapkan dengan

adanya OLAP dapat dijadikan pertimbangan bagi eksekutif untuk membantu

dalam pengambilan keputusan. Yang menjadi output dalam tahapan ini adalah

visualisasi data melalui laporan PSAK 50/55 yang disyaratkan oleh regulator dan

OLAP untuk keperluan analisa masing-masing divisi terkait dengan alternatif

tools seperti Cognos Business Intelligence dan Microsoft SQL Server Analysis

Studio.

3.8 Kesimpulan dan Saran

Pada tahapan ini akan diperoleh jawaban dari pertanyaan penelitian yang telah

dilakukan. Kesimpulan berisi mengenai proses rancangan datamart dan penerapan

OLAP yang dapat membantu pengguna dan eksekutif dalam mempersiapkan data

hasil perhitungan CKPN menurut PSAK 50/55, persiapan laporan, monitoring dan

menganalisa mengenai besarnya penyisihan cadangan kerugian penurunan nilai

(CKPN) untuk portfolio pembiayaan di Bank ‘X’.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 64: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

49 Universitas Indonesia

BAB 4

ANALISA, PERANCANGAN DAN IMPLEMENTASI DATAMART PSAK

50/55

Pada Bab membahas pokok permasalahan dari penelitian ini mengenai penerapan

perhitungan dan pelaporan penyisihan Cadangan Kerugian Penurunan Nilai

(CKPN) portfolio pembiayaan sesuai dengan PSAK 50/55 di Bank X.

Pemaparan diawali dari fase analisa kebutuhan bisnis berupa informasi dan data

dalam di Bank X, dengan dasar acuan berasal regulasi Bank Indonesia melalui

Surat Edaran Bank Indonesia No. 11/4/DPNP mengenai Pelaksanaan Pedoman

Akuntansi Perbankan Indonesia (PAPI) dan No. 15/26/DPbs mengenai

pelaksanaan Pedoman Akuntansi Perbankan Syariah Indonesia (PAPSI).

Selanjutnya pemaparan perancangan arsitektur datamart PSAK 50/55 sampai

dengan perancangan permodelan datamart PSAK 50/55

4.1 Identifikasi Kebutuhan Bisnis

Identifikasi kebutuhan bisnis dibagi menjadi beberapa fase proses, yaitu : fase

pengumpulan data, pemilihan proses bisnis, analisa kebutuhan informasi, analisa

kebutuhan pelaporan, analisa sumber data dan analisa transformasi business rule

melalui proses ETL.

4.1.1 Analisa Kebutuhan Informasi dan Proses Bisnis

Penurunan nilai (impairment) adalah suatu kondisi dimana terdapat bukti obyektif

terjadinya peristiwa yang merugikan sebagai akibat dari satu atau lebih peristiwa

yang terjadi setelah pengakuan awal kredit tersebut, dan peristiwa yang merugikan

tersebut berdampak pada estimasi arus kas masa datang atas aset keuangan atau

kelompok aset keuangan yang dapat diestimasi secara andal.

Terkait dengan penerapan PSAK 50 (Revisi 2006) dan PSAK 55 (Revisi 2006)

maka metode penyisihan kerugian (PPAP – Penyisihan Penghapusan Aktiva

Produktif, sesuai dengan Surat Keputusan Direksi Bank Indonesia

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 65: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

50

Universitas Indonesia

No.31/147/KEP/DIR tanggal 12 November 1998) tidak akan digunakan. Metode

penyisihan menggunakan metode incurred losses, yaitu menentukan CKPN

berdasarkan data historis kerugian kredit yang sudah terjadi Potential of default

yang dihitung dari pengalaman kerugian yang sudah terjadi berdasarkan data

historis setiap jenis kredit bank tersebut minimal selama 3 tahun terakhir

Seperti yang tertera pada PSAK 55, metode penyisihan yang digunakan dapat

dilakukan secara individual (specific assesment) atau kolektif (collective

assessment). Bank wajib mengelompokkan kredit yang akan dinilai secara

kolektif berdasarkan kesamaan karakteristik risiko kredit yang mengindikasikan

kemampuan debitur untuk membayar seluruh kewajiban yang jatuh tempo sesuai

persyaratan kontrak. Pada penelitian di Bank X dalam rangka perhitungan CKPN

kolektif, pengelompokkan collective group didasarkan kepada segmentasi dan

kualitas kolektibilitas. Berikut adalah beberapa istilah yang digunakan dalam

penghitungan penyisihan secara kolektif:

Exposure at Default (EXP), yaitu estimasi jumlah tingkat kemungkinan

terburuk atau tingkat maksimum dari kerugian yang akan dialami jika

suatu peristiwa atau transaksi mengalami wanprestasi pada periode

wanprestasi. Dalam hal ini, eksposur yang dimaksud adalah besarnya

jumlah kredit yang diberikan (outstanding). Outstanding adalah saldo

kredit yang telah digunakan debitur dan belum dilunasi oleh debitur.

Probability Default (PD), yaitu kemungkinan bahwa pihak peminjam dana

akan mengalami wanprestasi selama jangka waktu kewajiban yang ia

miliki atau dalam periode tertentu, misalnya satu tahun.

Loss Given Default (LGD), didefinisikan sebagai persentase kerugian yang

diperkirakan oleh pemberi kredit jika suatu debitur default. Dalam hal

wanprestasi, yaitu selisih antara bagian atas sejumlah nominal yang bisa

di-recover (misal: dari bankruptcy proceeding) dan aktual kerugian dengan

exposure at default.

Oleh karena itu perumusan perhitungan penyisihan cadangan kerugian penurunan

nilai (CKPN) kolektif adalah EXP x PD x LGD.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 66: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

51

Universitas Indonesia

Sedangkan perumusan perhitungan penyisihan cadangan kerugian penurunan nilai

(CKPN) secara individual didasarkan pada estimasi arus kas dari masing-masing

akun, dimana arus kas merupakan estimasi jumlah yang dapat diperoleh kembali

berdasarkan identifikasi arus kas masa datang. Sehingga perhitungan CKPN

adalah nilai outstanding pada saat terjadi penurunan nilai secara individual

dikurangi dengan Estimasi Arus kas yang dapat di-recover.

Berdasarkan analisa kebutuhan informasi sesuai dengan persyaratan Bank

Indonesia melalui Surat Edaran Bank Indonesia nomor 11/4/DPNP perihal

pelaksanaan pedoman akuntansi perbankan Indonesia (PAPI) dan nomor

15/26/DPbs perihal pelaksanaan Pedoman Akuntansi Perbankan Syariah

Indonesia (PAPSI) dan Ikatan Akuntansi Indonesia (IAI) melalui PSAK 50 dan

PSAK 55, serta kebijakan manajemen internal bank X dalam proses bisnis

pemberian kredit, maka minimal laporan yang dibutuhkan untuk kepentingan

pelaporan ke regulasi dan analisa internal Bank X untuk tujuan pendukung

pengambilan keputusan sebagai berikut :

1. Laporan Total Pembiayaan berdasarkan Cabang.

2. Laporan Total Pembiayaan berdasarkan Produk dan Segment.

3. Laporan Total Pembiayaan berdasarkan Tanggal Jatuh Tempo. Pembiayaan

yang sudah jatuh tempo dan Pembiyaan yang belum jatuh tempo, untuk

pembiyaan yang belum jatuh tempo dikelompokkan berdasarkan periode

kelompok lamanya jatuh tempo).

4. Laporan distribusi pembiayaan yang mengalami perubahan kolektibilitas (ke

lebih baik atau lebih buruk atau pembiayaan tersebut telah jatuh tempo) dari

periode pelaporan bulan ini dan bulan sebelumnya per masing-masing produk,

segment, mata uang, cabang.

5. Laporan RatioNon Performing Loan per masing-masing cabang. Ratio Non

Perfoming Loan didapat dengan membagi total pembiayaan dalam mata uang

rupiah yang kolektibilitasnya pada kolektibilitas 3,4,5 dibagi dengan total

pembiayaan dalam mata uang rupiah secara keseluruhan per masing-masing

cabang.

6. Laporan Probability Default(PD) dan Loss Given Default (LGD) Trend,

dimana laporan ini berfungsi untuk menampilkan kecendrungan perubahan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 67: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

52

Universitas Indonesia

nilai PD pada periode tertentu berdasarkan segementasi pengelompokkan

pembiayaan dan masing-masing kolektibilitas.

7. Laporan CKPN Kolektif / Collective Assesment Provision

Laporan yang berisi hasil dari perhitungan CKPN secara Kolektif berdasarkan

kelompokdari group of impairment.

8. Laporan Perbandingan antara CKPN Kolektif / Collective Assesment

Provision dengan PPAP (Penyisihan Penghapusan Aktiva Produktif)

berdasarkan segmentasi, cabang, produk, dan collective group impairment.

9. Laporan mengenai nilai variance antara CKPN actual dan CKPN forecast

untuk setiap cabang dan segmentasi pembiayaan.

10. Laporan Impairment Loan Ratio per masing-masing cabang. Impairment Ratio

ini didapat dengan membagi total CKPN dalam mata uang Rupiah dibagi

dengan total pembiayaan dalam mata uang Rupiah per masing-masing cabang.

11. Laporan Movement CKPN (Charged atau Released) untuk setiap cabang

dalam mata uang rupiah. Charged berarti diperlukan tambahan sejumlah biaya

tertentu sebagai tambahan biaya pembentukan CKPN. Sedangkan released

berarti terdapat pengurangan biaya CKPN dibandingkan dengan bulan

sebelumnya.

12. Laporan Klasifikasi Loan Impairment dan Pembiayaan berdasarkan

Segmentasi

13. Laporan Individual Impairment. Laporan Individual Impairment berisi

informasi daftar customer number yang sudah di daftarkan dengan flag

individual impairment.

Melihat kebutuhan informasi berupa laporan yang dipaparkan diatas, maka

diperlukan data di level detail terkait dengan masing-masing laporan tersebut.

Data-data yang dibutuhkan pada sumber data yang terdapat pada Bank X dapat

dirangkum menjadi 3 kelompok laporan;

1. Laporan Total Pembiayaan berdasarkan Cabang, Laporan Total Pembiayaan

berdasarkan Produk dan Segment, Laporan Ratio Non Performing Loan per

masing-masing cabang, Laporan Total Pembiayaan berdasarkan Tanggal Jatuh

Tempo dan Laporan distribusi pembiayaan yang mengalami perubahan

kolektibilitas.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 68: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

53

Universitas Indonesia

Dari kelima laporan ini diperlukan informasi mengenai tanggal pelaporan,

kode cabang, nama cabang, nomor account pembiayaan, nomor fasilitas,

nomor nasabah, nama nasabah, jumlah fasilitas kredit (plafond), nilai

pembiayaan yang diberikan (outstanding), tanggal pembukaan rekening

pembiayaan (loan start date), tamggal jatuh tempo pembiayaan (loan due

date), tingkat suku bunga pembiayaan, mata uang yang digunakan,

segmentasi, kode produk dan kolektibilitas.

2. Laporan Probability Default(PD) dan Loss Given Default (LGD) Trend,

Laporan CKPN Kolektif, Laporan Perbandingan antara CKPN Kolektif /

Collective Assesment Provision dengan PPAP berdasarkan segmentasi,

Laporan mengenai nilai variance antara CKPN actual dan CKPN forecast

untuk setiap cabang dan segmentasi pembiayaan, Laporan Impairment Loan

Ratio per masing-masing cabang, Laporan Movement CKPN (Charged atau

Released) untuk setiap cabang dalam mata uang rupiah.

Dari keenam laporan diatas, informasi yang diperlukan adalah tanggal

pelaporan, segmentasi group ofimpairment, kolektibilitas per nomor nasabah,

nomor nasabah, nilai persentase PD per segementasi dan per kolektibilitas,

nilai persentase LGD per segementasi dan per kolektibilitas, metode

perhitungan PD, metode perhitungan LGD, nilai pembiyaan yang diberikan

per masing-masing kolektibilitas, nilai agunan yang diperhitungkan, nilai

recovery, nilai writeoff, nilai PPAP, nilai CKPN forecast, Nilai Impairment

Loan Ratio, dan status dari pembiayaan.

3. Laporan Klasifikasi Loan Impairment dan jumlah pembiayaannya berdasarkan

cabang, segmentasi dan Laporan Individual Impairment. Dari kedua laporan

ini, informasi yang diperlukan adalah tanggal pelaporan, segmentasi

impairment, klasifikasi flag impairment, nilai outstanding, nilai CKPN

Kolektif, Nilai CKPN Individual, informasi rincian debitur termasuk rincian

akad pembiayaannya (nomor debitur, nama debitur, mata uang, tanggal akad

pembiayaan, kolektibilitas, nama cabang, kode cabang, dan segmentasi).

Melalui tabel 4.1 dipaparkan secara lebih mendetail masing-masing mengenai

daftar kebutuhan informasi, kebutuhan analisa dan pelaporan, serta

statusketersediaan data (sumber sistem dan durasi data) sebagai bagian dari proses

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 69: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

54

Universitas Indonesia

identifikasi kebutuhan bisnis. Struktur tabel akan dibedakan menjadi 3 kolom

sebagai berikut:

1. Kebutuhan informasi : menjelaskan informasi apa saja yang dibutuhkan

untuk pembentukan laporan-laporan diatas sesuai dengan penerapan

perhitungan penyisihan kredit sesuai dengan PSAK 50/55

2. Kebutuhan analisa dan pelaporan : menjelaskan detail/deskripsi informasi

pada kolom kebutuhan informasi dalam proses pembuatan laporan dan

kapabilitas analisa yang akan digunakan oleh pengguna terkait dengan

masing-masing informasi tersebut.

3. Ketersediaan Data: Menjelaskan apakah informasi yang disyaratkan

tersedia pada core banking dan sistem yang ada di Bank X (availability),

bagaimana durasi data yang akan digunakan (bulanan pada setiap akhir

bulan, data histori 3 tahun, atau harian), dan nama sumber sistem dimana

data tersebut berasal.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 70: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

55

Universitas Indonesia

Tabel 4.1 Tabel DaftarKebutuhan Informasi dan Kebutuhan Analisa

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

1 Nomor Pembiayaan/Nomor Akad

setiap adanya pencairan kredit dari

Bank sesuai dengan Fasilitas/Plafond

Kredit dari masing-masing debitur

Merupakan identifier data pembiayaan / kredit yang paling detail (data rincian)

granular. Pengguna dapat melakukan break down pelaporan laporan dari level

summary sampai ke level nomor pembiayaan pada masing-masing laporan yang

terkait dengan informasi ini. Misalnya : Pengguna akan melihat rincian per nomor akad

pembiayaan yang memiliki kontribusi top 10 terbesar di suatu cabang.

CARD = Y

iLoan = Y

JF = Y

Data selama 3 tahun terakhir

(2011, 2012, 2013)

2 Nomor Nasabah / Customer Number

/ CIF dari setiap pembiayaan

Mengacu kepada konsep One Obligor untuk penetapan kualitas aktiva produktif (PBI

No. 7/2/PBI/2005 dan PBI No. 8/2/PBI/2006). Setiap Nasabah dapat mempunyai

banyak fasilitas pembiayaan dan setiap fasilitas pembiayaan dapat dicairkan berkali-

kali menjadi nomor akad/pembiayaan. Customer Number ini akan digunakan sebagai

identifier dalam pengelompokkan data pembiayaan untuk menentukan pergerakan

kolektibilitas. Hal ini terkait dengan formulasi perhitungan Probability Default dengan

metode Migration Analysis.

CARD = Y

iLoan = Y

JF = Y

Data selama 3 tahun terakhir

(2011, 2012, 2013)

3 Jumlah Nilai Fasilitas Kredit

(Plafond) dan Nilai Kredit yang

diberikan (Outstanding) per masing-

masing nomor rekening pembiayaan

/ nomor akad pembiayaan/kredit.

Plafond yaitu Jumlah maksimum kredit yang diterima oleh debitur sebagaimana

tercantum dalam surat perjanjian/kredit. Informasi mengenai plafond dan outstanding

digunakan sebagai pengukuran kinerja di suatu cabang di Bank X.

CARD = Y, iLoan = Y, JF = Y

Data selama 3 tahun terakhir

untuk posisi akhir bulan

pelaporan (2011, 2012, 2013)

4 Tanggal pembukaan rekening

pembiayaan (Loan Start Date)dan

Tanggal Jatuh Tempo Pembiayaan

(Maturity Date)

Informasi mengenai Loan Start Date akan digunakan dalam penyusunan laporan

pembiayaan setiap bulannya. Informasi ini akan digunakan dalam laporan maturity

profile yaitu kredit yang sudah jatuh tempo dan yang belum jatuh tempo. Tujuan

analisa untuk mengevaluasi periode evaluasi kredit (loan review)

CARD = Y, iLoan = Y,JF = Y

Data selama 3 tahun terakhir

untuk posisi bulan pelaporan

(2011, 2012, 2013)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 71: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

56

Universitas Indonesia

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

5. Kolektibilitas/Kualitas Kredit dan

Tanggal perubahan kualitas kredit

berdasarkan Kolektibilitas BI (Bank

Indonesia) per masing-masing nomor

pembiayaan

Penggolongan kredit menurut kualitas, terdiri dari kredit dengan kualitas lancar (L) –

Kolektibilitas 1, dalam perhatian khusus (DPK) – Kolektibilitas 2, kurang lancar (KL)

– Kolektibilitas 3, diragukan (D) – Kolektiblitias 4, dan macet (M) – Kolektibilitas 5.

Penggolongan ini dilakukan untuk kepentingan penerapan prinsip kehati-hatian bank

(prudential regulation) dan digunakan untuk proses perhitungan Probability Default

dengan menggunakan metode statistik Net Flow Rate ataupun Migration Analysis.

Analisa lain yang dapat diperoleh untuk mengelompokkan sebaran data-data

pembiayaan berdasarkan kualitas kredit yang ada di setiap cabang.

CARD = Y,iLoan = Y,JF = Y

Data selama 3 tahun terakhir

untuk posisi bulan pelaporan

(2011, 2012, 2013)

6 Lamanya Tunggakan (Day Past Due

–DPD) per masing-masing nomor

pembiayaan

Data ini akan digunakan dalam membuat pengkategorian group collective impairment

berdasarkan range/sebaran lamanya hari menunggak tertentu, misalnya : 0 hari, 1-30

hari, 31-60 hari, 61-90 hari, dsb.

CARD = Y

iLoan = Y

JF = Y

Data selama 3 tahun terakhir

untuk posisi bulan pelaporan

(2011, 2012, 2013)

7 Status dari Pembiayaan per nomor

rekening (Status Active,

Restrukturisasi, Lunas sesuai dengan

tanggal jatuh tempo, Pelunasan

dipercepat, dan Write Off /Hapus

Buku)

Data Status pembiayaan ini akan digunakan dalam perhitungan Probability Default

menggunakan net flow rate dan migration analysis. Untuk status active dalam

migration analysis, apabila status berubah menjadi tidak aktif (account hilang) maka

dianggap turun bucket di group bucket.

CARD = Y, iLoan = Y, JF = Y

Data selama 3 tahun terakhir

untuk posisi bulan pelaporan

(2011, 2012, 2013)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 72: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

57

Universitas Indonesia

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

8 Tingkat Suku Bunga yang diberikan

per nomor rekening pembiayaan

beserta tenor / jangka waktu

pembiayaan

Bunga kredit adalah imbalan yang dibayarkan oleh debitur atas kredit yang

diterimanya dan biasanya dinyatakan dalam persentase. Suku bunga efektif yang

dihitung berdasarkan arus kas kontraktual pada dasarnya tidak dapat diubah sampai

dengan seluruh kewajiban debitur dibayar lunas, termasuk ketika bank memberikan

keringanan suku bunga melalui restrukturisasi kredit atau melakukan revisi estimasi

pembayaran atau penerimaan bunga dan pokok. Tingkat suku bunga ini digunakan

dalam membuat estimasi arus kas, sebagai syarat dalam proses perhitungan CKPN

secara individual

CARD = Y

iLoan = Y

CB = Y

JF = Y

Data posisi pada periode bulan

pelaporan

9 Ratio Non Performing Loan dan

Ratio Impairment Loan

Merupakan informasi turunan dari informasi mengenai outstanding, total CKPN

dikelompokkan per masing-masing cabang. Informasi ini digunakan untuk melakukan

analisa kinerja dari setiap cabang.

Data ini akan ditransform

menggunakan proses batch ETL

berdasarkan Formula business

rule yang disepakati.

10 Jenis Mata Uang (Currency) per

masing-masing nomor pembiayaan

dan Nilai Tukarnya (Exchange Rate)

secara harian

Akan digunakan untuk klasifikasi pembiayaan berdasarkan valuta asing dan risiko nilai

tukar pada saat akad dan pada saat pelaporan, karena laporan regulasi Bank Indonesia

adalah dalam bentuk mata uang Rupiah.

MIS Database Daily

Data informasi nilai tukar untuk

masing-masing mata uang

setiap harinya.

11 Nilai Agunan yang diperhitungkan Nilai Agunan merupakan syarat dalam menghitung Loss Given Default (LGD)

menggunakan metode Collateral Shortfall untuk masing-masing pembiayaan dan

group segmentasi kredit.

Sumber data berasal dari

inputan user secara manual

melalui flat file Microsoft

Excel. Data ini diupdate secara

bulanan..

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 73: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

58

Universitas Indonesia

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

12 Nilai Hapus Buku / Write Off Data yang dibutuhkan untuk perhitungan Loss Given Default (LGD) menggunakan

metode expected recovery

Sumber data berasal dari

inputan user secara manual

melalui flat file Microsoft

Excel. Data ini diupdate secara

bulanan.

13 Nilai Recovery Nilai pengembalian dari hasil pembayaran oleh nasabah, dimana informasi nilai

recovery ini diperlukan dalam komponen perhitungan LGD dengan menggunakan

metode expected recovery

Sumber data berasal dari

inputan user secara manual

melalui flat file Microsoft

Excel. Data ini diupdate secara

bulanan.

14 Penentuan segmentasi pada

pembiayaan

Klasifikasi segmentasi pembiayaan pada bank yang dapat dibedakan menjadi:

Consumer Mortgage, Consumer Auto Loan, Consumer Kopkar, Consumer Pension,

Consumer Multipurpose, Corporate, SME, Micro, Corporate Syndication Loan.

MIS Database dengan posisi

akhir bulan pelaporan

15 Kriteria Parameter CollectiveGroup

untuk bucket perhitungan Probability

Default (PD) dan Loss Given Default

(LGD)

Berdasarkan data historis dan segmentasi dari Bank dari masing-masing pembiayaan,

maka informasi parameter collective group diperlukan sebagai komponen input untuk

perhitungan PD dan LGD. Data ini akan digunakan dalam proses transformasi data

staging untuk menghasilkan nilai CKPN

Sumber data berasal dari

inputan user secara manual

melalui flat file Microsoft

Excel. Data ini diupdate secara

bulanan.

16 Klasifikasi Impairment Assesment,

apakah nomor rekening tersebut

terklasifikasi secara individual atau

terklasifikasi secara kolektif

Untuk mengetahui porsi dari klasifikasi impairment / penurunan nilai secara kolektif

dan individual per masing-masing segmentasi, masing-masing debitur dan masing-

masing account number. Data ini akan digunakan dalam proses transformasi data

staging untuk menghasilkan flag impairment.

Di-input oleh user secara

manual melalui flat file

Microsoft Excel. Data ini di-

update secara bulanan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 74: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

59

Universitas Indonesia

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

17 Proses dengan Metode Statistik

untuk perhitungan PD per masing-

masing segmentasi, apakah

menggunakan metode net flow rate

atau menggunakan metode migration

analysis dan masing-masing

kriterianya

Hasil dari Probability of Default (berupa persentase) per masing-masing collective

group yang sudah ditentukan dengan mengikuti kebijakan dan regulasi untuk

pemilihan metode yang digunakan. Proses Perhitungan PD dengan masing-masing

metode dilakukan pada saat proses transformasi data staging

Data ini akan di-transform

menggunakan proses batch ETL

berdasarkan Formula business

rule yang disepakati.

18 Proses Perhitungan LGD (Loss

Given Default) per masing-masing

segmentasi. Pilihan metode

perhitungan LGD adalah Collateral

Shortfall dan Expected Recoveries

Hasil dari Loss Given Default (persentase) per masing-masing collective group yang

sudah ditentukan dengan mengikuti kebijakan dan regulasi untuk pemilihan metode

yang digunakan. Proses Perhitungan LGD dengan dilakukan pada saat proses

transformasi data staging.

Data ini akan di-transform

menggunakan proses batch ETL

berdasarkan Formula business

rule yang disepakati.

19 Nilai Penyisihan Piutang Aktivta

Produktif / PPAP menggunakan

metode expected loss

Merupakan nilai pembentukan provisi berdasarkan aturan PPAP berdasarkan

kolektibilitas. Formulasinya adalah jika kolektibilitas 1, maka nilai outstanding

dikalikan dengan 1%, jika kolektibilitas 2, maka nilai outstanding dikalikan dengan

5%, jika kolektibilitas 3 maka nilai outstanding dikalikan dengan 15%, jika

kolektibilitas 4 maka nilai outstanding dikalikan dengan 50% dan jika kolektibilitas 5

maka nilai outstanding dikalikan dengan 100%

Data ini akan di-transform

menggunakan proses batch ETL

berdasarkan Formula business

rule yang disepakati.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 75: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

60

Universitas Indonesia

No. Kebutuhan Informasi Kebutuhan Analisa dan Pelaporan Satus Ketersediaan Data,

Sumber Sistem, Durasi Data

20 Nilai Cadangan Kerugian Penurunan

Nilai (CKPN)

Merupakan Output akhir yang diharapkan dari penerapan PSAK 50/55. Berupa Nilai

Final dari proses perhitungan CKPN dari setiap pembiayaan per level account. Apabila

Klasifikasi Impairment Kolektif maka nilai dari CKPN adalah PD x LGD x

Outstanding. Apabila diklasifikasi secara individual maka diperoleh dengan hasil

formulasi Net Present Value dari estimasi arus kas yang ada.

Diperoleh melalui proses

transformasi dari batch ETL

setiap bulan pelaporan.

21 Nilai Charged atau Nilai Released

CKPN

Merupakan turunan informasi dari CKPN dengan membandingkan nilai CKPN bulan

ini dengan nilai CKPN bulan sebelumnya dalam mata uang IDR. Disebut Charged

apabila Nilai CKPN pada bulan ini lebih besar daripada bulan sebelumnya dan disebut

released apabila Nilai CKPN bulan ini lebih kecil dari bulan sebelumnya

Diperoleh melalui proses

transformasi dari batch ETL

setiap bulan pelaporan

22 Nilai CKPN Target / Forecast Merupakan informasi mengenai target pembentukan CKPN dalam mata uang Rupiah

per masing-masing cabang. Target CKPN ini diinput secara manual oleh User melalui

flat file per masing-masing cabang, kemudian melalui proses transformasi akan

dilakukan transformasi menjadi per level debitur. Informasi ini digunakan sebagai

proses analisa varianceantara Target dan Aktual CKPN

Sumber data berasal dari

inputan user secara manual

melalui flat file Microsoft

Excel. Data ini diupdate secara

bulanan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 76: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

61

Universitas Indonesia

Pada gambar 4.1 akan dijelaskan alur proses bisnis dalam rangka perhitungan

penyisihan CKPN di Bank X berdasarkan kebutuhan pelaporan, analisa kebutuhan

fungsional, dan ketersediaan sumber data di Bank X. Alur bisnis ini merupakan

bagian dalam proses data preparation dan transformasi dari sumber data ke tabel

tujuan sesuai dengan analisa kebutuhan informasi yang diperlukan dalam rangka

mengakomodir penerapan perhitungan CKPN sesuai PSAK 50/55

Gambar 4.1 Alur Proses Perhitungan CKPN

Keterangan alur proses transformasi perhitungan CKPN

1. Tahap ke-1 yaitu data yang berasal dari multiple source system pembiayaan

(CRD, ILN, JF) dari masing-masing tabel akan dibuat stagingnya dan di

mapping untuk dikumpulkan ke suatu tabel PSAK_MASTER_ACCOUNT

2. Tahap ke-2 yaitu proses impairment dilakukan secara bulanan, menggunakan

data posisi/snapshot pembiayaan di akhir bulan, sesuai dengan parameter

tanggal proses impairment.

3. Setelah semua data pembiayaan terkumpul ke dalam suatu tabel, maka proses

selanjutnya adalah melakukan proses segmentasi ke collective impairment

group. Proses segmentasi collective impairment group merupakan proses awal

untuk mengumpulkan jenis-jenis pembiayaan berdasarkan karakteristiknya

Informasi Collective Impairment Group ini merupakan parameter yang

dimaintain oleh pengguna secara manual untuk masing-masing segmentasi

pembiayaan dimapping collective impairment groupnya. Misalnya:

Segmentasi 42_CONSUMER_AUTO LOAN merupakan group pembiayaan

kendaraan bermotor, ditransfromasi menjadi segment AUTO,

11_CORPORATE_COMMERCIAL, 12_CORPORATE_UPPER SME,

13_CORPORATE_SYNDICATION, 14_CORPORATE_FI_EXECUTING,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 77: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

62

Universitas Indonesia

15_CORPORATE_BANK ditranformasi menjadi segment CORPORATE.

Proses transformasi Segmentasi ini diambil dari data rincian pembiayaan pada

tabel PSAK_MASTER_ACCOUNT field C09_SEGMENTASI_ACCOUNT

di-mappingkan dengan tabel parameter PSAK_SEGMENT field

Collective_Group_1 untuk rule klasifikasi gruping segment ini. Grup

Segmentation (Collective Group) akan digunakan dalam perhitungan

Impairment secara kolektif yang nantinya akan digunakan dalam perhitungan

PD (Probability of Default) dan LGD (Loss Given Default)

4. Setelah dilakukan proses segmentasi berdasarkan collective impairment grup

yang telah di sepakati sesuai dengan kebijakan bank untuk segmentasi

pembiayaan. Maka selanjutnya transformasi kepada proses Impairment

Classification. Per masing-masing pembiayaan akan dilakukan proses

flagging. Flagging ‘C’ merupakan flag yang menunjukkan kalkulasi dihitung

dengan pendekatan Collective Assesment dan Flagging ‘I’, merupakan flaging

dengan pendekatan Individual Assesment. Flaging ini merupakan identifier

dari Impairment Type, proses transformasi berikutnya yaitu menentukan cara

perhitungan CKPN, apakah akan dihitung menggunakan Collective Assesment

atau Individual Assesment dengan masing-masing business rule yang sesuai

dengan aturan Surat Edaran BI dan PSAK 50/55 serta Kebijakan Internal

Bank. Untuk flagging secara individual dilakukan oleh user secara manual

memberikan upload data per level account untuk daftar pembiayaan mana saja

yang akan di flag secara individual. Sedangkan akun pembiayaan yang tidak

di flag secara individual akan dikategorisasikan secara otomatis menjadi flag

collective.

5. Apabila flagging adalah C (collective assessment) maka proses selanjutnya

adalah Transformasi data dalam melakukan kalkulasi Loss Given Default

(LGD)sesuai dengan metodologi yang digunakan (Collateral Shortfal dan

Expected Recoveries) dengan melakukan lookup ke tabel parameter LGD.

6. Setelah proses transformasi LGD kemudian akan dilakukan kalkulasi

perhitungan Probability Default (PD) dengan menggunakan metode net flow

rateatau migration analysis sesuai dengan segmentasi yang telah ditentukan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 78: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

63

Universitas Indonesia

7. Setelah LGD dan PD terbentuk maka transformasi terhadap nilai CKPN

Kolektif yaitu dengan mengalikan komponen Outstanding x Probability

Default(PD) dan Loss Given Default (LGD) di level akun pembiayaan.

8. Apabila Flagging adalah I (Individual Assesment) maka diperlukan input

manual arus kas per masing-masing debitur termasuk perhitungan nilai CKPN

Individual. Kriteria account-account pembiyaan dengan assesment secara

Individual adalah account-account pembiayaan yang kolektibilitasnya diatas 3

dan nilai pembiayaannya lebih dari Rp. 10 milyar.

9. Mengumpulkan semua nilai CKPN baik individual dan kolektif dari hasil step

transformasi diatas ke dalam suatu tabel PSAK_MASTER_ACCOUNT

4.1.2 Analisa Sumber Data

Setelah dilakukan analisa terhadap kebutuhan informasi dan kebutuhan pelaporan,

maka langkah berikutnya adalah menginventarisasi kebutuhan data yang

digunakan sebagai jawaban atas kebutuhan informasi dan kebutuhan analisa yang

tertera pada Tabel 4.1 diatas.

Berikut ini Tabel 4.2 mengenai daftar sumber data yang diperlukan dalam

penerapan perhitungan Cadangan Kerugian Penurunan Nilai (CKPN) produk

Pembiayaan. Sumber data dapat berasal dari Core Banking System, MIS Database,

Manual Input, dan dari hasil transformasi data staging pada database PSAK.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 79: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

64

Universitas Indonesia

Tabel 4.2 Tabel Sumber Data Yang Akan Digunakan

Nama Tabel Deskripsi Sumber Data Jumlah

Data

Durasi

LOAN_DAILY Tabel yang berisi master pembiayaan beserta atribut yang terkait

dengan pembiayan (misalnya : account number, kolektibilitas, day

past due, loan due date) yang berasal dari source systemcore

banking Bank X. Tabel ini unique menyimpan per level account

number.

Core Banking

Systems

157.659 Posisi Akhir Bulanan

CUSTOMER Tabel yang berisi informasi data master customer seluruh

pembiayaan

MIS Database 43.345 Posisi Akhir Bulanan

MASTER_KURS_DAILY Tabel yang berisi informasi data kurs harian MIS Database 84 Harian (Day – 1)

MASTER_ BRANCH Tabel yang berisi master nama cabang Core Banking

Systems

465 Posisi Akhir Bulanan

FACILITY_DAILY Tabel yang berisi fasilitas dari masing-masing customer Core Banking

Systems 88.7012

Posisi Akhir Bulanan

LOAN_CARD_DAILY Tabel yang menampung master pembiayaan kartu kredit Core Banking

Systems

124,234 Posisi Akhir Bulanan

FACILITY_CARD_DAILY Tabel yang menampung fasilitas khusus pembiayaan kartu kredit

dari setiap nasabah.

Core Banking

Systems

343,894 Posisi Akhir Bulanan

TRANSACTION_DAILY Tabel yang berisi transaksi dari setiap akun pembiayaan (mis :

transaksi charging biaya administratif, biaya provisi, pembayaran,

dan sebagainya)

Core Banking

Systems

1.242.776 Harian (Accumulated dari

hari ke-1 s/d hari ke-End

of month bulan laporan)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 80: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

65

Universitas Indonesia

Nama Tabel Deskripsi Sumber Data Jumlah

Data

Durasi

COLLATERAL_DAILY Tabel yang menampung nilai dari agunan / collateral per masing-

masing fasilitas.

Core Banking

Systems

167.552 Tanggal Posisi Akhir

Bulanan

MASTER_ACCOUNT_WO Tabel yang berisi data master account dan attribute lainya yang

mengalami status Write Off

Core Banking

Systems

17.659 Tanggal Posisi Akhir

Bulanan

WO_RECOVERY_SUMMAR

Y

Summary dari nilai dariWO dan Recovery per segment Core Banking

Systems

Tanggal Posisi Akhir

Bulanan

PSAK_MASTER_ACCOUNT Semua informasi berikut attribute terkait untuk posisi account

number detail pembiayaan selama periode bulan pelaporan (end of

month) dengan status active.

Hasil Proses

Transformasi

204.029 Tanggal Posisi Akhir

Bulanan

PSAK_BMI_SEGMENT Parameter Collective Group yang terdiri dari mapping nama

segment yang digunakan untuk penentuan perhitungan Probability

Default dan Loss Given Default

Manual Input SCD

Tanggal Posisi Akhir

Bulanan

PSAK_DPD_MASTER_HEAD

ER

Tabel psak collective impairment parameter header Manual Input SCD Harian

PSAK_DPD_MASTER Parameter dari range atau sebaran lamanya hari menunggak (Day

past due) detail

Manual Input SCD Harian

PSAK_MASTER_PRODUCT_

PARAMETER

Daftar dari Product Code yang ada seluruh pembiayaan Core Banking

Systems dan

Manual Input

SCD Harian

PSAK_ENR Tabel yang berisi snapshot outstanding per periode berdasarkan

penentuan bucket collective groupsecara metode net flow rate

Hasil Proses

Transformasi

Snapshot Bulanan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 81: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

66

Universitas Indonesia

Nama Tabel Deskripsi Sumber Data Jumlah

Data

Durasi

PSAK_ENR_MIGRATION Tabel yang berisi snapshot outstanding per periode berdasarkan

penentuan bucket collective group secara metode migration

analysis

Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_FLOW_RATES Tabel berisi histori flow rate pergerakan antar bucket / group setiap

periode pelaporan, digrouping berdasakan collective group dan

bucket id untuk metode net flow rate

Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_FLOWRATE_MIGRAT

ION

Tabel berisi histori flow rate pergerakan antar bucket / group setiap

periode pelaporan, digrouping berdasakarn collective group dan

bucket id untuk metode migration analysis

Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_COMPOUND_FLOW_

TO_LOSS

Tabel psak compound flow to loss yang berisi perhitungan

pengalian nilai PD untuk series periode terakhir. Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_RECOVERY_MATRIX Tabel psak LGD yang berisi summary dari PD dan LGD yang

sudah dihitung per masing-masing collective group of impairment. Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_PD Tabel yang menyimpan nilai PD dan LGD untuk semua

perhitungan baik menggunakan metode Net flow rate atau

Migration Analysis. Jumlah records tergantung dari parameter

bucket collective group setting perhitungan PD. Misalnya

Collective group sebanyak 5 Group, dengan masing-masing grup

terdapat 5 ucket, maka untuk data selama periode setahun, maka

jumlah records adalah 12 x 5 x 5 = 300

Hasil Proses

Transformasi

Snapshot Bulanan

PSAK_LGD_SETTING Tabel psak lgd setting parameter. Collateral Shortfall atau

Expected Recoveries untuk masing-masing impairment group

Manual Input SCD Bulanan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 82: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

67

Universitas Indonesia

Nama Tabel Deskripsi Sumber Data Jumlah

Data

Durasi

PSAK_EXPECTED_RECOVE

RY

Tabel psak lgd expected recovery yang berisi summary dari setiap

recovery per masing-masing group of impairment

Manual Input Snapshot Bulanan

PSAK_LGD_COLLATERAL_

SHORTFALL

Tabel psak lgd collateral shortfall yang berisi summary dari setiap

collateral/jaminan per masing-masing group of impairment

Manual Input Snapshot Bulanan

PSAK_IMPR_OVERRIDES Tabel yang berisi nilai overrides individual or collective. Manual Input Snapshot Bulanan

PSAK_INDIVIDUAL_IMPAIR

MENT

Tabel yang berisi sebagai tempat penampung data per level akun

pembiayaan untuk setiap customer untuk setiap periode pelaporan.

Satu customer memungkinkan memiliki banyak akun pembiayaan.

Format file dalam bentuk Microsoft Excel

Manual Input Snapshot Bulanan

TBLT_PAYMENTEXPECTED Tabel yang berisi data arus kas yang di-upload oleh pengguna dan

langsung diproses insert ke tabel ini. File Format dalam bentuk

Microsoft Excel.

Manual Input Snapshot Bulanan

PSAK_EXPECTED_RECOV_UPL

OAD Berisi data write off dan recovery berdasarkan masing-masing

segmentasi yang di-upload langsung oleh pengguna. File Format

dalam bentuk Microsoft Excel.

Manual Input Snapshot Bulanan

PSAK_COLL_SHORTFALL_UPL

OAD berisi data collateral berdasarakan masing-masing segmentasi yang

di-upload langsung ke suatu folder. File Format dalam bentuk

Microsoft Excel.

Manual Input Snapshot Bulanan

PSAK_CKPN_TARGET berisi data target pembentukan cadangan kerugian penurunan nilai

setiap bulannya dan di-upload langsung ke suatu folder. File

Format dalam bentuk Microsoft Excel.

Manual Input Snapshot Bulanan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 83: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

68

Universitas Indonesia

4.1.3 Analisa Transformasi sesuai dengan kebutuhan bisnis

Setelah dilakukan analisa kebutuhan informasi dan proses bisnis, serta telah

ditentukannya sumber data yang akan digunakan untuk mengakomodir kebutuhan

bisnis dalam rangka penerapan perhitungan penyisihan cadangan kerugian

penurunan nilai (CKPN) sesuai dengan PSAK 50/55, maka fase berikutnya adalah

menentukan proses transformasi pada proses ETL. Dari fase analisa kebutuhan

informasi dan sumber data yang tersedia, dapat disampaikan bahwa raw data

CKPN tidak tersedia pada sumber data. Oleh karena itu diperlukan fase persiapan

data dengan melakukan transformasi pada data staging pembiayaan untuk

dihitung nilai CKPN-nya berdasarkan analisa kebutuhan bisnis tersebut.

Tabel 4.3 menjelaskan masing-masing proses transformasi dari raw data

pembiayaan sesuai dengan business rule yang disyaratkan dalam penerapan

perhitungan penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) pada Bank

X. Proses transformasi diidentifikasikan mulai dari sumber tabel, rule (filter, join,

data type mapping, formula calculation, agregasi, seleksi, update condition, tabel

temporary, tambahan kolom), kemudian hasil transformasi disimpan pada tabel

tujuan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 84: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

69

Universitas Indonesia

Tabel 4.3 Tabel sumber tabel dan tujuan tabel serta transformation rule yang melekat sebagai persiapan data CKPN

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

ILN dan

JF

- LOAN_DAILY

- FACILITY_DAILY

- CUSTOMER

- MASTER_KURS_DAILY

- MASTER_MIS_BRANCH

Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

- LOAN_DAILY. CNUM = CUSTOMER.CNUM

- LOAN_DAILY. CCY = MASTER_KURS_DAILY.CCY

- LOAN_DAILY.DOWNLOAD_DATE=MASTER_KURS. DOWNLOAD_DATE

- LOAN_DAILY.BRANCH = MASTER_MIS_BRANCH. BRANCH_CODE AND

BSL_FLAG_SYARIAH=’T’

- LOAN_DAILY.BOOKING_FACILITY_NUMBER=

FACILITY_DAILY.FACILITY_NUMBER

- FACILITY_DAILY.ACCOUNT_STATUS = “A”

- LOAN_DAILY.GET_FLAG = '1'

- FACILITY_DAILY.EQV_PLAFOND <>

- LOAN_DAILY.ACCOUNT_STATUS not in ('2','8')

CRD LOAN_CARD_DAILY Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

- DATA_SOURCE='CRD'

- EQV_OUTS >= 0

- GET_FLAG = '1'

CRD FACILITY_CARD_DAILY Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

- FACILITY_CARD_DAILY.CNUM = LOAN_CARD_DAILY.CNUM

- LOAN_CARD_DAILY.FACILITY_NUMBER =

FACILITY_CARD_DAILY.FACILITY_NUMBER

- LOAN_CARD_DAILY.DOWNLOAD_DATE =

FACILITY_CARD_DAILY.DOWNLOAD_DATE

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 85: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

70

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

MIS CUSTOMER Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

- LOAN_CARD_DAILY.CNUM = CUSTOMER.CNUM

- CUSTOMER.CNUM IS NOT NULL

MIS MASTER_KURS_DAILY Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

- LOAN_CARD_DAILY.CCY = MASTER_KURS_DAILY.CCY

- LOAN_CARD_DAILY.DOWNLOAD_DATE =

MASTER_KURS_DAILY.DOWNLOAD_DATE

MIS MASTER_MIS_BRANCH Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

Kondisi Join Tabel antara Kode Cabang Master dengan Kode Cabang pada Master Data PSAK

LOAN_CARD_DAILY. BRANCH_CODE =

MASTER_MIS_BRANCH.BRANCH_CODE AND

MASTER_MIS_BRANCH.BSL_FLAG_SYARIAH='T'

CRD CCARD_ACCOUNT_DAILY Database : PSAK Tabel :

PSAK_MASTER_ACCOUNT

Transformasi informasi Day Past Due (DPD) menjadi bentuk numeric, karena dari source sistem Kartu Kredit, informasi yang disimpan adalah dalam bentuk cycle penagihan, tidak ada spesifik jumlah hari tunggakan. DAY_PAST_DUE Rule :

CYCLE_DUE = '0' -> 0,CYCLE_DUE = '1' -> 0,CYCLE_DUE = '2' -> 1,CYCLE_DUE

= '3' -> 30,CYCLE_DUE = '4' -> 60,CYCLE_DUE = '5' -> 90,CYCLE_DUE = '6' ->

120,CYCLE_DUE = '7' -> 150,CYCLE_DUE = '8' -> 180,CYCLE_DUE = '9' -> 210,

System

Date

Tanggal Harian Batch System Date Database : PSAK Tabel :

PSAK_PRC_DATE

CURRDATE = SYSTEM DATE

PREVDATE = CURRENTDATE

LAST_DAY(ADD_MONTHS(CURRDATE, -1)

MIS PSAK_MASTER_ACCOUNT_E

DW

PSAK_MASTER_ACCOUNT.

Field : PREVIOUS

_ACCOUNT_NUMBER

Menghilangkan content string “T2KR.” Sehingga hanya mengandung account number saja. Tujuannya adalah untuk mentracking account number karena migrasi dari core banking lama ke core banking baru.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 86: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

71

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

PSAK PSAK_EXPECTED_RECOV

_UPLOAD

PSAK_SEGMENT

PSAK_LGD_EXPECTED_RECO

VERY

Field : LGL_RATIO

Formula perhitungan menggunakan metode expected recoveries yaitu membandingkan antara data recoveries yang berasal dari pembayaran debitur dan penjualan asset yang diterima oleh Bank dengan data write off dan Aset yang diambil alih (AYDA) pada masing-masing segmentasi. Perhitungan ini dihitung per level segmentasi. LGL_RATIO = WO + AYDA / (AYDA + RECOVERY) Kondisi :SEGMENT = C09_SEGMENTASI_ACCOUNT

PSAK PSAK_LGD_SETTING PSAK_LGD_EXPECTED_RECO

VERY

Rule untuk mengambil jumlah periode yang akan digunakan dalam perhitungan Loss Given Default dari tabel parameter PSAK_LGD_SETTING.

PSAK PSAK_LGD_EXPECTED_RECO

VERY

PSAK_RECOVERY_MATRIX Mengupdate hasil perhitungan LGD ke Final Tabel dari proses sebelumnya. RECOVERY_RATE = LGD_RATIO

PSAK • PSAK_COLL_SHORTFALL_U

PLOAD

• PSAK_BMI_SEGMENT

PSAK_LGD_COLLATERAL_SH

ORTFALL

Field :

LGL_RATIO

Formula perhitungan LGD menggunakan metode collateral shortfall yaitu membandingkan antara Nilai kredit yang diberikan (Outstanding) dengan nilai Agunan yang ada pada masing-masing segmentasi, dengan syarat bahwa nilai Agunan yang diperhitungkan harus selalu lebih besar dari Nilai Kredit. Perhitungan ini dihitung per level segmentasi. LGL_RATIO = OUTSTANDING – AGUNAN / OUTSTANDING OUTSTANDING – AGUNAN > 0 Kondisi : LGD_SEGMENT = C09_SEGMENTASI_ACCOUNT

PSAK PSAK_LGD_COLLATERAL_SH

ORTFALL

PSAK_RECOVERY_MATRIX

Field : RECOVERY_RATE

Formula dari perhitungan Recovery Rate adalah RECOVERY_RATE = 1 - .LGD_RATIO

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 87: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

72

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

PSAK PSAK_MASTER_PRODUCT_PA

RAMETER

PSAK_MASTER_ACCOUNT

Field :

- PRODUCT_GROUP - IS_IMPAIRED - IMPAIRED_FLAG

Mengupdate klasifikasi impairment yang akan dihitung menggunakan collective assessment untuk product-product pembiayaan yang terdapat di parameter. - PRODUCT_GROUP = PRD.PRD_GRP, - IS_IMPAIRED = PRD.IS_IMPAIRED, - STAFF_LOAN_FLAG = PRD.STAFF_LOAN_IND, - IMPAIRED_FLAG = CASE

WHEN PMA.IMPAIRED_FLAG = 'I' THEN PMA.IMPAIRED_FLAG ELSE 'C' END

PSAK PSAK_BMI_SEGMENT PSAK_MASTER_ACCOUNT

Field :

- SEGMENT

- PRODUCT_GROUP

Mengupdate segmentasi di master menggunakan segmentasi yang disetting melalui collective group parameter. PRODUCT_GROUP = COLLECTIVE_GROUP_2 Kondisi : SEGMENT = C09_SEGMENTASI_ACCOUNT AND DOWNLOAD_DATE = V_CURRDATE

PSAK PSAK_DPD_MASTER

PSAK_DPD_MASTER_HEADER

PSAK_MASTER_ACCOUNT

Field : DPD_ID

Mengupdate Field DPD_ID di PSAK_MASTER_ACCOUNT untuk semua account pembiyaan dengan klasifikasi grouping menggunakan bucket DPD (Day past due). Dengan kriteria OPTION_GROUPING = ‘DPD’ dan Range Day Past Due antara DPD_START dan DPD_END

PSAK PSAK_DPD_MASTER

PSAK_DPD_MASTER_HEADER

PSAK_MASTER_ACCOUNT

Field : DPD_ID

Mengupdate field DPD_ID untuk semua account pembiyaan dengan klasifikasi grouping menggunakan bucket Kolektibilitas (BI_COLLECTABILITY). Dengan kriteria OPTION_GROUPING = ‘BIC’ dan Range BI_COLLECTABILITY antara DPD_START dan DPD_END yang terdaftar di setting parameter bucket.

PSAK PSAK_DPD_MASTER_HEADER PSAK_ENR Persiapan untuk transformasi menghitung nilai Probability Default, step pertama adalah Transformasi untuk snapshot outstanding per masing-masing periode. Dengan kondisi PSAK_ENR.PRODUCT_GROUP = PSAK_DPD_MASTER_HEADER.PRODUCT_GROUP ANDPSAK_DPD_MASTER_HEADER.METHOD_IMPAIRMENT = 'S00031' AND PSAK_DPD_MASTER_HEADER.CALCULATION_TYPE = 'A';

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 88: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

73

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

PSAK - PSAK_MASTER_ACCOUNT

- PSAK_MASTER_PRODUCT

_PARAMETER

- PSAK_DPD_MASTER

- PSAK_DPD_MASTER_HEA

DER

PSAK_ENR

Field :

- AMOUNT = TOT_OS

- ACCOUNT = NOA

Menghitung Probability of Defaultdengan metode net flow rate, dimana step awal adalah melakukan snapshot terhadap jumlah outstanding dan jumlah account per masing-masing bucket dan masing-masing segmentasi.

- AMOUNT = OUTSTANDING x EXCHANGE_RATE ACCOUNT = COUNT (NUMBER OF ACCOUNT) Kondisi : PMA.DATA_SOURCE = PRD.DATA_SOURCE AND PMA.PRODUCT_CODE = PRD.PRD_CODE AND PMA.PRODUCT_TYPE = PRD.PRD_TYPE INNER JOIN PSAK_DPD_MASTER DPD_D ON PMA.DPD_ID = DPD_D.DPD_ID AND PMA.PRODUCT_GROUP = DPD_D.PRODUCT_GROUP INNER JOIN PSAK_DPD_MASTER_HEADER DPD_H ON PMA.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP AND DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A' WHERE PMA.DOWNLOAD_DATE = V_CURRDATE AND PMA.OUTSTANDING > 0 AND NVL(PMA.IS_IMPAIRED, ' ') = 'Y' AND NVL(PMA.WRITE_OFF_FLAG, ' ') <> 'Y' --AND NVL(PMA.ACCOUNT_STATUS, ' ') NOT IN ('WO', 'FF') AND NVL(PMA.PRODUCT_GROUP, ' ') <> ' ' AND DPD_H.IA_FLAG = '1'

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 89: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

74

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

PSAK - PSAK_ENR

- PSAK_DPD_MASTER_HEA

DER

TT_ENR_CURR

Field : Amount

Persiapan untuk transformasi menghitung nilai Flow Rate ke tabel temporary untuk periode bulan ini AMOUNT = DPD_H.CALC_METHOD = '1' then ENR.AMOUNT DPD_H.CALC_METHOD = '2' then ENR.ACCOUNT Kondisi Join : ENR.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP WHERE ENR.PERIOD = Periode bulan ini AND DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A';

PSAK - PSAK_ENR

- PSAK_DPD_MASTER_HEA

DER

TT_ENR_PREV

Field : Amount

Persiapan untuk transformasi menghitung nilai Flow Rate ke tabel temporary untuk periode bulan sebelumnya. AMOUNT = DPD_H.CALC_METHOD = '1' then ENR.AMOUNT DPD_H.CALC_METHOD = '2' then ENR.ACCOUNT

PSAK - PSAK_ENR

- PSAK_DPD_MASTER_HEA

DER

TT_ENR_PREV

Field : Amount

Kondisi Key Join adalah PSAK_DPD_MASTER_HEADER DPD_H ON ENR.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP WHERE ENR.PERIOD = Periode bulan lalu AND DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A';

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 90: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

75

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

PSAK - PSAK_DPD_MASTER

- PSAK_DPD_MASTER_HEA

DER

- TT_ENR_CURR

- TT_ENR_PREV

PSAK_FLOW_RATES

Field :

FLOW_RATES

Mengupdate Field FLOW_RATE di PSAK_FLOW_RATES per masing-masing bucket pembiayaan dengan cara membagi jumlah outstanding di bucket yang lebih rendah ke bucket sebelumnya (outstanding dari bucket 1 ke bucket 2)dengan snapshot Tabel temporary current dan previous. FLOW_RATES = CASEWHEN DPD_D.FLAG_DEFAULT = 'Y' THEN DPD_D.PD_DEFAULT / 100 WHEN NVL(DPD_H.PD_THRESHOLD, 0) <> 0 AND NVL(FL.FLOW_RATES, 0) > NVL(DPD_H.PD_THRESHOLD, 0) / 100 THEN DPD_H.PD_THRESHOLD / 100 Kondisi : ON DPD_D.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP ON DPD_D.PRODUCT_GROUP = FL.PRODUCT_GROUP AND DPD_D.DPD_ID = FL.DPD_ID WHERE DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A'; QUERY KE TABEL TEMPORARY (SELECT A.PRODUCT_GROUP, B.DPD_ID, CASE WHEN NVL(B.AMOUNT, 0) = 0 THEN 1 ELSE A.AMOUNT / B.AMOUNT END AS FLOW_RATES FROM TT_ENR_CURR A INNER JOIN TT_ENR_PREV B ON A.PRODUCT_GROUP = B.PRODUCT_GROUP AND A.DPD_ID = B.DPD_ID + 1

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 91: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

76

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

- PSAK_FLOW_RATES

- PSAK_DPD_MASTER_HEA

DER

PSAK_COMPOUND_FLOW_TO_

LOSS

Field : FLOW_TO_LOSS

Proses untuk menghitung Flow To Lossyang merupakan langkah berikutnya setelah menghitung perbandingan movement flow dari bucket yang lebih tinggi ke lebih rendah. Flow To Loss dihitung dengan merata-ratakan nilai flow rate selama periode data histori (36 bulan) dari bucket tersebut. Perhitungan ini dihitung per segment dan per bucket Misalnya Untuk menghitung Flow To Loss bucket ke-1 pada bulan Jan-2014 maka diambil rata-rata Flow Rate di bucket 1 selama periode 36 bulan yaitu dari bulan Jan-2011 s/d Jan-2013. FLOW_TO_LOSS = AVG(FL.FLOW_RATES) PERIOD BETWEEN Tanggal perhitungan 3 tahun sampai dengan tanggal bulan laporan. GROUP By DPD_ID, PRODUCT_GROUP

- PSAK_COMPOUND_FLOW

_TO_LOSS

- PSAK_DPD_MASTER_HEA

DER

- PSAK_DPD_MASTER

- PSAK_RECOVERY_MATRI

X

PSAK_PD

Field : PD

Merupakan Proses terakhir dalam menghitung nilai Probability Default menggunakan metode Net Flow Rate. Dimana Dari angka hasil perhitungan Flow To Loss per masing-masing bucket, kemudian dikalikan sampai dengan bucket terakhir. Misalnya : Flow To Loss Bucket 1 pada periode Jan-2014 untuk segment Auto adalah 14.36%, bucket ke-2= 14.81%, bucket ke-3 = 39.06%, bucket ke-4 = 65.17%, dan bucket ke-5 = 100%. Maka Perhitungan Nilai PD untuk bucket ke-1 adalah 14.36% x 14.81% x 39.06% x 65.17% x 100% = 0.54%. Sedangkan untuk PD bucket ke-2 adalah perkalian dari bucket ke-2 sampai dengan bucket ke-5 yaitu 14.81% x 39.06% x 65.17% x 100% = 3.77% dan seterusnya sampai dengan perhitungan PD maximum Bucket..

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 92: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

77

Universitas Indonesia

Data

Source

Tabel Sumber Tabel Tujuan Business Rule dan Deskripsi

- PD = CASE WHEN NVL(DPD_D.FLAG_DEFAULT, '0') = 'Y' THEN DPD_D.PD_DEFAULT / 100 ELSE CASE COUNT(CASE SIGN(FTL.FLOW_TO_LOSS) WHEN 0 THEN 1 ELSE NULL END) WHEN 0 THEN -- NO ZEROES: PROCEED NORMALLY CASE MOD(SUM(CASE SIGN(FTL.FLOW_TO_LOSS) WHEN -1 THEN 1 ELSE 0 END), 2) WHEN 1 THEN -1 ELSE END EXP(SUM(LN(ABS(CASE FTL.FLOW_TO_LOSS WHEN 0 THEN NULL ELSE FTL.FLOW_TO_LOSS END)))) ELSE 0 END END AS DELIQUENCY_RATE Kondisi : PRODUCT_GROUP =.PRODUCT_GROUP PRODUCT_GROUP = PRODUCT_GROUP DPD_D.DPD_ID <= FTL.DPD_ID PERIOD = MAT.PERIOD AND FTL.PRODUCT_GROUP = MAT.PRODUCT_GROUP WHERE FTL.PERIOD = V_PERIOD AND DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A' GROUP BY DPD_D.DPD_ID, FTL.PRODUCT_GROUP, FTL.PERIOD, MAT.RECOVERY_RATE, DPD_D.FLAG_DEFAULT, DPD_D.PD_DEFAULT;

PSAK PSAK_ENR PSAK_PD

Field : OS

OS = PSAK_ENR.AMOUNT; Kondisi : PERIOD = PERIOD PRODUCT_GROUP = PRODUCT_GROUP DPD_ID = DPD_ID PSAK_PD.PERIOD = ‘Currentdate’

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 93: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

78

Universitas Indonesia

4.2 Perancangan Arsitektur DataMart

Sebelum dilakukan perancangan permodelan datamart, maka diperlukan analisa

perancangan arsitektur datamart yang akan digunakan. Jenis arsitektur dalam

perancangan datamart PSAK 50/55 menggunakan konsep Independent Data Mart

dimana menggunakan layer data staging untuk mengintegrasi data dari berbagai

sumber data yang berbeda yang terkait dengan pembiayaan pada Bank X. Dari

data staging kemudian dilakukan ETL ke datamart PSAK 50/55 .

Berdasarkan alternatif arsitektur datawarehouse menurut Inmon dan Kimball,

dalam perancangan arsitektur untuk implementasi penerapan datamart PSAK

khususnya dalam ruang lingkup monitoring dan pelaporan cadangan kerugian

penurunan nilai (CKPN) dapat disampaikan perbandingan arsitekturnya sebagai

berikut. Tabel 4.4 mengenai analisa perbandingan arsitektur Inmon dan Kimbal

dalam merancang datamart PSAK 50/55

Tabel 4.4 Tabel Analisa Perbandingan Arsitektur Inmon dan Kimball serta

keterangan dalam arsitektur datamart PSAK 50/55 Kriteria Inmon Kimball Kondisi Penelitian saat ini

Overall

Approach

Top-Down Bottom-up DesainData Mart menggunakan Dimensional

Modeling yaitu Tabel Fakta dan Tabel Dimensi

yang dibuat berdasarkan kebutuhan laporan

yang dibutuhkan spesifik terkait dengan

Cadangan Kerugian Penurunan Nilai dan

Pembiayaan pada Bank X. Tabel Fakta

Pembiayaan dengan pengukuran

outstandingyang diberikan, dengan Dimension

antara proses yang satu dengan yang lainnya

seperti Dimensi Flag Impairment, Dimensi

Segment, Dimensi Produk, Dimensi Cabang,

Dimensi Kolektibilitas dan Dimensi Jatuh

Tempo Pembiayaan (Maturity).

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 94: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

79

Universitas Indonesia

Kriteria Inmon Kimball Kondisi Penelitian saat ini

Data Orientation Subject or

Data Driven

Process

Oriented

Pendekatan dimulai dari pemahaman proses

bisnis dan aturan pembentukan nilai

penyisihan cadangan kerugian penurunan nilai

(CKPN) dari setiap pembiayaan pada Bank X

dari setiap aktivitas pencairan kredit kepada

nasabah. Proses akan menentukan pengukuran

(measurement) pada tabel Fakta dan dimensi

yang terkait dengan kebutuhan pelaporan.

Struktur Data Non metric

data that

will be

applied to

meet

multiple and

varied

information

needs

Business

metrics,

performan

ce

measures

and

scorecards

Sudah terdapat pengukuran akibat perhitungan

CKPN menurut standar PSAK 50/55. Data

sudah dikonsolidasikan menjadi data yang

terstruktur sesuai dengan kebutuhan bisnis.

Persistency of

Data

High rate of

change from

source

systems

Sumber

data

relative

stabil

Sumber Data bersifat fixed atau final diambil

dari core bankingyang relatif jarang berubah.

Apabila terdapat perubahan dari sisi core

banking akan dilakukan remapping ulang di

dari sumber data ke data staging, kemudian ke

data model Datamart PSAK.

Data Integration

Requirements

Enterprise

Wide

integration

Individual

business

area

Integrasi yang dilakukan adalah dari semua

sumber data dari core banking yang terkait

dengan seluruh data pembiayaan, tetapi tidak

termasuk data-data yang terkait dengan data

Dana Pihak ketiga (Tabungan, Deposito),

Treasury, Liabilities dan Surat Berharga.

Time to

Delivery

Organizatio

n’s

requirements

allow for

longer start

up time

Need for

the first

data

warehouse

applicant

is urgent

Sehubungan dengan Surat Edaran dari Bank

Indonesia, maka implementasi Datamart PSAK

ini akan diimplementasikan maksimum dalam

waktu 6 bulan dan wajib diimplementasikan

pada tahun 2014 untuk grup Bank Syariah.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 95: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

80

Universitas Indonesia

Kriteria Inmon Kimball Kondisi Penelitian saat ini Kemudahan

Akses

Pengguna/Siapa

Penggunanya

Low/IT High/End

User –

User dari

perwakilan

bisnis

Direct End User (Finance&Accounting, Risk

Management) akan senantiasa langsung

menggunakan data pelaporan ini untuk

kepentingan regulator (Bank Indonesia),

laporan antar cabang dan analisis profit and

loss (rugi laba) dari setiap cabang. Tujuannya

agar di bulan bulan yang akan datang dan

tahun yang akan datang dapat memberikan

input terhadap penyusunan strategi

pembiayaan dan manajemen risiko di Bank X.

Time Frame Kontinyu

dan Diskrit

Slowly

Changing

Dimension

(SCD)

Type I,

Type II,

Type III

Data-data yang digunakan bervariasi, misalnya

: dimensi segmentasi pembiayaan, dimensi

cabang, dimensi maturity profile, dimensi

kolektif grup merupakan SCD Type 2,

dimensi waktu, dimensi kolektibilitas, dimensi

flag Impairment merupakan SCD Type 0,

sedangkan dimensi customer merupakan SCD

Type I.

Nature of the

organization’s

decision support

requirements

Strategic Tactical Strategic, karena terkait dengan dampak dari

laporan keuangan suatu enterprise Bank dan

merupakan syarat compliance dari regulator.

Berdasarkan perbandingan karakteristik permodelan data warehouse Inmon dan

Kimball, arsitektur dengan model Kimball lebih tepat digunakan dalam

perancangan arsitektur data mart PSAK 50/55.

Arsitektur data mart PSAK 50/55 terdiri dari 4 bagian yaitu Data Source Layer,

Data Staging Layer, ETL Layer, dan User Access Layer yang dapat dilihat pada

Gambar 4.2

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 96: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

81

Universitas Indonesia

Gambar 4.2 Hasil Rancangan Arsitektur Data Mart PSAK 50/55

Keterangan dari Gambar4.2:

a. Data Source Layer ; Sumber data yang digunakan untuk relational database

PSAK dan reporting data mart PSAK 50/55 diperoleh dari Online Transaction

Processing(OLTP) yang tersimpan dalam operasional database sistem

pembiayaan, yang terdiri dari Host AS400, Credit Card, Joint Finance dan

sumber data yang berasal dari manual input oleh pengguna yaitu berbentuk

flat file dalam format Excel ataupun Text Files. Sumber data manual input ini

tidak tersedia didalam sistem OLTP Bank X yang terdiri dari user parameter

sesuai dengan persyaratan aturan PSAK 50/55, dan data-data yang tidak

tersedia pada masing-masing core banking system seperti data target CKPN,

data write off dan data recovery. Prosesnya berasal dari tabel database

operasional yang diekstraksi ke dalam bentuk teks file dan kemudian di-load

keareadata staging.

b. Staging Area Layer; merupakan proses ektraksi dan tempat penampungan

data dari masing-masing source system dengan struktur data yang sama

dengan asalnya. Ekstraksi masing-masing sumber data tersebut dalam bentuk

text files, kemudian dari text files akan dimuat ke tabel penampung dengan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 97: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

82

Universitas Indonesia

format text untuk semua data type yang ada didalamnya. Hal ini dimaksudkan

untuk memastikan konsistensi dan integritas data untuk seluruh sumber data

dapat termuat dengan sempurna. Sumber data tersebut berasal dari Core

Banking Database (Card, iLoan, JF, Transactional), MIS Database yang

menampung data Customer, ataupun data-data manual berasal dari input

pengguna dalam format Flat Files dengan template tertentu. Tempat Data

staging ini akan diletakkan ke masing-masing tabel penampung seperti tabel :

Loan Daily, Customer, Kurs Daily, Card Daily, Transaction Daily, dan lain-

lain.Selanjutnya dilakukan mapping dan transformasi tipe data yang sesuai

dengan tipe data masing-masing tabel di PSAK.

c. ETL Process Layer ; Pada proses ETL akan dilakukan proses Identify,

Capture, Map, Cleanse, Transform dan Load, dari raw data ke business logic

area. Proses loading data dari sumber data ke staging area dan dari staging

area ke downstream datamart. Sebagai bagian dari proses ETL, pengecekan

ketersediaan system, pengecekan jumlah dan pengecekan lainnya akan

dilakukan untuk memastikan jumlah data yang disediakan oleh sumber data

berhasil diproses. Dari staging layer, yang sumbernya adalah data-data dari 6

sumber database operasional masing-masing sistem pembiayaan (Card, ILN,

JF, Transactional) ditambah database MIS yang menampung data Customer,

serta manual input proses data (data writeoff, recovery, data override

impairment, data forecast dan user parameter PSAK 50/55) untuk

ditransformasi ke dalam relational database PSAK sampai dengan semua

proses bisnis yang diisyaratkan pada bagian analisa data dan kebutuhan

informasi selesai ditransformasi. Setelah proses perhitungan final, maka

seluruh data dari relational database PSAK akan di-load melalui proses ETL

ke Datamart PSAK 50/55 dengan model dimensional. Penjelasan dari proses

ETL sebagai berikut:

1. Ekstraksi dan Mapping ; Proses ETL dari data source berupa ekstraksi ke

text file dan dari teks file ke relational database PSAK Pada bagian ini

dari data staging dilakukan Map ke Model Data relational database

PSAK sesuai dengan kebutuhan PSAK yaitu ke tabel

PSAK_MASTER_ACCOUNT.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 98: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

83

Universitas Indonesia

2. Transformasi ke Model Data PSAK; merupakan model data yang

dibutuhkan untuk menghasilkan informasi Cadangan Kerugian Penurunan

Nilai (CKPN) sebagaimana dipersyaratkan oleh regulator Bank Indonesia

dan Ikatan Akuntan Indonesia menurut serangkaian business rule, antara

lain : proses segmentasi, klasifikasi impairment, perhitungan Probability

Default (PD) dan Loss Given Default (LGD), dan finalnya adalah proses

perhitungan CKPN Individual dan CKPN Kolektif. Bentuk database disini

adalah bersifat database relational. Database tersebut merupakan area

tempat penyimpanan data yang sudah dilakukan transformasi dan

standarisasi. Proses transformasi dari langkah pertama dan langkah kedua

merupakan proses persiapan data CKPN.

3. Transformasi sumber data yang tersedia ke tabel dimensi dan selanjutnya

adalah transformasi sumber data yang akan diload ke tabel fakta

disesuaikan dengan key pada tabel dimensi.

4. Load ke Datamart PSAK 50/55; Datamart untuk penyajian sangat

tergantung dengan proses sebelumnya berupa proses persiapan data

sebagai sumber data CKPN dan Pembiayaan serta proses transformasi data

sebelum di-load ke tabel fakta dengan menyesuaikan key pada tabel

dimensi. Data mart PSAK 50/55 ini dibangun berdasarkan kebutuhan

pelaporan dan analisa dari unit bisnis Divisi Akuntansi dan Keuangan serta

Divisi Manajemen Risiko dengan menggunakan teknik dimensional data

model menurut Kimball. Dari sumber relational database PSAK termasuk

hasil transformasi data yang sudah dilakukan, kemudian di-load ke

datamart PSAK yang terdiri dari tabel dimensi dan tabel fakta seuai

dengan keperluan pelaporan dan analisa CKPN sesuai dengan PSAK 50/55

di Bank X. Semua sumber tabel yang sudah di load ke datamart PSAK

berupa informasi final yang akan digunakan dalam kebutuhan pelaporan

dan analisa, yang mana merupakan area utama tempat penyimpanan data

yang bersifat final dan tidak dapat di-update berdasarkan subyek area

yang sudah dilakukan proses normalisasi dengan model 3NF.

User Access Layer. Pada layer ini terdiri dari Reporting Layer dan User

Access, dimana berisi objek yang digunakan untuk kebutuhan pelaporan,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 99: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

84

Universitas Indonesia

query dan analisis. Business Intelligence data mart dibangun dengan konsep

multi dimensional, yang terdiri dari tabel fakta dan tabel dimensi. Hasil akhir

dari pembentukan datamart akan digunakan oleh pengguna melalui aplikasi

business intelligence dan aplikasi reporting. Beberapa alternatif reporting

tools yang ada seperti Cognos Business Intelligence, Cognos Insight,

Microsoft Analytical services dan Reporting Services, Oracle Business

Intelligence, dan lain sebagainya dapat digunakan sebagai alternatif oleh

pengguna aplikasi dalam bentuk On Line Analytical Processing (OLAP) dan

dashboard untuk menampilkan informasi dan analisa informasi yang

dibutuhkan.

4.3 Perancangan Permodelan Data Warehouse

Pada bagian ini akan dijelaskan mengenai tahap-tahap permodelan datamart

menurut Ralph R Kimball dengan 9 langkah permodelan datamart.

4.3.1 Pemilihan Proses Bisnis (Choosing the process)

Proses bisnis yang dipilih pada penelitian ini adalah proses bisnis pembiayaan

atau kredit dan proses bisnis pembentukan Cadangan Kerugian Penurunan Nilai

sesuai dengan PSAK 50/55.

1. Proses bisnis Pembiayaan

Pembiayaan adalah penyediaan uang atau tagihan berdasarkan persetujuan dan

pinjam meminjam antara pihak lain yang mewajibkan pihak yang meminjam

untuk melunasi hutangnya setelah jangka waktu tertentu dengan perhitungan

bunganya. Proses Bisnis yang dipilih mencakup semua pembiayaan dengan

perjanjian yang termasuk ke semua jenis kredit, baik kredit investasi, modal kerja,

maupun konsumsi yang diawali dengan perjanjian terlebih dahulu misalnya;

Kredit Konsumen, Kredit Modal Kerja, Kredit Pemilikan Rumah, Kredit

Kendaraan Bermotor, Kredit Multiguna, Kredit Sindikasi, Kredit Korporasi,

Kredit Mikro, Pembiayaan Haji dan Umroh dan lain sebagainya.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 100: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

85

Universitas Indonesia

Dimulai dari penandatangan perjanjian kredit, kemudian pencatatan biaya notaris,

asuransi, appraisal independen, Materai, dan lain-lain. Pencatatan penyediaan

plafon kredit (dicatat pada Off Balance Sheet), pencatatan penerimaan Provisi,

Komitmen Fee, Management Fee, dan Administrasi Pencatatan Amortisasi

Provisi, dan Fee lainnya, Pencataan Penggunaan Plafon (Reversal Off Balance

Sheet) sampai dengan Pencatatan Pencairan Kredit. Setelah proses pencarian

kredit merupakan dimulainya akad pembiayaan sampai dengan berakhirnya akad

pembiayaan. Berakhirnya akad pembiayaan ini dapat disebabkan karenalunas

sesuai jatuh tempo pembiayaan, dilakukan pelunasan dipercepat, atau dihapus

buku karena tidak mampu memenuhi kewajiban. Proses yang ada di dalamnya

yaitu pencatatan bunga harian, pencatatan pembayaran angsuran pokok dan

bunga, pencatatan pembayaran tunggakan bunga dan tunggakan pokok (jika ada),

proses restrukturisasi kredit, pencatatan pelunasan dipercepat atau pada saat jatuh

tempo, pencatatan hapus buku / hapus tagih, pencatatan pembayaran setelah hapus

buku / hapus tagih.

Pertumbuhan pembiayaan menjadi tolak ukur bagi manajemen Bank bank sebagai

pencapaian kinerja penyaluran kredit di pasar di semua segmentasi serta didukung

dengan kualitas pembiayaan yang baik yang diindikasikan dengan Non Perfoming

Loan Ratio yang cukup kecil.

2. Proses bisnis Pembentukan Cadangan Kerugian Penurunan Nilai pada produk

pembiayaan

Penyisihan kerugian kredit (Loan-Loss Provisioning) adalah penyisihan

(provisioning) kerugian atas portfolio kredit dan pendanaannya yang mengalami

penurunan nilai ekonomi. Nilai ekonomi dari portfolio kredit dapat naik atau

turun disebabkan karena adanya perubahan dengan kualitas kredit (dicerminkan

dengan rating kolektibilitas Bank Indonesia ) yaitu jika terjadi masalah terhadap

itikad baik (willingness to pay) dan kemampuan debitur untuk melunasi kredit

beserta pinjamannya (ability to pay).

Pembentukan CKPN ini didasarkan atas klasifikasi CKPN, pengelompokan

karakteristik kredit berdasarkan profil risiko pembiayaan (collective group),

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 101: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

86

Universitas Indonesia

penentuan metode statistika dalam menghitung PD dan LGD, perhitungan PD,

perhitungan LGD, perhitungan CKPN secara kolektif yaitu dengan mengalikan

PD x LGD x Outstanding. Sedangkan perhitungan CKPN individual dengan

menggunakan estimasi arus kas yang dapat terpulihkan, penentuan impaired loan

ratio, dan penentuan target pembentukan CKPN.

4.3.2 Pemilihan Grain (Choosing the Grain)

Grain atau granularity adalah informasi yang akan direpresentasikan oleh record

dari tabel fakta. Grain merupakan data detail dari data di tabel Fakta yang dapat

dianalisis, yaitu bagaimana mendeskripsikan single row di tabel fakta di level

yang paling kecil sesuai dengan kebutuhan analisa.

1. Pembiayaan

- Cabang yang memiliki kontribusi pembiayaan paling tinggi di suatu

periode

- Segmentasi yang memiliki kontribusi pembiayaan paling tinggi di suatu

periode

- Produk dan segmentasi mana saja yang memiliki kontribusi skema

maturity profile / tingkat pembiayaan berdasarkan lamanya umur jatuh

tempo

- Produk pembiayaan mana yang paling banyak diminati

- Produk pembiayaan yang paling diminati untuk mata uang valas

- Produk / segment / cabang mana saja yang mana pembiayaannya

mengalami mengalami tingkat non performing loan yang tinggi. Non

Performing Loan yaitu pembiayaan yang mempunyai nilai kolektibilitas

3,4,dan 5

- Rasio Non perfoming loan terhadap total pembiayaan per cabang dalam

periode tertentu.

- Distribusi pembiayaan yang mengalami perubahan kolektibilitas (ke lebih

baik atau lebih buruk atau pembiayaan tersebut matured) yang paling

besar pada bulan sebelumnya per masing-masing produk, segment,

currency, cabang.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 102: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

87

Universitas Indonesia

- Distribusi pembiayaan yang perubahan kolektibilitasnya tetap (tidak

berubah) per masing-masing produk, segment, currency, cabang

- Distribusi pembiayaan yang perubahan kolektibilitasnya tetap (tidak

berubah) per masing-masing produk, segment, currency, cabang

Dari kebutuhan analisa diatas, maka level granularitas untuk bisnis proses

pembiayaan di level cabang, segment, produk, currency, movement kolektibilitas,

maturity profile code, dan bi kolektibilitas. Namun untuk membentuknya harus

dibuat pada level account number, mengingat kebutuhan analisa dari maturity

profile yang dilihat per level account number, dan kebutuhan analisa dari

perubahan kolektibilitas

2. Penyisihan Cadangan Kerugian Penurunan Nilai

- Nilai CKPN Individual dan CKPN Kolektif per customer number

- Nilai CKPN Kolektif yang memberikan kontribusi terbesar per collective

impairment group pada periode waktu tertentu.

- Nilai Persentase PD (Probability Default) pada masing-masing collective

impairment group, kolektibilitas dan periode waktu.

- Nilai Persentase LGD (Loss Given Default) untuk setiap collective

impairment group, kolektibilitas dan periode waktu.

- Snapshot dari cabang dengan Movement Charged CKPN terbesar pada

periode waktu tertentu.

- Snapshot dari cabang dengan Movement Released CKPN terbesar pada

periode waktu tertentu.

- Snapshot dari cabang yang memiliki kontribusi CKPN berdasarkan

impairment flag (individual dan kolektif) terbesar

- Cabang mana yang memiliki Impairment Loan Ratio (total CKPN / total

pembiayaan) terbesar

- Cabang mana yang mempunyai nilai variance CKPN actual dan CKPN

forecast terbesar. Nilai Variance didapat dari prekalkulasi Forecast CKPN

dikurangi CKPN actual

- Cabang mana yang mempunyai selisih perbandingan provisi menggunakan

PPAP dan CKPN

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 103: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

88

Universitas Indonesia

Dari kebutuhan analisa diatas, maka level granularitas untuk bisnis proses

Penyisihan Cadangan Kerugian Penurunan Nilai (CKPN) berada pada level

customer_number (group by customer_number). Tabel 4.5 merupakan tabel

pemilihan grain atas masing-masing informasi yang dapat dianalisa

Tabel 4. 5 Tabel pemilihan grain atas informasi yang dapat dianalisa Granularitas Keterangan

Nilai Pembiayaan

(outstanding)

Nilai pembiayaan (outstanding) didapat dari summarize dari nilai

outstanding dari setiap produk / segmentasi pada periode tertentu

(bulan, kuartal, tahun) untuk masing-masing currency/mata uang

Nilai Plafond

Pembiayaan/kredit (plafond)

Nilai plafond atau batas kredit tertinggi yang dapat diberikan oleh

Bank terhadap masing-masing debitur, didapat dari summarize

nilai plafond dari setiap produk, segment, mata uang pada periode

tertentu (bulan, kuartal, tahun)

Nilai Non Performing Loan Nilai Outstanding yang mengalami kriteria non performing loan

yaitu dengan kondisi nilai kolektibilitas di 3,4, 5 yang didapat dari

summarize setiap cabang, produk dan segmentasi pembiayaan per

masing-masing currency/mata uang pada setiap periode

Nilai Rasio Non Perfoming

Loan

Nilai Rasio Non Performing Loan didapatkan dari pembagian

antara summary pembiayaan yang kolektibilitasnya mulai dari

kolektibilitas 3, 4, 5 dibagi dengan total pembiayaan per masing-

masing cabang pada periode tertentu (bulan, kuartal, tahun)

Nilai CKPN Nilai Cadangan Kerugian Penurunan Nilai didapat dari summarize

nilai CKPN individual dan CKPN kolektif per masing-masing

account pada periode tertentu (bulan, quartal, tahun)

Nilai CKPN Individual Nilai Cadangan Kerugian Penurunan Nilai didapat dari summarize

nilai ckpn individual per masing-masing account pada periode

tertentu (bulan, quartal, tahun)

Nilai CKPN Kolektif Nilai Cadangan Kerugian Penurunan Nilai didapat dari summarize

nilai ckpn kolektif per masing-masing account pada periode

tertentu (bulan, quartal, tahun)

Nilai Movement (Charged)

CKPN

Nilai movement charged CKPN didapat dari summarize selisih

nilai CKPN bulan pelaporan dikurangi dengan nilai CKPN bulan

sebelumnya per masing-masing nomor pembiyaaan dengan kondisi

nilai CKPN bulan pelaporan > nilai CKPN bulan sebelumnya

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 104: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

89

Universitas Indonesia

Granularitas Keterangan

Nilai Movement (Released)

CKPN

Nilai movement charged CKPN didapat dari summarize selisih

nilai CKPN bulan pelaporan dikurangi dengan nilai CKPN bulan

sebelumnya per masing-masing nomor pembiyaaan dengan kondisi

nilai CKPN bulan pelaporan < nilai CKPN bulan sebelumnya

Nilai Rasio Impaired Loan Nilai rasio Impaired Loan didapat dari summarize pembagian nilai

total CKPN (Individual dan Kolektif) dibagi dengan nilai

pembiayaan per masing-masing produk pada periode tertentu

(bulan, quartal, tahun)

Nilai Persentase PD

(Probability Default)

Nilai persentase PD probability default yang didapat dari proses

perhitungan atau transformasi dari hasil segmentasi collective

group pada setiap periode. Nilai persentase PD di level collective

group dan kolektibilitas untuk setiap periode tertentu

Nilai Persentase LGD (Loss

Given Default)

Nilai persentase LGD Loss Given Default didapat dari hasil

segmentasi collective group pada setiap periode. Nilai Persentase

LGD ini di level collective group bukan di level account

pembiayaan. Granularitasnya di collective group.

Nilai Persentase PD x LGD

atau Expected Loss Rate

Nilai persentase PD dikalikan dengan nilai persentase LGD untuk

masing-masing collective group dan kolektibilitas pada setiap

periode tertentu

Nilai Maximum BI

Kolektibilitas

Nilai maksimum BI Kolektibilitas didapat dari summarize nilai

maksimum dari kolektibilitas per masing-masing customer number

Nilai Variance Forecast

CKPN dengan Actual

Nilai variance forecast CKPN dengan Aktual CKPN ini didapat

dari summarize selisih Forecast CKPN dan CKPN actual pada

setiap cabang dan periode tertentu (bulan, kuartal, tahun).

Nilai PPAP (Penyisihan

Penghapusan Aktiva

Produktif)

Nilai PPAP di dapat dari summarize nilai PPAP pada setiap cabang

dan periode tertentu (bulan, kuartal, tahun)

4.3.3 Identifikasi dan Penyesuaian Dimensi (Identifiying and Conforming the

Dimensions)

Berikut ditampilkan hubungan dimensi dengan grain dari fakta dalam bentuk

matriks :

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 105: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

90

Universitas Indonesia

1. Pembiayaan

Setelah dilakukan pemilihan proses bisnis dan pemilihan grain, maka fase ini

akan menjelaskan identifikasi dan penyesuaian dimensi dari setiap grain yang

sudah dipilih. Tabel 4.6 menjelaskan hubungan antara grain dan kemungkinan

dimensi pada bisnis proses pembiayaan.

Tabel 4. 6 Tabel Grain dan Dimensi pada Pembiayaan

2. Pembentukan Cadangan Kerugian Penurunan Nilai

Tabel 4.7 menjelaskan hubungan antara masing-masing grain dan kemungkinan

dimensi pada bisnis proses pembentukan CKPN.

Tabel 4.7 Tabel Grain dan Dimensi pada Pembentukan CKPN

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 106: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

91

Universitas Indonesia

Daftar tabel dimensi yang berkaitan dengan datamart PSAK dapat dilihat pada

Tabel 4.8.

Tabel 4.8 Tabel Identifikasi Dimensi

Dimensi Keterangan

Period Menyimpan informasi keterangan waktu harian, bulanan,

quarter, semester dan tahunan.

Segment Menyimpan informasi mengenai segmentasi pembiayaan untuk

semua jenis kredit.

Collective Group Menyimpan informasi parameter konfigurasi group dari kredit

yang mempunyai karakteristik kredit yang homogen untuk

proses perhitungan PD dan LGD. Didasarkan atas segment dari

pembiayaan.

Currency Menyimpan informasi mengenai jenis-jenis mata uang yang ada

dengan hirarki valas, non valas, currency code dan deskripsi

dari mata uang

Branch Menyimpan informasi cabang dari Bank X termasuk regional

area terkait

Kolektibilitas Menyimpan informasi kolektibilitas Bank Indonesia sebagai

profil risiko setiap debitur (1, 2,3,4, 5)

Produk Menyimpan informasi mengenai produk pembiayaan yang ada

di Bank X untuk seluruh akad pembiayaan

Movement Collect Menyimpan informasi pergerakan atau perubahan kolektibilitas

Maturity Profile Bucket Menyimpan informasi mengenai range atau sebaran kelompok

jatuh tempo pembiyaaan

Impairment Flag Menyimpan informasi klasifikasi impairment yaitu Collective

Assessment dan Individual Assessment

Customer Meyimpan informasi mengenai debitur

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 107: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

92

Universitas Indonesia

4.3.4 Pemilihan Fakta (Choosing the Fact)

Di dalam memilih Fakta sebaiknya fakta merupakan data dapat dihitung, dimana

dapat ditampilkan dalam bentuk laporan, grafik, atau berbagai macam diagram.

Biasanya nilai yang dapat diukur terkait dengan pengukuran dari kinerja bisnis.

Berikut ini adalah fakta dalam penerapan datamart

1. Fakta Pembiayaan: Fakta yang berkaitan dengan analisis portfolio

pembiayaan dari Bank X dari sisi total plafond kredit yang diberikan, total

pembiayaan yang diberikan, total pembiayaan yang mengalami non

perfoming, ratio non performing loan dibandingkan pembiayaan yang paling

tinggi. Fakta pembiayaan ini dikelompokkan berdasarkan cabang, produk,

currency, segmentasi, BI kolektabilitas, kelompok pembiayaan yang akan

jatuh tempo, dan pergerakan kolektibilitas untuk setiap periode waktu.

2. Fakta Cadangan Kerugian Penurunan Nilai: Fakta yang berkaitan dengan

analisa pembentukan cadangan kerugian penurunan nilai pada portfolio kredit

pembiayaan di Bank X, seperti Customer mana yang memberikan top – n

kontribusi CKPN Individual, Segmentasi mana yang memberikan CKPN

terbesar dalam setiap bulan, Ratio Impaired Loan dibadingkan dengan total

pembiayaan yang paling tinggi dari setiap cabang, Cabang mana yang

memiliki variance forecast CKPN dan Actual CKPN yang paling tinggi.

Pergerakan mutasi (charged/released) CKPN setiap bulan. Nilai Probability

Default Rate, Loss Given Default Rate dan Expected Loss Rate per masing-

masing collective group of impairment.

4.3.5 Penyimpanan Pre-Calculation pada Tabel Fakta (Storing Pre-

Calculation in the Fact Tabel)

Ketika Fakta dipilih, maka setiap fakta tersebut harus diuji apakah ada fakta yang

dapat digunakan sebagai kalkulasi awal, yang kemudian disimpan pada tabel

fakta. Berikut ini merupakan kalkulasi awal yang dapat dilakukan, untuk

selanjutnya disimpan dalam tabel fakta:

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 108: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

93

Universitas Indonesia

a. FACT_LOAN

- SumOfOutstanding : SUM(Outstanding), disimpan ke dalam tabel fakta pada

field Outstanding

- CountOfNumberOfAccount : COUNT(Account_Number) disimpan ke dalam

tabel fakta pada field NumberOfAccount.

- SumOfPlafond : SUM(Plafond), disimpan ke dalam tabel fakta pada field

Plafond.

- SumOfNonPerfomingLoan : SUM(NonPerformedLoan) dengan kondisi field

BI_Collectability in (3, 4, 5) di kelompokkan berdasarkan cabang. Kemudian

disimpan ke dalam tabel fakta pada field NonPerfomingLoan.

- SumOfRatioNPL : SUM(NonPerfomedLoan)/SUM(Outstanding) di

kelompokkan berdasarkan cabang, kemudian disimpan ke dalam tabel fakta

field NPL_RATIO

- Konversi perbedaan tanggal jatuh tempo (field : LOAN_DUE_DATE) ke

tanggal pelaporan (DOWNLOAD_DATE) dengan menggunakan formula date

difference antara tanggal pelaporan dan tanggal jatuh tempo

DATEDIFF(DAY, DOWNLOAD_DATE,LOAN_DUE_DATE) kemudian di-

look up ke tabel dimension DIM_MATURITYPROFILE field

MATURITYPROFILE_SK untuk range mapping result dari hasil kalkulasi

day difference.

- Transformasi pergerakan kolektibilitas per masing-masing account number

dari bulan lalu ke bulan pelaporan dengan menggabungkan nilai kolektibilitas

bulan lalu ditambahkan dengan character ‘-‘ lalu nilai kolektibilitas bulan ini.

Script transformasi : CONVERT(varchar(1),A.bi_collectability) + '-' +

CONVERT(varchar(1),B.bi_collectability) . Hasil transformasi itu dilookup ke

tabel dimensi DIM_COLLECTIBILITY_MOVEMENT field

COLLECTMOVEMENT_DESC.

Semua data yang dihitung dikelompokkan (group by) berdasarkan tanggal

pelaporan (download_date), akad_code, segment, currency, area_code,

main_branch_code, branch_code, bi_collectability, product_code,

collectmovement_sk, maturityprofile_code.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 109: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

94

Universitas Indonesia

b. FACT_CKPN

- Jumlah Account Number per masing-masing Customer Number :

Count(Account_Number) grouped by customer_number

- SumOfCKPNForecast : SUM(CKPN_Forecast). Granularitas Data CKPN

Forecast adalah di level Cabang. Untuk melakukan breakdown ke level

Customer maka di-prorate berdasarkan outstanding dari setiap customer di

suatu cabang. CKPN_Forecast per masing-masing customer number =

CKPN_Forecast * Oustanding / SUM(Outstanding) group by customer

number.

- VarianceCKPNForecast_Aktual. Nilai variance didapat dari prekalkulasi

CKPN_Forecast – CKPN di level customer number.

- Percentage of ExpectedLossModel : PD Percentage x LGD Percentage per

collective impairment group

- SumOfCKPNIndividual : SUM(IIP_AMOUNT). Penjumlahan agregasi dari

nilai CKPN Individual.

- SumOfCKPNKolektif : SUM(PIP_AMOUNT). Penjumlahan agregasi dari

nilai CKPN Kolektif

- SumOfCKPNTotal : SUM(CKPN). Penjumlahan agregasi dari nilai CKPN

Individual ditambah dengan nilai CKPN kolektif.

- SumOfMovementCharged: sum(CHARGE). Charged didapat dengan

mengurangi Total CKPN bulan pelaporan (month-n) dikurangi Total CKPN

bulan lalu (month-n-1) per customer number.

- SumOfMovementReleased : sum(WRITEBACK). Apabila nilai CKPN bulan

ini lebih kecil daripada CKPN bulan lalu, termasuk didalamnya akun

pembiayaan yang sudah hilang/closed. Nilai defaultnya dalam bentuk bilangan

negatif yang didapat dari hasil kalkulasi nilai total CKPN bulan ini dikurangi

dengan nilai total CKPN bulan lalu.

- SumOfRatioImpairmentLoan : Total CKPN / Total Outstanding per cabang

- PPAP didapat dengan mengalikan persentase tertentu dengan outstanding

dalam mata uang rupiah, sesuai dengan nilai dari masing-masing kolektibilitas

per customer number. PPAP dengan kolektibilitas 1 adalah nilai outstanding

dikalikan dengan 1%, jika kolektibilitas 2, maka nilai outstanding dikalikan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 110: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

95

Universitas Indonesia

dengan 5%, jika kolektibilitas 3 maka nilai outstanding dikalikan dengan 15%,

jika kolektibilitas 4 maka nilai outstanding dikalikan dengan 50% dan jika

kolektibilitas 5 maka nilai outstanding dikalikan dengan 100%.

- maxOfBICollectability: max(BI_COLLECTABILITY) adalah nilai

maksimum kolektibilitas per masing-masing customer_number.

4.3.6 Melengkapi Tabel Dimensi (Rounding Out the Dimension Tabel)

Menambahkan sebanyak mungkin property atribut deskripsi teks dan tabel

dimensi. Deskripsi tersebut harus intuitif dan dapat dimengerti oleh pengguna.

Berikut ini adalah hal-hal yang dilakukan pada tahapan ini :

a. Tabel Rounding Out Dimension. Tabel 4.9 menjelaskan penggunaan dimensi,

informasi, deskripsi dan hirarki dari informasi.

Tabel 4.9 Tabel Penjelasan Dimensi

No Dimensi Field Deskripsi Hierarki 1. Period Date

Month

Quarter

Semester

Year

Menyimpan informasi

keterangan waktu harian,

bulanan, quarter, semester dan

tahunan.

Year

Semester

Quarter

Month

Date

2. Akad Akad_Code

Akad_Desc

Menyimpan informasi

mengenai tipe-tipe akad

pembiayaan di Bank X

Akad Code

3. Segment Akad_Code

Product_Group

Segment_Level_1_Code

Segment_Level_1_Desc

Segment_Level_2_Code

Segment_Level_2_Desc

Segment_Level_3_Code

Segment_Level_3_Desc

Menyimpan informasi

mengenai segmentasi

pembiayaan untuk semua jenis

kredit.

Akad_Code

Segment_Level_1

_Code

Segment_Level_2

_Code

Segment_Level_3

_Code

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 111: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

96

Universitas Indonesia

No Dimensi Field Deskripsi Hierarki 4. Collective

Group

Impairment_Code

Impairment_Group

Menyimpan informasi

parameter konfigurasi group

dari kredit yang mempunyai

karakteristik kredit yang

homogen untuk proses

perhitungan PD dan LGD.

Didasarkan atas segment dari

pembiayaan.

Impairment_Grou

p

5. Currency Currency Group

Currency Code

Currency Desc

Menyimpan informasi

mengenai jenis-jenis mata uang

yang ada dengan hirarki valas,

non valas, currency code dan

deskripsi dari mata uang

Currency Group

Currency Code

6. Branch Branch_Code

Branch_Name

Main_Branch_Code

Main_Branch_Name

Area_Code

Area_Name

Menyimpan informasi cabang

dari Bank X termasuk regional

area terkait

Branch

Main Branch

Area

7. Kolektibilitas Collectibility Code

Collectibility Desc

Menyimpan informasi

kolektibilitas Bank Indonesia

sebagai profil risiko setiap

debitur (1, 2,3,4, 5)

Collectibility

Code

8. Produk Akad Code

Akad Desc

Product Code

Product Description

Menyimpan informasi

mengenai produk pembiayaan

yang ada di Bank X untuk

seluruh akad pembiayaan

Akad Code

Product Code

9. Movement

Collect

Movement_Coll_Code

Movement_Coll_Desc

Menyimpan informasi

pergerakan atau perubahan

kolektibilitas

Movement

Collect Code

10. Maturity

Profile Bucket

MaturityProfile_ID

MaturityProfile_Desc

Menyimpan informasi

mengenai range/sebaran

kelompok jatuh tempo

pembiyaaan

MaturityProfile_C

ode

11. Impairment

Flag

Impairment_Flag

Impairment_Desc

Menyimpan informasi

klasifikasi impairment yaitu

Collective dan Individual

Impairment Flag

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 112: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

97

Universitas Indonesia

No Dimensi Field Deskripsi Hierarki 12. Customer Customer Meyimpan informasi mengenai

Customer

Customer

b. Daftar Tabel-Tabel Dimensi dan Struktur Datanya

Tabel 4.10 sampai dengan Tabel 4.23 menjelaskan rincian sturktur data dari

masing-masing ke-14 dimensi.

1. Dimensi Period : DIM_PERIOD

Tabel 4.10 Deskripsi Tabel DIM_PERIOD

Nama Field Tipe

Data

Ukuran Keterangan

Period_SK int Primary Key dari Dimensi Period

DIM_YEAR Int Periode Tahun

DIM_SEMESTER Varchar 10 Periode Semester, Format S1 - [TAHUN] dan S2 -

[tahun]

DIM_QUARTER Varchar 20 Periode Quarter, Format : Q1, Q2, Q3, Q4

DIM_MONTH Varchar 10 Periode Bulan, Format : [Tahun]-Jan, [Tahun]-Feb,

dst

DIM_DATE Date Periode Tanggal, Format : yyyy-mm-dd

ISEOQ Varchar 1 Keterangan Akhir Quarter, Diisi Y jika akhir Kuartal

dan N jika bukan akhir kuartal

ISEOY varchar 1 Keterangan Akhir Tahun, Diisi Y jika akhir Tahun

dan N jika bukan akhir tahun

CreatedDate Date Tanggal dimana Dimensi Period ini dicreate dan

diupdate

2. Dimensi Akad : DIM_AKAD

Tabel 4.11 Deskripsi Tabel DIM_AKAD Nama Field Tipe

Data

Ukuran Keterangan

Akad_Code varchar 1 Primary Key; Kode Pembiayaan berdasarkan

tipe dari akad. Kodenya adalah A, B, C, D, E

Akad_Description varchar 50 Nama Akad. Contoh : Murabahah, Mudharabah,

Musyarakah, Qardh, Ijaroh

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 113: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

98

Universitas Indonesia

Nama Field Tipe

Data

Ukuran Keterangan

UpdatedDate date Tanggal dimana Dimensi Currency ini diupdate

CreatedDate date Tanggal dimana Dimensi Currency ini dicreate

dan diupdate

3. Dimensi Segment :

DIM_SEGMENT

Tabel 4. 12 Deskripsi Tabel DIM_SEGMENT Nama Field Tipe

Data

Ukuran Keterangan

Segment_SK Int 4 Primary Key dari Dimensi Segment

Akad_Code varchar 1 Foreign Key ; Akad Code

Segment_Level_1_Code int Kode dari Segmentasi Level 1

Segment_Level_1_Desc Varchar 50 Consumer, Non-Consumer

Segment_Level_2_Code int Kode dari Segmentasi Level 2

Segment_Level_2_Desc Varchar 50 Corporate, Retail-SME, Consumer

Segment_Level_3_Code int Kode dari Segmentasi Level 3

Segment_Level_3_Desc varchar 50 11,12,13,14,15, 21, 31, 41, 42, 43, 44, 45, 46,

47, 48

UpdatedDate date Tanggal dimana Dimensi Currency ini

diupdate

CreatedDate date Tanggal dimana Dimensi Currency ini

dicreate dan diupdate

4. Dimensi Collective Group

Nama Tabel DIM_IMPAIRMENT_GROUP

Tabel 4. 13 Deskripsi Tabel DIM_IMPAIRMENT_GROUP

Nama Field Tipe

Data

Uku

ran

Keterangan

ImpairmentGroup

_SK

int 4 Primary Key dari Dimensi Impairment Group yang didapat

dari Parameter Segment dengan Impairment Group

Impairment_Grou

p

varchar 50 Description dari Impairment Group

UpdatedDate date Tanggal dimana Dimensi Currency ini diupdate

CreatedDate date Tanggal dimana Dimensi Currency ini dicreate dan diupdate

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 114: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

99

Universitas Indonesia

5. Dimensi Currency :

Nama Tabel DIM_CURRENCY

Tabel 4 14 Deskripsi Tabel DIM_CURRENCY Nama Field Tipe Data Ukuran Keterangan

Currency_Group Varchar 3 Diisi dengan Valas/Foreign Currency =FCY dan non

valas = IDR

Currency_Code Varchar 3 Primary Key; Mata uang dari masing-masing kurs.

Currency_Desc varchar 200 Deskripsi dari mata uang

UpdatedDate date Tanggal dimana Dimensi Currency ini diupdate

CreatedDate date Tanggal dimana Dimensi Currency ini dicreate dan

diupdate

6. Dimensi Area

Tabel 4.15 Deskripsi Tabel DIM_AREABRANCH Nama Field Tipe Data Ukuran Keterangan

AreaBranch_SK Int 4 Surrogate Key dari Dimensi AreaBranch

Area_Code Int 4 Kode Area

Area_Desc Varchar 200 Nama Area

UpdatedDate date Tanggal dimana Dimensi Area Branch ini diupdate

CreatedDate date Tanggal dimana Dimensi Area Branch ini dibuat

7. Dimensi Main Branch

Tabel 4.16 Deskripsi Tabel DIM_MAINBRANCH Nama Field Tipe Data Ukuran Keterangan

MainBranch_SK Int Surrogate Key dari Dimensi MainBranch

AreaBranch_SK Int Foreign Key dari Tabel DIM_AREABRANCH

Main_Branch_Code Int 5 Kode Cabang Utama

Main_Branch_Name Varchar 200 Nama Cabang Utama

UpdatedDate Date Tanggal dimana Dimensi Main Branchini diupdate

CreatedDate Date Tanggal dimana Dimensi Main Branch ini dibuat

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 115: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

100

Universitas Indonesia

8. Dimensi Branch

Tabel 4.17 Deskripsi Tabel DIM_BRANCH

Nama Field Tipe Data Ukuran Keterangan

Branch_SK Int Surrogate Key dari Dimensi Branch

MainBranch_SK int Foreign Key dari Tabel DIM_MAINBRANCH

Branch_Code varchar 5 Kode Cabang

Branch_Name Varchar 200 Nama Cabang

UpdatedDate date Tanggal dimana Dimensi Branch ini diupdate

CreatedDate date Tanggal dimana Dimensi Product ini dicreate

9. Dimensi Kolektibilitas

Tabel 4. 18 Deskripsi Tabel DIM_COLLECTIBILITY

Nama Field Tipe Data Ukuran Keterangan

Collectibility_Code Int 4 Primary Key; Kode Kolektibilitas

Collectibility_Desc varchar 5 Deskripsi dari Kolektibilitas

CreatedDate Date Tanggal dimana Dimensi Collectibility ini

degenerate dan diupdate

10. Dimensi Produk

Tabel 4.19 Deskripsi Tabel DIM_PRODUCT

Nama Field Tipe Data Ukuran Keterangan

Product_SK Int 4 Surrogate Key dari Dimensi Product

Akad_Code Int 4 Kode Dari Akad – Link dari Dimensi Akad

(Akad_Code)

Product_Code varchar 5 Kode Dari Product Pembiayaan untuk masing-

masing akad

Product_Desc varchar 200 Deskripsi dari Product

CreatedDate Date Tanggal dimana Dimensi Product ini degenerate dan

diupdate

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 116: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

101

Universitas Indonesia

11. Dimensi Movement Kolektibilitas

Tabel 4.20 Deskripsi Tabel DIM_COLLECTABILITY_MOVEMENT

Nama Field Tipe Data Ukuran Keterangan

CollectMovement_SK Int 4 Primary Key dari Dimensi Movement

Collectability

CollectMovement_Desc varchar 5 Akan diisi dengan deskripsi berikut : 1-0, 1-1, 1-

2, 1-3, 1-4, 1-5, 2-1, 2-2, 2-3, 2-4, 2-5, 3-1, 3-2,

3-3, 3-4, 3-5, 4-1, 4-2, 4-3, 4-4, 4-5

5-1, 5-2, 5-3, 5-4, 5-5, 1-0, 2-0, 3-0, 4-0, 5-0.

CollectMovement_Flag varchar 200 0 : Account pembiayaan sudah non-aktif yang

mungkin disebabkan karena matured sesuai

tanggal jatuh tempo, atau mengalami pelunasan

dipercepat atau sudah di writeoff (WO)

1 : Tidak Mengalami Perubahan Kolektibilitas

dari bulan pelaporan ke bulan lalu

2: Mengalami perubahan kolektibilitas yang

membaik dari bulan pelaporan ke bulan lalu

3: Mengalami perubahan kolektibilitas yang

memburuk dari bulan pelaporan ke bulan lalu

CreatedDate Date Tanggal dimana Dimensi Movement

Collectabilityini diupdate

12. Dimensi Maturity Profile

Tabel 4. 21 Deskripsi Tabel DIM_MATURITY_PROFILE

Nama Field Tipe Data Ukuran Keterangan

MaturityProfile_SK Int 4 Surrogate Key dari Dimensi Maturity Profile

MaturityDayFrom Int 4 Diisi dengan jumlah range hari

MaturityDayTo Int 4 Diisi dengan jumlah range hari

MaturityProfile_Desc Varchar 50 Up to 1 month, >1 to 3 months, >3 to 6 months, >6

months to 1 year, >1 to 3 years, >3 to 5 years, Over 5

years.

CreatedDate Date Tanggal dimana Dimensi Maturity Profile ini

degenerate dan diupdate

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 117: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

102

Universitas Indonesia

13. Dimensi Impairment Flag

Tabel 4.22 Deskripsi Tabel DIM_IMPAIRMENT_FLAG Nama Field Tipe Data Ukuran Keterangan

ImpairmentFlag_Code varchar 2 Primary Key

Kode yang digunakan adalah C dan I

ImpairmentFlag_Desc Varchar 100 C= Collective Assesment, I= Individual Assesment

CreatedDate Date Tanggal dimana Dimensi Impairment Flag ini

degenerate atau diupdate

14. Dimensi Customer

Tabel 4.23 Deskripsi Tabel DIM_CUSTOMER

Nama Field Tipe Data Ukuran Keterangan

Customer_SK int 4 Surrogate Key dari Dimensi Impairment Flag

Customer_Number varchar 50 Kode Customer

Global_Customer_Number varchar 50 Kode Global Customer Number

Customer_Name Varchar 300 Nama Dari Customer

Customer_Grade varchar 5 Internal Rating dari Customer

Customer_Type varchar 5 Type dari customer (resident, non resident)

CreatedDate date Tanggal dimana Dimensi Impairment Flag ini

diupdate

c. Perancangan Skema

Dalam perancangan datamart ini, skema yang digunakan adalah skema bintang

untuk masing-masing Tabel Fakta dan Tabel Dimensi yang terkait. Dimana

terdapat tabel dimensi yang digunakan antara beberapa tabel Fakta yang berbeda

sehingga menyebabkan relational many to one antara foreign key pada kedua

tabel fakta tersebut. Dimensi tersebut antara lain adalah Dimensi Period, Dimensi

Product, Dimensi Segment, Dimensi Kolektibilitas, Dimensi Currency atau

disebut sebagai Conformed Dimension. Pemecahan skema tersebut berdasarkan

tabel fakta nya, digambarkan dalam skema-skema berikut dibawah ini :

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 118: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

103

Universitas Indonesia

MEA

SURE

MEN

T

Gambar 4.3 Skema Pembiayaan (Loan)

Gambar 4.3 menggambarkan mengenai skema pembiayaan yang menunjukkan

jumlah transaksi pembiayaan dengan berbagai pengukurannya. Skema

pembiayaan ini yang dibentuk dari 10 tabel dimensi dan 1 tabel fakta Tabel Fakta

terdiri dari field-field yang berkaitan dengan dimensi (download_date, akad_code,

segment_sk, currency_code, main_branch_code, branch_code, bi_collectability,

product_code, collectmovement_sk, maturityprofile_sk) dan field-field yang

berkaitan dengan measurement (outstanding, numberofaccount, plafond,

nonperfomingloan, npl_ratio).

Relational skema bintang ini melibatkan masing-masing 1 primary key pada tabel

dimensi dan 1 foreign key pada tabel fakta yang terkait dengan dimensi

tersebut.Tujuannya adalah untuk mendapatkan response time yang cepat dalam

proses mengakses data pembiayaan.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 119: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

104

Universitas Indonesia

Gambar 4.4 Skema Cadangan Kerugian Penurunan Nilai (CKPN)

Gambar 4.4 menggambarkan mengenai skema Cadangan Kerugian Penurunan

Nilai (CKPN) yang menunjukkan jumlah transaksi perhitungan CKPN dengan

berbagai pengukurannya.Skema CKPN ini yang dibentuk dari 11 tabel dimensi

dan 1 tabel fakta. Tabel Fakta CKPN terdiri dari field-field yang berkaitan dengan

dimensi (download_date, akad_code, segment_sk, impairmentgroup_code,

currency_code, main_branch_code, branch_code, bi_collectability, product_code,

collectmovement_sk, customer_number dan ia_ca_flag) dan field-field yang

berkaitan dengan measurement (PD_rate, LGD_rate, Expected_Loss_Rate,

outstanding, outstanding_idr, plafond, plafond_idr, collateral_value,

collateral_value_idr, ckpnkolektif, ckpnkolektif_idr, ckpnindividual,

ckpnindividual_idr, unwinding_amount, unwinding_idr, charge, charge_idr,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 120: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

105

Universitas Indonesia

writeback, writeback_idr, ckpnforecast, ckpnforecast_idr, ppap,

impaired_loan_ratio).

Relational skema bintang ini melibatkan masing-masing melibatkan 1 primary key

pada tabel dimensi dan 1 foreign key pada tabel fakta yang terkait dengan dimensi

tersebut dengan relasi jenis many to one. Tujuannya adalah untuk mendapatkan

response time yang cepat dalam proses mengakses data CKPN

4.3.7 Pemilihan Durasi dan Basis data (Choosing the duration of the database)

Data yang diambil berasal dari core banking system, cakupan periode data yang

di-load minimal selama 3 tahun data. Pada penelitian ini data digunakan mulai

dari bulan Mei 2010 sampai dengan bulan Februari 2014 dengan posisi data setiap

bulannya pada akhir bulan pelaporan. Menentukan batas waktu dari umurdata

yang diambil dan akan dipindahkan ke dalam tabel fakta. Misalnya, data

perusahaan dua tahun lalu atau lebih diambil dan dimasukkan dalam tabel fakta.

Tabel 4.24 menjelaskan durasi dan basis data dalam perancangan datamart PSAK

50/55

Tabel 4.24 Durasi dan Basis Data dalam perancangan Datamart PSAK 50/55

Nama

Database

OLAP

Nama

Database

OLTP

Periode

Waktu OLTP

Transformasi

Data ke datamart

Durasi

Data mart

OLAP_BMI OLTP-Bank 2014 2010-2014 5 tahun

4.3.8 Melacak Perubahan Dimension Secara Perlahan (Tracking Slowly

Changing Dimensions)

Adapun melacak perubahan dimensi dapat dilakukan dengan empat jenis

perubahan, antara lain : Pertama adalah atribut dimensi yang tidak pernah

berubah, dimana fact selalu dikelompokkan ke dalam original value atau disebut

Slowly Changing Dimension (SCD) Type 0, jenis kedua adalah mengganti secara

langsung pada tabel dimensiatau disebut SCD Type 1,perubahan berikutnya

adalah dengan cara pembentukan record baru untuk setiap perubahan baru,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 121: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

106

Universitas Indonesia

dimana ditandai dengan adanya surrogate key. Perubahan jenis ini dapat disebut

dengan SCD Type 2, dan terakhir adalah perubahan data dengan membuat kolom

baru atau disebut dengan SCD Type 3.

Menentukan Perubahan dimensi ini merupakan langkah yang penting yang harus

dilakukan dalam rangka proses loading menggunakan dimensional data model.

Proses loading dimension tabel merupakan proses yang harus dilalui sebelum

melakukan loading ke Tabel Fakta. Oleh karena itu dari ke-14 dimensi yang telah

disebutkan dibagian sub bab 4.3.6 melengkapi Tabel 4.10, dapat disampaikan

pada tabel 4.25 mengenai kondisi perubahan untuk setiap dimensi yang ada.:

Tabel 4.25 Tabel Pelacakan Perubahan Dimensi No. Nama Dimensi / Nama

Tabel Dimensi

Type

Perubahan

Dimensi

Keterangan

1 Period / DIM_PERIOD SCD Type 0 Tanggal merupakan attribute yang fixed yang tidak

pernah berubah (durable) dan terdapat hirarki untuk

kepentingan drill down dan drill up yaitu day, month,

quarter, year.

2 Akad / DIM_AKAD SCD Type 0 Tipe Akad pembiayaan merupakan atribut yang fixed

dan descriptionnya tidak akan berubah.

3 Segment /

DIM_SEGMENT

SCD Type 2 Tipe Segmentasi level 3

(SEGMENT_LEVEL_3_CODE,

SEGMENT_LEVEL_3_DESC) akan berubah seiring

dengan perubahan kebijakan pengelompokkan

kredit.Akan dilakukan update pada start date dan end

date, dan flag Current terhadap record yang mengalami

perubahan nama segment dan kelompok segment yang

ada ketika adanya perubahan sehingga segment yang

lama masih tetap di maintain pada histori tabel

4 Collective Group /

DIM_IMPAIRMENT_GR

OUP

SCD Type 2 Tipe pengelompokkan Collective Group

(IMPAIRMENT_CODE) per masing-masing segment

akan berubah seiring dengan perubahan kebijakan

pengelompokkan kredit terkait dengan Dimensi

Segment. Setiap kali ada perubahan segmentasi,

Collective Group akan dimapping kembali. Untuk itu

akan dilakukan flag Current terhadap perubahan

Segment yang ada untuk setiap adanya perubahan dan

segment yang lama masih tetap di maintain pada

history.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 122: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

107

Universitas Indonesia

No. Nama Dimensi / Nama

Tabel Dimensi

Type

Perubahan

Dimensi

Keterangan

5 Currency /

DIM_CURRENCY

SCD Type 0 Jenis Currency atau mata uang merupakan atribut yang

fixed

6 Area / DIM_AREA SCD Type 2 Area (AREA_CODE) dapat berubah menjadi cakupan

yang baru akibat perluaasan cabang dan reorganisasi.

7 Cabang Utama /

DIM_MAINBRANCH

SCD Type 2 Main Branch (MAIN_BRANCH_CODE) dapat

berubah menjadi cakupan Area yang baru, karena

perubahan kebijakan atau karena adanya pembukaan

cabang yang baru.

8 Cabang / DIM_BRANCH SCD Type 2 Kode cabang (BRANCH_CODE) dapat berubah

menjadi cakupan main branch karena perluasan

wilayah atau karena reorganisasi cabang. Untuk itu

histori tetap mengacu kepada wilayah sebelumnya. Hal

ini akan ditambahkan kolom Status untuk mengetahui

status itu current dan kolom date start dan date end

untuk mendeteksi perubahan kode cabang.

9 Kolektibilitas /

DIM_COLLECTABILITY

SCD Type 0 Nilai dari kolektibilitas (COLLECTIBILITY_CODE)

akan selalu fixed dari 1 sampai dengan 5 sesuai dengan

kebijakan dari Bank Indonesia

10 Produk / DIM_PRODUCT

SCD Type 2 Berdasarkan kode produk (PRODUCT_CODE) dan

kode akad (AKAD_CODE) variable yang mungkin

berubah adalah Product Description

(PRODUCT_DESC). Terdapat field date start dan date

end untuk setiap perubahan terhadap product

description dari masing-masing product_code tersebut

untuk mengetahui periode perubahan product

description tersebut dan dilakukan insert new record

dengan surrogate key sehingga pada saat join ke fact

tabel hanya menggunakan satu key saja sebagai

identifier.

11 Movement Collect /

DIM_COLLECTABILITY

_MOVEMENT

SCD Type 0 Tidak akan ada perubahan data untuk movement

kolektibilitas ini. Value untuk movement collectability

ini adalah fixed dan tidak akan berubah yaitu value 1-1,

1-2, dst.

12 Maturity Profile Bucket /

DIM_MATURITYPROFI

LE

SCD Type 2 Apabila ada perubahan di ID_MaturityProfile baik

perubahan description pada ID yang sama, atau

penambahan new ID dengan Description yang baru,

makaselalu akan ditambahkan record yang baru untuk

setiap kali adanya perubahan untuk semua description

yang baru.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 123: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

108

Universitas Indonesia

No. Nama Dimensi / Nama

Tabel Dimensi

Type

Perubahan

Dimensi

Keterangan

13 Impairment Flag /

DIM_IMPAIRMENT_FL

AG

SCD Type 0 Flag Impairment adalah fixed yaitu I dan C dan tidak

pernah berubah

14 Customer /

DIM_CUSTOMER

SCD Type 1 Apabila terdapat perubahan (contoh Nama Customer),

maka perubahan tersebut akan langsung diupdate ke

record yang sama berdasarkan primary key di tabel

DIM_CUSTOMER.

4.3.9 Memutuskan Prioritas dan Mode dari Query (Deciding the Query

Priorities and the Query Modes)

Pada tahap ke-9 ini menggunakan perancangan fisik (physical design) untuk data

mart . Perancangan fisik ini berkaitan dengan proses analisa kapasitas media

penyimpanan. Berikut ini merupakan proses yang dilakukan pada tahap ini,

Dalam membangun sebuah data martdi Bank X maka diperlukannya analisa

kapasitas media penyimpanan. Analisis kapasitas media penyimpanan ini

dilakukan agar dapat mempersiapkan jumlah kapasitas media penyimpanan

sehingga dapat menampung data yang akan terus bertambah daritahun ke tahun.

Berikut ini merupakan analisa kapasitas media penyimpanan dalam tabel staging,

tabel fakta dan tabel dimensi:

1. Analisa Kapasitas Media Penyimpanan Data Staging

Tabel 4.27 dapat dilihat bahwa total records selama 3 tahun terakhir posisi akhir

bulan pelaporan mulai dari tahun May-2010 s/d Jan-2014 adalah 2.908.000

records, yang terdiri dari May2010-Dec2010 sebanyak 215,688 records, Jan

2011-Dec2011 sebanyak 440.448 records, Jan 2012-Dec 2012 sebanyak 764.699

recods, Jan 2013-Dec 2013 sebanyak 1.358.061. Rata-rata jumlah records per

tahun adalah 855.000 s/d 1.200.000 dengan rata-rata jumlah records per bulan

sebanyak 110.000 – 150.000. Growth selama Jan-2011 s/d Dec-2013 rata-ratanya

adalah sebanyak 185% (May 2010 ke May 2011 +/- 204%, Jan 2011 ke Dec 2012

= 174%, Jan 2012 ke Dec 2013 = 178%). Maka estimasi jumlah kebutuhan size

dapat dijabarkan sebagai berikut :

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 124: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

109

Universitas Indonesia

- Number of Rows = 150.000 x 12 = 1.800.000 rows

- Number of Columns = 137 columns

- Fixed Data Size =638 byte

- Variable Data Size = 1470 byte, with maximum varchar size = 255 byte

- Null Bitmap = 2 + (Number of Columns) +7) / 8 + Max Varchar size = 2 +

(137 +7)/8 + 255 = 275

- Row Size = Fixed Data Size + Variable Data Size + Null Bitmap + 4

- Row Size = 638 + 1470 + 275 + 4 = 2387

- Row Per Page = 8096 / (Row_size + 2 ) = 8096 / (2387+2) = 3.388865634

- Num Pages = Num_Rows/Rows Per Page = 1.800.000 / 3.388865634 =

531,151.1858

- Heap Size = 8192 x 531,151.1858 = 4,351,190,514 bytes = 4.05 Giga

Bytes

Jadi kapasitas media penyimpanan data yang diperlukan dalam 5 tahun adalah

4,351,190,514 bytes x 5 tahun = 21,755,952,569 bytes atau 20.26 Giga Bytes.

Tabel 4.26 berisi mengenai estimasi data staging pada tabel

PSAK_MASTER_ACCOUNT periode Mei 2010 sampai dengan Desember 2013.

Tabel 4. 26 Tabel Estimasi Data Staging pada PSAK_MASTER_ACCOUNT untuk periode Mei 2010- Desember 2013

Periode Data Total Record

Growth

compared with

previous Month

%Growth

Monthly

6/30/2010 25923 -116 -0.44549

7/31/2010 26088 165 0.6365

8/31/2010 26626 538 2.062251

9/30/2010 26837 211 0.792458

10/31/2010 27617 780 2.906435

11/30/2010 28040 423 1.531665

12/31/2010 28518 478 1.704708

1/31/2011 29528 1010 3.541623

2/28/2011 30518 990 3.35275

3/31/2011 32278 1760 5.767088

4/30/2011 33804 1526 4.727678

5/31/2011 35466 1662 4.916578

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 125: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

110

Universitas Indonesia

Periode Data Total Record

Growth

compared with

previous Month

%Growth

Monthly

6/30/2011 37153 1687 4.756668

7/31/2011 38280 1127 3.033402

8/31/2011 39812 1532 4.00209

9/30/2011 40378 566 1.421682

10/31/2011 40478 100 0.24766

11/30/2011 40868 390 0.963486

12/31/2011 41885 1017 2.4885

1/31/2012 42397 512 1.222395

2/29/2012 43628 1231 2.903507

3/31/2012 44980 1352 3.098927

4/30/2012 47124 2144 4.766563

5/31/2012 49797 2673 5.672269

6/30/2012 56711 6914 13.88437

7/31/2012 63893 7182 12.66421

8/31/2012 70089 6196 9.697463

9/30/2012 75251 5162 7.364922

10/31/2012 80452 5201 6.911536

11/30/2012 90968 10516 13.07115

12/31/2012 99409 8441 9.279087

1/31/2013 103044 3635 3.656611

2/28/2013 107575 4531 4.397151

3/31/2013 110850 3275 3.044388

4/30/2013 114250 3400 3.067208

5/31/2013 115744 1494 1.307659

6/30/2013 118324 2580 2.229057

7/31/2013 115416 -2908 -2.45766

8/31/2013 114613 -803 -0.69574

9/30/2013 115235 622 0.542696

10/31/2013 112853 -2382 -2.06708

11/30/2013 112500 -353 -0.3128

12/31/2013 117657 5157 4.584

1/31/2014 128654 10997 9.34666

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 126: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

111

Universitas Indonesia

2. Analisis Kapasitas Media Penyimpanan Tabel Fakta Pembiayaan

Berdasarkan hasil proses load ke Fact_Loan pada posisi tanggal 31 January 2014.

Fact_Loan terdiri dari 16 kolom yang teridi dari 9 field berupa fixed tipe dan 7

field berupa variabel data size.

Data yang akan masuk ke tabel ini diperkirakan +/- 1300 – 1500 rows atau 11-

12% populasi dari tabel sumber yaitu tabel PSAK_MASTER_ACCOUNT, karena

tabel ini sudah di summary dan sudah di dilakukan data cleansing, filtering

berdasarkan tanggal pelaporan (download_date), akad_code, segment, currency,

area_code, main_branch_code, branch_code, bi_collectability, product_code,

collectmovement_sk, maturityprofile_code.

- Number of Rows = 1518 x 12 = 18.216 rows

- Number of Columns = 16 columns

- Fixed Data Size = 22 byte

- Variable Data Size = 122 byte, with maximum varchar size = 20 byte

- Null Bitmap = 2 + (Number of Columns) +7) / 8 + Max Varchar size = 2 +

(137 +7)/8 + 255 = 275

- Row Size = Fixed Data Size + Variable Data Size + Null Bitmap + 4

- Row Size = 638 + 1470 + 275 + 4 = 2387

- Row Per Page = 8096 / (Row_size + 2 ) = 8096 / (2387+2) = 3.388865634

- Num Pages = Num_Rows/Rows Per Page = 18.216 / 3.388865634 =

5375.25 Heap Size = 8192 x 5375.25 = 44.034.048 bytes = 0.041 Giga

Bytes

Jadi kapasitas media penyimpanan data yang diperlukan dalam 5 tahun adalah

0.041 Giga bytes x 5 tahun = 0.20 Giga Bytes

4.4 Proses ETL

Sesuai dengan rancangan arsitektur Datamart PSAK maka proses ETL dibedakan

menjadi 3 proses yang terdiri dari proses ekstraksi dan transformasi data staging,

proses transformasi dan load tabel Dimensi dan proses transformasi dan load tabel

Fakta.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 127: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

112

Universitas Indonesia

4.4.1 Proses Ekstrak dan Transformasi Data Staging

4.4.1.1 Ekstraksi Data Pembiayaan

Pada bagian ini menjelaskan ekstraksi dari semua sumber data pembiayaan dari

sumber tabel Core bankingsystems (ILN, JF, MCB, CRD) berdasarkan rules

transformasi per masing-masing sumber data yang disebutkan pada bagian

4.1.3.Nama Text Files hasil penggabungan dari berbagai sumber data tersebut

PSAK_MASTER_ACCOUNT_EDW. Masing-masing struktur format data dalam

bentuk textfile dengan pipe delimited format. Dari ekstraksi text file

PSAK_MASTER_ACCOUNT_EDW tersebut, maka dilakukan load

menggunakan bulk insert. Seluruh data type per masing-masing delimited format

dalam format text (string) ke tabel PSAK_MASTER_ACCOUNT_EDW, proses

selanjutnya transformasi ke masing-masing data type untuk setiap field di satu

tabel final yaitu PSAK_MASTER_ACCOUNT.

Proses Ekstraksi ini dilakukan setiap bulan sekali setelah proses End Of Month

closing data dari masing-masing core banking sistem telah selesai diproses

menjadi input text files. Proses ekstraksi data pembiayaan ini dilakukan satu bulan

sekali pada setiap tanggal 1 awal bulan untuk data posisi data akhir bulan.

Gambar 4.5 Ekstraksi dan Transformasi Data Pembiayaan ke masing-masing tabel

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 128: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

113

Universitas Indonesia

Tabel 4.27 menjelaskan struktur data pada tabel staging

PSAK_MASTER_ACCOUNT yang akan menampung semua data pembiayaan di

Bank X.

Tabel 4.27 Struktur Data PSAK_MASTER_ACCOUNT

NO FIELD DATA TYPE LENGTH 1 MASTER_ACCOUNT_ID VARCHAR2 (50 Byte) 2 DOWNLOAD_DATE DATE 3 INSTRUMENT_CLASSIFICATION VARCHAR2 (10 Byte) 4 DATA_SOURCE VARCHAR2 (20 Byte) 5 PRODUCT_TYPE VARCHAR2 (20 Byte) 6 PRODUCT_CODE VARCHAR2 (20 Byte) 7 BRANCH_CODE VARCHAR2 (20 Byte) 8 ACCOUNT_NUMBER VARCHAR2 (50 Byte) 9 ACCOUNT_NUMBER_PREVIOUS VARCHAR2 (50 Byte)

10 FACILITY_NUMBER VARCHAR2 (50 Byte) 11 NO_REK_ANGSURAN VARCHAR2 (50 Byte) 12 CUSTOMER_NUMBER VARCHAR2 (50 Byte) 13 CUSTOMER_NAME VARCHAR2 (100 Byte) 14 GLOBAL_CUSTOMER_NUMBER VARCHAR2 (20 Byte) 15 ACCOUNT_STATUS VARCHAR2 (5 Byte) 16 LOAN_START_DATE DATE 17 LOAN_DUE_DATE DATE 18 LOAN_START_AMORTIZATION DATE 19 LOAN_END_AMORTIZATION DATE 20 NEXT_PAYMENT_DATE DATE 21 LAST_PAYMENT_DATE DATE 22 FIRST_INSTALLMENT_DATE DATE 23 ACCRUAL_DATE DATE 24 TENOR INTEGER 25 PSAK_ACCT_STATUS VARCHAR2 (3 Byte) 26 PMT_SCH_STATUS CHAR (1 Byte) 27 EIR_STATUS CHAR (1 Byte) 28 ECF_STATUS CHAR (1 Byte) 29 PAYMENT_CODE VARCHAR2 (20 Byte) 30 PAYMENT_TERM VARCHAR2 (2 Byte) 31 INTEREST_CALCULATION_CODE VARCHAR2 (20 Byte) 32 INSTR_CLASS VARCHAR2 (10 Byte) 33 IAS_CLASS VARCHAR2 (10 Byte) 34 SOURCE_PROCESS VARCHAR2 (100 Byte) 35 RESIDENCE_TYPE VARCHAR2 (15 Byte) 36 CURRENCY CHAR (3 Byte)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 129: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

114

Universitas Indonesia

NO FIELD DATA TYPE LENGTH 37 EXCHANGE_RATE NUMBER (19,6) 38 OUTSTANDING NUMBER (32,6) 39 OUTSTANDING_PREVIOUS NUMBER (32,6) 40 PLAFOND NUMBER (32,6) 41 UNUSED NUMBER (32,6) 42 COMMITTED_FLAG CHAR (1 Byte) 43 INTEREST_RATE NUMBER (32,6) 44 AMORT_TYPE VARCHAR2 (10 Byte) 45 EIR FLOAT 46 EIR_AMOUNT NUMBER (32,6) 47 FAIR_VALUE_AMOUNT NUMBER (32,6) 48 INITIAL_UNAMORT_TXN_COST NUMBER (32,6) 49 INITIAL_UNAMORT_ORG_FEE NUMBER (32,6) 50 UNAMOR_TRANS_COST_AMT NUMBER (32,6) 51 UNAMOR_ORIGINATION_FEE_AMT NUMBER (32,6) 52 DAILY_AMORT_AMT NUMBER (32,6) 53 DAY_PAST_DUE INTEGER 54 DAY_PAST_DUE_START_DATE DATE 55 ORIGINAL_COLLECTABILITY VARCHAR2 (10 Byte) 56 BI_COLLECTABILITY INTEGER 57 SEGMENT VARCHAR2 (255 Byte) 58 PRODUCT_GROUP VARCHAR2 (100 Byte) 59 DPD_ID INTEGER 60 PD_RATE FLOAT 61 LGD_RATE FLOAT 62 PIP_AMOUNT FLOAT 63 IIP_AMOUNT FLOAT 64 UNWINDING_AMOUNT FLOAT 65 BEGINNING_BALANCE FLOAT 66 CHARGE FLOAT 67 WRITEBACK FLOAT 68 ENDING_BALANCE FLOAT 69 IS_IMPAIRED VARCHAR2 (1 Byte) 70 IMPAIRED_FLAG CHAR (1 Byte) 71 WRITE_OFF_FLAG CHAR (1 Byte) 72 STAFF_LOAN_FLAG VARCHAR2 (1 Byte) 73 RESTRUCTURED_LOAN_FLAG CHAR (1 Byte) 74 RESTRUCTURE_DATE DATE 75 INTEREST_IN_SUSPEND NUMBER (32,6) 76 SAM_FLAG CHAR (1 Byte) 77 NON_SAM_FLAG CHAR (1 Byte) 78 SAM_IMPAIRED_DATE DATE

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 130: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

115

Universitas Indonesia

NO FIELD DATA TYPE LENGTH 79 NON_SAM_IMPAIRED_DATE DATE 80 IMPAIRED_INTEREST_RATE NUMBER (19,6) 81 DPD_FLAG CHAR (1 Byte) 82 TOTAL_GENERAL_PROVISION NUMBER (32,6) 83 TOTAL_SPECIFIC_PROVISION NUMBER (32,6) 84 CUSTOMER_GRADE CHAR (3 Byte) 85 INTEREST_WITHHELD NUMBER (32,6) 86 ACOD VARCHAR2 (18 Byte) 87 AO_CODE VARCHAR2 (100 Byte) 88 AO_NAME VARCHAR2 (50 Byte) 89 VALCTR_CODE VARCHAR2 (10 Byte) 90 REVOLVING_FLAG CHAR (1 Byte) 91 EIR_CHANGES_FLAG CHAR (1 Byte) 92 LAST_EIR_CHANGE_DATE DATE 93 EIR_CHANGES_SEQUENCE CHAR (50 Byte) 94 INSTALLMENT_GRACE_PERIOD DATE 95 INSTALLMENT_AMOUNT NUMBER (32,6) 96 CUSTOMER_TYPE CHAR (3 Byte) 97 ACCUMULATIVE_ACCRUED_INTEREST NUMBER (32,6) 98 DAILY_ACCRUED_INTEREST NUMBER (32,6) 99 DEATH_CASE_FLAG CHAR (1 Byte) 100 CITY VARCHAR2 (20 Byte) 101 MTD_PRINCIPAL_PAYMENT NUMBER (32,6) 102 MTD_INTEREST_PAYMENT NUMBER (32,6) 103 COLLATERAL_VALUE_FOR_IMPAIR NUMBER (32,6) 104 DPD_GROUP CHAR (10 Byte) 105 SPECIAL_FLAG CHAR (1 Byte) 106 PREV_RESTRUCTURED_LOAN_ACCOUNT VARCHAR2 (50 Byte) 107 COLL_CODE VARCHAR2 (5 Byte) 108 MTD_DAYS INTEGER 109 CFD_DAYS INTEGER 110 MTD_INTEREST_AMT NUMBER (32,6) 111 CFD_INTEREST_AMT NUMBER (32,6) 112 MTD_EIR_AMT NUMBER (32,6) 113 CFD_EIR_AMT NUMBER (32,6) 114 LOAN_AMT NUMBER (32,6) 115 GCN_CUST_GRADE CHAR (3 Byte) 116 OS_AFTER_IMPAIRMENT NUMBER (32,6) 117 IMPAIRMENT_CHARGE NUMBER (32,6) 118 RATIO_OUTS_TO_FACILITY NUMBER (12,6) 119 OUTSTANDING_ORG NUMBER (32,6) 120 UNAMOR_TRANS_COST_AMT_ORG NUMBER (32,6)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 131: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

116

Universitas Indonesia

NO FIELD DATA TYPE LENGTH 121 UNAMOR_ORIGINATION_FEE_AMT_ORG NUMBER (32,6) 122 STEP_NO VARCHAR2 (50 Byte) 123 BRANCH_SUNGL VARCHAR2 (15 Byte) 124 DEPT_UNIT VARCHAR2 (15 Byte) 125 SANDI_BI VARCHAR2 (15 Byte) 126 UNEARNED_INCOME NUMBER (32,6) 127 BATCH_NUMBER VARCHAR2 (40 Byte) 128 CONTRA_AMOUNT NUMBER (17,2) 129 FINCO_ID CHAR (5 Byte) 130 PROVISION NUMBER (17,2) 131 DOWN_PAYMENT NUMBER (17,2) 132 OTR_PRICE NUMBER (17,2) 133 FLAG_DIF_ACCRUE_INTR_AMT CHAR (1 Byte) 134 DIFF_ACCRUE_INTEREST_AMOUNT NUMBER (17,2) 135 INPUT_USER_ID VARCHAR2 (10 Byte) 136 MERCHANT_RATE NUMBER (9,6) 137 UNAMOR_AMT_TOTAL NUMBER (32,6)

4.4.1.2 Ekstraksi Data CKPN

Untuk dapat membentuk data CKPN Final diperlukan proses persiapan data

CKPN yang dependent terhadap sumber data input manual yang di-maintain oleh

pengguna. File ekstraksi yang digunakan sebagai input dalam proses transformasi

CKPN ini adalah sebagai berikut :

- PSAK_IMPR_OVERRIDES : File yang berisi sebagai tempat penampung

data customer yang telah dioverride dari status kolektif ke individual dan

sebaliknya. File ini akan mengakumulasi semua daftar debitur yang akan

dilakukan flag impairment secara individual. Format file dalam bentuk Excel.

- PSAK_INDIVIDUAL_IMPAIRMENT: File yang berisi sebagai tempat

penampung data per level account pembiayaan untuk setiap customer untuk

setiap periode pelaporan. Satu customer memungkinkan memiliki banyak

account pembiayaan. Format file dalam bentuk Microsoft Excel.

- TBLT_PAYMENTEXPECTED : yaitu berisi data arus kas yang diupload

oleh user dan langsung di proses insert ke tabel ini. File Format dalam bentuk

Microsoft Excel.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 132: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

117

Universitas Indonesia

- PSAK_EXPECTED_RECOV_UPLOAD :yaitu berisi data write off dan

recovery berdasarkan masing-masing segmentasi yang diupload langsung.

File Format dalam bentuk Microsoft Excel.

- PSAK_COLL_SHORTFALL_UPLOAD : yaitu berisi data collateral

berdasarakan masing-masing segmentasi yang diupload langsung ke suatu

folder. File Format dalam bentuk Microsoft Excel.

- PSAK_CKPN_TARGET : yaitu berisi data target pembentukan cadangan

kerugian penurunan nilai setiap bulannya dan diupload langsung ke suatu

folder. File Format dalam bentuk Microsoft Excel.

- PSAK_BMI_SEGMENT : yaitu berisi data mapping segmentasi ke group

impairment untuk perhitungan CKPN secara kolektif. Prosesnya adalah user

melakukan upload flat file ke folder tertentu setiap adanya perubahan group

impairment. File Format adalah dalam bentuk Microsoft Excel.

Prosesnya dari masing-masing ekstrak file tersebut akan di-load ke nama tabel

sesuai dengan nama ekstrak file tersebut dengan masing-masing struktur tabel

adalah sebagai berikut. Tabel 4.28 sampai dengan Tabel 4.35 menjelaskan proses

ektraksi masing-masing sumber data manual sebagai data input untuk pemrosesan

perhitungan CKPN.

1. Proses Ekstraksi File PSAK_IMPR_OVERRIDES ke Tabel

Tabel 4.28 Struktur Tabel PSAK_IMPR_OVERRIDES Nama Field Data Type

PKID INTEGER,

DOWNLOAD_DATE DATE,

CUSTOMER_NUMBER VARCHAR2(50 BYTE),

DATA_SOURCE VARCHAR2(50 BYTE),

BRANCH_CODE VARCHAR2(50 BYTE),

CUSTOMER_NAME VARCHAR2(2000 BYTE),

PLAFOND_IMPAIR NUMBER(32,6),

PLAFOND_CURRENT NUMBER(32,6),

DPD_IMPAIR FLOAT(126),

DPD_CURRENT FLOAT(126),

BI_COLLECT_IMPAIR FLOAT(126),

BI_COLLECT_CURRENT FLOAT(126),

FLAG_IMPAIRMENT VARCHAR2(1 BYTE),

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 133: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

118

Universitas Indonesia

Nama Field Data Type

METHOD VARCHAR2(50 BYTE),

REMARK VARCHAR2(2000 BYTE),

CREATED_BY VARCHAR2(50 BYTE),

CREATED_DATE DATE,

UPDATED_BY VARCHAR2(50 BYTE),

UPDATED_DATE DATE

2. Proses Ekstraksi File TBLT_PAYMENTEXPECTED ke Tabel

Tabel 4.29 Struktur Tabel TBLT_PAYMENTEXPECTED

Nama Field Data Type DOWNLOADDATE TIMESTAMP(3), CUSTOMERNUMBER VARCHAR2(50 BYTE), PKID NUMBER(19), CUSTOMERNAME VARCHAR2(100 BYTE) SEGMENT VARCHAR2(50 BYTE), PRDGROUP VARCHAR2(5 BYTE), PAYMENTPERIOD VARCHAR2(50 BYTE), PAYMENTDATE TIMESTAMP(3), CCY CHAR(3 BYTE), GROSSPROCEEDS NUMBER(19,4), MGTOVERRIDE NUMBER(19,4), REVISEDECF NUMBER(19,4), FSV NUMBER(19,4), NPVPERCENT NUMBER(19,4), DISCOUNTRATE NUMBER(19,4), NPV NUMBER(19,4), IPDISCOUNT NUMBER(19,4), IPP NUMBER(19,4), INTERESTUNWINDING NUMBER(19,4), STATUS VARCHAR2(3 BYTE), INPUTDATE TIMESTAMP(3), FACILITYNO VARCHAR2(50 BYTE), INTERESTRATE NUMBER(19,4), CREATEDBY VARCHAR2(50 BYTE), CREATEDDATE TIMESTAMP(3), UPDATEDBY VARCHAR2(50 BYTE), UPDATEDDATE TIMESTAMP(3), BEGINBALANCE NUMBER(19,4), EIR_AMOUNT NUMBER(19,4), ENDINGBALANCE NUMBER(19,4),

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 134: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

119

Universitas Indonesia

Nama Field Data Type

MASTER_ACCOUNT_ID VARCHAR2(50 BYTE), COLLVALUE NUMBER(19,4), COLLREFNO VARCHAR2(50 BYTE), ESTIMATECOST NUMBER(19,4), INTERESTESTIMATED NUMBER(19,4), PRINCIPAL NUMBER(19,4), INTERESTESTIMATEDPERCENT NUMBER(19,4), INTERESTEIR NUMBER(19,4)

3. Proses Ekstraksi File PSAK_EXPECTED_RECOV_UPLOAD ke Tabel

Tabel 4.30 Struktur Tabel PSAK_EXPECTED_RECOV_UPLOAD

Nama Field Data Type PERIODE VARCHAR2(6 BYTE), SEGMENT VARCHAR2(100 BYTE), WO NUMBER(32,6), RECOVERY NUMBER(32,6), AYDA NUMBER(32,6)

4. Proses Ekstraksi File PSAK_COLL_SHORTFALL_UPLOAD ke Tabel

Tabel 4.31 Struktur Tabel PSAK_COLL_SHORTFALL_UPLOAD

Nama Field Data Type PERIODE VARCHAR2(6 BYTE),

SEGMENT VARCHAR2(100 BYTE),

OUTSTANDING NUMBER(32,6), AGUNAN NUMBER(32,6)

5. Proses Ekstraksi File PSAK_CKPN_TARGET ke Tabel

Tabel 4.32 Struktur Tabel PSAK_CKPN_TARGET

Nama Field Data Type PERIODE DATE BRANCH_ID VARCHAR(20) CURRENCY CHAR(3) CKPNFORECAST NUMBER(32,6)

6. Proses Ekstraksi File PSAK_INDIVIDUAL_IMPAIRMENT ke Tabel

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 135: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

120

Universitas Indonesia

Tabel 4.33 Struktur Tabel PSAK_INDIVIDUAL_IMPAIRMENT

Nama Field Data Type DOWNLOAD_DATE DATE, EFFECTIVE_DATE DATE, CUSTOMER_NUMBER VARCHAR2(50 BYTE), MASTER_ACCOUNT_ID VARCHAR2(50 BYTE), INTEREST_RATE FLOAT(126), EIR FLOAT(126), IMP_STATUS CHAR(1 BYTE), INACTIVE_DATE DATE, INACTIVE_DESC VARCHAR2(100 BYTE), UNWINDING_DATE DATE, START_DATE_UNWINDING_INTEREST DATE, DUE_DATE_UNWINDING_INTEREST DATE, BALANCE_BEFORE_IIP FLOAT(126), BALANCE_AFTER_IIP FLOAT(126), IIP_AMOUNT FLOAT(126), UNWINDING_FLAG CHAR(1 BYTE), INPUT_SOURCE VARCHAR2(4 BYTE), SOURCE_FLAG CHAR(1 BYTE), TTL_GROSS_PROCEED NUMBER(19,4), TTL_UNWIND_INTEREST NUMBER(19,4), PKID NUMBER(19), TTL_NPV NUMBER(19,4), CREATEDBY VARCHAR2(50 BYTE), CREATEDDATE TIMESTAMP(3), UPDATEDBY VARCHAR2(50 BYTE), UPDATEDDATE TIMESTAMP(3), ASSUMPTION VARCHAR2(500 BYTE)

7. Proses Ekstraksi File PSAK_DPD_MASTER ke Tabel

Tabel 4.34 Struktur Tabel PSAK_DPD_MASTER

Nama Field Data Type DPD_ID INTEGER, DPD_NAME VARCHAR2(50 BYTE), BI_PROV_RATE INTEGER, DPD_ORDER INTEGER, FLOW_RATE_NAME VARCHAR2(50 BYTE), COMPOUND_LOSS_NAME VARCHAR2(50 BYTE), DPD_START INTEGER, DPD_END INTEGER,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 136: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

121

Universitas Indonesia

Nama Field Data Type PRODUCT_GROUP VARCHAR2(50 BYTE), FLAG_DEFAULT CHAR(1 BYTE)DEFAULT 0, PD_DEFAULT NUMBER(9,6) DEFAULT 0

8. Proses Ekstraksi File PSAK PSAK_DPD_MASTER_HEADER ke Tabel

Tabel 4.35 Struktur Tabel PSAK_DPD_MASTER_HEADER

Nama Field Data Type PRODUCT_GROUP VARCHAR2(20 BYTE), PRODUCT_GROUP_DESCRIPTION VARCHAR2(100 BYTE), CALCULATION_TYPE CHAR(1 BYTE), METHOD_IMPAIRMENT CHAR(6 BYTE), HISTORICAL_DATA NUMBER(10), PRODUCT_GROUP_PARENT VARCHAR2(20 BYTE), RANGE_START NUMBER(9,6), RANGE_END NUMBER(9,6), PD_THRESHOLD NUMBER(9,6), IA_FLAG VARCHAR2(1 BYTE) DEFAULT 0,

OPTION_GROUPING VARCHAR2(3 BYTE) DEFAULT 'DPD',

CALC_METHOD CHAR(1 BYTE), INCREMENTS INTEGER, INDIV_ASSESMENT VARCHAR2(1 BYTE), LGD_METHOD VARCHAR2(5 BYTE)

4.4.1.3 Tranformasi Data CKPN

Untuk mendapatkan data final CKPN diperlukan proses transformasi antara lain ;

penerapan business rule, pembersihan data (misalnya melakukan exclude

segmentasi yang NULL), melakukan filter, melakukan update dan melakukan join

dari berbagai tabel sumber untuk proses perhitungan sesuai dengan analisa

business requirement pada bagan alur proses transformasi perhitungan CKPN.

Proses transformasi yang dilakukan dibedakan menjadi 4 langkah proses, sesuai

dengan Gambar 4.6:

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 137: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

122

Universitas Indonesia

Gambar 4.6 Overal Proses Transformasi Perhitungan Impairment (CKPN)

1. SP_PSAK_INDIVIDUAL_IMPAIRMENT ; Proses ini akan melakukan flag

Impairment Individual dan mengupdate nilai dari CKPN Individual.

a. UPDATE Tabel PSAK_MASTER_ACCOUNT, field IMPAIRED_FLAG

= ‘I’ dengan join Data Individual Impairment pada nama ekstrak

PSAK_IMPR_OVERRIDES dengan join kondisi Customer Number

antara kedua tabel tersebut.

b. Update Tabel PSAK_MASTER_ACCOUNT, field IIP_AMOUNT dan

UNWINDING_AMOUNT dari tabel sumber PSAK_INDIVIDUAL_

IMPAIRMENT dan TBLT_PAYMENTEXPECTED dengan kondisi join

MASTER_ACCOUNT_ID, IMP_STATUS=’A’ dan PAYMENTDATE

adalah tanggal akhir bulan, IMPAIRED_FLAG=’I’

2. SP_PSAK_CALC_LGD :Proses yang akan melakukan transformasi

perhitungan Nilai LGD untuk kedua metodologi perhitungan LGD (Expected

Recoveries dan Collateral Shortfal), dimana data-data yang digunakan adalah

data dari ekstrak PSAK_EXPECTED_RECOV_UPLOAD dan

PSAK_COLL_SHORTFALL_UPLOAD. Semua hasil perhitungan final LGD

ini akan diinsert ke tabel PSAK_RECOVERY_MATRIX. Tabel

PSAK_RECOVERY_MATRIX merupaakan Tabel yang disiapkan untuk

menampung hasil proses transformasi untuk perhitungan nilai LGD berisi nilai

final LGD (1-recovery rate)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 138: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

123

Universitas Indonesia

3. SP_PSAK_CALC_CA : Proses yang akan melakukan transformasi dalam

Menghitung nilai Probability of Default (PD) dengan menggunakan metode

Net Flow Rate dan Migration Analysis. Proses ini dibagi menjadi 3 bagian

yaitu :

a. UPDATE attribute Collective Assesment di Tabel

PSAK_MASTER_ACCOUNT pada field PRODUCT_GROUP, DPD_ID,

IMPAIRED_FLAG=’C’. Untuk PRODUCT_GROUP dan DPD_ID akan

diupdate berdasarkan tabel Input PSAK_BMI_SEGMENT

,PSAK_DPD_MASTER, PSAK_DPD_MASTER_HEADER. Proses

selanjutnya adalah melakukan insert ke tabel PSAK_ENR. Tabel 4.36

menjelaskan proses transformasi ke tabel tujuan tabel PSAK_ENR

Tabel 4. 36 Tabel Transformasi PSAK_ENR

Source Destination Remarks

PSAK_MASTER_ACCOUNT.DPD_I

D

PSAK_ENR.DPD_ID

PSAK_MASTER_ACCOUNT.PROD

UCT_GROUP

PSAK_ENR.PRODUCT

_GROUP

PSAK_MASTER_ACCOUNT.DOWN

LOAD_DATE

PSAK_ENR.PERIOD

PSAK_MASTER_ACCOUNT.OUTST

ANDING

PSAK_MASTER_ACCOUNT.

EXCHANGE_RATE

PSAK_ENR.AMOUNT SUM(OUTSTANDING *

NVL(EXCHANGE_RATE, 1))

PSAK_ENR.ACCOUNT NVL(COUNT(1), 0) AS NOA

Conditions:

Join PSAK_MASTER_PRODUCT_PARAMETER on PMA.DATA_SOURCE = PRD.DATA_SOURCE

AND PMA.PRODUCT_CODE = PRD.PRD_CODE AND PMA.PRODUCT_TYPE = PRD.PRD_TYPE

JOIN PSAK_DPD_MASTER DPD_D ON PMA.DPD_ID = DPD_D.DPD_ID AND

PMA.PRODUCT_GROUP = DPD_D.PRODUCT_GROUP JOIN PSAK_DPD_MASTER_HEADER

DPD_HON PMA.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP AND

DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A' AND

PMA.OUTSTANDING > 0 AND NVL(PMA.IS_IMPAIRED, ' ') = 'Y' AND

NVL(PMA.WRITE_OFF_FLAG, ' ') <> 'Y' AND NVL(PMA.PRODUCT_GROUP, ' ') <> ' ' AND

DPD_H.IA_FLAG = '0'

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 139: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

124

Universitas Indonesia

b. Perhitungan PD dengan menggunakan Net Flow Rate. Akan dilakukan 3

sub proses perhitungan Flow rate mengacu kepada Business Requirement

yang terdiri dari :

i. Proses Perhitungan Flowrate SP_PSAK_CALC_FLOWRATES, flow

prosesnya adalah insert ke tabel temporary untuk periode bulan ini dan

insert ke temporary untuk periode bulan sebelumnya, dimana

sumbernya berasal dari tabel PSAK_ENR. Rumus atau transformasi

dalam menghitung Flow Rate adalah outstanding bulan ini dibagi

dengan outstanding bulan lalu dengan DPD_Bucket yang berbeda.

Outstanding DPD Bucket ke-2 dibagi dengan Outstanding DPD Bucket

ke-1. Output transformasi pada tabel PSAK_FLOW_RATES. Tabel

4.37 dibawah ini merupakan tabel transformasi PSAK_LGD.

Tabel 4.37 Tabel Transformasi PSAK_LGD (Flow Rate Calculation)

Source Destination Remarks

PSAK_DPD_MASTER.DPD_ID DPD_ID

PSAK_DPD_MASTER.PRODUCT_G

ROUP

PRODUCT_GROUP

TYPE DEFAULT ‘O’

PSAK_ENR.PERIOD PERIOD

PSAK_ENR FLOW_RATES CASE WHEN NVL

(DPD_M.FLAG_DEFAULT, '0')

= 'Y' THEN

PD_M.PD_DEFAULT / 100

WHEN

NVL

(DPD_H.PD_THRESHOLD, 0)

<> 0 AND NVL

(A1.FLOW_RATES, 0) > NVL

(DPD_H.PD_THRESHOLD, 0) /

100 THEN

DPD_H.PD_THRESHOLD / 100

ELSE A1.FLOW_RATES

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 140: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

125

Universitas Indonesia

Conditions:

FROM ( SELECT MASTER.DPD_ID, MASTER.PRODUCT_GROUP, DPD.PERIOD, DPD.TYPE,

DPD.FLOW_RATES FROM PSAK_DPD_MASTER MASTER LEFT OUTER JOIN (SELECT NVL

(A.DPD_ID,(B.DPD_ID - 1)) AS DPD_ID, B.PRODUCT_GROUP, 'O' AS TYPE,

B.PERIOD, CASE WHEN NVL (A.AMOUNT, 0) <> 0 THEN NVL (B.AMOUNT, 0) / NVL

(A.AMOUNT, 0) WHEN NVL (A.AMOUNT, 0) = 0 THEN 0 END AS FLOW_RATES FROM

PSAK_ENR B LEFT JOIN PSAK_ENR A ON A.DPD_ID = (B.DPD_ID - 1) AND

A.PRODUCT_GROUP = B.PRODUCT_GROUP AND A.PERIOD = FUTIL_ADD_PERIOD

(B.PERIOD, -1) WHERE A.AMOUNT IS NOT NULL AND B.PERIOD = V_PERIOD AND

B.DPD_ID > 1 AND A.PERIOD IS NOT NULL) DPD ON MASTER.DPD_ID = DPD.DPD_ID

AND MASTER.PRODUCT_GROUP = DPD.PRODUCT_GROUP ORDER BY

MASTER.PRODUCT_GROUP, MASTER.DPD_ID) A1 INNER JOIN PSAK_DPD_MASTER

DPD_M ON DPD_M.PRODUCT_GROUP = A1.PRODUCT_GROUP AND DPD_M.DPD_ID =

A1.DPD_ID INNER JOIN PSAK_DPD_MASTER_HEADER DPD_H ON

DPD_H.PRODUCT_GROUP = DPD_M.PRODUCT_GROUP WHERE DPD_M.PRODUCT_GROUP

IN (SELECT PRODUCT_GROUP FROM PSAK_DPD_MASTER_HEADER WHERE

METHOD_IMPAIRMENT = 'S00031' AND CALCULATION_TYPE = 'A') ORDER BY

PRODUCT_GROUP, PERIOD, DPD_ID;

ii. Proses Perhitungan Average Net flowrate. Output transformasinya adalah

di Tabel PSAK_COMPOUND_FLOW_TO_LOSS . Yang menjadi sumber

tabel input adalah PSAK_FLOW_RATES, PSAK_DPD_MASTER_

HEADER, dan PSAK_DPD_MASTER. Tabel 4.38 mengenai transformasi

dari tabel sumber ke tabel tujuan PSAK_LGD

Tabel 4.38 Tabel Transformasi PSAK_LGD (Average Flow Rate)

Source Destination Remarks

PSAK_FLOW_RATES.DPD_ID DPD_ID

PSAK_FLOW_RATES.PRODUCT_G

ROUP

PRODUCT_GROUP

PSAK_FLOW_RATES.TYPE TYPE DEFAULT ‘O’

PSAK_FLOW_RATES.PERIOD PERIOD

PSAK_FLOW_RATES.FLOW_RATE

S

FLOW_TO_LOSS AVG (FLOW_RATES)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 141: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

126

Universitas Indonesia

Conditions:

FROM PSAK_FLOW_RATES rates INNER JOIN ( SELECT a.product_group, b.dpd_id,

V_PERIOD AS period, AVG (b.FLOW_RATES) AS FLOW_TO_LOSS FROM

PSAK_DPD_MASTER_HEADER a INNER JOIN PSAK_DPD_MASTER DPD_M ON

A.PRODUCT_GROUP = DPD_M.PRODUCT_GROUP INNER JOIN PSAK_FLOW_RATES b ON

a.product_group = b.product_group AND DPD_M.DPD_ID = B.DPD_ID WHERE

METHOD_IMPAIRMENT = 'S00031' AND CALCULATION_TYPE = 'A' AND PERIOD

BETWEEN TO_CHAR (ADD_MONTHS ( LAST_DAY (TO_DATE ( SUBSTR (V_PERIOD, 1, 4) ||

'-' || SUBSTR (V_PERIOD, 5, 2) || '-' || '01', 'YYYY-MM-DD')), (-1 * (a.historical_data)) + 1),

'YYYYMM') AND V_PERIOD GROUP BY a.product_group, b.dpd_id) dpd ON

RATES.PRODUCT_GROUP = dpd.product_group AND rates.period = dpd.period AND rates.dpd_id

= dpd.dpd_id ORDER BY rates.PRODUCT_GROUP, rates.DPD_ID;

iii. Proses perhitungan Average PD dan LGD Flowrate. Job yang

menghandel transformasi ini adalah stored procedure

SP_PSAK_CALC_LGD_NETFLOWRATE. Hasil trasformasi ini akan

ditampung di tabel PSAK_LGD dengan menggunakan berbagai sumber

tabel yaitu PSAK_COMPOUND_FLOW_TO_LOSS,

PSAK_DPD_MASTER_ HEADER, PSAK_DPD_MASTER, dan tabel

PSAK_RECOVERY_ MATRIX. Tabel 4.39 menjelaskan transformasi

dari beberapa tabel sumber ke tabel tujuan PSAK_LGD.

Tabel 4. 39 Tabel Transformasi PSAK_LGD (Flow To Loss Calculation) Source Destination Remarks

PSAK_DPD_MASTER DPD_ID

PSAK_COMPOUND_FLOW_TO_LO

SS

PRODUCT_GROU

P

PSAK_COMPOUND_FLOW_TO_LO

SS

PERIOD

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 142: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

127

Universitas Indonesia

Source Destination Remarks

PSAK_COMPOUND_FLOW_TO_LO

SS

PD CASE WHEN

NVL(DPD_D.FLAG_DEFAULT, '0') =

'Y' THEN DPD_D.PD_DEFAULT / 100

ELSE

CASE COUNT(CASE

SIGN(FTL.FLOW_TO_LOSS) WHEN 0

THEN 1 ELSE NULL END)

CASE MOD(SUM(CASE

SIGN(FTL.FLOW_TO_LOSS) WHEN -

1 THEN 1 ELSE 0 END), 2) WHEN 1

THEN -1 -- ODD NUMBER OF

NEGATIVE NUMBERS: RESULT

WILL BE NEGATIVE ELSE 1 --

EVEN NUMBER OF NEGATIVE

NUMBERS: RESULT WILL BE

POSITIVE END * -- MULTIPLY -1 OR

1 WITH THE FOLLOWING

EXPRESSION EXP(SUM(LN( -- ONLY

POSITIVE (NON-ZERO) VALUES!

ABS(CASE FTL.FLOW_TO_LOSS

WHEN 0 THEN NULL ELSE

FTL.FLOW_TO_LOSS END)))) ELSE 0

-- THERE WERE ZEROES, SO THE

ENTIRE PRODUCT IS 0, TOO. END

END

PSAK_RECOVERY_MATRIX.RECO

VERY_RATE

LGD 1 – ISNULL(RECOVERY_RATE, 0)

Conditions:

FROM PSAK_COMPOUND_FLOW_TO_LOSS FTL INNER JOIN PSAK_DPD_MASTER_HEADER

DPD_H ON

FTL.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP INNER JOIN PSAK_DPD_MASTER DPD_D

ON FTL.PRODUCT_GROUP = DPD_D.PRODUCT_GROUP AND DPD_D.DPD_ID <= FTL.DPD_ID

LEFT OUTER JOIN PSAK_RECOVERY_MATRIX MAT ON FTL.PERIOD = MAT.PERIOD AND

FTL.PRODUCT_GROUP = MAT.PRODUCT_GROUP WHERE FTL.PERIOD = V_PERIOD AND

DPD_H.METHOD_IMPAIRMENT = 'S00031' AND DPD_H.CALCULATION_TYPE = 'A' GROUP BY

DPD_D.DPD_ID, FTL.PRODUCT_GROUP, FTL.PERIOD, MAT.RECOVERY_RATE,

DPD_D.FLAG_DEFAULT, DPD_D.PD_DEFAULT;

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 143: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

128

Universitas Indonesia

c. Perhitungan PD dengan menggunakan Migration Analysis akan dilakukan 4

sub proses transformasi yaitu terdiri dari :

i. Transformasi untuk membuat snapshot pergerakan masing-masing

account dan sum of outstanding dari kolektibilitas 1 ke kolektibilitas yang

lebih tinggi dengan membandingkan data pada periode bulan ini dan data

pada periode bulan sebelumnya. Sumber tabel yang digunakan adalah

PSAK_MASTER_ACCOUNT. Hasil trasformasi ini akan diletakkan pada

di tabel PSAK_ENR_MIGRATION. Sub Proses pertama ini di-manage

oleh stored procedure SP_PSAK_CALC_ENR_MA. Proses

transformasinya dapat dilihat pada Tabel 4.40

Tabel 4.40 Tabel Transformasi PSAK_ENR_MIGRATION

Source Destination Remarks

PSAK_MASTER_ACCOUNT DPD_ID_FROM Periode bulan sebelumnya

PSAK_MASTER_ACCOUNT PERIOD_FROM Periode bulan sebelumnya

PSAK_MASTER_ACCOUNT DPD_ID_TO Periode bulan pelaporan

PSAK_MASTER_ACCOUNT PERIOD_TO Periode bulan pelaporan

PSAK_MASTER_ACCOUNT PRODUCT_GROUP

PSAK_MASTER_ACCOUNT TOTAL_ACCOUNT COUNT (Account_Number)

PSAK_MASTER_ACCOUNT SUMMARY_OUTSTA

NDING

SUM(Outstanding *

Exchange_Rate)

Conditions:

SELECT A.PRODUCT_GROUP, TO_CHAR(A.DOWNLOAD_DATE, 'YYYYMM') AS

PERIOD_FROM, V_PERIOD AS PERIOD_TO, A.DPD_ID AS DPD_FROM, CASE WHEN

NVL(B.DPD_ID, 0) = 0 THEN CASE WHEN B.WRITE_OFF_FLAG = 'Y' THEN

DPD_D.MAX_DPD_ID ELSE DPD_D.MIN_DPD_ID END ELSE B.DPD_ID END AS DPD_TO, -

-NVL(B.DPD_ID, A.DPD_ID) AS DPD_TO, NVL(B.OUTSTANDING, 0) *

NVL(B.EXCHANGE_RATE,1)AS OUTSTANDING FROM TT_ACCOUNT_MIGRATION_HIST

A INNER JOIN PSAK_DPD_MASTER_HEADER DPD_H ON A.PRODUCT_GROUP =

DPD_H.PRODUCT_GROUP INNER JOIN (SELECT PRODUCT_GROUP, MIN(DPD_ID) AS

MIN_DPD_ID, MAX(DPD_ID) AS MAX_DPD_ID FROM PSAK_DPD_MASTER GROUP BY

PRODUCT_GROUP) DPD_D ON A.PRODUCT_GROUP = DPD_D.PRODUCT_GROUP LEFT

OUTER JOIN TT_ACCOUNT_MIGRATION_CURR B ON A.MASTER_ACCOUNT_ID =

B.MASTER_ACCOUNT_ID WHERE DPD_H.IA_FLAG = '1') X GROUP BY X.DPD_FROM,

X.PERIOD_FROM, X.DPD_TO, X.PERIOD_TO, X.PRODUCT_GROUP;

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 144: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

129

Universitas Indonesia

ii. Dari hasil snapshot pergerakan account untuk masing-masing

kolektibilitas tersebut, kemudian dilakukan transformasi untuk menghitung

Flow Rate movement kolektibilitasnya. Sumber tabel yang digunakan

untuk proses transformasi ini adalah PSAK_ENR_MIGRATION dan

PSAK_DPD_MASTER_HEADER. Dimana hasil transformasi ini akan

diletakkan pada tabel PSAK_FLOWRATE_MIGRATION. Sub Proses

ke-2 ini di lakukan oleh stored procedure SP_PSAK_CALC_

FLOWRATE_MA. Tabel 4.41 menjelaskan proses transformasi ke tabel

tujuan PSAK_FLOWRATE_MIGRATION

Tabel 4.41 Tabel Transformasi PSAK_FLOWRATE_MIGRATION

Source Destination Remarks

PSAK_ENR_MIGRATION DPD_ID_FROM Periode bulan sebelumnya

PSAK_ENR_MIGRATION PERIOD_FROM Periode bulan sebelumnya

PSAK_ENR_MIGRATION DPD_ID_TO Periode bulan pelaporan

PSAK_ENR_MIGRATION PERIOD_TO Periode bulan pelaporan

PSAK_ENR_MIGRATION PRODUCT_GROUP

PSAK_ENR_MIGRATION FLOW_RATES SUMMARY_OUTSTANDI

NG (bulan pelaporan) /

SUMMARY_OUTSTANDI

NG (bulan sebelumnya)

Conditions:

FROM PSAK_ENR_MIGRATION ENR

INNER JOIN PSAK_DPD_MASTER_HEADER DPD_H

ON ENR.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP

WHERE ENR.PERIOD_TO = V_PERIOD;

iii. Dari hasil perhitungan flow rate migration tersebut, kemudian akan

dihitung probability default dari masing-masing kolektibilitas, mulai dari

kolektibilitas 1 sampai dengan kolektibilitas 5. Sumber tabel yang

digunakan sebagai input adalah PSAK_FLOWRATE_MIGRATION,

PSAK_DPD_MASTER. Hasil transformasi ini diletakkan pada tabel

PSAK_COMPOUND_FLOW_TO_LOSS. Stored Procedure yang

digunakan dalam sub proses ke-3 ini adalah

SP_PSAK_CALC_FLOWTOLOSS_MA. Tabel 4.42 menjelaskan proses

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 145: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

130

Universitas Indonesia

transformasi perhitungan PD ke tabel tujuan

PSAK_COMPOUND_FLOW_TO_LOSS.

Tabel 4.42 Tabel Transformasi PSAK_COMPOUND_FLOW_TO_LOSS Source Destination Remarks

PSAK_DPD_MASTER DPD_ID

PSAK_FLOWRATE_MIGRATION PRODUCT_GROUP

TYPE Default ‘O’

PSAK_FLOWRATE_MIGRATION PERIOD

PSAK_FLOWRATE_MIGRATION FLOW_TO_LOSS

Conditions: N/A

Setelah masing-masing probability of default (PD) ini diketahui maka selanjutnya

akan dilakukan rata-rata PD di masing-masing period dari hasil transformasi point

c.3 diatas selama 36 bulan terakhir untuk setiap kolektibilitas. Tabel Sumber

adalah tabel PSAK_COMPOUND_FLOW_TO_LOSS,

PSAK_DPD_MASTER_HEADER, PSAK_DPD_MASTER, PSAK_

RECOVERY_MATRIX dan hasil transformasi ini akan diletakkan pada tabel

PSAK_LGD. Stored Procedure yang menghandel sub proses ke-4 ini adalah

SP_PSAK_CALC_LGD_MA. Tabel 4.43 menjelaskan transformasi proses

perhitungan LGD.

Tabel 4.43 Tabel Transformasi PSAK_LGD

Source Destination Remarks

PSAK_DPD_MASTER DPD_ID

PSAK_COMPOUND_FLOW_TO_LOSS PRODUCT_GR

OUP

PSAK_COMPOUND_FLOW_TO_LOSS PERIOD

PSAK_COMPOUND_FLOW_TO_LOSS PD CASE WHEN

NVL(DPD_D.FLAG_DEFAULT, '0') =

'Y' THEN

NVL(DPD_D.PD_DEFAULT, 0) / 100

ELSE

AVG(NVL(FL.FLOW_TO_LOSS, 0))

END AS PD

PSAK_RECOVERY_MATRIX.

RECOVERY_RATE

LGD 1 - NVL(MAT.RECOVERY_RATE, 0)

AS LGD

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 146: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

131

Universitas Indonesia

Conditions:

FROM PSAK_DPD_MASTER DPD_D INNER JOIN PSAK_DPD_MASTER_HEADER DPD_H ON

DPD_D.PRODUCT_GROUP = DPD_H.PRODUCT_GROUP AND DPD_H.METHOD_IMPAIRMENT

= 'S00033' AND DPD_H.CALCULATION_TYPE = 'A' INNER JOIN

PSAK_COMPOUND_FLOW_TO_LOSS FL ON DPD_D.PRODUCT_GROUP =

FL.PRODUCT_GROUP AND FL.DPD_ID = DPD_D.DPD_ID LEFT JOIN

PSAK_RECOVERY_MATRIX MAT ON FL.PRODUCT_GROUP = MAT.PRODUCT_GROUP AND

MAT.PERIOD = V_PERIOD WHERE FL.PERIOD BETWEEN

TO_CHAR(ADD_MONTHS(TO_DATE(V_PERIOD, 'YYYYMM'), DPD_H.HISTORICAL_DATA * -

1), 'YYYYMM') AND V_PERIOD AND LAST_DAY(TO_DATE(FL.PERIOD, 'YYYYMM')) >=

V_CUTOFF_DATE GROUP BY DPD_D.DPD_ID, DPD_D.PRODUCT_GROUP,

DPD_D.FLAG_DEFAULT, DPD_D.PD_DEFAULT, MAT.RECOVERY_RATE;

4. SP_PSAK_POST_PROCESS_CA : Proses transformasi update semua hasil

kalkulasi ke tabel PSAK_MASTER_ACCOUNT untuk field berikut ini yaitu

PD_RATE, LGD_RATE, PIP_AMOUNT, UNWINDING_AMOUNT,

BEGINNING_BALANCE, CHARGE, WRITEBACK, ENDING_BALANCE

Tabel 4.44 menjelaskan rincian proses transformasi ke tabel tujuan

PSAK_MASTER_ACCOUNT

Tabel 4. 44 Tabel Transformasi PSAK_MASTER_ACCOUNT

Source Destination Rules

PSAK_LGD PD_RATE

PSAK_LGD LGD_RATE

PSAK_LGD PIP_AMOUNT OUTSTANDING * PD_RATE *

LGD_RATE * LIP

PSAK_MASTER_ACCOU

NT

UNWINDING_AMOU

NT

(NVL(PMA.OUTSTANDING, 0) -

NVL(PMA.PIP_AMOUNT, 0)) *

(DECODE(NVL(PMA.EIR, 0), 0,

NVL(PMA.INTEREST_RATE, 0),

NVL(PMA.EIR, 0)) / 100 / 12)

PSAK_MASTER_ACCOU

NT

BEGINNING_BALAN

CE

ENDING_BALANCE (PREVIOUS

PERIOD)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 147: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

132

Universitas Indonesia

Source Destination Rules

PSAK_MASTER_ACCOU

NT

CHARGE CASE WHEN

NVL(PREV.ENDING_BALANCE, 0) <

CASE WHEN CUR.IMPAIRED_FLAG = 'I'

THEN

NVL(CUR.IIP_AMOUNT, 0) ELSE

NVL(CUR.PIP_AMOUNT, 0) END THEN

CASE WHEN

CUR.IMPAIRED_FLAG = 'I' THEN

NVL(CUR.IIP_AMOUNT, 0) ELSE

NVL(CUR.PIP_AMOUNT, 0)

END - NVL(PREV.ENDING_BALANCE,

0) ELSE 0 END AS CHARGE

PSAK_MASTER_ACCOU

NT

WRITEBACK CASE WHEN

NVL(PREV.ENDING_BALANCE, 0) >

CASE WHEN CUR.IMPAIRED_FLAG = 'I'

THEN

NVL(CUR.IIP_AMOUNT, 0) ELSE

NVL(CUR.PIP_AMOUNT, 0) END THEN

CASE WHEN

CUR.IMPAIRED_FLAG = 'I' THEN

NVL(CUR.IIP_AMOUNT, 0) ELSE

NVL(CUR.PIP_AMOUNT, 0)

END - NVL(PREV.ENDING_BALANCE,

0) ELSE 0 END AS WRITEBACK,

PSAK_MASTER_ACCOU

NT

ENDING_BALANCE CASE WHEN CUR.IMPAIRED_FLAG = 'I'

THEN NVL(CUR.IIP_AMOUNT, 0) ELSE

NVL(CUR.PIP_AMOUNT, 0)END AS

ENDING_BALANCE

4.4.2 Proses Transformasi dan Load Tabel Dimensi

Pada bagian ini akan dijelaskan bagaiman proses transformasi yang berkaitan

dengan semua tabel dimensi. Proses Transformasi dan Load pada tabel dimensi

dibedakan berdasarkan Type dari SCD per masing-masing tabel dimensi. Proses

transformasi dan Load untuk semua tabel dimensi merupakan proses mandatory

sebelum proses load ke tabel Fakta.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 148: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

133

Universitas Indonesia

4.4.2.1 Load Slowly Changing Dimension (SCD) Type 0

Semua dimensi dengan SCD Type 0 hanya akan dijalankan sekali pada saat initial

setup PSAK Datamart. Hal tersebut karena tipe dimensi SCD Type 0 merupakan

fixed attribute yang durable yang tidak pernah berubah. Source data yang

digunakan berupa Flat file excel files. Gambar berikut ini akan menjelaskan

proses Load ke masing-masing tabel dimension dengan SCD Type 0 yang terdiri

dari dimensi berikut: DIM_PERIOD, DIM_AKAD, DIM_CURRENCY,

DIM_COLLECTIBILITY, DIM_COLLECTIBILITY_MOVEMENT dan

DIM_IMPAIRMENT_FLAG.

4.4.2.2 Transformasi dan Load Slowly Changing Dimension (SCD) Type 1

Untuk menghasilkan record di tabel Dimensi Customer, dilakukan dengan

mengambil data dari tabel sumber PSAK_MASTER_ACCOUNT dan melakukan

import ke dalam tabel DIM_CUSTOMER. Proses load dimensi ini dilakukan

selama sebulan sekali pada saat periode pelaporan. Penjelasan mengenai atribut

apa saja yang digunakan dijelaskanpada tabel 4.45

Tabel 4.45 Tabel Sumber, Tujuan dan Rules Dimensi Customer

Tabel Sumber Tabel Tujuan/Field Name/Data Type

Rules Initial Load dan Update

DIM_CUSTOMER. CUSTOMER_SK

Merupakan Surrogate Key dari Code Customer Number

PSAK_MASTER_ACCOUNT.

CUSTOMER_NUMBER

DIM_CUSTOMER. CUSTOMER_NUMBER

PSAK_MASTER_ACCOUNT.

GLOBAL_CUSTOMER_NUMBER,

DIM_CUSTOMER.

GLOBAL_CUSTOMER_NUMBER

Attribute yang akan diupdate apabila terdapat perubahan (SCD Type 1)

PSAK_MASTER_ACCOUNT.

CUSTOMER_NAME,

DIM_CUSTOMER.

CUSTOMER_NAME

Attribute yang akan diupdate apabila terdapat perubahan (SCD Type 1)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 149: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

134

Universitas Indonesia

Tabel Sumber Tabel Tujuan/Field Name/Data Type

Rules Initial Load dan Update

PSAK_MASTER_ACCOUNT.

CUSTOMER_GRADE

DIM_CUSTOMER.

CUSTOMER_GRADE

Attribute yang akan diupdate apabila terdapat perubahan (SCD Type 1)

CREATEDDATE SYSTEM DATE pada saat setiap kali insert apabila terdapat new records

UPDATEDDATE System Date pada setiap adanya perubahan

4.4.2.3 Transformasi dan Load Slowly Changing Dimension (SCD) Type 2

Sesuai dengan pembahasan pada sub bab 4.3.8, maka pada bagian proses ETL ini

akan dijelaskan porses Load Dimensi-dimensi SCD Type 2. SCD Type-akan

menambahkan record baru untuk setiap perubahan dan original record akan tetap

tersimpan pada tabel dimensi. Dimensi yang termasuk dalam SCD Type 2 adalah

Dimensi Segment, Dimensi Impairment Group, Dimensi Area, Dimensi Main

Branch, Dimensi Branch, Dimensi Product, dan Dimensi Maturity Profile

Proses Load Dimensi Segment (DIM_SEGMENT)

Untuk menghasilkan record terhadap tabel Dimensi Segment, dilakukan dengan

mengambil data dari tabel sumber PSAK_BMI_SEGMENT dan melakukan

import ke dalam tabel DIM_SEGMENT. Penjelasan mengenai atribut apa saja

yang digunakan dijelaskanpada tabel 4.46

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 150: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

135

Universitas Indonesia

Tabel 4. 46 Tabel Sumber, Tujuan dan Rules Dimensi Segment

Tabel Sumber / Nama

Field

Tabel Tujuan/Field

Name/Data Type Rules Initial Load dan Update

SEGMENT_KEY Merupakan Surrogate Key dari kode segment, incremental 1

SEGMENT_LEVEL_1_CODE Sequence

PSAK_BMI_SEGMENT.

COLLECTIVE_GROUP_4

SEGMENT_LEVEL_1_DESC

Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

SEGMENT_LEVEL_2_CODE Sequence

PSAK_BMI_SEGMENT.

SEGMENT_BMI

SEGMENT_LEVEL_2_DESC

Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

SEGMENT_LEVEL_3_CODE LEFT(C09_SEGMENTASI_ACCOUNT,2)

PSAK_BMI_SEGMENT.

C09_SEGMENTASI_ACCOUNT

SEGMENT_LEVEL_3_DESC

Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

START_DATE SYSTEM DATE pada saat setiap kali insert atau perubahan data apabila terdapat new records

END_DATE

Untuk Old Record : akan diisi dengan System Date pada setiap adanya perubahan. Sedangkan untuk New Record : akan diisi dengan value date 31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut aktif dimana value pada END_DATE adalah 31-12-9999

Proses Load Dimensi Impairment Group (DIM_IMPAIRMENT_GROUP)

Untuk menghasilkan record terhadap tabel Dimensi Impairment Group,

dilakukan load dari tabel sumber PSAK_BMI_SEGMENT dan melakukan import

ke dalam tabel DIM_IMPAIRMENT_GROUP dengan Distinct Value dari

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 151: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

136

Universitas Indonesia

PSAK_BMI_SEGMENT field COLLECTIVE_GROUP_2. Penjelasan mengenai

atribut apa saja yang digunakan dijelaskanpada tabel 4.47

Tabel 4.47 Tabel Sumber, Tujuan, dan Rules Dimensi Impairment Group

Tabel Sumber / Nama

Field

Tabel Tujuan/Field

Name/Data Type

Rules Initial Load dan Update

IMPAIRMENT_CODE Merupakan Surrogate Key dari kode

Impairment Code, incremental 1

PSAK_BMI_SEGMENT.

COLLECTIVE_GROUP_

4

IMPAIRMENT_GROUP

Distinct COLLECTIVE_GROUP_4

FROM PSAK_BMI_SEGMENT).

Apabila ada perubahan maka dilakukan

insert new record untuk memaintain

data history (SCD Type 2)

START_DATE SYSTEM DATE pada saat setiap kali

insert atau perubahan dataatau apabila

terdapat new records

END_DATE Untuk Old Record : akan diisi dengan

System Date pada setiap adanya

perubahan. Sedangkan untuk New

Record : akan diisi dengan value date

31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut

aktif dimana value pada END_DATE

adalah 31-12-9999

Proses Load Dimensi Area (DIM_AREA)

Untuk menghasilkan record terhadap tabel Dimensi Area, dilakukan

load data dari tabel sumber MASTER_BRANCH dan melakukan import ke dalam

tabel DIM_AREA. Penjelasan mengenai atribut apa saja yang digunakan

dijelaskanpada tabel 4.48

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 152: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

137

Universitas Indonesia

Tabel 4.48 Tabel Sumber, Tujuan, dan Rules Dimensi Area (DIM_AREA)

Tabel Sumber / Nama

Field

Tabel Tujuan/Field

Name/Data Type

Rules Initial Load dan Update

AREABRANCH_SK Merupakan Surrogate Key dari kode Area

Code, incremental 1

MASTER_BRANCH.

AREA_CODE

AREA_CODE Code ini akan diambil dari Master Area

MASTER_BRANCH.

AREA_DESCRIPTION

AREA_DESC Apabila ada perubahan maka dilakukan

insert new record untuk memaintain data

history (SCD Type 2)

START_DATE SYSTEM DATE pada saat setiap kali insert

atau perubahan data atau apabila terdapat

new records

END_DATE Untuk Old Record : akan diisi dengan

System Date pada setiap adanya perubahan.

Sedangkan untuk New Record : akan diisi

dengan value date 31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut aktif

dimana value pada END_DATE adalah 31-

12-9999

Proses Load Dimensi Main Branch (DIM_MAINBRANCH)

Untuk menghasilkan record terhadap tabel Dimensi Main Branch (Cabang

Utama), dilakukan load dari tabel sumber MASTER_BRANCH pada field

MAIN_BRANCH_CODE dan melakukan import ke dalam tabel

DIM_MAINBRANCH. Penjelasan mengenai atribut apa saja yang digunakan

dijelaskan pada tabel 4.49

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 153: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

138

Universitas Indonesia

Tabel 4.49 Tabel Sumber, Tujuan, dan Rules Dimensi Cabang Utama

Tabel Sumber / Nama

Field

Tabel Tujuan/Field

Name/Data Type

Rules Initial Load dan Update

MAINBRANCH_SK Merupakan Surrogate Key dari kode Area Code,

incremental 1

DIM_AREA.

AREA_CODE

AREABRANCH_SK Code ini merupakan foreign key dari tabel

DIM_AREA

MASTER_BRANCH.

MAIN_BRANCH_COD

E

MAIN_BRANCH_CO

DE

Apabila ada perubahan maka dilakukan insert

new record untuk memaintain data history (SCD

Type 2)

MASTER_BRANCH.

MAIN_BRANCH_DES

CRIPTION

MAIN_BRANCH_NA

ME

Apabila ada perubahan maka dilakukan insert

new record untuk memaintain data history (SCD

Type 2)

START_DATE SYSTEM DATE pada saat setiap kali insert atau

perubahan data atau apabila terdapat new records

END_DATE Untuk Old Record : akan diisi dengan System

Date pada setiap adanya perubahan. Sedangkan

untuk New Record : akan diisi dengan value date

31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut aktif dimana

value pada END_DATE adalah 31-12-9999

Proses Load Dimensi Branch (DIM_BRANCH)

Untuk menghasilkan record terhadap tabel Dimensi Branch, dilakukan dengan

mengambil data dari tabel sumber MASTER_BRANCH pada field

BRANCH_CODE dan BRANCH_NAME, kemudian dilakukan import ke dalam

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 154: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

139

Universitas Indonesia

tabel DIM_BRANCH. Penjelasan mengenai atribut apa saja yang digunakan

dijelaskanpada tabel 4.50

Tabel 4.50 Tabel Sumber, Tujuan dan Rules Dimensi Cabang

Tabel Sumber / Nama

Field

Tabel Tujuan/Field

Name/Data Type

Rules Initial Load dan Update

BRANCH_SK Merupakan Surrogate Key dari kode

branch Code, incremental 1

DIM_MAINBRANCH MAINBRANCH_SK Code ini merupakan foreign key dari tabel

DIM_MAINBRANCH

DIM_AREA AREABRANCH_SK Code ini merupakan foreign key dari tabel

DIM_AREA

BRANCH_CODE Apabila ada perubahan maka dilakukan

insert new record untuk memaintain data

history (SCD Type 2)

BRANCH_NAME Apabila ada perubahan maka dilakukan

insert new record untuk memaintain data

history (SCD Type 2)

START_DATE SYSTEM DATE pada saat setiap kali

insert atau perubahan data atau apabila

terdapat new records

END_DATE Untuk Old Record : akan diisi dengan

System Date pada setiap adanya

perubahan. Sedangkan untuk New Record

: akan diisi dengan value date 31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut aktif

dimana value pada END_DATE adalah

31-12-9999

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 155: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

140

Universitas Indonesia

Proses Load Dimensi Product (DIM_PRODUCT)

Untuk menghasilkan record di tabel Dimensi Product, dilakukan load dari tabel

sumber PSAK_MASTER_PRODUCT_PARAMETER field PRD_TYPE dan field

PRD_CODE, serta tabel MAPPING_PRODUCT_FIN pada field

PRODUCT_NAME. Selanjutnya melakukan import ke dalam tabel

DIM_PRODUCT. Prosesnya dilakukan sebulan sekali pada saat akhir bulan.

Penjelasan mengenai atribut apa saja yang digunakan dijelaskanpada tabel 4.51.

Sedangkan pembaruan data pada Tabel Dimensi Product yaitu ketika terdapat

perubahan data dari sumber data

Tabel 4.51 Tabel Sumber, Tujuan dan Rules Dimensi Product

Tabel Sumber / Nama Field

Tabel Tujuan/Field Name/Data Type

Rules Initial Load dan Update

PRODUCT_KEY Merupakan Surrogate Key dari Dimensi Product, incremental 1

PSAK_MASTER_PRODUCT_PARAMETER.PRD_TYPE

AKAD_CODE

PSAK_MASTER_PRODUCT_PARAMETER.PRD_CODE

PRODUCT_CODE Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

MAPPING_PRODUCT_FIN.PRODUCT_NAME

PRODUCT_NAME Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

START_DATE SYSTEM DATE pada saat setiap kali insert atau perubahan data atau apabila terdapat new records

END_DATE Untuk Old Record : akan diisi dengan System Date pada setiap adanya perubahan. Sedangkan untuk New Record : akan diisi dengan value date 31-12-9999

FLAG_CURRENT Akan diisi Y apabila record tersebut aktif dimana value pada END_DATE adalah 31-12-9999

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 156: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

141

Universitas Indonesia

Proses Load Dimensi Maturity Profile (DIM_MATURITYPROFILE)

Untuk menghasilkan record terhadap tabel Dimensi Maturity Profile, dilakukan

dengan mengambil data dari tabel sumber di flat file excel yang berisi range

pengelompokkan Maturity, dan selanjutnya melakukan import ke dalam tabel

DIM_MATURITYPROFILE. Penjelasan mengenai atribut apa saja yang

digunakan dijelaskanpada tabel 4.52. Pembaruan data pada Tabel Dimensi

MaturityProfile yaitu ketika terdapat perubahan data dari sumber data.

Tabel 4.52 Tabel Sumber, Tujuan, dan Rules Dimensi Maturity Profile

Tabel Sumber / Nama Field

Tabel Tujuan/Field Name/Data Type

Rules Initial Load dan Update

Initial load MATURITYPROFILE_SK Merupakan Surrogate Key dari Dimensi Maturity Profile, incremental 1

Initial load DAY_START Merupakan Day Start dari setiap bucket maturity

Initial load DAY_END Merupakan Day End dari setiap bucket maturity

Initial load MATURITYPROFILE_DESC

Apabila ada perubahan maka dilakukan insert new record untuk memaintain data history (SCD Type 2)

Initial load START_DATE SYSTEM DATE pada saat setiap kali insert atau perubahan dataatau apabila terdapat new records

Initial load END_DATE

Untuk Old Record : akan diisi dengan System Date pada setiap adanya perubahan. Sedangkan untuk New Record : akan diisi dengan value date 31-12-9999

Initial load FLAG_CURRENT Akan diisi Y apabila record tersebut aktif dimana value pada END_DATE adalah 31-12-9999

4.4.3 Proses Transformasi dan Load ke Tabel Fakta

Setelah selesai melakukan load ke tabel dimensi, maka sebelum melakukan load

ke Tabel Fakta, diperlukan persiapan data agar dilakukan dilakukan transformasi

dengan menyesuaikan tabel dimensi yang sudah dibuat. Hal ini tabel dimensi

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 157: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

142

Universitas Indonesia

dijadikan reference untuk mensinkronisasikan antara relationship field di tabel

Fakta dan tabel Dimensi.

4.4.3.1 Transformasi dan Load Fakta Pembiayaan

Sesuai dengan penjelasan diatas bahwa diperlukan persiapan data sebelum

melakukan load ke tabel fakta. Persiapan data yang diperlukan oleh tabel Fakta

Pembiayaan sesuai dengan kebutuhan measurement dan analisa yang dibutuhkan

oleh pengguna, maka diperlukan proses transformasi terhadap informasi-informasi

yang belum tersedia secara raw data dari tabel sumber. Proses transformasi yang

diperlukan sebelum load ke tabel fakta pembiayaan adalah berasal dari beberapa

sumber tabel antara lain :

1. Sumber Tabel PSAK_MASTER_ACCOUNT dengan field

BI_COLLECTABILITY, dengan tujuan tabel FACTLOANACCOUNT, field

BI_KOL. Field-field yang dilakukan transformasi adalah

BI_COLLECTABILITY, dimana format dari sumber tabel adalah numeric,

proses transformasinya adalah melakukan perubahan data type menjadi

character.

2. Field berikutnya adalah KOL_MOV, dimana akan menjelaskan keterangan

pergerakan kolektibilitas untuk setiap account dari satu periode ke periode

berikutnya. Untuk membuat transformasi field ini, langkah awal adalah harus

dilakukan penggabungan semua account number yang terdapat di bulan

pelaporan ini dan account-account pembiayaan yang berasal dari bulan

sebelumnya. Hal ini disebabkan karena ada kemungkinan account pembiayaan

yang sudah mengalami jatuh tempo(matured) atau sudah closed dimana

account tersebut sudah tidak ada lagi di raw data bulan berikutnya. Langkah

ini diperlukan untuk menjawab kebutuhan analisa untuk melihat pergerakan

kolektibilitas per masing-masing cabang. Proses Transformasinya adalah

dengan menggabungkan kolektibilitas bulan pelaporan (Sumber tabel

PSAK_MASTER_ACCOUNT field BI_COLLECTABILITY di tanggal bulan

pelaporan) dengan bulan sebelumnya dengan mengikuti format character

sesuai pada tabel Dimensi DIM_COLLECTIBILITY_MOVEMENT.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 158: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

143

Universitas Indonesia

3. Dari akibat proses transformasi diatas (pergerakan kolektibilitas), maka

diperlukan tambahan satu kolom yaitu FLAG_CURRENT di tabel tujuan

FACTLOANACCOUNT, yaitu akan berisi nilai karakter ‘Y’ atau ‘N’ untuk

identifier bahwa account tersebut merupakan account baru atau account lama.

Flag ‘Y’ menunjukkan bahwa account number tersebut merupakan account

yang ada di bulan pelaporan dan belum ada pada bulan sebelumnya.

4. Field berikutnya adalah field NPL, yaitu dengan mengisi dengan nilai

outstanding apabila account pembiayaan BI_KOL valuenya 3, 4, dan 5.

Setelah dilakukan transformasi pada field NPL (Non Performing Loan), maka

proses transformasi selanjutnya adalah melakukan perhitungan NPL Ratio

dimana merupakan salah satu measurement yang diperlukan pada tabel Fakta

Pembiayaan. Transformasi dilakukan dengan mengelompokkan nilai NPL

setiap cabang kemudian dibagi dengan total Outstanding di setiap cabang

tersebut.

5. Field terakhir yang dilakukan transformasi adalah MaturityID yaitu dengan

menyesuiakan surrogate key yang berada pada tabel Dimensi

DIM_MATURITY_PROFILE sesuai dengan selisih tanggal jatuh tempo (field

: Loan_due_date pada Tabel PSAK_MASTER_ACCOUNT) dengan tanggal

pelaporan dalam satuan hari kalendar yang kemudian dikelompokkan menjadi

kode yang menunjukkan range jatuh tempo pembiayaan.

Tabel 4.53 menjelaskan proses transformasi keseluruhan ke tabel tujuan

FACTLOANACCOUNT

Tabel 4.53 Tabel transformasi FACTLOANACCOUNT sebagai tabel input

sebelum load ke tabel FACT_LOAN Source Destination Remarks

PSAK_MASTER_ACCOUNT.DOWNLOAD_DATE DOWNLOAD_DATE

PSAK_MASTER_ACCOUNT.SEGMENT SEGMENT

PSAK_MASTER_ACCOUNT.CURRENCY CURRENCY

PSAK_MASTER_ACCOUNT. BRANCH_CODE BRANCH_CODE

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 159: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

144

Universitas Indonesia

Source Destination Remarks PSAK_MASTER_ACCOUNT. PRODUCT_CODE PRODUCT_CODE

PSAK_MASTER_ACCOUNT. ACCOUNT_NUMBER

ACCOUNT_NUMBER

PSAK_MASTER_ACCOUNT. BI_COLLECTABILITY BI_KOL CONVERT(varchar(1),B.bi_collectability)

AS BI_KOL

KOL_MOV

CASE WHEN CONVERT(varchar(1),A.bi_collectability) IS NULL THEN CONVERT(varchar(1),b.bi_collectability) + '-' + CONVERT(varchar(1),B.bi_collectability) END AS KOL_MOV

FLAG_CURRENT

CASE WHEN CONVERT(varchar(1),A.bi_collectability) IS NULL THEN 'Y' ELSE 'N' end AS FLAG_CURRENT,

PSAK_MASTER_ACCOUNT.OUTSTANDING OUTSTANDING isnull(B.OUTSTANDING,0),

PSAK_MASTER_ACCOUNT.PLAFOND PLAFOND isnull(B.PLAFOND,0),

NPL

CASE WHEN CONVERT(varchar(1),B.bi_collectability) IN ('3','4','5') THEN B.OUTSTANDING ELSE 0 END

PSAK_MASTER_ACCOUNT.LOAN_DUE_DATE MATURITY_ID

CASE WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) < 0 THEN '000' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 0 AND 30 THEN '100' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 31 AND 90 THEN '110' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 91 AND 180 THEN '120' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 181 AND 365 THEN '130' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 365 AND 1095 THEN '140' WHEN DATEDIFF(DAY, B.DOWNLOAD_DATE,B.LOAN_DUE_dATE) BETWEEN 1096 AND 1825 THEN '150' ELSE '160'

Conditions: from #tempPrevMonth A RIGHT JOIN #tempCurrentMonth B ON A.ACCOUNT_NUMBER=B.ACCOUNT_NUMBER

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 160: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

145

Universitas Indonesia

Setelah dilakukan pengumpulan data di level granularitas terendah yaitu pada

account number, maka proses selanjutnya adalah melakukan load ke tabel fakta

terakhir yaitu FACT_LOAN. Transformasi per masing-masing field dari sumber

data ke tabel tujuan dapat dilihat pada tabel 4.54

Tabel 4.54 Tabel Load ke Tabel Fakta Pembiayaan (FACT_LOAN)

Source Destination Remarks

FACTLOANACCOUNT DOWNLOAD_DATE

DIM_AKAD AKAD_CODE

DIM_SEGMENT SEGMENT_SK

DIM_CURRENCY CURRENCY_CODE

DIM_BRANCH_MASTER AREA_CODE

DIM_BRANCH_MASTER MAIN_BRANCH_CODE

DIM_BRANCH BRANCH_CODE

DIM_COLLECTABILITY BI_COLLECTABILITY

DIM_PRODUCT PRODUCT_CODE

DIM_COLLECTIBILITY_MOVEMENT

COLLECTMOVEMENT_SK

DIM_MATURITYPROFILE MATURITYPROFILE_CODE

FACTLOANACCOUNT OUTSTANDING, SUM(A.OUTSTANDING)

FACTLOANACCOUNT NUMBEROFACCOUNT COUNT(A.ACCOUNT_NUMBER)

FACTLOANACCOUNT PLAFOND SUM(A.PLAFOND)

FACTLOANACCOUNT NONPERFOMINGLOAN SUM(A.NPL)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 161: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

146

Universitas Indonesia

Source Destination Remarks

NPL_RATIO UPDATE FACT_LOAN SET NPL_RATIO = B.NPL_RATIO FROM FACT_LOAN AINNER JOIN ( SELECT BRANCH_CODE, SUM(NONPERFOMINGLOAN)/SUM(OUTSTANDING) AS NPL_RATIOFROM FACT_LOAN GROUP BY BRANCH_CODE) B ON A.BRANCH_CODE=B.BRANCH_CODE WHERE A.OUTSTANDING <> 0

Condition:

FACTLOANACCOUNT ALEFT JOIN DIM_BRANCH_MASTER B ON A.BRANCH_CODE=B.BRANCH_CODE LEFT JOIN DIM_SEGMENT C ON A.SEGMENT=C.SEGMENT_LEVEL_3_DESC LEFT JOIN DIM_COLLECTIBILITY_MOVEMENT D ON A.KOL_MOV=D.COLLECTMOVEMENT_DESC GROUP BY A.DOWNLOAD_DATE ,C.SEGMENT_SK ,A.CURRENCY,B.AREA_CODE,B.MAIN_BRANCH_CODE,A.BRANCH_CODE ,A.BI_KOL,A.PRODUCT_CODE,D.COLLECTMOVEMENT_ID,A.MATURITY_ID

4.4.3.2 Transformasi dan Load Fakta CKPN

Persiapan data yang diperlukan sebelum dilakukan load ke tabel fakta CKPN

adalah melakukan pengumpulan data selama dua periode selama dua bulan

pelaporan ke tabel temporary. Data yang dikumpulkan ada pada level akun

pembiayaan. Semua akun pembiayaan dan atribut yang berkaitan dengan

kebutuhan pada fakta CKPN tersebut dikumpulkan di dalam satu tabel.

Tujuan pengumpulan semua data ke dalam satu periode pelaporan terkait dengan

kebutuhan measurementmovement CKPN, yaitu untuk mengetahui berapa banyak

tambahan CKPN yang dibentuk (charged) atau berapa banyak cadangan yang

berkurang (released) di setiap cabang pada periode setiap bulannya. Kebutuhan

lainnya untuk mengetahui pergerakan kolektibilitas dari setiap debitur dari bulan

sebelumnya ke bulan pelaporan.

Transformasi diperlukan juga dalam pembentukan maximum kolektibilitas per

masing-masing customer_number untuk setiap segment, collective impairment

group, currency, branch_code dan product_code.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 162: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

147

Universitas Indonesia

Measurement lainnya adalah variance CKPN aktual dan CKPN forecast terbesar

dan measurement terkait dengan selisih / variance antara pembentukan CKPN dan

PPAP, termasuk didalamnya proses transformasi nilai PPAP. Transformasi nilai

PPAP yaitu dengan mengalikan persentase tertentu untuk masing-masing

maksimum kolektibilitas.

Transformasi lainnya adalah berkaitan dengan proses perhitungan Impaired Loan

Ratio per masing-masing cabang, yang dibentuk dari perbandingan antara nilai

total nilai CKPN dalam mata uang Rupiah pada periode tertentu dibandingkan

dengan total nilai outstanding dalam mata uang Rupiah yang dikelompokkan per

masing-masing cabang (branch_code).

Transformasi diperlukan juga dalam melakukan prorate ke level

customer_number untuk target CKPN dalam mata uang Rupiah (Field :

CKPNFORECAST_IDR), karena yang menjadi data input Target CKPN atau

Forecast adalah dalam level branch, sedangkan data granularitas di tabel

FACT_CKPN adalah di level customer_number.Sumber tabel transformasi Target

CKPN ini adalah pada tabel PSAK_CKPN_TARGET.

Proses transformasi terakhir adalah penyesuaian kode untuk field-field berikut ini

sesuai dengan surrogate key atau primary key pada Tabel Dimensi. Field-field

tersebut adalah AKAD_CODE di Tabel DIM_AKAD, field segment_code di

Tabel DIM_SEGMENT, field IMPAIRMENTGROUP_CODE di Tabel

DIM_IMPAIRMENT_GROUP, field IMPAIRMENT_CODE di Tabel

DIM_IMPAIRMENT_FLAG, field COLLECTMOVEMENT_SK di Tabel

DIM_COLLECTABILITY_MOVEMENT.

Semua output proses transformasi dari masing-masing tabel sumber sebagai

persiapan data sebelum load ke tabel Fakta CKPN ditampung di tabel temporary

FACTCKPNCUST.Rincian transformasi dari sumber data ke tabel tujuan dapat

dilihat pada Tabel 4.55.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 163: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

148

Universitas Indonesia

Tabel 4.55 Tabel Load ke Tabel Fakta CKPN (FACT_CKPN) Source Destination Remarks

FACTCKPNCUST DOWNLOAD_DA

TE

DIM_AKAD AKAD_CODE

DIM_SEGMENT SEGMENT_CODE

FACTCKPNCUST CURRENCY_COD

E

DIM_AREA AREA_CODE

DIM_MAINBRANCH MAIN_BRANCH_

CODE

DIM_BRANCH BRANCH_CODE

DIM_CUSTOMER CUSTOMER_NU

MBER

DIM_PRODUCT PRODUCT_CODE

DIM_IMPAIRMENT_GR

OUP

COLLECTIVE_GR

OUP

FACTCKPNCUST PD_RATE

FACTCKPNCUST LGD_RATE

FACTCKPNCUST EXPECTED_LOSS

_RATE

DIM_IMPAIRMENT_FLA

G

FLAG_IMPAIRED

DIM_COLLECTABILITY

_MOVEMENT

COLLECTMOVE

MENT_SK

CASE WHEN

CONVERT(varchar(1),A.bi_collectability)

IS NULL THEN

CONVERT(varchar(1),b.bi_collectability) +

'-' +

CONVERT(varchar(1),B.bi_collectability)

END AS KOL_MOV

FACTCKPNCUST MAX_BICOLLEC

TABILITY

MAX(BI_COLLECTABILITY) GROUP

BY CUSTOMER_NUMBER

FACTCKPNCUST OUTSTANDING

FACTCKPNCUST COLLATERAL_V

ALUE

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 164: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

149

Universitas Indonesia

Source Destination Remarks

FACTCKPNCUST PPAP CASE WHEN

MAX(BI_COLLECTABILITY)=1 THEN

SUM(ISNULL(OUTSTANDING,0) *

ISNULL(EXCHANGE_RATE,1) * 0.01)

WHEN MAX(BI_COLLECTABILITY)=2

THEN

SUM(ISNULL(OUTSTANDING,0) *

ISNULL(EXCHANGE_RATE,1) * 0.05)

WHEN

MAX(BI_COLLECTABILITY)=3 THEN

SUM(ISNULL(OUTSTANDING,0) *

ISNULL(EXCHANGE_RATE,1) * 0.15)

WHEN MAX(BI_COLLECTABILITY)=4

THEN

SUM(ISNULL(OUTSTANDING,0) *

ISNULL(EXCHANGE_RATE,1) * 0.50)

WHEN

MAX(BI_COLLECTABILITY)=5 THEN

SUM(ISNULL(OUTSTANDING,0) *

ISNULL(EXCHANGE_RATE,1) * 1) ELSE

0 END AS PPAP

FACTCKPNCUST CKPNFORECAST SET CKPNFORECAST_IDR =

A.OUTSTANDING_IDR *

B.RATIO_TARGET_CABANG FROM

FACTCKPNCUST A INNER JOIN

(SELECT X.BRANCH_CODE,

X.MAIN_BRANCH_CODE,

X.OUTSTANDING_IDR,

X.CKPNKOLEKTIF_IDR,

X.OUTSTANDING_IDR*Y.impaired_loan_

ratio_per_mainbranch AS

TARGET_BRANCH,

X.CKPNKOLEKTIF_IDR -

(X.OUTSTANDING_IDR*Y.impaired_loan

_ratio_per_mainbranch) AS

VARIANCE,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 165: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

150

Universitas Indonesia

Source Destination Remarks

FACTCKPNCUST CKPNFORECAST (X.OUTSTANDING_IDR*Y.impaired_loan

_ratio_per_mainbranch) /

X.OUTSTANDING_IDR AS

RATIO_TARGET_CABANG FROM (

SELECT A.BRANCH_CODE,

B.MAIN_BRANCH_CODE,

SUM(OUTSTANDING_IDR) AS

OUTSTANDING_IDR,

SUM(CKPNKOLEKTIF_IDR) AS

CKPNKOLEKTIF_IDR,

SUM(CKPNKOLEKTIF) AS

CKPNKOLEKTIF,

sum(ckpnkolektif_idr)/sum(outstanding_idr)

as impaired_loan_ratio_per_branch

FROM FACTCKPNCUST A inner join

dim_branch b on a.branch_code =

b.branch_code

GROUP BY A.BRANCH_CODE,

B.MAIN_BRANCH_CODE ) X INNER

JOIN CKPNTARGETIDR Y ON

X.MAIN_BRANCH_CODE=Y.MAIN_BR

ANCH_CODE ) B ON

A.BRANCH_CODE=B.BRANCH_CODE

FACTCKPNCUST CKPNKOLEKTIF

FACTCKPNCUST CKPNINDIVIDUA

L

FACTCKPNCUST INTEREST_UNWI

NDING

FACTCKPNCUST CHARGED

FACTCKPNCUST RELEASED

FACTCKPNCUST IMPAIRED_LOA

N_RATIO

sum(ckpnkolektif_idr)/sum(outstanding_idr)

,from (SELECT BRANCH_CODE,

sUM(OUTSTANDING_IDR) AS

OUTSTANDING_IDR,SUM(CKPNKOLE

KTIF_IDR) AS CKPNKOLEKTIF_IDR,

SUM(CKPNKOLEKTIF) AS

CKPNKOLEKTIF,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 166: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

151

Universitas Indonesia

Source Destination Remarks

FACTCKPNCUST IMPAIRED_LOA

N_RATIO

sum(ckpnkolektif_idr)/sum(outstanding_idr)

as impaired_loan_ratio_per_branch

FROM FACTCKPNCUST

GROUP BY BRANCH_CODE) a

inner join dim_branch b

on a.branch_code = b.branch_code

group by b.main_branch_code

Condition:

FROM #tempCurrMonthCKPN

WHERE OUTSTANDING <> 0

GROUP BY DOWNLOAD_DATE, SEGMENT, CURRENCY, BRANCH_CODE,

PRODUCT_CODE, CUSTOMER_NUMBER,

PD_RATE, LGD_RATE, PD_RATE*LGD_RATE

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 167: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

152 Universitas Indonesia

BAB 5

IMPLEMENTASI OLAP

Setelah rancangan datamart PSAK 50/55 terbentuk, maka tahapan berikutnya

melakukan perancangan aplikasi pelaporan dan pemanfaatan tools analisa yang

akan digunakan oleh divisi keuangan, akuntansi dan manajemen risiko.

Melanjutkan dari perancangan dari datamart untuk pemenuhan penyusunan

pelaporan CKPN sesuai PSAK 50/55, kemudian akan dikembangkan untuk tools

analisa dengan pengolahan visualisasi Online Analytical Processing (OLAP).

Sebelum melakukan implementasi OLAP, diperlukan persiapan environment

server yang dapat menyediakan OLAP. Persiapan environment dalam penelitian

ini menggunakan databaseMicrosoft SQL Server 2012 dan IBM Cognos Insight

sebagai tools yang digunakan oleh pengguna dalam visualisasi laporan, grafik dan

analisa. Hasil pemrosesan ETL dan permodelan data dimensional (cube) akan

digunakan sebagai input dalam presentasi dan visualisasi laporan yang digunakan.

Dari kebutuhan 12 laporan yang telah dipaparkan pada fase analisa kebutuhan

informasi, sumber data yang digunakan dalam memfasilitasi ini dibedakan

menjadi 2 bagian yang terdiri dari informasi dari tabel fakta pembiayaan

(FACT_LOAN) dan berasal dari sumber tabel fakta CKPN (FACT_CKPN).

Termasuk didalamnya tabel-tabel dimensi yang berkaitan dengan masing-masing

tabel fakta.

5.1 Implementasi

Pada bab ini berisi tentang informasi yang disediakan oleh datamart PSAK.

Informasi tersebut digunakan untuk menghasilkan beberapa laporan yang nantinya

digunakan dalam pelaporan internal manajemen Bank X dan pelaporan eksternal

Bank X ke Bank Indonesia dan eksternal

Visualiasi OLAP yang telah dirancang dan dipresentasikan kepada pengguna

dengan menggunakan toolsIBM Cognos Insight. Presentasi tersebut akan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 168: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

153

Universitas Indonesia

ditampilkan dalam bentuk masing-masing desktop dari pengguna selama

terhubung dengan databasedatamart PSAK melalui aplikasi cognos insight.

Sehingga pengguna dapat mengakses dimana saja baik secara online dan offline

yaitu dengan disimpan ke local device yang digunakan oleh pengguna, baik itu PC

ataupun mobile device.

5.1.1 Informasi Pembiayaan

Presentasi informasi pembiayaan akan menampilkan informasi portfolio

pembiyaan pada Bank X. Cube pembiayaan (CUBE_FACTLOAN) merupakan

hasil dari permodelan secara dimensional yang memungkinkan pengguna untuk

melakukan beberapa laporan terkait dengan pembiayaan yang dibutuhkan serta

melakukan analisa dengan berbagai persepektif dengan penggunaan fitur roll up,

drill down, dan slice and dice. Roll up dan drill down dapat dilakukan pada

dimensi branch, dimensi main branch dan dimensi area yang mana telah dilakukan

konfigurasi hirarki informasi dari tingkat hirarki tertinggi sampai dengan tingkat

granularitas yang paling kecil pada informasi pembiayaan per masing-masing

dimensi yang dipilih. Sedangkan slice and dice dapat dilakukan berdasarkan

kemungkinan dimensi yang ada yang terdiri dari :dimensi segmentasi dimensi

pembiayaan, dimensi kolektibilitas, dimensi currency, dimensi maturity profile,

dimensi pergerakan kolektibilitas, dimensi cabang, dimensi main branch, dimensi

area, dimensi akad dan dimensi periode waktu.

Sedangkan measurement untuk informasi pembiayaan berupa jumlah pembiayaan

itu sendiri, banyaknya pembiayaan, jumlah plafond, jumlah nonperfomingloan

dan rasio NPL. Struktur Cube informasi pembiayaaan dapat dilihat pada gambar

5.1

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 169: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

154

Universitas Indonesia

Gambar 5.1 Struktur Cube Informasi Pembiayaan

Beberapa gambar dibawah ini akan menjelaskan sampel dari presentasi OLAP

terkait dengan kebutuhan laporan yang terkait dengan informasi pembiyaan antara

lain; laporan total pembiayaan berdasarkan cabang, laporan pembiayaan

berdasarkan produk dan segment, laporan pembiayaan berdasarkan tanggal jatuh

tempo pembiayaan dan laporan pembiayaan mengalami perubahan kolektibilitas,

serta laporan ratio non perfoming loan (NPL).

Gambar 5.2 menjelaskan mengenai salah satu presentasi laporan Rasio Non

Performing Loan dari setiap cabang untuk beberapa periode di tahun 2014. Pada

laporan ini ditampilkan dengan cara diurutkan berdasarkan ratio NPL terbesar ke

rasio NPL terkecil.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 170: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

155

Universitas Indonesia

Gambar 5.2 Presentasi Laporan rasio NPL per masing-masing cabang

Gambar 5.3 menjelaskan mengenai presentasi laporan pembiayaan berdasarkan

lamanya tempo pembiayaan per masing-masing periode termasuk visualisasi

grafik batang. Dimensi yang digunakan adalah dimensi maturity profile dan

dimensi waktu sedangkan yang menjadi measurementnya adalah Outstanding.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 171: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

156

Universitas Indonesia

Gambar 5.3 Presentasi Laporan Pembiayaan berdasarkan lamanya jatuh

tempo

Gambar 5.4 menjelaskan mengenai presentasi laporan pembiayaan berdasarkan

pergerakan kolektibilitas dari periode januari 2014 ke periode februari 2014 untuk

semua cabang di Bank X. Dimensi yang digunakan adalah dimensi collectibility

movement field collectmovement_idpada posisi baris dan field flag

collectmovement pada posisi kolom, sedangkan dimensi waktu pada posisi kolom.

Measurement pada pelaporan ini adalah total pembiayaan per masing-masing

flagging pergerakan kolektibilitas. Flag 1 menunjukkan pembiayaan yang tidak

mengalami pergerakan kolektibilitas, Flag 2 menunjukkan pembiayaan yang

mengalami pergerakan kolektibilitas yang membaik, sedangkan Flag 3

menunjukkan pembiayaan yang mengalami pergerakan kolektibilitas yang

memburuk.Dari rangkuman pergerakan kolektibilitas dari laporan pada gambar

5.4, terdapat 6.44% mengalami pergerakan kolektibilitas yang memburuk yang

dapat dilihat pada Gambar 5.5

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 172: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

157

Universitas Indonesia

Gambar 5.4 Presentasi Laporan Pembiayaan berdasarkan pergerakan

kolektibilitas

Gambar 5.5 Presentasi summary Analisa Persentase pergerakan

kolektibilitas

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 173: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

158

Universitas Indonesia

5.1.2 Informasi Cadangan Kerugian Penurunan Nilai

Presentasi informasi CKPN akan menampilkan informasi CKPN untuk semua

portfolio pembiyaan pada Bank X. Cube CKPN (CUBE_CKPN) merupakan hasil

dari permodelan secara dimensional yang memungkinkan pengguna untuk

melakukan penyiapan beberapa laporan terkait dengan monitoring CKPN serta

melakukan analisa dengan berbagai persepektif dengan penggunaan fitur roll up,

drill down, dan slice and dice berdasarkan parameter dimensi yang dipilih sampai

dengan granularitas terendah pada level customer.

Laporan yang terkait dengan informasi CKPN terdiri dari Laporan Impairment

Ratio, Laporan Tren Probability Default(PD) dan Loss Given Default

(LGD),Laporan Collective Impairment berdasarkan group of impairment,Laporan

Impairment berdasarkan segmentasi,Laporan Variance CKPN Aktual dan CKPN

Forecast,Laporan Movement CKPN terbesar per cabang,Laporan top 10

Individual Impairment.

Gambar 5.6 merupakan struktur cube informasi CKPN yang terdiri dari satu

sumber tabel fakta dengan berbagai measurement yaitu PD Rate, LGD Rate,

Outstanding, PPAP, CKPN Forecast, CKPN Individual, CKPN Kolektif, Charged,

Released dan Impaired Loan Ratio. Sedangkan yang menjadi dimensinya terdiri

dari dimensi Impairment Group, Impairment Flag, Segment, Cabang, Currency,

Kolektibilitas, dan Periode waktu.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 174: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

159

Universitas Indonesia

Gambar 5.6 Struktur Cube pada informasi CKPN

Gambar 5.7 merupakan salah satu presentasi Laporan monitoring CKPN Forecast,

CKPN Aktual, PPAP,dan Impaired Loan Ratio berdasarkan Area. Presentasi

laporan monitoring CKPN Forecast, CKPN Aktual, PPAP dan Impaired

LoanRatio dapat dilakukan drill down sesuai dengan hirarki dimensi yang dipilih

dari yang paling tinggi sampai dengan granularitas terkecil yaitu di level

customer. Berdasarkan nilai CKPN total terbesar di suatu area, kemudian di drill

down pada level cabang utama (main branch) yang tercermin pada gambar 5.8,

kemudian dari main branch di drill down ke level cabang yang tertera pada

gambar 5.9. Untuk mengetahui customer-customer mana saja yang memberikan

kontribusi CKPN terbesar di cabang tersebut maka dilkaukan drill down kembali

sampai dengan level granularitas terkecil, contoh kasus ini tertera pada gambar

5.10.

Demikian juga fitur roll up dari masing-masing nilai CKPN yang ada. Roll up

merupakan akumulasi dari nilai ckpn per masing-masing cabang sampai dengan

hirarki dimensi yang tertinggi. Penggunaan fasilitas drill down dan roll up ini

tergantung dari konfigurasi dimensi yang ada, dengan granularities dari level

branch, main branch sampai dengan area. Sedangkan granularitas terendah di

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 175: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

160

Universitas Indonesia

level customer number yang menjelaskan kontribusi CKPN untuk masing-masing

customer.

Gambar 5.7 menggambarkan analisa total CKPN berdasarkan area. Analisa yang

dapat diperoleh adalah Rasio Impairment loan yangpaling besar dan nilai

CKPNnya paling besar terdapat di bulan februari 2014, Area TIER-ONE CITY 1.

Gambar 5.7 Presentasi Laporan monitoring CKPN Forecast, CKPN Aktual,

PPAP,dan Impaired Loan Ratio berdasarkan cabang, main branch dan area

Gambar 5.8 merupakan hasil drill down dari area ke main branch, didapatkan

bahwa cabang utama (main_branch) kalimalang dengan kode cabang 305

memberikan kontribusi pembentukan nilai CKPN terbesar.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 176: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

161

Universitas Indonesia

Gambar 5. 8 Presentasi Drill down dari Area ke Main Branch untuk

Laporan monitoring CKPN Forecast, CKPN Aktual, PPAP,dan Impaired

Loan Ratio berdasarkan cabang, main branch dan area

Gambar 5.9 adalah bentuk dari drill down dari cabang utama ke cabang.Cabang

Kalimalang merupakan kontribusi terbesar. Maka untuk mengetahui daftar dari

customer-customer mana saja yang memberikan kontribusi CKPN terbesar

terdapat pada gambar 5.10.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 177: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

162

Universitas Indonesia

Gambar 5. 9 Presentasi Drill down dari Main Branch ke Branch dengan

CKPN Total terbesar di periode Februari 2014.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 178: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

163

Universitas Indonesia

Gambar 5. 10 Presentasi Drill down dari Branch ke daftar customer dengan

CKPN Total terbesar di periode Februari 2014.

Gambar 5.11 menjelaskan mengenai presentasi laporan tren PD dan LGD mulai

dari periode Februari, Maret dan April 2014. Dimensi yang digunakan dalam

pembuatan laporan ini adalah Dimensi Collective Impairment Group dan Dimensi

waktu, sedangkan measurementnya adalah PD Rate, LGD Rate dan Expected Loss

Rate.

Gambar 5.11 Presentasi laporan PD dan LGD Trend

Gambar 5.12 menjelaskan mengenai presentasi laporan perbandingan antara

PPAP dan CKPN Aktual. Dimensi yang digunakan dalam pembuatan laporan ini

adalah Dimensi Collective Impairment Group dan Dimensi waktu, sedangkan

measurementnya adalah PPAP, CKPN dan komputasi sederhana yaitu PPAP

dikurangi dengan CKPN.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 179: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

164

Universitas Indonesia

Gambar 5. 12 Presentasi laporan perbandingan PPAP dengan CKPN

Beberapa laporan yang terkait kepada informasi CKPN lainnya terlihat

pada Gambar 5.13, Gambar 5.14 dan Gambar 5.15

Gambar 5. 13 Presentasi laporan Movement CKPN Charged terbesar

dikelompokkan berdasarkan cabang pada periode April 2014

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 180: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

165

Universitas Indonesia

Gambar 5.14 Presentasi laporan Movement CKPN Released terbesar

dikelompokkan berdasarkan cabang pada periode April 2014

Gambar 5. 15 Presentasi laporan collective Impairment berdasarkan group

of Impairment

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 181: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

166

Universitas Indonesia

Gambar 5.16 Presentasi laporan collective Impairment berdasarkan

Segmentasi Pembiayaan pada bulan April 2014

Penggunaan berbagai fitur analisa pada OLAP seperti drill down, drill up dan

slice and dice, what if analysis, membuat tambahan komputasi baru dari informasi

yang tersedia misalnya variance antara nilai CKPN Aktual dan CKPN forcast,

variance antara nilai pencadangan yang berdasarkan formula PPAP dan formula

CKPN secara dinamis dengan click and drag secara on the fly tanpa

ketergantungan dengan tim IT dalam menyediakan pelaporan yang diminta.

Fitur lainnya adalah pengguna dapat mengganti data view secara on the fly, dalam

aktivitas sorting, pencarian data tertentu dapat digunakan untuk melakukan

berbagai macam analisa sesuai dengan kebutuhan dari pengguna. Pengguna dapat

melakukan pengaturan slice and dice tergantung dari dimensi dan measurement

yang terdapat dari masing-masing report. Salah satu contoh dalam penelitian ini

terletak laporan variance nilai CKPN actual dan CKPN forecast.

Manfaat lain yang didapat dari penggunaan OLAP adalah representasi visualisasi

dalam bentuk grafik dimana secara dinamis. Dashboard berupa pie chart untuk

komposisi CKPN per masing-masing cabang. Informasi dalam bentuk grafik

sudah dalam bentuk dinamis, grafik akan berubah tergantung dari parameter dan

data yang ada pada cross tab report. Visualisasi yang dinamis juga dapat

merepresentasikan fasilitas drill down dari informasi yang dipilih. Ketika bulan

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 182: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

167

Universitas Indonesia

periode pelaporan diganti maka pie chart dari masing-masing measurementyang

ditampilkan (CKPN total) akan berubah dengan menampilkan data untuk bulan

pelaporan tersebut.

5.2 Uji Coba

Setelah semua laporan yang dibutuhkan oleh pengguna diimplementasikan

melalui OLAP, maka aktivitas selanjutnya adalah melakukan uji coba acceptance

oleh masing-masing pengguna akhir apakah setiap laporan yang dibuat sesuai

dengan ekspektasi kebutuhan pengguna baik dari aspek lamanya pemrosesan,

kebutuhan informasi dan keakuratan data.

Setelah dilakukan uji coba selama tiga kali periode pelaporan, pemrosesan pada

penelitian ini memerlukan waktu kurang lebih selama rata-rata +/- 51 menit, mulai

dari ekstraksi data staging, transformasi data staging, transformasi ke dalam

bentuk dimensional modeling sampai dengan pemrosesan cube menampilkan

dalam bentuk masing-masing laporan yang diperlukan oleh pengguna. Waktu

pemrosesan dihitung ketika semua sumber data siap untuk digunakan dan tidak

termasuk waktu untuk melakukan analisa oleh masing-masing pengguna. Tabel

5.1 merupakan contoh dari pemrosesan datamart informasi CKPN pada periode

januari sampai dengan periode maret 2014.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 183: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

168

Universitas Indonesia

Tabel 5.1 Tabel pemrosesan informasi CKPN pada periode Januari – Maret

2014

Adapun berbagai skenario dalam melakukan uji coba acceptance hasil

implementasi datamart dan OLAP pada penelitian ini, antara lain:

1. Membandingkan total data pembiayaan dari datamart dengan laporan neraca

Bank X periode tertentu. (Lampiran 7)

2. Membandingkan laporan Probability Default untuk masing-masing

metodologi Net Flow Rate dan Migration Analysis dengan cara menghitung

ulang secara manual nilai Probability Default untuk masing-masing metode

dan segmentasi impairment group. (Lampiran 8)

3. Membandingkan laporan Loss Given Defaultuntuk masing-masing metodologi

Expected Recoveries dan Collateral Shortfall dengan caramelakukan

perhitungan ulang secara manual. (Lampiran 9)

4. Membandingkan laporan perhitungan CKPN kolektif per masing-masing

impairment group dan kolektibilitas dengan mengalikan komponen persentase

dari PD, persentase LGD dan nilai Pembiayaan dalam mata uang Rupiah per

masing-masing kolektibilitas. (Lampiran 10)

Persetujuan dari hasil uji coba ini diakhiri dengan tanda tangan dari masing-

masing pengguna yang terlibat dalam mempersiapkan laporan ini. (Lampiran 11)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 184: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

169 Universitas Indonesia

BAB 6

KESIMPULAN DAN SARAN

Bab ini berisi kesimpulan dan saran dari penelitian yang telah dilakukan mengenai

penerapan datamart PSAK dan OLAP pada Bank X dalam rangka penyusunan

dan monitoring laporan CKPN sesuai dengan PSAK 50/55.

6.1 Kesimpulan

Dari hasil penelitian terhadap rancangan datamart PSAK dan penerapan OLAP

untuk mendukung proses pembuatan dan monitoring laporan pembiayaan dan

CKPN dapat disampaikan beberapa kesimpulan sebagai berikut:

1. Subjek data yang dibutuhkan pada pengembangan datamart PSAK untuk

penyusunan laporan dan monitoring CKPN adalah data pembiayaan, data

histori pembiayaan selama 3 tahun terakhir, data customer, dan data manual

yang terdiri dari data parameter kebijakan perhitungan CKPN, dan data yang

tidak terdapat pada core banking systems Bank. Contohnya: data target

penyisihan CKPN, data hapus buku, data recovery, data manual adjustment.

2. Data preparation untuk menghasilkan perhitungan CKPN pada proses ETL

merupakan fase yang paling penting, mengingat serangkaian langkah-langkah

pemrosesan yang harus dijalankan mengikuti alur bisnis proses perhitungan

CKPN sesuai dengan PSAK 50/55.

3. Perancangan data mart PSAK terhadap data pembiayaan dan penyisihan

CKPN pada Bank X menghasilkan 14 tabel dimensi yaitu: dimensi periode,

dimensi akad, dimensi currency, dimensi cabang, dimensi main branch,

dimensi area, dimensi segmentasi, dimensi collective group, dimensi produk,

dimensi kolektibilitas, dimensi movement kolektibilitas, dimensi maturity

profile, dimensi impairment flag dan dimensi customer. Dan dua tabel fakta,

yaitu: fakta pembiayaan, dan fakta CKPN. Skema perancangan menggunakan

star schema untuk masing-masing tabel fakta dengan tujuan untuk

optimalisasi proses query.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 185: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

170

Universitas Indonesia

4. Implementasi datamart dengan otomasi proses perhitungan dan penyusunan

pelaporan per periode setiap akhir bulan hanya memerlukan waktu proses

selama +/- 50-60 menit. Proses tersebut sudah termasuk ekstraksi,

transformasi data staging dalam perhitungan CKPN, transformasi data dimensi

dan load data pada tabel fakta dengan menggunakan scheduler pada utilitas

ETL. Apabila tidak tersedia datamart dan tidak ada otomasi proses

perhitungan CKPN, penyusunan laporan membutuhkan 5 hari kerja. Itupun

data yang digunakan sebulan sebelumnya, bukan data pada posisi bulan

pelaporan.

5. Dengan penerapan arsitektur independent data mart, implementasi dapat

dilakukan dengan lebih cepat, selain itu dapat dengan mudah dilakukan

pengulangan proses batch ETL secara end to end mulai dari proses ekstraksi

sumber data sampai load ke datamart PSAK setiap periode pelaporan tanpa

menunggu kesiapan data pada enterprise data warehouse perusahaan. Manfaat

lain yang diperoleh adalah fleksibilitas terhadap adjustment, mengingat nature

dari proses bisnis sistem pelaporan yang selalu memerlukan adjustment secara

manual. Data adjustment menjadi subyek input data pada datamart PSAK

yang terpisah dari original data yang berasal dari database operasional.

6. Dengan pemanfaatan OLAP, maka ketidaktergantungan terhadap IT

merupakan manfaat tersendiri bagi pengguna, terutama dalam pemrosesan

data dan query data sesuai dengan masing-masing kebutuhan informasi.

Pengguna dapat melakukan self service disesuaikan dengan berbagai analisa

perspektif oleh masing-masing pengguna.

6.2 Saran

Berdasarkan penelitian ini, dapat disampaikan beberapa saran untuk digunakan

pada penelitian selanjutnya.

1. Dengan model datamart yang ada ini dapat dilakukan pengembangan lebih

lanjut dengan melakukan penerapan data mining yang digunakan untuk

prediksi probabilitas dari debitur yang akan mengalami gagal bayar sehingga

dapat digunakan untuk keperluan forecasting.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 186: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

171

Universitas Indonesia

2. Hasil implementasi datamart dan OLAP ini dapat dikembangkan ke model

business intelligence menggunakan dashboard dengan memasukkan berbagai

kinerja pengukuran lainnya yang menjadi indikator kinerja bank, seperti Non

Perfoming Loan, Rasio Loan Impairment, Capital Adequacy Ratio, Loan to

Value Ratio, Loan/Earning Assets, Net Interest Margin dan Rasio Cost

Efficiency.

3. Pengembangan data model yang mendukung seluruh penerapan regulatory

compliance di Bank X yang sanggup memberikan solusi terhadap berbagai

pelaporan perbankan di Indonesia dengan single view of the truth, mencakup

laporan Laporan Bank Umum (LBU) Basel II, Laporan Harian Bank Umum

(LHBU), Laporan Berkala Bank Umum (LBBU), Laporan Kantor Pusat Bank

Umum (LKPBU), Legal Lending Limit (LLL), Lalu Lintas Devisa (LLD),

Risk Weighted Asset (RWA), dan Sitem Informasi Debitur (SID).

4. Penelitian selanjutnya terkait dengan optimalisasi performance physical

storage di database yaitu dengan membuat pemisahan partition sesuai dengan

kebutuhan. Pemisahan partition terdiri dari repository partition yang

digunakan untuk menyimpan raw data atau unnormalized data yang berasal

dari berbagai sumber, kemudian Datamart partition yang hanya terdiri dari

permodelan dimensional yang sudah dilakukan normalisasi, serta archiving

partition untuk menyimpan data histori berdasarkan masing-masing periode

dari kebijakan data archiving.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 187: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

172 Universitas Indonesia

DAFTAR PUSTAKA

Angreine Kewo (2013), OLAP Best Solution for Multidimensional Grocery Business Model :International Conference of Information and Communication Technology (ICoICT). Ariyachandra dan Hugh J. Watson, Which Data Warehouse Architecture Is Most Successful?Business Intelligence Journal Volume 11. Connolly, T., & Begg, C. (2005).Database System: A Practical Approach to Design, Implementation and Management (4 th ed).England: Addison Wesley. Efraim Turban, Ramesh Sharda, Dursun Delen (2011). Decision Support and Business Intelligence Systems.(9th edition).America : Pearson Education, Inc. Han J & Kamber M. (2006).Data Mining Concept & Techniques. Simon Fraser University. USA : Morgan Kaufman Hasan & Hyland (2001):Using OLAP and Multidimensional Data for Decision Making : IEEE Journal Indra. (2011). Perancangan serta Penerapan Data Warehouse dan Business Intelligence untuk Evaluasi Program Studi Berdasarkan Evaluasi Diri (EPSBED): Studi Kasus Universitas Budi Luhur. Jakarta: Universitas Indonesia. Inmon, W.H. (2005). Building The Data Warehouse. 4thEdition, John Wiley & Sons,Inc., New York.

Kimbal, R.,& Ross, M. (2002). The Data Warehouse Toolkit The Complete Guide to Dimensional Modeling.(2nd edition). Canada: John Wiley and Sons.

Mary Breslin, (2004) :Data Warehousing Battle of the Giants : Comparing the Basics of the Kimball and Inmon Models, Business Intelligence Journal, Winter 2004. Nitin Anand, Manoj Kumar (2013):Modeling and Optimization of Extraction-Transformation Loading (ETL) processes in Data Warehouse: An Overview. India :4th ICCCNT 2013 July 4-6, 2013 Tiruchengode Per Bertilsson, Johan Frisell, Carl-Johan Sylvan (2009). Information Quality Realization in Business Intelligence Systems, Lund University Publications Ralph Kimball (2008). Slowly Changing Dimensions, Part 2. Kimball Group. January 20, 2013 from http://www.kimballgroup.com/2008/09/22/slowly-changing-dimensions-part-2/print/

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 188: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

173

Universitas Indonesia

Sandip Singh& Sona Malhotra, (2011) :Datawarehouse and its method , Journal of Global Research in Computer Science, Volume 2 No (5), May 2011 Surat Edaran Bank Indonesia Nomor 11/4/DPNP tanggal 27 Januari 2009 perihal Pelaksanaan Pedoman Akuntansi Perbankan Indonesia Surat Edaran Bank Indonesia Nomor 15/26/DPbS perihal Pelaksanaan Pedoman Akuntansi Perbankan Syariah Indonesia Tim Penyusun (2008), Pedoman Akuntansi Perbankan Indonesia (PAPI) : Bank Indonesia Tim Penyusun (2014), Pedoman Akuntansi Perbankan Syariah Indonesia (PAPSI) : Bank Indonesia Vangipuram Radhakrishna, Vangipuram SravanKiran, K. Ravikiran, (2012) :Automating ETL Process with Scripting Technology, 2012 Nirma University International Conference on Engineering, Nuicone-2012, 06-08 December 2012. Yao, Kan (2003).Design issues in data warehousing : a case study. Masters thesis, Concordia University.

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 189: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

174

Universitas Indonesia

DAFTAR LAMPIRAN

Lampiran 1 : Hasil meeting mengenai analisa kebutuhan informasi

segmentasi Impairment

Lampiran 2 : Ektraksi dari sumber data

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 190: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

175

Universitas Indonesia

Lampiran 3 : Script ETL data preprocessing -- -- SP_PSAK_CALC_LGD (Procedure) -- CREATEORREPLACEPROCEDUREPSAKUATA.SP_PSAK_CALC_LGDAS V_CURRMONTHDATE; V_PREVMONTHDATE; BEGIN BEGIN SELECTCURRDATE,LAST_DAY(ADD_MONTHS(CURRDATE,-1)) INTOV_CURRMONTH,V_PREVMONTH FROMPSAK_PRC_DATE; EXCEPTION WHENNO_DATA_FOUNDTHEN NULL; END; --V_CURRMONTH := TO_DATE('20131231','YYYYMMDD'); --V_PREVMONTH := TO_DATE('20131130','YYYYMMDD'); --**EXPECTED RECOVERY**-- DELETEPSAK_LGD_EXPECTED_RECOVERYERWHEREER.PERIOD=V_CURRMONTH; COMMIT; INSERTINTOPSAK_LGD_EXPECTED_RECOVERY (PERIOD, LGD_SEGMENT, WO_AMOUNT, RECOVERY_AMOUNT, AYDA_AMOUNT, LGL_RATIO, LGD_RATIO) SELECTLAST_DAY(TO_DATE(ER.PERIODE,'YYYYMM'))ASPERIOD, SG.COLLECTIVE_GROUP_2,--ER.SEGMENT, ER.WO, ER.RECOVERY, ER.AYDA, (ER.WO+ER.AYDA)/(ER.AYDA+ER.RECOVERY)ASLGL_RATIO, 1 -((ER.WO+ER.AYDA)/(ER.AYDA+ER.RECOVERY))ASLGD_RATIO FROMPSAK_EXPECTED_RECOV_UPLOADER INNERJOINPSAK_BMI_SEGMENTSG ONER.SEGMENT=SG.C09_SEGMENTASI_ACCOUNT WHEREER.PERIODE=TO_CHAR(V_CURRMONTH,'YYYYMM'); COMMIT; MERGEINTOPSAK_LGD_EXPECTED_RECOVERYER USING (SELECTA.LGD_SEGMENT,AVG(A.LGL_RATIO)ASLGD_RATIO FROMPSAK_LGD_EXPECTED_RECOVERYA INNERJOINPSAK_LGD_SETTINGB ONA.LGD_SEGMENT=B.LGD_SEGMENT WHEREA.PERIODBETWEEN ADD_MONTHS(V_CURRMONTH,B.HISTORICAL_DATA*-1)AND V_CURRMONTH GROUPBYA.LGD_SEGMENT)ER_AVG

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 191: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

176

Universitas Indonesia

ON (ER.LGD_SEGMENT=ER_AVG.LGD_SEGMENTANDER.PERIOD=V_CURRMONTH) WHENMATCHEDTHEN UPDATESETER.LGD_RATIO=ER_AVG.LGD_RATIO; COMMIT; INSERTINTOPSAK_RECOVERY_MATRIX (PRODUCT_GROUP, PERIOD, WO_OUTSTANDING, RECOVERY_AMOUNT, RECOVERY_RATE, AVERAGE_RATE, LIP) SELECTER.LGD_SEGMENT, TO_CHAR(ER.PERIOD,'YYYYMM'), 0, 0, ER.LGD_RATIO, 0, 1 FROMPSAK_LGD_EXPECTED_RECOVERYER WHEREER.PERIOD=V_CURRMONTH; COMMIT; --**COLLATERAL SHOSTFALL**-- DELETEPSAK_LGD_COLLATERAL_SHORTFALLSFWHERESF.PERIOD=V_CURRMONTH; COMMIT; INSERTINTOPSAK_LGD_COLLATERAL_SHORTFALL (PERIOD, LGD_SEGMENT, OUTSTANDING, COLLATERAL_AMOUNT, LGL_RATIO, LGD_RATIO) SELECTLAST_DAY(TO_DATE(SF.PERIODE,'YYYYMM'))ASPERIOD, SG.C09_SEGMENTASI_ACCOUNT,--SF.SEGMENT, SF.OUTSTANDING, SF.AGUNAN, (SF.OUTSTANDING-SF.AGUNAN)/SF.OUTSTANDINGASLGL_RATIO, (SF.OUTSTANDING-SF.AGUNAN)/SF.OUTSTANDINGASLGD_RATIO FROMPSAK_COLL_SHORTFALL_UPLOADSF INNERJOINPSAK_BMI_SEGMENTSG ONSF.SEGMENT=SG.C09_SEGMENTASI_ACCOUNT WHERESF.PERIODE=TO_CHAR(V_CURRMONTH,'YYYYMM') AND(SF.OUTSTANDING-SF.AGUNAN)> 0; COMMIT; MERGEINTOPSAK_LGD_COLLATERAL_SHORTFALLER USING (SELECTA.LGD_SEGMENT,AVG(A.LGL_RATIO)ASLGD_RATIO FROMPSAK_LGD_COLLATERAL_SHORTFALLA INNERJOINPSAK_LGD_SETTINGB ONA.LGD_SEGMENT=B.LGD_SEGMENT WHEREA.PERIODBETWEEN ADD_MONTHS(V_CURRMONTH,B.HISTORICAL_DATA*-1)AND V_CURRMONTH GROUPBYA.LGD_SEGMENT)ER_AVG

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 192: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

177

Universitas Indonesia

ON (ER.LGD_SEGMENT=ER_AVG.LGD_SEGMENTANDER.PERIOD=V_CURRMONTH) WHENMATCHEDTHEN UPDATESETER.LGD_RATIO=ER_AVG.LGD_RATIO; COMMIT; INSERTINTOPSAK_RECOVERY_MATRIX (PRODUCT_GROUP, PERIOD, WO_OUTSTANDING, RECOVERY_AMOUNT, RECOVERY_RATE, AVERAGE_RATE, LIP) SELECTSF.LGD_SEGMENT, TO_CHAR(SF.PERIOD,'YYYYMM'), 0, 0, 1 -SF.LGD_RATIO, 0, 1 FROMPSAK_LGD_COLLATERAL_SHORTFALLSF WHERESF.PERIOD=V_CURRMONTH; COMMIT; END; / Lampiran 4 : Script ETL data loading ke masing-masing tabel Fakta --- STEP 01 CREATE TEMPORARY TABLE CURRENT AND PREVIOUS droptable#tempPrevMonthCKPN droptable#tempCurrMonthCKPN select DOWNLOAD_DATE, SEGMENT, PRODUCT_GROUP, currency, branch_code, product_code, CUSTOMER_NUMBER, account_number, bi_collectability, EXCHANGE_RATE, outstanding, plafond, COLLATERAL_VALUE_FOR_IMPAIR, PD_RATE, LGD_RATE, PIP_AMOUNT, IIP_AMOUNT, UNWINDING_AMOUNT, BEGINNING_BALANCE, CHARGE, WRITEBACK, ENDING_BALANCE, IS_IMPAIRED,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 193: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

178

Universitas Indonesia

impaired_flag, 'Y'ASFLAG_CURRENT into#tempCurrMonthCKPN frompsak_master_account WHEREDOWNLOAD_DATE='2014-01-31' select DOWNLOAD_DATE, SEGMENT, PRODUCT_GROUP, currency, branch_code, product_code, CUSTOMER_NUMBER, account_number, bi_collectability, EXCHANGE_RATE, outstanding, plafond, COLLATERAL_VALUE_FOR_IMPAIR, PD_RATE, LGD_RATE, PIP_AMOUNT, IIP_AMOUNT, UNWINDING_AMOUNT, BEGINNING_BALANCE, CHARGE, WRITEBACK, ENDING_BALANCE, IS_IMPAIRED, impaired_flag, 'N'ASFLAG_CURRENT into#tempPrevMonthCKPN frompsak_master_account WHEREDOWNLOAD_DATE='2014-12-31' -- STEP #2 INSERT INTO FACTCKPNCUST -- 2A PREV ADA CURRENT ADA INSERTINTOFACTCKPNCUST ( DOWNLOAD_DATE, SEGMENT, COLLECTIVE_GROUP, CURRENCY, BRANCH_CODE, PRODUCT_CODE, CUSTOMER_NUMBER, KOL_MOV, PD_RATE, LGD_RATE, EXPECTED_LOSS_RATE, MAX_BIKOL, OUTSTANDING, OUTSTANDING_IDR, PLAFOND, PLAFOND_IDR, COLLATERAL_VALUE, COLLATERALVALUE_IDR, CKPNKOLEKTIF, CKPNKOLEKTIF_IDR,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 194: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

179

Universitas Indonesia

CKPNINDIVIDUAL, CKPNINDIVIDUAL_IDR, UNWINDING_AMOUNT, UNWINDING_IDR, CHARGE, CHARGE_IDR, WRITEBACK, WRITEBACK_IDR, CKPNFORECAST, CKPNFORECAST_IDR, PPAP, IMPAIRED_LOAN_RATIO, IA_CA_FLAG, FLAG_CURRENT ) SELECT A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE, A.PRODUCT_CODE, A.CUSTOMER_NUMBER, CASE WHENCONVERT(varchar(1),MAX(B.bi_collectability))ISNULL THENCONVERT(varchar(1),MAX(A.bi_collectability))+'-'+CONVERT(varchar(1),MAX(A.bi_collectability)) ELSE CONVERT(varchar(1),MAX(B.bi_collectability))+'-'+CONVERT(varchar(1),MAX(A.bi_collectability)) ENDASKOL_MOV, --FLAG_CURRENT, A.PD_RATE, A.LGD_RATE, A.PD_RATE*A.LGD_RATE, MAX(A.BI_COLLECTABILITY)ASMAX_BIKOL, SUM(ISNULL(A.OUTSTANDING,0)), SUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PLAFOND,0)), SUM(ISNULL(A.PLAFOND,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PIP_AMOUNT,0)), SUM(ISNULL(A.PIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.IIP_AMOUNT,0)), SUM(ISNULL(A.IIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.CHARGE,0)), SUM(ISNULL(A.CHARGE,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.WRITEBACK,0)), SUM(ISNULL(A.WRITEBACK,0)*ISNULL(A.EXCHANGE_RATE,1))ASWRITEBACK_IDR, 0 ASCKPNFORECAST, 0 ASCKPNFORECAST_IDR, CASE WHENMAX(A.BI_COLLECTABILITY)=1 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.01) WHENMAX(A.BI_COLLECTABILITY)=2 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.05)

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 195: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

180

Universitas Indonesia

WHENMAX(A.BI_COLLECTABILITY)=3 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.15) WHENMAX(A.BI_COLLECTABILITY)=4 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.50) WHENMAX(A.BI_COLLECTABILITY)=5 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 1) ELSE 0 ENDASPPAP, 0, A.IMPAIRED_FLAG, 'N' FROM#tempCurrMonthCKPNA INNERJOIN#tempCurrMonthCKPNB ONA.ACCOUNT_NUMBER=B.ACCOUNT_NUMBER GROUPBY A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE, A.PRODUCT_CODE, A.CUSTOMER_NUMBER, A.PD_RATE, A.LGD_RATE, A.IMPAIRED_FLAG -- 2B PREV ADA CURRENT TIDAK ADA INSERTINTOFACTCKPNCUST ( DOWNLOAD_DATE, SEGMENT, COLLECTIVE_GROUP, CURRENCY, BRANCH_CODE, PRODUCT_CODE, CUSTOMER_NUMBER, KOL_MOV, PD_RATE, LGD_RATE, EXPECTED_LOSS_RATE, MAX_BIKOL, OUTSTANDING, OUTSTANDING_IDR, PLAFOND, PLAFOND_IDR, COLLATERAL_VALUE, COLLATERALVALUE_IDR, CKPNKOLEKTIF, CKPNKOLEKTIF_IDR, CKPNINDIVIDUAL, CKPNINDIVIDUAL_IDR, UNWINDING_AMOUNT, UNWINDING_IDR, CHARGE, CHARGE_IDR, WRITEBACK, WRITEBACK_IDR, CKPNFORECAST, CKPNFORECAST_IDR, PPAP,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 196: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

181

Universitas Indonesia

IMPAIRED_LOAN_RATIO, IA_CA_FLAG, FLAG_CURRENT ) SELECT A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE, A.PRODUCT_CODE, A.CUSTOMER_NUMBER, CONVERT(varchar(1),MAX(a.bi_collectability))+'-'+'0'ASKOL_MOV, --FLAG_CURRENT, A.PD_RATE, A.LGD_RATE, A.PD_RATE*A.LGD_RATE, MAX(A.BI_COLLECTABILITY)ASMAX_BIKOL, SUM(ISNULL(A.OUTSTANDING,0)), SUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PLAFOND,0)), SUM(ISNULL(A.PLAFOND,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PIP_AMOUNT,0)), SUM(ISNULL(A.PIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.IIP_AMOUNT,0)), SUM(ISNULL(A.IIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.CHARGE,0)), SUM(ISNULL(A.CHARGE,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.WRITEBACK,0)), SUM(ISNULL(A.WRITEBACK,0)*ISNULL(A.EXCHANGE_RATE,1))ASWRITEBACK_IDR, 0 ASCKPNFORECAST, 0 ASCKPNFORECAST_IDR, CASE WHENMAX(A.BI_COLLECTABILITY)=1 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.01) WHENMAX(A.BI_COLLECTABILITY)=2 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.05) WHENMAX(A.BI_COLLECTABILITY)=3 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.15) WHENMAX(A.BI_COLLECTABILITY)=4 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.50) WHENMAX(A.BI_COLLECTABILITY)=5 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 1) ELSE 0 ENDASPPAP, 0, A.IMPAIRED_FLAG, 'N' FROM#tempPrevMonthCKPNA WHEREa.ACCOUNT_NUMBERNOTIN(SELECTACCOUNT_NUMBERFROM#tempCurrMonthCKPN) GROUPBY A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 197: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

182

Universitas Indonesia

A.PRODUCT_CODE, A.CUSTOMER_NUMBER, A.PD_RATE, A.LGD_RATE, A.IMPAIRED_FLAG --2C : INSERT KE PREV TIDAK ADA CURRENT ADA --> NEW ACCOUNT INSERTINTOFACTCKPNCUST ( DOWNLOAD_DATE, SEGMENT, COLLECTIVE_GROUP, CURRENCY, BRANCH_CODE, PRODUCT_CODE, CUSTOMER_NUMBER, KOL_MOV, PD_RATE, LGD_RATE, EXPECTED_LOSS_RATE, MAX_BIKOL, OUTSTANDING, OUTSTANDING_IDR, PLAFOND, PLAFOND_IDR, COLLATERAL_VALUE, COLLATERALVALUE_IDR, CKPNKOLEKTIF, CKPNKOLEKTIF_IDR, CKPNINDIVIDUAL, CKPNINDIVIDUAL_IDR, UNWINDING_AMOUNT, UNWINDING_IDR, CHARGE, CHARGE_IDR, WRITEBACK, WRITEBACK_IDR, CKPNFORECAST, CKPNFORECAST_IDR, PPAP, IMPAIRED_LOAN_RATIO, IA_CA_FLAG, FLAG_CURRENT ) SELECT A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE, A.PRODUCT_CODE, A.CUSTOMER_NUMBER, CONVERT(varchar(1),MAX(a.bi_collectability))+'-'+CONVERT(varchar(1),MAX(a.bi_collectability))asKOL_MOV, --FLAG_CURRENT, A.PD_RATE, A.LGD_RATE, A.PD_RATE*A.LGD_RATE, MAX(A.BI_COLLECTABILITY)ASMAX_BIKOL,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 198: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

183

Universitas Indonesia

SUM(ISNULL(A.OUTSTANDING,0)), SUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PLAFOND,0)), SUM(ISNULL(A.PLAFOND,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)), SUM(ISNULL(A.COLLATERAL_VALUE_FOR_IMPAIR,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.PIP_AMOUNT,0)), SUM(ISNULL(A.PIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.IIP_AMOUNT,0)), SUM(ISNULL(A.IIP_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)), SUM(ISNULL(A.UNWINDING_AMOUNT,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.CHARGE,0)), SUM(ISNULL(A.CHARGE,0)*ISNULL(A.EXCHANGE_RATE,1)), SUM(ISNULL(A.WRITEBACK,0)), SUM(ISNULL(A.WRITEBACK,0)*ISNULL(A.EXCHANGE_RATE,1))ASWRITEBACK_IDR, 0 ASCKPNFORECAST, 0 ASCKPNFORECAST_IDR, CASE WHENMAX(A.BI_COLLECTABILITY)=1 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.01) WHENMAX(A.BI_COLLECTABILITY)=2 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.05) WHENMAX(A.BI_COLLECTABILITY)=3 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.15) WHENMAX(A.BI_COLLECTABILITY)=4 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 0.50) WHENMAX(A.BI_COLLECTABILITY)=5 THENSUM(ISNULL(A.OUTSTANDING,0)*ISNULL(A.EXCHANGE_RATE,1)* 1) ELSE 0 ENDASPPAP, 0, A.IMPAIRED_FLAG, 'Y' FROM#tempCurrMonthCKPNA WHEREa.ACCOUNT_NUMBERNOTIN(SELECTACCOUNT_NUMBERFROM#tempPrevMonthCKPN) GROUPBY A.DOWNLOAD_DATE, A.SEGMENT, A.PRODUCT_GROUP, A.CURRENCY, A.BRANCH_CODE, A.PRODUCT_CODE, A.CUSTOMER_NUMBER, A.PD_RATE, A.LGD_RATE, A.IMPAIRED_FLAG --- STEP 3 --- UPDATE CKPNFORECAST_IDR DI TABLE FACTCKPNCUST --- UPDATEFACTCKPNCUST SET CKPNFORECAST_IDR=A.OUTSTANDING_IDR/Y.SUMOUTS_BRANCH*X.CKPN_TARGET_BRANCH --,IMPAIRED_LOAN_RATIO=CASE WHEN OUTSTANDING<>0 THEN (A.CKPNKOLEKTIF_IDR+A.CKPNINDIVIDUAL_IDR)/A.OUTSTANDING_IDR -- ELSE 0 --END FROMFACTCKPNCUSTA INNERJOINPSAK_CKPN_TARGET_BRANCHX

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 199: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

184

Universitas Indonesia

ONA.DOWNLOAD_DATE=X.DOWNLOAD_DATEANDA.BRANCH_CODE=X.BRANCH_CODE INNERJOIN(SELECTDOWNLOAD_DATE,BRANCH_CODE,SUM(OUTSTANDING_IDR)ASSUMOUTS_BRANCHFROMPSAK_CKPN_TARGET_BRANCHGROUPBYDOWNLOAD_dATE,BRANCH_CODE)Y ONA.DOWNLOAD_DATE=Y.DOWNLOAD_DATEANDA.BRANCH_CODE=Y.BRANCH_CODE WHEREA.DOWNLOAD_DATE='20140131' --- UPDATE FACTCKPNCUST IMPAIRED_LOAN_RATIO --- UPDATEFACTCKPNCUST SETIMPAIRED_LOAN_RATIO=X.IMPAIRED_LOAN_RATIO_PER_BRANCH FROMFACTCKPNCUSTA INNERJOINPSAK_CKPN_TARGET_BRANCHX ONA.DOWNLOAD_DATE=X.DOWNLOAD_DATEANDA.BRANCH_CODE=X.BRANCH_CODE INNERJOIN(SELECTDOWNLOAD_DATE,BRANCH_CODE,SUM(OUTSTANDING_IDR)ASSUMOUTS_BRANCHFROMPSAK_CKPN_TARGET_BRANCHGROUPBYDOWNLOAD_dATE,BRANCH_CODE)Y ONA.DOWNLOAD_DATE=Y.DOWNLOAD_DATEANDA.BRANCH_CODE=Y.BRANCH_CODE WHEREA.DOWNLOAD_DATE='20140131' --- INSERT INTO FACT_CKPN INSERTINTOFACT_CKPN ( DOWNLOAD_DATE, AKAD_CODE, SEGMENT_SK, CURRENCY, AREA_CODE, MAIN_BRANCH_CODE, BRANCH_CODE, CUSTOMER_NUMBER, PRODUCT_CODE, IMPAIRMENTGROUP_CODE, PD_RATE, LGD_RATE, EXPECTED_LOSS_RATE, FLAG_IMPAIRED, COLLECTMOVEMENT_SK, MAX_BICOLLECTABILITY, OUTSTANDING, PLAFOND, COLLATERAL_VALUE, PPAP, CKPNFORECAST, CKPNINDIVIDUAL, CKPNKOLEKTIF, CKPNTOTAL, CHARGED, RELEASED, IMPAIRED_LOAN_RATIO ) SELECT A.DOWNLOAD_DATE, 'A', ISNULL(C.SEGMENT_SK,'999'), A.CURRENCY, B.AREA_CODE, B.MAIN_BRANCH_CODE, A.BRANCH_CODE, A.CUSTOMER_NUMBER, A.PRODUCT_CODE, E.IMPAIRMENTGROUP_CODE,

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 200: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

185

Universitas Indonesia

A.PD_RATE, A.LGD_RATE, A.EXPECTED_LOSS_RATE, A.IA_CA_FLAG, D.COLLECTMOVEMENT_SK, A.MAX_BIKOL, A.OUTSTANDING_IDR, A.PLAFOND_IDR, A.COLLATERALVALUE_IDR, A.PPAP, A.CKPNFORECAST_IDR, A.CKPNINDIVIDUAL_IDR, A.CKPNKOLEKTIF_IDR, A.CKPNINDIVIDUAL_IDR+CKPNKOLEKTIF_IDR, A.CHARGE_IDR, A.WRITEBACK_IDR, A.IMPAIRED_LOAN_RATIO FROMFACTCKPNCUSTA LEFTJOINDIM_BRANCH_MASTERB ONA.BRANCH_CODE=B.BRANCH_CODE LEFTJOINDIM_SEGMENTC ONA.SEGMENT=C.SEGMENT_LEVEL_3_DESC LEFTJOINDIM_COLLECTIBILITY_MOVEMENTD ONA.KOL_MOV=D.COLLECTMOVEMENT_DESC LEFTJOINDIM_IMPAIRMENT_GROUPE ONA.COLLECTIVE_GROUP=E.IMPAIRMENTGROUP_DESC WHEREDOWNLOAD_DATE='20140131'

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 201: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

186

Universitas Indonesia

Lampiran 5 : Contoh data pada tabel fakta loan

Lampiran 6 : Contoh data pada tabel fakta ckpn

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 202: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

187

Universitas Indonesia

Lampiran7 :Uji coba nilai total pembiayaan dengan data neraca Bank ‘X’

pada periode Januari 2014.

Lampiran 8 : Uji coba nilai Probability Default dengan metode Net Flow Rate

dan Migration Analysis

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 203: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

188

Universitas Indonesia

Lampiran 9 : Uji coba nilai Loss Given Default dengan metode Expected

Recoveries dan Collateral Shortfall

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 204: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

189

Universitas Indonesia

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 205: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

190

Universitas Indonesia

Lampiran 10 :Uji coba nilai CKPN kolektif per masing-masing collective

impairment group dan kolektibilitas

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014

Page 206: lib.ui.ac.idlib.ui.ac.id/file?file=digital/2015-3/20392967-TA-Alexander Rudy.pdflib.ui.ac.id

191

Universitas Indonesia

Lampiran 11 : Tanda Tangan Pengguna atas aktivitas Uji Coba Acceptance

dari Implementasi datamart dan OLAP pada Bank X

Implementasi datamart…., Alexander Rudy Gunawan, FASILKOM UI, 2014