tugas teori markov.docx

3
RANTAI MARKOV Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa digunakan untuk melakukan pembuatan model (modelling) bermacam – macam sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan – perubahan diwaktu yang akan datang dalam variabel – variabel dinamis atas dasar perubahan – perubahan dari variabel – variabel dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk menganalisa kejadian – kejadian di waktu – waktu mendatang secara sistematis. Proses Markov telah banyak diterapkan untuk menganalisa tentang perpindahan merek (brands witching) dalam pemasaran, perhitungan rekening – rekening, jasa – jasa persewaan mobil, perencanaan penjualan, masalah – masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar saham, dan administrasi rumah sakit. Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk setiap . Jadi proses stokastik adalah keluarga fungsi waktu yang tergantung pada parameter ξ atau secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak proses acak yang dikenal dengan proses Markov. Proses Markov adalah proses stokastik masa lalu tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang diketahui. Sebuah proses stokastik dikatakan termasuk rantai markov apabila memenuhi sifat markov. Sifat markov

Upload: rizki-fitriana

Post on 14-Dec-2015

11 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Tugas teori markov.docx

RANTAI MARKOV

Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa

digunakan untuk melakukan pembuatan model (modelling) bermacam – macam sistem dan

proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan – perubahan

diwaktu yang akan datang dalam variabel – variabel dinamis atas dasar perubahan –

perubahan dari variabel – variabel dinamis tersebut di waktu yang lalu. Teknik ini dapat juga

digunakan untuk menganalisa kejadian – kejadian di waktu – waktu mendatang secara

sistematis.

Proses Markov telah banyak diterapkan untuk menganalisa tentang perpindahan

merek (brands witching) dalam pemasaran, perhitungan rekening – rekening, jasa – jasa

persewaan mobil, perencanaan penjualan, masalah – masalah persediaan, pemeliharaan

mesin, antrian, perubahan harga pasar saham, dan administrasi rumah sakit. Proses stokastik

X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk setiap . Jadi proses stokastik adalah

keluarga fungsi waktu yang tergantung pada parameter ξ atau secara ekivalen fungsi t dan ξ.

X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak demikian X(t) adalah

proses kontinu.

Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid

Chebysev mengemukakan teori ketergantungan variabel acak proses acak yang dikenal

dengan proses Markov. Proses Markov adalah proses stokastik masa lalu tidak mempunyai

pengaruh pada masa yang akan datang bila masa sekarang diketahui. Sebuah proses stokastik

dikatakan termasuk rantai markov apabila memenuhi sifat markov. Sifat markov menyatakan

bahwa peluang bersyarat dari sebuah kejadian masa depan, dengan diketahui kejadian masa

lampau dan keadaan masa kini, adalah tidak tergantung oleh kejadian masa lampau dan hanya

tergantung oleh keadaan masa kini.

Rantai markov secara umum dapat digolongkan menjadi dua, yaitu rantai markov

dengan indeks parameter diskrit dan rantai markov dengan indeks parameter kontinue.

Rantai markov dikatakan berindeks parameter diskrit apabila perpindahan keadaan

terjadi dengan selang posisi/waktu diskrit yang tetap. Sebaliknya, rantai markov dikatakan

berindeks parameter kontinu apabila perpindahan keadaan terjadi dengan selang

posisi/waktu kontinu.

Untuk dapat menerapkan analisa rantai Markov kedalam suatu kasus, ada beberapa syarat

yang harus dipenuhi :

Page 2: Tugas teori markov.docx

a) Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan

Probabilitas transisi adalah probabilitas yang terjadi dalam pergerakan perpindahan

kondisi dalam system.

b) Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam sistem.

c) Probabilitas transisi konstan sepanjang waktu.

d) Kondisi merupakan kondisi yang independent sepanjang waktu.