Rantai Markov Diskrit pada Proses Stokastik
Rantai Markov Diskrit — Hai hai sobat Exsight, Bayangkan kamu sedang melempar dadu. Hasil yang keluar selalu acak, tapi ada pola probabilitas tertentu, yaitu setiap angka dari 1 hingga 6 punya peluang yang sama untuk muncul. Dalam kehidupan nyata, banyak hal juga terjadi secara acak, seperti cuaca hari esok, fluktuasi harga saham, atau kapan giliran kita di antrian restoran. Semua ini bisa dimodelkan sebagai proses stokastik, yaitu sebuah proses di mana hasil di masa depan dipengaruhi oleh unsur ketidakpastian atau peluang.
Proses stokastik dapat digunakan untuk membantu kita dalam memahami dan memprediksi kemungkinan kejadian di masa depan. Meskipun hasilnya tidak pasti, dengan menggunakan model seperti rantai Markov, kita bisa menghitung kemungkinan-kemungkinan ini dan membuat prediksi yang lebih akurat tentang apa yang mungkin terjadi selanjutnya.
Artikel ini bertujuan untuk memperkenalkan konsep rantai Markov diskrit, yaitu model yang digunakan untuk memprediksi kejadian-kejadian di masa depan berdasarkan apa yang terjadi saat ini. Dalam rantai Markov, kita tidak perlu tahu semua riwayat masa lalu, cukup melihat keadaan saat ini untuk menentukan apa yang mungkin terjadi selanjutnya. Sistem ini bisa diterapkan dalam banyak bidang, seperti memprediksi perubahan cuaca, mengamati perilaku pelanggan, atau mengatur sistem antrian.
Tanpa berlama- lama lagi kita akan membahas lebih dalam terkait Rantai Markov Diskrit pada Proses Stokastik secara lebih terperinci. Yuk yuk simak artikel ini bersama- sama ya!
Definisi
Secara sederhana, proses stokastik merupakan kumpulan dari variabel acak (angka atau kejadian yang berubah dengan peluang tertentu) yang kita amati dari waktu ke waktu. Misalnya, cuaca hari ini adalah cerah, besok bisa hujan, dan lusa mungkin cerah lagi—semua itu berubah seiring waktu dengan peluang tertentu.
APA ITU RANTAI MARKOV?
Dalam hal ini misalnya kita akan mencoba memprediksi apa yang akan terjadi selanjutnya dalam proses stokastik itu, misalnya cuaca besok. Dalam rantai Markov, hal yang menarik adalah kamu tidak perlu tahu apa yang terjadi sebelumnya (apakah minggu lalu hujan atau tidak) untuk memprediksi kejadian berikutnya. Kamu hanya perlu tahu keadaan sekarang.
Jadi, rantai Markov adalah proses stokastik yang memiliki “memori terbatas”. Ini berarti, peluang kejadian berikutnya hanya bergantung pada keadaan saat ini, bukan pada seluruh riwayat sebelumnya. Misalnya, jika hari ini cerah, kita hanya peduli dengan keadaan cerah saat ini untuk memprediksi cuaca esok, tanpa memikirkan hari-hari sebelumnya.
Rantai Markov merupakan suatu proses stokastik di mana peristiwa masa lalu tidak mempengaruhi peristiwa di masa yang akan datang jika kejadian saat ini diketahui. Konsep Rantai Markov pertama kali diperkenalkan pada tahun 1907, oleh seorang ahli matematika asal Rusia bernama Andrei A. Markov.
Konsep Dasar
Proses stokastik dibagi menjadi dua, yaitu kontinu dan diskrit.
A. Proses Stokastik Diskrit
- Waktu dalam proses stokastik diskrit terdiri dari langkah-langkah waktu yang terpisah atau interval waktu yang diskrit (terbatas). Misalnya, t=0,1,2,3,…
- Perubahan keadaan terjadi hanya pada titik-titik waktu tertentu, jadi kita hanya memerhatikan perubahan pada waktu-waktu yang spesifik.
- Contoh: Jika kita mengamati jumlah pelanggan yang datang ke sebuah kafe setiap jam, maka ini adalah proses stokastik diskrit. Kita mengamati pelanggan pada waktu-waktu yang tetap seperti jam 1, jam 2, dan seterusnya.
B. Proses Stokastik Kontinu
- Waktu dalam proses stokastik kontinu bersifat kontinu. Artinya, perubahan dapat terjadi kapan saja di sepanjang waktu yang tidak terbatas, misalnya t≥0 dengan nilai waktu yang dapat berupa bilangan desimal.
- Perubahan keadaan dapat terjadi pada setiap saat tanpa harus menunggu waktu tertentu. Dengan kata lain, waktu dan kejadian bisa berubah secara halus dan tidak hanya pada titik-titik tertentu.
- Contoh: Pergerakan harga saham adalah contoh proses stokastik kontinu. Harga saham bisa berubah kapan saja selama jam perdagangan, tidak terbatas pada waktu-waktu tertentu.
Sifat Markov
Sifat Markov adalah konsep sederhana dari proses stokastik yang menyatakan bahwa masa depan hanya bergantung pada keadaan sekarang, bukan pada apa yang terjadi di masa lalu. Ide utama dari sifat Markov: apa yang akan terjadi selanjutnya hanya dipengaruhi oleh keadaan saat ini, dan bukan oleh sejarah atau langkah-langkah sebelumnya. Jadi, sistem dengan sifat Markov “lupa” apa yang terjadi di masa lalu, dan fokus pada keadaan sekarang untuk menentukan apa yang akan terjadi selanjutnya. Adapun sifat markov dalam hal ini dapat dinyatakan dalam notasi perhitungan sebagai berikut.
P\left ( X_{n+1}=j|X_{n}=i,X_{n-1},X_{n-2},\cdots ,X_{0} \right )=P\left ( X_{n+1}=j|X_{n}=i \right )
Berdasarkan format notasi di atas dapat diartikan bahwa peluang untuk berpindah ke keadaan selanjutnya j hanya bergantung pada keadaan sekarang i, dan tidak peduli apa yang terjadi sebelumnya (Xn−1, Xn−2,…).
Secara lebih detail makna dari tiap notasi dari persamaan di atas adalah sebagai berikut.
P: Ini adalah simbol probabilitas, yang mewakili peluang suatu kejadian terjadi. Jadi, persamaan di atas menunjukkan tentang probabilitas terjadinya sesuatu di masa depan.
Xn: Ini adalah state (keadaan) pada waktu n. Di setiap titik waktu n, sistem berada dalam suatu keadaan tertentu yang dilambangkan oleh Xn. Sebagai contoh, jika kita sedang memodelkan cuaca, Xn bisa berarti cuaca pada hari n (cerah, mendung, atau hujan).
i : Ini adalah nilai spesifik dari state pada waktu n
Persamaan di atas menunjukkan bahwa probabilitas sistem berada dalam keadaan tertentu di masa depan (Xn+1= j) hanya bergantung pada keadaan sekarang (Xn = i), dan tidak bergantung pada keadaan-keadaan sebelumnya (seperti Xn−1,Xn−2,…,X0).
Secara sederhana, di masa depan, yang penting hanya apa yang terjadi sekarang, bukan masa lalu.
Klasifikasi State Rantai Markov
Dalam rantai Markov, terdapat klasifikasi state. Adapun klasifikasi state (keadaan) berkaitan dengan bagaimana kita mengelompokkan atau mengidentifikasi sifat-sifat dari setiap state yang mungkin muncul dalam proses tersebut. Ada beberapa kategori utama yang biasanya digunakan untuk mengklasifikasikan state dalam rantai Markov diantaranya adalah sebagai berikut.
A. Recurrent State (Keadaan Kembali)
Sebuah state disebut recurrent jika, setelah kita mencapai state tersebut, ada jaminan bahwa kita akan kembali ke state itu lagi suatu saat di masa depan. Dengan kata lain, state ini selalu bisa “dikunjungi kembali” setelah beberapa waktu.
B. Transient State (Keadaan Sementara):
Sebuah state disebut transient jika, setelah kita mencapai state tersebut, ada kemungkinan kita tidak akan pernah kembali lagi ke state itu. Jadi, walaupun kita mungkin mengunjungi state tersebut sekali, ada peluang kita tidak akan pernah kembali ke sana.
Jika saat ini Rantai Markov berada dalam state, maka ada peluang positif bahwa Rantai Markov tidak akan pernah kembali ke state tersebut, Setelah melewati periode panjang, probabilitas Rantai Markov berada dalam transien state adalah nol.
C. Absorbing State (Keadaan Menyerap):
Absorbing state adalah state yang begitu tercapai, kita tidak bisa keluar dari state tersebut lagi. Jadi, jika proses rantai Markov memasuki absorbing state, ia akan tetap di state tersebut untuk selamanya.
D. Periodic State (Keadaan Periodik):
Sebuah state disebut periodic jika kita hanya bisa kembali ke state itu pada interval waktu tertentu. Misalnya, jika kita hanya bisa kembali ke state tersebut setiap 3 langkah, maka state itu memiliki periode 3.
E. Aperiodic State (Keadaan Aperiodik):
Kebalikan dari Periodic State, terdapat pula istilah Aperiodic State. Sebuah state disebut aperiodic jika kita bisa kembali ke state itu kapan saja tanpa harus menunggu periode tertentu.
Matriks Transisi
Matriks transisi memiliki hubungan yang sangat erat dengan Rantai Markov Diskrit pada Proses Stokastik, hal ini dikarenakan matriks transisi digunakan untuk menggambarkan bagaimana state (keadaan) dalam rantai Markov berubah dari satu waktu ke waktu berikutnya. Bayangkan sobat Exsight memiliki sebuah sistem yang bisa berpindah dari satu keadaan (state) ke keadaan lainnya, dan sobat ingin tahu kemungkinan setiap perpindahan itu terjadi.
Misalnya, kita ingin memodelkan cuaca: hari ini bisa cerah, mendung, atau hujan, dan kamu ingin tahu seberapa besar kemungkinan cuaca berubah ke kondisi lain esok hari. Nah, untuk menghitung peluang perpindahan dari satu keadaan ke keadaan lain, kita menggunakan sesuatu yang disebut matriks transisi probabilitas.
NO | Cerah | Mendung | Hujan | |
1 | Cerah | 0,6 | 0,3 | 0,1 |
2 | Mendung | 0,4 | 0,4 | 0,2 |
3 | Hujan | 0,3 | 0,5 | 0,2 |
Berdasarkan matriks transisi di atas dapat diartikan bahwa:
Dalam matriks transisi, baris mewakili keadaan awal (misalnya, cerah), dan kolom menunjukkan kemungkinan keadaan selanjutnya (misalnya, cerah, mendung, hujan).
- Baris nomor 1 (cerah)
Jika hari ini cerah, kemungkinan besok tetap cerah adalah 0.6 (60%), kemungkinan besok mendung adalah 0.3 (30%), dan kemungkinan hujan adalah 0.1 (10%). - Baris nomor 2 (mendung)
Jika hari ini mendung, kemungkinan besok tetap mendung adalah 0.4 (40%), kemungkinan cerah 0.4 (40%), dan kemungkinan hujan 0.2 (20%). - Baris nomor 3 (hujan)
Jika hari ini hujan, kemungkinan besok hujan lagi adalah 0.2 (20%), kemungkinan mendung 0.5 (50%), dan kemungkinan cerah 0.3 (30%).
Satu hal penting dalam matriks transisi adalah bahwa setiap baris harus berjumlah 1. Mengapa demikian? Hal ini dikarenakan baris dalam matriks mewakili semua kemungkinan perpindahan dari satu keadaan ke semua keadaan lainnya. Jadi, jika kita menjumlahkan semua kemungkinan itu, harus sama dengan 100% (atau 1 dalam desimal), karena sistem pasti akan berubah ke salah satu keadaan. Misalnya, cuaca hari ini pasti akan cerah, mendung, atau hujan, tidak mungkin tidak ada cuaca sama sekali.
Aplikasi Rantai Markov Diskrit
Rantai Markov diskrit memiliki banyak sekali kegunaan dan kerap kali digunakan dalam berbagai bidang diantaranya adalah sebagai berikut.
A. Teori Antrian
Bayangkan sobat Exsight sedang berada di antrian di restoran cepat saji. Rantai Markov digunakan untuk memodelkan bagaimana orang datang dan pergi dari antrian tersebut. Misalnya, berapa lama orang akan menunggu, berapa banyak orang yang akan masuk antrian, atau kapan antrian akan menjadi lebih panjang atau lebih pendek. Hal ini membantu manajer restoran merencanakan jumlah kasir yang diperlukan pada waktu-waktu sibuk.
B. Pemodelan Cuaca
Rantai Markov juga sering digunakan untuk memprediksi cuaca. Misalnya, jika hari ini cerah, kita bisa menggunakan rantai Markov untuk memprediksi apakah cuaca besok akan cerah lagi, mendung, atau hujan, hanya berdasarkan keadaan cuaca hari ini. Ini sangat berguna untuk membuat prakiraan cuaca dalam jangka pendek.
C. Ekonomi dan Keuangan
Di dunia keuangan, rantai Markov bisa digunakan untuk memprediksi fluktuasi pasar saham. Misalnya, kita bisa melihat apakah harga saham akan naik atau turun besok, hanya berdasarkan harga saham hari ini. Rantai Markov juga digunakan dalam penilaian risiko investasi, yaitu untuk memperkirakan seberapa besar risiko kehilangan uang dalam investasi tertentu.
E. Penambahan Pengguna di Media Sosial
Ketika sebuah platform media sosial seperti Instagram atau TikTok bertambah pengguna, kita bisa menggunakan rantai Markov untuk memodelkan pertumbuhan pengguna. Dengan melihat jumlah pengguna hari ini, kita bisa memprediksi berapa banyak orang baru yang akan bergabung besok. Model ini membantu perusahaan merencanakan strategi pemasaran mereka.
Referensi
Sekian dan sampai di sini dulu penjelasan terkait Rantai Markov Diskrit pada Proses Stokastik. Jika masih ada yang dibingungkan bisa langsung saja ramaikan kolom komentar atau hubungi admin melalui tombol bantuan di kanan bawah. Stay tuned di website https://exsight.id/blog/ agar tidak ketinggalan artikel-artikel menarik lainnya.
Rantai Markov Diskrit pada Proses Stokastik Read More »