RSS

Hidden Markov Model

27 Feb

Hidden Markov Model merupakan doubly embedded stochastic process[Rabiner]. Proses stokastik adalah proses dimana observasi dilakukan secara tidak langsung, dimana hanya dapat diobservasi melalui proses stokastik lainnya yang menghasilkan deretan observasi[Rabiner].
Pemodelan sinyal ucapan dilakukan melalui proses estimasi berulang parameter HMM sehingga akhirnya didapat satu set parameter HMM yang memodelkan suatu kata. Proses pengenalannya dilakukan dengan mencari kata yang memberikan peluang terbesar terhadap kemunculan urutan pengamatan tersebut pada model HMM.

HMM terdiri dari elemen-elemen dasar sebagai berikut:
• N : banyaknya state pada HMM
• M: banyaknya simbol observasi yang berbeda pada setiap state.
• A: adalah peluang-peluang transisi dari state i menuju state j
• B: peluang simbol observasi dalam suatu state. adalah peluang simbol observasi ke-k pada state j,
• Pi: peluang inisial state. menyatakan peluang suatu sistem berada pada state i saat (keadaan awal)

Permasalahan-permasalahan dasar HMM
Suatu model mempunyai tiga permasalahan dasar yang harus dipecahkan supaya dapat diaplikasikan secara optimal, yaitu:
• Masalah pertama (model evaluation): Masalah pertama dalam HMM yang harus dipecahkan adalah bagaimana caranya menghitung secara efisien untuk setiap model , yaitu peluang sekuen observasi apabila diberikan model . Probabilitas ini menyatakan seberapa cocok HMM tersebut dalam memodelkan sekuen observasi yang terjadi. Solusi dari masalah pertama ini akan menentukan model mana yang paling sesuai untuk menghasilkan sekuen observasi yang bersangkutan. sering disebut sebagai likelihood.
• Masalah kedua (segmentation or path analysis ): Masalah kedua dari HMM yang harus dipecahkan adalah bagaimana caranya menentukan sekuen state yang optimal (paling cocok dalam memodelkan kejadian sebenarnya) apabila diberikan sekuen observasi . Sekuen state ini merupakan bagian yang tersembunyi (hidden) dari model karena beberapa buah state bisa memiliki simbol observasi yang sama.
• Masalah ketiga (training): Masalah ketiga dalam HMM yang harus dipecahkan adalah bagaimana caranya memilih model yang sesuai untuk meng-optimal-kan atau likelihood sehingga model tersebut sesuai dalam merepresentasikan bagaimana suatu sekuen observasi terjadi. Untuk bisa memperoleh model yang paling sesuai, HMM harus di-training menggunakan sekuen observasi, dimana proses training yang akan melakukan adaptasi terhadap parameter-parameter HMM sehingga akan dihasilkan model yang terbaik.

Solusi untuk setiap permasalahan dasar HMM
Berikut ini adalah solusi-solusi pemecahan terhadap ketiga permasalahan dasar HMM yang telah disebutkan di atas:
• Solusi masalah pertama (evaluation) adalah cara efisien untuk menghitung P(O|lamda), yaitu peluang bahwa urutan pengamatan O = O1 O2 .. Ot dihasilkan oleh suatu model pi. Cara yang paling langsung adalah dengan memeriksa setiap urutan keadaan yang mungkin hingga sebanyak t keadaan (sepanjang urutan pengamatan).
Pada saat t = 1, dan berada pada keadaan q1 dengan peluang pi_q1, dan menghasilkan simbol O1 pada keadaan ini dengan peluang bq1(O1). Kemudian pada t = t + 1 (t=2), kita pindah ke keadaan q2 dari q1 dengan peluang aq1q2, dan menghasilkan simbol O2 dengan peluang bq2(O2). Proses ini berlangsung terus sampai t = T dari keadaan qT-1 ke keadaan qT dengan peluang aqT-1qT dan menghasilkan simbol OT dengan peluang bqT(OT).
• Solusi masalah kedua (decoding) adalah mencari deretan state yang tersembunyi (hidden) untuk suatu deretan observasi yang dihasilkan dari model .. Deretan state yang dicari harus merupakan deretan yang optimal untuk bisa memodelkan deretan observasi dari suatu model . Metode yang digunakan untuk mencari deretan state optimal ini adalah algoritma viterbi (dynamic programming). Algoritma viterbi memaksimalkan nilai probabilitas sehingga akan dihasilkan deretan state yang optimal.
• Solusi masalah ketiga (pelatihan) adalah menyesuaikan (pelatihan) parameter-parameter berdasarkan kriteria optimal tertentu. Metode yang biasa digunakan untuk memecahkan masalah ketiga ini adalah algoritma Baum-Welch. Algoritma ini merupakan suatu metode iteratif yang berfungsi untuk mencari nilai-nilai maksimum lokal (local maximas) dari fungsi probabilitas . Proses pelatihan ini berlangsung terus sampai kondisi kritis (local minima) terpenuhi. Model hasil pelatihan harus lebih baik daripada model sebelumnya.

Model inisial dikatakan mempunyai titik kritis dari fungsi likelihood-nya apabila (model hasil reestimasi) = model sebelum, atau bila model hasil reestimasi mendekati model sebelum , bila hal itu terjadi, artinya proses reestimasi telah menemukan suatu model yang lebih baik dibandingkan model inisial. Hasil akhir dari prosedur reestimasi ini disebut estimasi maximum likelihood dari HMM.

 
Leave a comment

Posted by on February 27, 2011 in Speech Recognition

 

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

 
%d bloggers like this: