ABSTRAKSI: Pada umumnya emosi manusia dapat diperkirakan secara mudah melalui raut wajah dari seseorang, atau dari perubahan mimik wajahnya. Banyak penelitian juga yang telah melakukan pendeteksian melalui raut wajah. Selain wajah, emosi manusia juga dapat dideteksi melalui suara yang diucapkannya atau sinyal bicaranya. Emosi seseorang dalam keadaan tenang, marah, sedih atau senang dapat dideteksi melalui sinyal bicaranya yaitu melalui ciri akustiknya.
Pada tugas akhir ini dilakukan deteksi emosi manusia tersebut melalui sinyal bicara nya dengan melaksanakan ekstraksi ciri akustik yang tepat untuk mendapatkan karakteristik dasar dari sinyal bicara yang berupa pitch, intensitas energi,spektrum energi dan durasi, yang menjadi variabel dalam pemodelan yang digunakan. Kondisi emosi yang akan dideteksi tersebut menjadi state yang di dapat menggunakan metode Hidden Markov Model dan variabel ekstraksi ciri yang menjadi parameter penentu state.
Keluaran deteksi berupa kondisi emosi seseorang yaitu netral, marah, sedih, atau senang dengan tingkat akurasi 70% dari total data uji yang digunakan yaitu 20 data. Namun untuk akurasi maksimal yang didapatkan untuk per emosinya adalah 100 % dari total data uji sebanyak 5 data untuk masing-masing emosinya. Hasil akurasi tersebut didapatkan saat masukan ciri berupa pitch dan ciri energi akibat silence removal.
Kata Kunci : hmm, pitch, energi, durasi, state.ABSTRACT: Commonly human emotion is predicted by expression from our face, that will change based on our mood or feeling. There is also many research about human detection by face. Beside face, someone’s emotion can be detected by her or his voice too. We can know someone feels sad, angry, happy or neutral based on his or her acoustic feature that we take from his or her voice.
This final project try to simulate how we can detect human emotion based on acoustic feature of human speech. The acoustic feature like pitch, intensity of energy, spectrum energy, and duration of speech will be got by feature extraction. Those feature will be variable for classification that will be used later.
Human emotion like sad, happy, angry , and neutral will become the state for Hidden Markov Model method that will be used for the classification of this final project, and acoustic feature of human speech will become parameter to determine which state that will be detected.
The output of this final project is condition of human emotion. That are sad, angry, happy, or neutral with accurate of data 70 % for all of testing data that used in this project. However the maximum accurate of data for each emotion is 100 % from 5 data in each emotion. Those result are gotten by pitch feature and energy feature with silence removal process in pre-processing.
Keyword: hmm, pitch, energy, duration , state.