ABSTRAKSI: Pada sebagian besar simulasi jaringan syaraf tiruan, bilangan real direpresentasi secara penuh, menggunakan presisi 64 bit atau 32 bit. Implementasi simulasi tersebut terhadap hardware akan melipatgandakan pemakaian silikon, sebagai wadah penyimpan bit, pada saat operasi perhitungan. Pemakaian silikon dapat dioptimalkan dengan membatasi presisi. Pembatasan presisi dilakukan sehingga menghasilkan presisi yang tepat, yang hasil representasinya hampir sama dengan presisi penuh. Untuk itu perlu diamati pengaruh perhitungan presisi terbatas pada format-format representasi bilangan real. Floating point merupakan format yang sering digunakan dan telah memiliki standar Internasional. Format lain yaitu fixed point yang telah dipakai oleh beberapa perancang hardware terutama pada hardware yang tidak memiliki Floating point Unit (FPU) untuk melakukan perhitungan bilangan real. Dalam tugas akhir ini telah diteliti penggunaan presisi terbatas pada jaringan syaraf tiruan metode Backpropagation. Penerapannya dilakukan pada simulasi prakiraan beban tenaga listrik jangka pendek. Hasil dari penelitian ini adalah presisi fixed point dengan jumlah bit 32 sampai jumlah bit 18 dapat melakukan pelatihan dan prakiraan pada sistem prakiran beban tenaga listrik jangka pendek dengan rata-rata akurasi di atas 90%.
Kata Kunci : presisi terbatas, floating point, fixed point, Backpropagation.ABSTRACT: Most of artificial neural network simulation, real number are fully represented, using 64 bit or 32 bit. Implementation of the simulation on hardware will increase silicon size, as container of bits, while processing calculation. Silicon size can be optimized by limitating precision. Precision limitation are conducted in order to produce the right precision, which its representation yield almost same as full precision. Therefore, effect of limited precision calculation toward real number representation formats need to be observed. Floating point has been familiarly used and owned Internasional standard. Another format is fixed point, which have been applied by several hardware desainer especially on hardwares which do not have embbeded Floating point Unit (FPU) for doing real number calculation. On this final task, limited precision application on artificial neural network Backpropagation method have been observed. Research are applied on short-range burden electricity assesment. The result of this research reveals that fixed point with 32 until 18 wordlength precision can conduct training and forecasting on short-range burden electricity assesment sistem producing average accuration more than 90%.Keyword: limited precision, floating point, fixed point, Backpropagation