25.04.534
000 - General Works
Karya Ilmiah - Skripsi (S1) - Reference
Software Engineering
124 kali
Perbaikan kode otomatis adalah tugas penting dalam pengembangan perangkat lunak untuk mengurangi bug secara efisien. Penelitian ini berfokus pada pengembangan dan evaluasi teknik Chain-of-Thought (CoT) Prompting untuk meningkatkan kemampuan Large Language Models (LLM) dalam tugas Automated Program Repair (APR). CoT Prompting adalah teknik yang memandu LLM untuk menghasilkan penjelasan langkah demi langkah sebelum memberikan jawaban akhir, sehingga diharapkan dapat meningkatkan akurasi dan kualitas perbaikan kode. Penelitian ini menggunakan dataset QuixBugs untuk mengevaluasi performa beberapa model LLM, termasuk DeepSeek-V3 dan GPT-4o, dengan dua metode prompting, yaitu Standard Prompting dan CoT Prompting. Evaluasi dilakukan berdasarkan rata-rata jumlah plausible patches yang dihasilkan serta estimasi biaya penggunaan token. Hasil menunjukkan bahwa CoT Prompting meningkatkan performa pada sebagian besar model. DeepSeek-V3 mencatat performa tertinggi dengan rata-rata 36,6 plausible patches dan biaya terendah
Tersedia 1 dari total 1 Koleksi
Nama | RIZKY AKBAR GUSNAEN |
Jenis | Perorangan |
Penyunting | Eko Darwiyanto, Rio Nurtantyana |
Penerjemah |
Nama | Universitas Telkom, S1 Informatika |
Kota | Bandung |
Tahun | 2025 |
Harga sewa | IDR 0,00 |
Denda harian | IDR 0,00 |
Jenis | Non-Sirkulasi |