Meningkatkan kinerja sistem dengan teknik caching replacement selalu menjadi salah satu topik hangat di penelitan yang sistematis. Apalagi dalam satu dekade terakhir, dengan kemajuan big data semakin banyak data yang yang disimpan dan diproses di sistem perangkat lunak modern. Algoritma caching replacement sangat membantu dalam meningkatkan kinerja dari suatu sistem. Algoritma caching sendiri merupakan teknik pengoptimalan yang mengganti blok pada cache memory dengan yang baru. Beberapa teknik dari replacement algorithm seperti: LRU (Last Recently Used), FIFO (First In First Out), dan LFU (Last Frequently Used).
Namun teknik pergantian tuggal seperti itu dianggap tidak cukup memenuhi dari skenario beban kerja (workloads) harian. Oleh karena itu dibuatlah Algoritma LeCar, dimana Algoritma tersebut menggunakan konsep reinforcement learning yang disebut regret minimization untuk mengganti policy antara LRU dan LFU. Sayangnya Algoritma LeCar memiliki masalah dalam overfitting, karena LeCar terlalu berpusat pada beban kerja FIU dengan learning rate dan discount rate yang kecil. Sehingga penyesuaian algoritma dianggap tidak memungkinkan. Sehingga dibuatlah modifikasi LeCar dimana modifikasi ini mengambil konsep dari LeCar namun untuk pergantian policy berdasarkan dari halaman riwayat evicted dari LRU dan LFU.
Dalam tugas akhir ini, kinerja dari modifikasi LeCar dan algoritma lain termasuk LeCar dibandingkan dengan 3 jenis dataset. Hasil dari simulasi menunjukan bahwa modifikasi LeCar mampu mengungguli algoritma lain, dimana pada skenario dataset FIU modifikasi LeCar mendapatkan cache hit 3-6% lebih baik dari algoritma lain termasuk LeCar. Sedangkan pada dataset Synthetic modifikasi unggul saat skenario jumlah objek dan jumlah request tinggi dan bersaing dengan LeCar saat jumlah objek dan jumlah request rendah, dan untuk dataset Medisyn modifikasi LeCar unggul saat cache size yang digunakan kecil dan bersaing dengan LRU saat cache size yang digunakan besar.
Kata Kunci: Cache Replacement, LRU, LFU, Modifikasi LeCar, Cache.