Dengan semakin bertambah majunya teknologi permodelan NLP, aplikasi untuk menyelesaikan masalah pun bertambah. Dan dari teknologi struktur model tersebut, muncul model menggunakan struktur yang memiliki kapabilitas yang mirip, tapi menggunakan sumber daya komputasi yang lebih sedikit. Studi kasus jurnal ini berupa berita yang dikumpulkan menjadi dataset benchmark dalam Bahasa Indonesia untuk pelatihan dalam tugas meringkas secara ekstraktif. Dataset yang dipakai adalah liputan6 dan indosum. Kedua model Bert and distilBert digunakan untuk melakukan downward task tersebut untuk mengukur performansi. Tolak ukur yang dipakai adalah total waktu training, dan penggunaan sumber daya komputasi serta training loss dari fine-tuning. Hasil dari fine-tuning menunjukkan nilai akhir training loss dari model Bert dengan distilBert tidak jauh berbeda dengan distilBert memerlukan waktu lebih cepat dan sumber komputasi lebih sedikit.