Sistem deteksi objek berbasis kamera merupakan salah satu komponen penting dalam pengembangan robot yang mampu berinteraksi dengan lingkungan secara visual. Namun, penerapannya pada perangkat embedded seperti Raspberry Pi menghadapi tantangan dalam hal efisiensi pemrosesan dan akurasi deteksi, terutama ketika digunakan untuk mengenali objek secara real-time. Untuk itu, diperlukan penelitian yang mengevaluasi kelayakan penerapan algoritma YOLOv11 pada robot myAGV untuk aplikasi simulasi monitoring tanaman. Metode yang digunakan meliputi pembuatan dataset mandiri dengan rumput sebagai objek target utama, pelatihan model, dan pengujian sistematis pada robot untuk mengevaluasi kinerja pada berbagai variasi jarak dan intensitas cahaya. Hasil pengujian komprehensif menunjukkan sistem mampu mencapai akurasi F1-Score sebesar 0.85 dengan kecepatan inferensi rata-rata 0.55 FPS pada platform Raspberry Pi 4. Penelitian ini juga berhasil mengidentifikasi jarak sebagai faktor pembatas utama, di mana kinerja optimal tercapai pada rentang 20 hingga 50 cm, sementara sistem terbukti andal terhadap variasi pencahayaan yang diuji. Hasil evaluasi menunjukkan bahwa model YOLOv11 memberikan keseimbangan performa yang layak untuk sistem robotik embedded yang diimplementasikan pada robot pemantau yang bergerak lambat. Hasil studi ini dapat menjadi dasar pengembangan robot untuk aplikasi pertanian presisi di masa mendatang.