Evaluasi Metode SHAP dan LIME untuk Menganalisis Faktor Risiko Diabetes
Abstract
Diabetes adalah penyakit yang angka penderitanya terus meningkat setiap tahunnya, menjadikannya salah satu masalah kesehatan utama yang dihadapi dunia. Meskipun ada berbagai metode untuk mendeteksi diabetes, prediksi berbasis kecerdasan buatan semakin populer dalam mendiagnosis penyakit diabetes dengan tingkat akurasi yang tinggi. Namun, model-model AI sering kali bersifat black-box, sehingga sulit untuk menginterpretasikan faktor-faktor yang memengaruhi hasil prediksi. Penelitian ini bertujuan untuk membandingkan metode Explainable AI (XAI), yaitu metode SHAP dan LIME, dalam memberikan penjelasan terhadap hasil dari prediksi model. Penelitian ini menggunakan dataset diabetes yang mencakup fitur-fitur seperti kehamilan, kadar glukosa, tekanan darah, ketebalan kulit, insulin, indeks massa tubuh, keturunan, usia, dan output (kelas diabetes dan kelas non-diabetes). Dengan menggunakan metode SHAP dan LIME, penelitian ini memuat hasil berupa penjelasan keputusan dari prediksi yang dibuat oleh model XGBoost. Hasil menunjukkan bahwa SHAP memberikan interpretasi yang lebih stabil, konsisten, dan dapat dipercaya dibandingkan LIME, serta lebih direkomendasikan untuk digunakan dalam mendukung pengambilan keputusan medis terkait diagnosis diabetes.
Kata kunci: Explainable AI, SHAP, LIME, XGBoost, Diabetes, Black-Box.
References
Johannes Allgaier, Lena Mulansky, Rachel Lea Draelos, and Rüdiger Pryss. “How does the model make predictions? A systematic literature review on the explainability power of machine learning in healthcare.” Artificial Intelligence in Medicine, 2023.
S. Ahmed, M. S. Kaiser, M. Shahadat Hossain and K. Andersson. “A Comparative Analysis of LIME and SHAP Interpreters With Explainable ML-Based Diabetes Predictions.” IEEE Access, vol. 13, pp. 37370–37388, 2025. https://doi.org/10.1109/ACCESS.2024.3422319.
Nur Arminarahmah and Galih Mahalisa. “Implementasi model machine learning pada klasifikasi status penyakit diabetes berbasis Streamlit.” Smart Comp: Jurnalnya Orang Pintar Komputer, vol. 13, no. 3, pp. 470–475, 2024. https://doi.org/10.30591/smartcomp.v13i3.5866.
Serg Masis. Interpretable Machine Learning with Python: Build Explainable, Fair, and Robust High-Performance Models. Packt Publishing, 2023.
Mubaraqah, Annisa Nurul Puteri, and A. Sumardin. “Comparison of Random Forest and XGBoost for Diabetes Classification with SHAP and LIME Interpretation.” JTERA (Jurnal Teknologi Rekayasa), vol. 9, no. 2, pp. 121–130, 2024. https://doi.org/10.31544/jtera.v9.i1.2024.121-130.
Andhika Brahmandjati, Abd Mizwar A. Rahim, and Firman Asharudin. “Optimasi prediksi diabetes dengan algoritma XGBoost dan teknik preprocessing data.” LOGIC: Jurnal Ilmu Komputer dan Pendidikan, vol. 3, no. 1, pp. 116–125, 2025.
Muhammad Surono, Muhammad Fadli, Dian Sri Purwamti, and Erliyan Redy Susanto. “Hybrid XGBoost-SVM model untuk sistem pendukung keputusan dalam prediksi penyakit diabetes.” INSOLOGI: Jurnal Sains dan Teknologi, vol. 4, no. 3, pp. 443–454, 2025. https://doi.org/10.55123/insologi.v4i3.5410.
Wildan Hidayatulloh. “Analisis Prediksi Kinerja Akademik Mahasiswa Menggunakan Metode Explainable Artificial Intelligence Berbasis SHAP dan LIME.” 1 Juli 2025. https://doi.org/10.13140/RG.2.2.18836.62084.
C. Molnar. Interpretable Machine Learning: A Guide for Making Black Box Models Explainable, 1st ed., Leanpub, 2019.
Varad Vishwarupe, Prachi M. Joshi, Nicole Mathias, Shrey Maheshwari, Shweta Mhaisalkar, and Vishal Pawar. “Explainable AI and interpretable machine learning: A case study in perspective.” Procedia Computer Science, vol. 204, pp. 869–876, 2022.
Ninda Rizky Nuraeda, Muhaza Liebenlito, and Taufik Edy Sutanto. “Explainable sentiment analysis pada ulasan aplikasi Shopee menggunakan Local Interpretable Model-agnostic Explanations.” Indonesian Journal of Computer Science, 2024.
Y. Wu, L. Zhang, U. A. Bhatti, and M. Huang. “Interpretable machine learning for personalized medical recommendations: A LIME-based approach.” Diagnostics, vol. 13, no. 16, p. 2681, 2023. https://doi.org/10.3390/diagnostics13162681.
Z. Li. “Extracting spatial effects from machine learning model using local interpretation method: An example of SHAP and XGBoost.” Computers, Environment and Urban Systems, vol. 96, p. 101845, 2022. https://doi.org/10.1016/j.compenvurbsys.2022.101845.
Mohammad Teddy Syamkalla, Siti Khomsah, and Yohani Setiya Rafika Nur. “Implementasi algoritma CatBoost dan Shapley Additive Explanations (SHAP) dalam memprediksi popularitas game indie pada platform Steam.” Jurnal Teknologi Informasi dan Ilmu Komputer (JTIIK), vol. 11, no. 4, pp. 771–776, 2024. https://doi.org/10.25126/jtiik.1148503.
M. M. Islam, H. R. Rifat, M. S. B. Shahid, A. Akhter, M. A. Uddin, and K. M. M. Uddin. “Explainable machine learning for efficient diabetes prediction using hyperparameter tuning, SHAP analysis, partial dependency, and LIME.” Engineering Reports, vol. 7, e13080, 2025. https://doi.org/10.1002/eng2.13080.
Mesut Toğaçar, Nedim Muzoğlu, Burhan Ergen, Bekir Sıddık Binboğa Yarman, and Ahmet Mesrur Halefoğlu. “Detection of COVID-19 findings by the local interpretable model-agnostic explanations method of types-based activations extracted from CNNs.” Biomedical Signal Processing and Control, vol. 71, part A, article no. 103128, 2022. https://doi.org/10.1016/j.bspc.2021.103128.
Tsehay Admassu Assegie. “Evaluation of Local Interpretable Model-Agnostic Explanation and Shapley Additive Explanation for Chronic Heart Disease Detection.” Progress in Engineering and Technology Innovation, 2023. https://doi.org/10.46604/peti.2023.10101.



