Análisis de interpretabilidad mediante técnicas XAI en modelos de Machine Learning para la detección de fraudes financieros
Interpretability analysis using XAI techniques in Machine Learning models for the detection of financial fraud
DOI:
https://doi.org/10.70577/innovascit.v4i1.115Palabras clave:
Machine Learning; fraude financiero; inteligencia artificial explicable; interpretabilidad; XAIResumen
La detección de fraudes financieros mediante modelos de Machine Learning es una estrategia eficaz; sin embargo, la complejidad de estos algoritmos ha incrementado la opacidad en las decisiones automatizadas, representando un desafío crítico en sectores regulados que exigen auditabilidad y confianza. Este estudio experimental analiza la interpretabilidade de modelos aplicados a la detección de fraudes en tarjetas de crédito utilizando datos públicos (IEEE-CIS). Siguiendo la metodología CRISP-DM, se implementaron los modelos Random Forest y XGBoost, evaluando el desempeño mediante métricas robustas al desequilibrio extremo, priorizando la Precisão Média (PR-AUC) y el F1-score. Posteriormente, se aplicaron las técnicas SHAP y LIME para generar explicações post-hoc a nivel global y local. Los resultados evidencian que el XGBoost obtuvo el desempeño superior, con un PR-AUC de 0.884 ± 0.012 y Recall de 0.821, mitigando eficazmente el desequilibrio de la clase. Las técnicas XAI permitieron identificar las variables más influyentes globalmente y proporcionar justificações locales consistentes para instâncias individuales. No obstante, la explicación de variables anonimizadas por PCA limitó la interpretabilidade semántica a una validación puramente técnica. En conclusión, el estudio aporta evidencia empírica de que es viável alcanzar un equilibrio entre desempeño preditivo e interpretabilidade técnica, contribuyendo al desarrollo de sistemas de detección de fraudes más transparentes y relevantes para ambientes financieros regulados.





