Publicación: Implementación del módulo de explicabilidad para coinfecciones del post covid-19
Cargando...
Fecha
Autores
Título de la revista
ISSN de la revista
Título del volumen
Editor
Universidad Central "Marta Abreu" de las Villas
Resumen
Los modelos de inteligencia artificial (IA) están ganando terreno en la medicina, especialmente en diagnósticos y decisiones clínicas. Para su aceptación y eficacia, es crucial que los profesionales médicos confíen en estos modelos, la interpretabilidad juega un papel clave. En investigación médica, explicar los resultados de un modelo es vital para su validación científica. Los métodos explicativos identifican las características más influyentes en las predicciones, lo que permite personalizar tratamientos. Se aplica y adapta el método LORE en Python para explicar co-infecciones en el contexto de la Covid-19. LORE incrementa la interpretabilidad de los resultados a través de reglas de decisión y escenarios contrafactuales. Además, se evalúa el efecto de las explicaciones generadas con LIME y SHAP. De la evaluación realizada se concluye que LORE y LIME proporcionan interpretaciones consistentes, mientras SHAP muestra mayor sensibilidad a variaciones de datos.