Publicación:
Implementación del módulo de explicabilidad para coinfecciones del post covid-19

Cargando...
Miniatura

Fecha

Título de la revista

ISSN de la revista

Título del volumen

Editor

Universidad Central "Marta Abreu" de las Villas

Proyectos de investigación

Unidades organizativas

Número de la revista

Resumen

Los modelos de inteligencia artificial (IA) están ganando terreno en la medicina, especialmente en diagnósticos y decisiones clínicas. Para su aceptación y eficacia, es crucial que los profesionales médicos confíen en estos modelos, la interpretabilidad juega un papel clave. En investigación médica, explicar los resultados de un modelo es vital para su validación científica. Los métodos explicativos identifican las características más influyentes en las predicciones, lo que permite personalizar tratamientos. Se aplica y adapta el método LORE en Python para explicar co-infecciones en el contexto de la Covid-19. LORE incrementa la interpretabilidad de los resultados a través de reglas de decisión y escenarios contrafactuales. Además, se evalúa el efecto de las explicaciones generadas con LIME y SHAP. De la evaluación realizada se concluye que LORE y LIME proporcionan interpretaciones consistentes, mientras SHAP muestra mayor sensibilidad a variaciones de datos.

Descripción

Citación

Aprobación

Revisión

Complementado por

Referenciado por