Explicabilidad local: ¿cómo interpreto la predicción?
02/10, 16:05–16:40 (Europe/Madrid), Grace Hopper (Teoría 6)
Idioma: Español

Admitámoslo, a todos nos gustaría saber si a nuestro modelo se le ha ido la bola. O al menos poder poner dar una explicación cuando se le va. Una de las herramientas más útiles para hacer esto es la explicabilidad local. Aunque no le pongas nombre seguramente hayas usado la explicabilidad global del modelo anteriormente, como el método "feature importance" de los árboles. La explicabilidad local sin embargo, nos da herramientas para entender una predicción, para saber qué características han influído más y sacar conclusiones respecto al resultado.


Para empezar, ¿de qué hablamos cuando hablamos de explicabilidad?
Además veremos que hay modelos que son explicables y otros que no. Esto quiere decir que hay modelos cuyas predicciones se pueden decomponer y otros que no.
Para estos últimos veremos herramientas, y como es la Pycon veremos librerías en Python, para aplicar algoritmos que nos den esta descomposición de las predicciones como SHAP o LIME.
Como bonus track hablaré de un paper escrito por Ángel Delgado y por mí que hace del Gradient Boosting un modelo explicable.
Al final de la charla espero que tengas las suficientes herramientas para aplicar explicabilidad local en tus modelos.


Nivel de la propuesta

Intermediate

Temática

Data Science, Machine Learning and AI

Ver también : Slides (1,5 MB)

Bea Hernández es matemática de formación y lleva trabajando en Data Science casi una década. En Paradigma trabaja en el departamento de innovación / preventa de datos como ML Engineer, llevando a cabo pruebas de concepto con las últimas tecnologías. Fuertemente inclinada por crear comunidad y mejorar la diversidad en el campo es cofundadora de R-Ladies Madrid y activa participante en otras comunidades como la de Scikit-Learn o NASADatanauts.