Les modèles de ML sont souvent des boites noires qu’on évalue selon leurs performances sans savoir exactement comment leurs décisions sont prises. Obtenir les meilleures performances possible peut suffire, mais comprendre les décisions est de plus en plus indispensable.
L’interprétation de modèles de Machine Learning complexes est aujourd’hui un enjeu important dans le domaine de la Data Science. Comprendre les paramètres qui ont influencés chaque valeur prédite est donc essentiel.