Léo Saulières
L’omniprésence des modèles d’IA dans notre vie quotidienne a conduit au développement du domaine de l’IA explicable (XAI) afin de répondre au besoin d’explications sur les résultats des modèles opaques. Ce besoin a récemment été mis en évidence par diverses institutions, telles que l’ “AI Act” de la Commission européenne, qui stipule une exigence de transparence en fonction du risque associé au domaine d’application du modèle. Cette présentation se concentre sur un sous-domaine du XAI, intitulé apprentissage par renforcement explicable (XRL), qui vise à expliquer les décisions d’un agent qui a appris par apprentissage par renforcement. Avant de présenter ma contribution au domaine du XRL, j’évoquerai brièvement les tendances actuelles de celui-ci.