Lieu: Amphitéatre Kereon, ENIB
L'intelligence artificielle (IA) s'est imposée depuis plus d'une dizaine d'années sous la forme du Machine Learning (ML) pour la réalisation de nombreuses tâches de prédiction. Toutefois, les modèles de ML sont souvent des boîtes noires dont le comportement peut être difficile à interpréter, même pour leurs concepteurs. Comment contribuer à l’émergence d'une IA explicable, en particulier sur des cas d'applications critiques comme le cas bancaire ? Ce travail aborde l'IA explicable par la piste de l'explication post-hoc des modèles. Ces méthodes de génération d'explication sont diverses, et nous avons mis en place plusieurs techniques explicatives pour la banque, dans le contexte de la détection de comportements illicites. Toutefois, la pertinence de telles explications automatiques doit être évaluée au travers d'interactions humaines. Nous avons exploré la piste d'une évaluation par les performances humaines, au travers de plusieurs expérimentations. Les résultats, obtenus en dehors du domaine bancaire, nous apportent des clés dans le développement de ces méthodologies, destinées à évaluer ce qui est ou non une bonne explication.