Explainable AI (XAI)

On appelle intelligence artificielle explicable (XAI) un programme d'intelligence artificielle capable d'expliquer ses objectifs, ses processus de raisonnement et de prise de décision d'une manière facile à comprendre (appelé Explainable AI). XAI est souvent discutée en relation avec l'apprentissage profond et joue un rôle important dans le modèle FAT ML (équité, responsabilité et transparence dans l'apprentissage automatique). XAI fournit des informations générales sur la manière dont un programme d'IA prend une décision en divulguant : Les forces et les faiblesses du programme. Les critères spécifiques que le programme utilise pour arriver à une décision. La raison pour laquelle un programme prend une certaine décision plutôt que d'autres options. Le niveau de confiance qui est approprié pour divers types de décisions. Quelles sont les erreurs auxquelles le programme est sujet. Quelles sont les erreurs qu'il est possible de corriger ? Un objectif important de XAI est de fournir une responsabilité algorithmique. Jusqu'à récemment, les systèmes d'IA étaient essentiellement des boîtes noires. Même si les entrées et les sorties sont connues, les algorithmes utilisés pour parvenir à une décision sont souvent propriétaires ou difficilement compréhensibles, même si les rouages de la programmation sont ouverts et librement accessibles. Il est plus crucial que jamais que l'intelligence artificielle, qui est devenue de plus en plus courante, soit rendue transparente quant à la manière dont la confiance et la partialité sont traitées. Par exemple, le Règlement général sur la protection des données (RGPD) de l'UE comprend une clause de droit à l'explication.