AI Explicável (XAI) é a inteligência artificial que é programada para descrever o seu propósito, lógica e processo de tomada de decisão de uma forma que possa ser entendida pela pessoa comum. XAI é frequentemente discutido em relação à aprendizagem profunda e desempenha um papel importante no modelo FAT ML (justiça, responsabilidade e transparência na aprendizagem de máquinas).
XAI fornece informações gerais sobre como um programa de IA toma uma decisão revelando:
- Os pontos fortes e fracos do programa.
- Os critérios específicos que o programa usa para chegar a uma decisão.
- Porquê um programa toma uma decisão em particular em oposição a alternativas.
- O nível de confiança que é apropriado para vários tipos de decisões.
- Que tipos de erros o programa tem tendência a.
- Como os erros podem ser corrigidos.
Um importante objectivo do XAI é fornecer uma responsabilidade algorítmica. Até recentemente, os sistemas de IA têm sido essencialmente caixas negras. Mesmo que as entradas e saídas sejam conhecidas, os algoritmos usados para chegar a uma decisão são frequentemente proprietários ou não são facilmente compreendidos, apesar de quando o trabalho interno da programação é de código aberto e disponibilizado livremente.
Como a inteligência artificial se torna cada vez mais prevalecente, está se tornando mais importante do que nunca revelar como o viés e a questão da confiança estão sendo abordados. O Regulamento Geral de Protecção de Dados da UE (GDPR), por exemplo, inclui uma cláusula de direito a explicação.