Identifying Classifier-Relevant Regions In Images Through Weightless Learning
Authors:
Autores
Person role | Person | |
---|---|---|
7008 |
3114,162,131
|
|
7009 |
3114,162,131
|
|
7010 |
3114,162,131
|
Informations:
Pesc publication
A necessidade de Inteligência Artificial Explicável se torna aparente à medida que os modelos de aprendizagem profunda crescem em popularidade e a Inteligência Artificial é usada em cada vez mais áreas. Muitas técnicas foram propostas até agora para produzir explicações legíveis para os processos de decisão dos classificadores, cada um resolvendo uma pequena peça deste enorme quebra-cabeça. Uma parte disso são as explicações visuais, que buscam produzir imagens que possam destacar o que é o conteúdo relevante para o classificador e indique ao usuário se o modelo toma sua decisão em uma base sólida, ou ao acaso, ou mesmo em uma premissa errada. Portanto, soluções como LIME encontram maneiras de gerar essas explicações em diferentes modelos de aprendizagem, fornecendo uma ferramenta versátil para compreender melhor os modelos de classificação. Embora essas soluções geralmente tentem ser o mais agnóstico possível, a advertência natural é que eles são mais adequados para algumas classes de problemas e classificadores do que outros. Portanto, uma série de modelos explicáveis diferentes são necessários para cobrir o vasto espaço de modelos possíveis para explicar. Nós apresentamos um desses modelos, o Fuzzy Regression WiSARD Interpreter (FRWI), para tentar produzir explicações de alta qualidade a partir de modelos baseados em WiSARD. Além disso, como precisamos de uma maneira objetiva e quantificável de avaliar como os diferentes modelos se comparam, também apresentamos nosso próprio Interpretation Capacity Score (ICS), uma medida para julgar as explicações produzidas. Sob esta métrica além dos subjetivos testes qualitativos, esta nova abordagem FRWI teve resultados promissores, que podem superar o LIME nos cenários testados e fornecer explicações compreensíveis.
The need for eXplainable Artificial Intelligence becomes apparent as deep learning models grow in popularity and Artificial Intelligence is used in more and more areas. Many techniques have been proposed thus far to produce human-legible explanations to the decision processes of classifiers, each solving a small piece of this enormous puzzle. One part of this, are the visual explanations, which seeks to produce images which can highlight what is the relevant content to the classifier, and clue the user in as to whether the model makes its decision on a sound basis, or at random, or even on a mistaken premise. Thus, solutions such as LIME find ways to generate theses explanations across different learning models, providing a versatile tool to better understand classification models. Although said solutions usually attempt to be as model agnostic as possible, the natural caveat is that they are better suited for some classes of problems and classifiers than others. Therefore, a number of different explainable models are needed in order to cover the vast space of possible models to explain. We introduce one such model, the Fuzzy Regression WiSARD Interpreter (FRWI), to attempt to produce higher quality explanations from WiSARD based models. Furthermore, as we need an objective, quantifiable way of gauging how different models compare, we also introduce our own Interpretation Capacity Score (ICS), a measurement process to judge the explanations produced. Under this metric as well as subjective, qualitative tests, this new FRWI approach had promising results, which could beat LIME in the tested scenarios and provide comprehensible explanations.