O Problema da Incoerência e a Regularização Semântica para Inferência Textual
Autores
6645 |
299,2981
|
|
6646 |
299,2981
|
Informações:
Publicações do PESC
O reconhecimento de inferência textual é uma tarefa do processamento de linguagem natural que busca mensurar a capacidade dos algoritmos de comparar um par de sentenças a nível semântico. Ela é útil direta ou indiretamente em diversas aplicações como tradução de máquina, sumarização e respostas automáticas. Esta tarefa recebeu grande atenção com o lançamento do dataset SNLI, possibilitando a aplicação de complexas técnicas de deep learning que obtiveram diversos resultados expressivos. Alguns trabalhos, porém, começam a questionar tais resultados, observando os vieses explorados pelos algoritmos de aprendizado. Esta dissertação discute mais um possível problema destes métodos: a incoerência entre as respostas. É apresentada uma definição formal, baseada em lógica proposicional, do que é uma resposta coerente. Também é dada uma solução que visa diminuir a incoerência dos modelos, aplicável a qualquer algoritmo de deep learning, além de experimentos que avaliam alguns possíveis impactos da incoerência e a eficácia da solução proposta.
Recognition of textual entailment is a task of natural language processing that aims to measure the ability of algorithms to compare a pair of sentences at the semantic level. It is useful directly or indirectly in various applications such as machine translation, summarization and question answering. This task received attention with the release of the SNLI dataset, making possible the application of complex deep learning techniques that obtained several expressive results. Some works, however, begin to question such results, observing the biases explored by the learning algorithms. This dissertation discusses another possible problem of these methods: the incoherence between the answers. A formal definition, based on propositional logic, is presented for what is a coherent response. It is also given a solution that seeks to reduce the incoherence of the models, applicable to any deep learning algorithm, as well as experiments that evaluate some possible impacts of incoherence and the eectiveness of the proposed solution.