Attention weights in transformer NMT fail aligning words between sequences but largely explain model predictions

Carregant...
Miniatura
El pots comprar en digital a:
El pots comprar en paper a:

Projectes de recerca

Unitats organitzatives

Número de la revista

Títol de la revista

ISSN de la revista

Títol del volum

Col·laborador

Editor

Tribunal avaluador

Realitzat a/amb

Tipus de document

Comunicació de congrés

Data publicació

Editor

Association for Computational Linguistics

Condicions d'accés

Accés obert

Llicència

Creative Commons
Aquesta obra està protegida pels drets de propietat intel·lectual i industrial corresponents. Llevat que s'hi indiqui el contrari, els seus continguts estan subjectes a la llicència de Creative Commons: Reconeixement 4.0 Internacional

Assignatures relacionades

Assignatures relacionades

Publicacions relacionades

Datasets relacionats

Datasets relacionats

Projecte CCD

Abstract

This work proposes an extensive analysis of the Transformer architecture in the Neural Machine Translation (NMT) setting. Focusing on the encoder-decoder attention mechanism, we prove that attention weights systematically make alignment errors by relying mainly on uninformative tokens from the source sequence. However, we observe that NMT models assign attention to these tokens to regulate the contribution in the prediction of the two contexts, the source and the prefix of the target sequence. We provide evidence about the influence of wrong alignments on the model behavior, demonstrating that the encoder-decoder attention mechanism is well suited as an interpretability method for NMT. Finally, based on our analysis, we propose methods that largely reduce the word alignment error rate compared to standard induced alignments from attention weights.

Descripció

Persones/entitats

Document relacionat

Versió de

Citació

Ferrando, J.; Costa-jussà, M.R. Attention weights in transformer NMT fail aligning words between sequences but largely explain model predictions. A: Conference on Empirical Methods in Natural Language Processing. "Findings of the Association for Computational Linguistics: EMNLP 2021". Stroudsburg, PA: Association for Computational Linguistics, 2021, p. 434-443. DOI 10.18653/v1/2021.findings-emnlp.39.

Ajut

Forma part

Dipòsit legal

ISBN

ISSN

Altres identificadors

Referències