On the locality of attention in direct speech translation

Carregant...
Miniatura
El pots comprar en digital a:
El pots comprar en paper a:

Projectes de recerca

Unitats organitzatives

Número de la revista

Títol de la revista

ISSN de la revista

Títol del volum

Col·laborador

Editor

Tribunal avaluador

Realitzat a/amb

Tipus de document

Comunicació de congrés

Data publicació

Editor

Association for Computational Linguistics

Condicions d'accés

Accés obert

Llicència

Creative Commons
Aquesta obra està protegida pels drets de propietat intel·lectual i industrial corresponents. Llevat que s'hi indiqui el contrari, els seus continguts estan subjectes a la llicència de Creative Commons: Reconeixement 4.0 Internacional

Assignatures relacionades

Assignatures relacionades

Publicacions relacionades

Datasets relacionats

Datasets relacionats

Projecte CCD

Abstract

Transformers have achieved state-of-the-art results across multiple NLP tasks. However, the self-attention mechanism complexity scales quadratically with the sequence length, creating an obstacle for tasks involving long sequences, like in the speech domain. In this paper, we discuss the usefulness of self-attention for Direct Speech Translation. First, we analyze the layer-wise token contributions in the self-attention of the encoder, unveiling local diagonal patterns. To prove that some attention weights are avoidable, we propose to substitute the standard self-attention with a local efficient one, setting the amount of context used based on the results of the analysis. With this approach, our model matches the baseline performance, and improves the efficiency by skipping the computation of those weights that standard attention discards.

Descripció

Persones/entitats

Document relacionat

Versió de

Citació

Alastruey, B. [et al.]. On the locality of attention in direct speech translation. A: Annual Meeting of the Association for Computational Linguistics: Student Research Workshop. "ACL 2022, The 60th Annual Meeting of the Association for Computational Linguistics: proceedings of the Student Research Workshop: May 22-27, 2022". Stroudsburg, PA: Association for Computational Linguistics, 2022, p. 402-412. ISBN 978-1-955917-23-0. DOI 10.18653/v1/2022.acl-srw.32.

Ajut

Forma part

Dipòsit legal

ISBN

978-1-955917-23-0

ISSN

Altres identificadors

Referències