Enhancing sequence-to-sequence modeling for RDF triples to natural text
Carregant...
Fitxers
El pots comprar en digital a:
El pots comprar en paper a:
Títol de la revista
ISSN de la revista
Títol del volum
Col·laborador
Editor
Tribunal avaluador
Realitzat a/amb
Tipus de document
Text en actes de congrés
Data publicació
Editor
Association for Computational Linguistics
Condicions d'accés
Accés obert
item.page.rightslicense
Aquesta obra està protegida pels drets de propietat intel·lectual i industrial corresponents. Llevat que s'hi indiqui el contrari, els seus continguts estan subjectes a la llicència de Creative Commons: Reconeixement 3.0 Espanya
Publicacions relacionades
Datasets relacionats
Projecte CCD
Abstract
Establishes key guidelines on how, which and when Machine Translation (MT) techniques are worth applying to RDF-to-Text task. Not only do we apply and compare the most prominent MT architecture, the Transformer, but we also analyze state-of-the-art techniques such as Byte Pair Encoding or Back Translation to demonstrate an improvement in generalization. In addition, we empirically show how to tailor these techniques to enhance models relying on learned embeddings rather than using pretrained ones. Automatic metrics suggest that Back Translation can significantly improve model performance up to 7 BLEU points, hence, opening a window for surpassing state-of-the-art results with appropriate architectures.
Descripció
Persones/entitats
Document relacionat
Versió de
Citació
Domingo, O. [et al.]. Enhancing sequence-to-sequence modeling for RDF triples to natural text. A: WebNLG - International Workshop on Natural Language Generation from the Semantic Web. "Proceedings of the 3rd International Workshop on Natural Language Generation from the Semantic Web (WebNLG+)". Stroudsburg, PA: Association for Computational Linguistics, 2020, p. 40-47.




