Paper published in a book (Scientific congresses and symposiums)
The MAKE-NMTVIZ System Description for the WMT23 Literary Task
Lopez, Fabien; González, Gabriela; Hansen, Damien et al.
2023In Koehn, Philipp; Haddow, Barry; Kocmi, Tom et al. (Eds.) Proceedings of the Eighth Conference on Machine Translation
Peer reviewed
 

Files


Full Text
2023.wmt-1.30.pdf
Author postprint (450.72 kB) Creative Commons License - Attribution
Download

All documents in ORBi are protected by a user license.

Send to



Details



Keywords :
machine translation; traduction automatique; literary translation; traduction littéraire; shared task; campagne d'évaluation
Abstract :
[en] This paper describes the MAKE-NMTVIZ Systems trained for the WMT 2023 Literary task. As a primary submission, we used Train, Valid1, test1 as part of the GuoFeng corpus (Wang et al., 2023) to fine-tune the mBART50 model with Chinese-English data. We followed very similar training parameters to (Lee et al. 2022) when fine-tuning mBART50. We trained for 3 epochs, using gelu as an activation function, with a learning rate of 0.05, dropout of 0.1 and a batch size of 16. We decoded using a beam search of size 5. For our contrastive1 submission, we implemented a fine-tuned concatenation transformer (Lupo et al., 2023). The training was developed in two steps: (i) a sentence-level transformer was implemented for 10 epochs trained using general, test1, and valid1 data (more details in contrastive2 system); (ii) second, we fine-tuned at document-level using 3-sentence concatenation for 4 epochs using train, test2, and valid2 data. During the fine-tuning, we used ReLU as an activation function, with an inverse square root learning rate, dropout of 0.1, and a batch size of 64. We decoded using a beam search of size. Four our contrastive2 and last submission, we implemented a sentence-level transformer model (Vaswani et al., 2017). The model was trained with general data for 10 epochs using general-purpose, test1, and valid 1 data. The training parameters were an inverse square root scheduled learning rate, a dropout of 0.1, and a batch size of 64. We decoded using a beam search of size 4. We then compared the three translation outputs from an interdisciplinary perspective, investigating some of the effects of sentence- vs document-based training. Computer scientists, translators and corpus linguists discussed the linguistic remaining issues for this discourse-level literary translation.
Research Center/Unit :
CIRTI - Centre Interdisciplinaire de Recherches en Traduction et en Interprétation - ULiège
LIG - Laboratoire d'Informatique de Grenoble - Université Grenoble Alpes
GETALP - Groupe d'Étude pour la Traduction Automatique et le Traitement Automatisé des Langues et de la Parole - Université Grenoble Alpes
Disciplines :
Computer science
Author, co-author :
Lopez, Fabien;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
González, Gabriela;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
Hansen, Damien  ;  Université de Liège - ULiège > Centre Interdisciplinaire de Recherches en Traduction et en Interprétation (CIRTI) ; Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
Nakhle, Mariam;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP) ; Lingua Custodia
Namdarzadeh, Behnoosh;  Université Paris Cité > Centre de Linguistique Inter-langues, de Lexicologie, de Linguistique Anglaise et de Corpus-Atelier de Recherche sur la Parole (CLILLAC-ARP)
Dinarelli, Marco;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
Esperança-Rodier, Emmanuelle;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
He, Sui;  Swansea University
Mohseni, Sadaf;  Université Paris Cité > Centre de Linguistique Inter-langues, de Lexicologie, de Linguistique Anglaise et de Corpus-Atelier de Recherche sur la Parole (CLILLAC-ARP)
Rossi, Caroline;  Universite Grenoble Alpes - UGA > Institut des langues et cultures d'Europe, Amérique, Afrique, Asie et Australie (ILCEA4)
Schwab, Didier;  Université Grenoble Alpes - UGA > Laboratoire d'Informatique de Grenoble (LIG) > Groupe d’Étude en Traduction Automatique/Traitement Automatisé des Langues et de la Parole (GETALP)
Yang, Jun;  Swansea University
Yunès, Jean-Baptiste;  Université Paris Cité > Institut de Recherche en Informatique Fondamentale (IRIF)
Zhu, Lichao;  Université Paris Cité > Etudes Interculturelles de Langues Appliquées (EILA)
Ballier, Nicolas;  Université Paris Cité > Centre de Linguistique Inter-langues, de Lexicologie, de Linguistique Anglaise et de Corpus-Atelier de Recherche sur la Parole (CLILLAC-ARP)
More authors (5 more) Less
Language :
English
Title :
The MAKE-NMTVIZ System Description for the WMT23 Literary Task
Publication date :
December 2023
Event name :
Eighth Conference on Machine Translation (WMT23)
Event organizer :
Association for Computational Linguistics
Event place :
Singapore
Event date :
6-7/12/2023
Audience :
International
Main work title :
Proceedings of the Eighth Conference on Machine Translation
Author, co-author :
Koehn, Philipp
Haddow, Barry
Kocmi, Tom
Monz, Christof
Publisher :
Association for Computational Linguistics
ISBN/EAN :
979-8-89176-041-7
Pages :
287–295
Peer reviewed :
Peer reviewed
Available on ORBi :
since 29 November 2024

Statistics


Number of views
15 (2 by ULiège)
Number of downloads
9 (1 by ULiège)

Scopus citations®
 
0
Scopus citations®
without self-citations
0
OpenCitations
 
0
OpenAlex citations
 
0

Bibliography


Similar publications



Contact ORBi