Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 368)
Detail práce
   Přihlásit přes CAS
Indonesian-English Neural Machine Translation
Název práce v češtině: Indonésko-anglický neuronový strojový překlad
Název v anglickém jazyce: Indonesian-English Neural Machine Translation
Klíčová slova: strojový překlad, hluboké neuronové sítě, Transformer, indonéština
Klíčová slova anglicky: machine translation, deep neural networks, Transformer, Indonesian
Akademický rok vypsání: 2018/2019
Typ práce: diplomová práce
Jazyk práce: angličtina
Ústav: Ústav formální a aplikované lingvistiky (32-UFAL)
Vedoucí / školitel: Mgr. Martin Popel, Ph.D.
Řešitel: skrytý - zadáno a potvrzeno stud. odd.
Datum přihlášení: 14.01.2019
Datum zadání: 21.01.2019
Datum potvrzení stud. oddělením: 25.04.2019
Datum a čas obhajoby: 09.09.2019 09:00
Datum odevzdání elektronické podoby:26.07.2019
Datum odevzdání tištěné podoby:26.07.2019
Datum proběhlé obhajoby: 09.09.2019
Oponenti: Mgr. Michal Novák, Ph.D.
 
 
 
Zásady pro vypracování
The current state of the art in machine translation is the Transformer architecture for neural machine translation. However, most research focuses on a limited number of languages only (English, German, French, Czech), for which enough parallel training data is available. The goal of this thesis is to apply Neural machine translation (Transformer) on the Indonesian-English language pair and focusing on two domains: translation of TED talks and movie subtitles. The first step will be a review of available parallel and monolingual training data as well as related work on the English-Indonesian translation. After building and evaluating baseline Transformer systems for both directions, one direction (probably Indonesian-to-English) will be chosen to be further improved by techniques involving e.g. backtranslation (Sennrich et al. 2016) and domain adaptation (Chu and Wang, 2018).
Seznam odborné literatury
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Guyon, I., U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems 30, pages 6000–6010. Curran Associates, Inc., 2017. URL http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf.

Martin Popel, Ondřej Bojar: Training Tips for the Transformer Model The Prague Bulletin of Mathematical Linguistics, No. 104, 2018, pp. 43–70.

Bahdanau, Dzmitry, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv:1409.0473 (2014).

Sennrich, Rico, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. ACL 2016.


Chenhui Chu, Rui Wang: A Survey of Domain Adaptation for Neural Machine Translation. arXiv:1806.00258 (2018).
 
Univerzita Karlova | Informační systém UK