Theatre play generation
Thesis title in Czech: | Generování divadelní hry |
---|---|
Thesis title in English: | Theatre play generation |
Key words: | generování přirozeného jazyka|strojové učení|hluboké učení|zpracování přirozeného jazyka|divadelní hra |
English key words: | natural language generation|machine learning|deep learning|natural language processing|theatre play |
Academic year of topic announcement: | 2019/2020 |
Type of assignment: | diploma thesis |
Thesis language: | angličtina |
Department: | Institute of Formal and Applied Linguistics (32-UFAL) |
Supervisor: | Mgr. et Mgr. Ondřej Dušek, Ph.D. |
Author: | hidden![]() |
Date of registration: | 10.09.2020 |
Date of assignment: | 10.09.2020 |
Confirmed by Study dept. on: | 18.09.2020 |
Date and time of defence: | 02.09.2022 08:30 |
Date of electronic submission: | 06.07.2022 |
Date of submission of printed version: | 25.07.2022 |
Date of proceeded defence: | 02.09.2022 |
Reviewers: | doc. Lucie Flek |
Guidelines |
Systémy pro automatické generování textu v posledních letech prodělaly bouřlivý vývoj, zejména s použitím architektury neuronových sítí typu Transformer předtrénované na obrovských objemech dat (GPT; Radford et al., 2019; Brown et al., 2020). Tyto systémy proto nachází nové oblasti použití, mimo jiné i v generování kreativních textů. Při generování delších úseků textu však narážíme na limity současných přístupů – jazykové modely generující text slovo po slově nejsou schopny udržet koherentní text (See et al., 2019). Cílem této diplomové práce je proto navrhnout, implementovat a otestovat přístupy, které by mohly zlepšit koherenci vygenerovaného textu specificky pro doménu scénářů divadelních her. Počítáme s využitím a úpravou existujících jazykových modelů a použitím dalších systémů pro zachování konzistentního počtu i osobnosti postav, případně s postupným hierarchickým generováním textu ve více krocích (Clark et al., 2018; Fan et al., 2018; Tan et al., 2020). |
References |
Ammanabrolu, Prithviraj, Ethan Tien, Wesley Cheung, Zhaochen Luo, William Ma, Lara J. Martin, and Mark O. Riedl. "Story Realization: Expanding Plot Events into Sentences." In AAAI. 2020.
Brown, Tom B. et al. "Language Models are Few-Shot Learners". arXiv:2005.14165 [cs] (2020). Clark, Elizabeth, Yangfeng Ji, and Noah A. Smith. "Neural Text Generation in Stories Using Entity Representations as Context." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers) (pp. 2250–2260). 2018. Fan, Angela, Mike Lewis, and Yann Dauphin. "Hierarchical Neural Story Generation." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2018. Radford, Alec, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. "Language Models are Unsupervised Multitask Learners." Technical Report, OpenAI(2019). See, Abigail, Aneesh Pappu, Rohun Saxena, Akhila Yerukola, and Christopher D. Manning. "Do Massively Pretrained Language Models Make Better Storytellers?" In CoNLL. 2019. Tan, Bowen, Zichao Yang, Maruan AI-Shedivat, Eric P. Xing, and Zhiting Hu. "Progressive Generation of Long Text". arXiv:2006.15720 [cs] (2020). |