Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 341)
Detail práce
   Přihlásit přes CAS
Theatre play generation
Název práce v češtině: Generování divadelní hry
Název v anglickém jazyce: Theatre play generation
Klíčová slova: generování přirozeného jazyka|strojové učení|hluboké učení|zpracování přirozeného jazyka|divadelní hra
Klíčová slova anglicky: natural language generation|machine learning|deep learning|natural language processing|theatre play
Akademický rok vypsání: 2019/2020
Typ práce: diplomová práce
Jazyk práce: angličtina
Ústav: Ústav formální a aplikované lingvistiky (32-UFAL)
Vedoucí / školitel: Mgr. et Mgr. Ondřej Dušek, Ph.D.
Řešitel: skrytý - zadáno a potvrzeno stud. odd.
Datum přihlášení: 10.09.2020
Datum zadání: 10.09.2020
Datum potvrzení stud. oddělením: 18.09.2020
Datum a čas obhajoby: 02.09.2022 08:30
Datum odevzdání elektronické podoby:06.07.2022
Datum odevzdání tištěné podoby:25.07.2022
Datum proběhlé obhajoby: 02.09.2022
Oponenti: doc. Lucie Flek
 
 
 
Zásady pro vypracování
Systémy pro automatické generování textu v posledních letech prodělaly bouřlivý vývoj, zejména s použitím architektury neuronových sítí typu Transformer předtrénované na obrovských objemech dat (GPT; Radford et al., 2019; Brown et al., 2020). Tyto systémy proto nachází nové oblasti použití, mimo jiné i v generování kreativních textů. Při generování delších úseků textu však narážíme na limity současných přístupů – jazykové modely generující text slovo po slově nejsou schopny udržet koherentní text (See et al., 2019). Cílem této diplomové práce je proto navrhnout, implementovat a otestovat přístupy, které by mohly zlepšit koherenci vygenerovaného textu specificky pro doménu scénářů divadelních her. Počítáme s využitím a úpravou existujících jazykových modelů a použitím dalších systémů pro zachování konzistentního počtu i osobnosti postav, případně s postupným hierarchickým generováním textu ve více krocích (Clark et al., 2018; Fan et al., 2018; Tan et al., 2020).
Seznam odborné literatury
Ammanabrolu, Prithviraj, Ethan Tien, Wesley Cheung, Zhaochen Luo, William Ma, Lara J. Martin, and Mark O. Riedl. "Story Realization: Expanding Plot Events into Sentences." In AAAI. 2020.

Brown, Tom B. et al. "Language Models are Few-Shot Learners". arXiv:2005.14165 [cs] (2020).

Clark, Elizabeth, Yangfeng Ji, and Noah A. Smith. "Neural Text Generation in Stories Using Entity Representations as Context." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers) (pp. 2250–2260). 2018.

Fan, Angela, Mike Lewis, and Yann Dauphin. "Hierarchical Neural Story Generation." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2018.

Radford, Alec, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. "Language Models are Unsupervised Multitask Learners." Technical Report, OpenAI(2019).

See, Abigail, Aneesh Pappu, Rohun Saxena, Akhila Yerukola, and Christopher D. Manning. "Do Massively Pretrained Language Models Make Better Storytellers?" In CoNLL. 2019.

Tan, Bowen, Zichao Yang, Maruan AI-Shedivat, Eric P. Xing, and Zhiting Hu. "Progressive Generation of Long Text". arXiv:2006.15720 [cs] (2020).
 
Univerzita Karlova | Informační systém UK