Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 393)
Detail práce
   Přihlásit přes CAS
   
Interpreting and Controlling Linguistic Features in Multilingual Language Models
Název práce v češtině: Interpretace a přizpůsobování jazykových jevů ve vícejazyčných modelech
Název v anglickém jazyce: Interpreting and Controlling Linguistic Features in Multilingual Language Models
Klíčová slova: zpracování přirozeného jazyka|jazykové modely|vícejazyčnost|interpretovatelné strojové učení
Klíčová slova anglicky: natural language processing|language models|multilinguality|interpretable machine learning
Akademický rok vypsání: 2019/2020
Typ práce: disertační práce
Jazyk práce: angličtina
Ústav: Ústav formální a aplikované lingvistiky (32-UFAL)
Vedoucí / školitel: RNDr. David Mareček, Ph.D.
Řešitel: skrytý - zadáno a potvrzeno stud. odd.
Datum přihlášení: 20.02.2020
Datum zadání: 20.02.2020
Datum potvrzení stud. oddělením: 04.03.2020
Datum a čas obhajoby: 05.09.2024 11:00
Datum odevzdání elektronické podoby:07.07.2024
Datum odevzdání tištěné podoby:07.07.2024
Datum proběhlé obhajoby: 05.09.2024
Oponenti: Yonatan Belinkov, Ph.D.
  Dr. Lena Voita
 
 
Konzultanti: Mgr. Rudolf Rosa, Ph.D.
Zásady pro vypracování
The goal of the thesis is to study internal representations of multilingual neural models and/or mapping several monolingual representations into one shared multilingual vector space. The thesis will try to answer the following questions:
How multilingual models deal with different language phenomena?
How well may monolingual embedding spaces be mapped into one space?
Can lexical concepts and relations between them be represented independently of language?
Seznam odborné literatury
Goodfellow, I., Y. Bengio, and A. Courville: Deep learning. Cambridge, MA, USA: MIT press, 2016

Alexis Conneau, Guillaume Lample, Marc'Aurelio Ranzato, Ludovic Denoyer, Hervé Jégou: Word Translation Without Parallel Data, arXiv, 2017

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, arXiv, 2018

Mikel Artetxe, Holger Schwenk: Massively Multilingual Sentence Embeddings for Zero-Shot Cross-Lingual Transfer and Beyond, 2019, arXiv, 2019

Telmo Pires, Eva Schlinger, Dan Garrette: How multilingual is Multilingual BERT?, arXiv, 2019
 
Univerzita Karlova | Informační systém UK