Název: | Linear Transformations for Cross-lingual Sentiment Analysis |
Další názvy: | Lineární trasformace pro mezijazyčnou analýzu sentimentu |
Autoři: | Přibáň, Pavel Šmíd, Jakub Mištera, Adam Král, Pavel |
Citace zdrojového dokumentu: | PŘIBÁŇ, P. ŠMÍD, J. MIŠTERA, A. KRÁL, P. Linear Transformations for Cross-lingual Sentiment Analysis. In Text, Speech, and Dialogue, 25th International Conference, TSD 2022, Brno, Czech Republic, September 6–9, 2022, Proceedings. Cham: Springer, 2022. s. 125-137. ISBN: 978-3-031-16269-5 , ISSN: 0302-9743 |
Datum vydání: | 2022 |
Nakladatel: | Springer |
Typ dokumentu: | konferenční příspěvek ConferenceObject |
URI: | 2-s2.0-85139017087 http://hdl.handle.net/11025/50444 |
ISBN: | 978-3-031-16269-5 |
ISSN: | 0302-9743 |
Klíčová slova: | analýza sentimentu;mezijazyčný;lineární transformace;neuronové sítě;transformace sémantického prostoru;klasifikace |
Klíčová slova v dalším jazyce: | sentiment analysis;cross-lingual;linear transformation;neural networks;semantic space transformation;classification |
Abstrakt: | Tento článek se zabývá mezijazyčnou analýzou sentimentu pro češtinu, angličtinu a francouzštinu. Provádíme tzv. „ zero-shot“ mezijazyčnou klasifikaci pomocí pěti lineárních transformací v kombinaci s klasifikátory neuronových sítí založených na LSTM a CNN. Porovnáváme výsledky jednotlivých transformací a navíc je porovnáváme s „state-of-the-art“ modely založenými na architektuře Transformers (BERT). Ukazujeme, že předem natrénovaný sémantický prostor z cílové domény je pro zlepšení výsledků mezijazyčné klasifikace klíčový, na rozdíl od monolinguální klasifikace, kde tento efekt není tak výrazný. |
Abstrakt v dalším jazyce: | This paper deals with cross-lingual sentiment analysis in Czech, English and French languages. We perform zero-shot cross-lingual classification using five linear transformations combined with LSTM and CNN based classifiers. We compare the performance of the individual transformations, and in addition, we confront the transformation-based approach with existing state-of-the-art BERT-like models. We show that the pre-trained embeddings from the target domain are crucial to improving the cross-lingual classification results, unlike in the monolingual classification, where the effect is not so distinctive. |
Práva: | Plný text je přístupný v rámci univerzity přihlášeným uživatelům. © Springer |
Vyskytuje se v kolekcích: | Konferenční příspěvky / Conference papers (NTIS) Konferenční příspěvky / Conference Papers (KIV) OBD |
Soubory připojené k záznamu:
Soubor | Velikost | Formát | |
---|---|---|---|
Přibáň, Král a kol. paper-TSD.pdf | 241,53 kB | Adobe PDF | Zobrazit/otevřít Vyžádat kopii |
Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam:
http://hdl.handle.net/11025/50444
Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.