Title: | Linear Transformations for Cross-lingual Sentiment Analysis |
Other Titles: | Lineární trasformace pro mezijazyčnou analýzu sentimentu |
Authors: | Přibáň, Pavel Šmíd, Jakub Mištera, Adam Král, Pavel |
Citation: | PŘIBÁŇ, P. ŠMÍD, J. MIŠTERA, A. KRÁL, P. Linear Transformations for Cross-lingual Sentiment Analysis. In Text, Speech, and Dialogue, 25th International Conference, TSD 2022, Brno, Czech Republic, September 6–9, 2022, Proceedings. Cham: Springer, 2022. s. 125-137. ISBN: 978-3-031-16269-5 , ISSN: 0302-9743 |
Issue Date: | 2022 |
Publisher: | Springer |
Document type: | konferenční příspěvek ConferenceObject |
URI: | 2-s2.0-85139017087 http://hdl.handle.net/11025/50444 |
ISBN: | 978-3-031-16269-5 |
ISSN: | 0302-9743 |
Keywords: | analýza sentimentu;mezijazyčný;lineární transformace;neuronové sítě;transformace sémantického prostoru;klasifikace |
Keywords in different language: | sentiment analysis;cross-lingual;linear transformation;neural networks;semantic space transformation;classification |
Abstract: | Tento článek se zabývá mezijazyčnou analýzou sentimentu pro češtinu, angličtinu a francouzštinu. Provádíme tzv. „ zero-shot“ mezijazyčnou klasifikaci pomocí pěti lineárních transformací v kombinaci s klasifikátory neuronových sítí založených na LSTM a CNN. Porovnáváme výsledky jednotlivých transformací a navíc je porovnáváme s „state-of-the-art“ modely založenými na architektuře Transformers (BERT). Ukazujeme, že předem natrénovaný sémantický prostor z cílové domény je pro zlepšení výsledků mezijazyčné klasifikace klíčový, na rozdíl od monolinguální klasifikace, kde tento efekt není tak výrazný. |
Abstract in different language: | This paper deals with cross-lingual sentiment analysis in Czech, English and French languages. We perform zero-shot cross-lingual classification using five linear transformations combined with LSTM and CNN based classifiers. We compare the performance of the individual transformations, and in addition, we confront the transformation-based approach with existing state-of-the-art BERT-like models. We show that the pre-trained embeddings from the target domain are crucial to improving the cross-lingual classification results, unlike in the monolingual classification, where the effect is not so distinctive. |
Rights: | Plný text je přístupný v rámci univerzity přihlášeným uživatelům. © Springer |
Appears in Collections: | Konferenční příspěvky / Conference papers (NTIS) Konferenční příspěvky / Conference Papers (KIV) OBD |
Files in This Item:
File | Size | Format | |
---|---|---|---|
Přibáň, Král a kol. paper-TSD.pdf | 241,53 kB | Adobe PDF | View/Open Request a copy |
Please use this identifier to cite or link to this item:
http://hdl.handle.net/11025/50444
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.