Title: Audio-visual speech asynchrony modeling in a talking head
Other Titles: Modelování asynchnie v systému mluvící hlavy
Authors: Karpov, Alexey
Tsirulnik, Liliya
Krňoul, Zdeněk
Ronzhin, Andrey
Lobanov, Boris
Železný, Miloš
Citation: KARPOV, Alexey; TSIRULNIK, Liliya; KRŇOUL, Zdeněk; RONZHIN, Andrey; LOBANOV, Boris; ŽELEZNÝ, Miloš. Audio-visual speech asynchrony modeling in a talking head. In: Proceedings of ICSPL 2009: 10th Annual Conference of the International Speech Communication Association 2009, 6-10 September 2009, Brighton, UK. [Baixas]: ISCA, 2009, p. 2911-2914. ISSN 1990-9772.
Issue Date: 2009
Publisher: ISCA
Document type: článek
article
URI: http://www.kky.zcu.cz/cs/publications/AlexeyKarpov_2009_Audio-VisualSpeech
http://hdl.handle.net/11025/17205
ISSN: 1990-9772
Keywords: automatické rozpoznávání řeči;syntéza řeči;multimodální vjem řeči;kognitivní studie
Keywords in different language: audio-visual speech processing;speech synthesis;multimodal speech perception;cognitive study
Abstract: V tomto článku je navržen systém audiovizuální syntézy řeči obsahující modelování asynchronie mezi zvukovou a vizuální modalitou řeči. Studie reálných nahrávek obsažených v řečových databázích nám poskytují požadované údaje k pochopení problému modalit asynchronie, která je částečně způsobena koartikulací. Byl vypracován soubor kontextově závislých pravidel časování a doporučení zajišťující synchronizaci zvukové a vizuální řeči tak, že animace mluvící hlavy je více přirozená. Kognitivní ohodnocení systému mluvící hlavy, který je nastaven pro Ruštinu a implementující původní model asynchronie, ukazuje vysokou srozumitelnost a přirozenost syntetizované audiovizuální řeči.
Abstract in different language: An audio-visual speech synthesis system with modeling of asynchrony between auditory and visual speech modalities is proposed in the paper. Corpus-based study of real recordings gave us the required data for understanding the problem of modalities asynchrony that is partially caused by the coarticulationphenomena. A set of context-dependent timing rules and recommendations was elaborated in order to make a synchronization of auditory and visual speech cues of the animated talking head similar to a natural humanlike way. The cognitive evaluation of the model-based talking head for Russian with implementation of the original asynchrony model has shown high intelligibility and naturalness of audio-visual synthesized speech.
Rights: © ISCA
Appears in Collections:Články / Articles (NTIS)

Files in This Item:
File Description SizeFormat 
AlexeyKarpov_2009_Audio-VisualSpeech.pdfPlný text254,9 kBAdobe PDFView/Open


Please use this identifier to cite or link to this item: http://hdl.handle.net/11025/17205

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.