Full metadata record
DC poleHodnotaJazyk
dc.contributor.authorHrúz, Marek
dc.contributor.authorCampr, Pavel
dc.contributor.authorKrňoul, Zdeněk
dc.contributor.authorŽelezný, Miloš
dc.contributor.authorAran, Oya
dc.contributor.authorSantemiz, Pinar
dc.date.accessioned2016-01-08T08:53:44Z
dc.date.available2016-01-08T08:53:44Z
dc.date.issued2011
dc.identifier.citationHRÚZ, Marek; CAMPR, Pavel; KRŇOUL, Zdeněk; ŽELEZNÝ, Miloš; ARAN, Oya; SANTEMIZ, Pinar. Multi-modal dialogue system with sign language capabilities. In: The proceedings of the 13th international ACM SIGACCESS conference on computers and accessibility. New York: ACM, 2011, p. 265-266. ISBN 978-1-4503-0920-2.en
dc.identifier.isbn978-1-4503-0920-2
dc.identifier.urihttp://www.kky.zcu.cz/cs/publications/HruzMarek_2011_Multi-modaldialogue
dc.identifier.urihttp://hdl.handle.net/11025/17182
dc.description.abstractTento článek popisuje návrh multimodálního dialogového systému s podporou znakové řeči. Jeho funkčnost byla testována na prototypu informačního kiosku pro neslyšící osoby, který poskytuje informace o vlakových spojeních. Systém využívá tyto vstupní modality: počítačové vidění, rozpoznávání znakového jazyka, automatické rozpoznávání řeči a dotykovou obrazovku. Výstupní modalitu představují 3D animace avatara na jedné obrazovce a grafické uživatelské rozhraní na druhé dotykové obrazovce. Informační kiosek může být použit pro sluchově postižené a neslyšící uživatelé v několika jazycích. Článek je zaměřen na popis vstupních a výstupních modalit vyjádřených znakovým jazykem.cs
dc.format2 s.cs
dc.format.mimetypeapplication/pdf
dc.language.isoenen
dc.publisherAssociation for Computing Machinery (ACM)en
dc.rights© Marek Hrúz - Pavel Campr - Zdeněk Krňoul - Miloš Železný - Oya Aran - Pinar Santemizcs
dc.subjectznaková řečcs
dc.subjectsledování v obrazecs
dc.subjectkategorizace znakůcs
dc.titleMulti-modal dialogue system with sign language capabilitiesen
dc.title.alternativeMultimodální dialogový systém s podporou znakového jazykacs
dc.typečlánekcs
dc.typearticleen
dc.rights.accessopenAccessen
dc.type.versionpublishedVersionen
dc.description.abstract-translatedThis paper presents the design of a multimodal sign-language-enabled dialogue system. Its functionality was tested on a prototype of an information kiosk for the deaf people providing information about train connections. We use an automatic computer-vision-based sign language recognition, automatic speech recognition and touchscreen as input modalities. The outputs are shown on a screen displaying 3D signing avatar and on a touchscreen displaying graphical user interface. The information kiosk can be used both by hearing users and deaf users in several languages. We focus on description of sign language input and output modality.en
dc.subject.translatedsign languageen
dc.subject.translatedvisual trackingen
dc.subject.translatedsigns categorizationen
dc.identifier.doi10.1145/2049536.2049599
dc.type.statusPeer-revieweden
Vyskytuje se v kolekcích:Články / Articles (NTIS)
Články / Articles (KIV)

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
HruzMarek_2011_Multi-modaldialogue.pdfPlný text496,68 kBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/17182

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.