Full metadata record
DC poleHodnotaJazyk
dc.contributor.advisorHrúz Marek, Ing. Ph.D.
dc.contributor.authorVyskočil, Jiří
dc.contributor.refereeGruber Ivan, Ing. Ph.D.
dc.date.accepted2020-6-18
dc.date.accessioned2020-11-10T00:37:22Z-
dc.date.available2019-10-1
dc.date.available2020-11-10T00:37:22Z-
dc.date.issued2020
dc.date.submitted2020-5-25
dc.identifier82411
dc.identifier.urihttp://hdl.handle.net/11025/41542
dc.description.abstractVýzkumnými pracovníky Katedry kybernetiky Západočeské univerzity v Plzni byl ve spolupráci s firmou SpeechTech s.r.o. vyvinut pro Českou televizi systém, který je schopen automaticky titulkovat přenosy z živého vysílání. S cílem rozvinout systém na pořad Události ČT vznikla tato diplomová práce, která se zabývá rozpoznáváním scén s použitím obrazových dat, aby následně dle typu scény mohl být aplikován příslušný zvukový filtr, který má schopnosti potlačení šumu pozadí a zvyšuje přesnost převodu řeči na text. Pro vývoj systému schopného rozpoznávat scény televizních událostí byly analyzovány různé architektury neuronových sítí. Pro vyhodnocení výkonu sítě byl vytvořen nástroj, který je schopen vygenerovat matici zmatení (confusion matrix) a pro každý vstupní obrázek mapu pozornosti (attention map) a predikci modelu včetně názvu třídy správné klasifikace. Experiment porovnávající různé architektury neuronových sítí ukázal, že InceptionResNetV2 dosahuje nejlepších výsledků během učení v porovnání s ostatními sítěmi. Tudíž tahle síť byla následně analyzována společně s kompaktní architekturou MobileNetV2. Následné analýzy, kromě různých konfigurací sítí, prozkoumávaly i možnosti zpracování časově distribuovaných obrazových dat. Během testování se však ukázalo, že MobileNetV2 sítě jsou schopny přesněji klasifikovat než InceptionResNetV2 a že modely zpracovávající časové sekvence obrázků dosahují ve většině případů nižších přesností, než sítě, které provádí klasifikaci na základě jednoho vstupního obrazu. Z těchto výsledků lze jednoznačně konstatovat, že pro praktické využití je síť MobileNetV2 vhodnější i vzhledem k značně nižšímu celkovému počtu parametrů a s přesností klasifikace přibližně 94 %, což je příznivý výsledek. Zdrojové soubory pro účely této práce jsou dostupné na stránkách: https://github.com/vyskocj/TV-News-Scene-Recognitioncs
dc.format7 s.,81 s.cs
dc.format.mimetypeapplication/pdf
dc.language.isoenen
dc.publisherZápadočeská univerzita v Plznics
dc.rightsPlný text práce je přístupný bez omezení.cs
dc.subjectpočítačové viděnícs
dc.subjectzpracování digitalizovaného obrazucs
dc.subjectumělá inteligencecs
dc.subjectrozpoznávání scéncs
dc.subjecttelevizní zprávycs
dc.subjectneuronové sítěcs
dc.subjectlstmcs
dc.titleRozpoznávání typů scén zpravodajských pořadů z obrazových datcs
dc.title.alternativeScene type recognition of TV News broadcasts using visual dataen
dc.typediplomová prácecs
dc.thesis.degree-nameIng.cs
dc.thesis.degree-levelNavazujícícs
dc.thesis.degree-grantorZápadočeská univerzita v Plzni. Fakulta aplikovaných vědcs
dc.thesis.degree-programInženýrská informatikacs
dc.description.resultObhájenocs
dc.rights.accessopenAccessen
dc.description.abstract-translatedResearchers of the Department of Cybernetics at the University of West Bohemia in Pilsen in cooperation with SpeechTech s.r.o. have developed a system, which automatically subtitles live broadcasts for Czech Television. The aim of this thesis is to extend the system for the "Události ČT" programme, with a scene recognizer using image data, appropriate sound filter aware of the scene type could be applied. Different neural network architectures were analyzed to develop a system capable of recognizing television news scenes. For evaluation of a network performance, a tool has been created, which generates an attention map, a model prediction including the correct class name for each input image and a confusion matrix. By comparing an InceptionResNetV2 network to other backbone architectures, the results have shown, that the InceptionResNetV2 has the best performance during the learning phase. Thus, this network was further analyzed along with a compact MobileNetV2 network. The analyses explore, in addition to the different configurations of the models, the possibility of processing time-distributed image data. However, the testing phase has shown that the MobileNetV2 networks have more accurately classified the input images into correct classes, than the InceptionResNetV2 networks and that models, which process time-sequences of images, have lower recognition accuracy in most cases than networks, which perform classification based on a single input image. Besides these results, it can be unambiguously stated that the MobileNetV2 network is opening the possibility for practical usage, since it has considerably fewer parameters and the accuracy for classifying 9 classes was around 94 %, which is a very promising result. Source files created for the purposes of this thesis are available on the website: https://github.com/vyskocj/TV-News-Scene-Recognitionen
dc.subject.translatedpočítačové viděníen
dc.subject.translatedzpracování digitalizovaného obrazuen
dc.subject.translatedumělá inteligenceen
dc.subject.translatedrozpoznávání scénen
dc.subject.translatedtelevizní zprávyen
dc.subject.translatedneuronové sítěen
dc.subject.translatedlstmen
Vyskytuje se v kolekcích:Diplomové práce / Theses (KKY)

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
vyskocj_diplomova_prace.pdfPlný text práce13,76 MBAdobe PDFZobrazit/otevřít
vyskocil-v.pdfPosudek vedoucího práce610,72 kBAdobe PDFZobrazit/otevřít
vyskocil-o.pdfPosudek oponenta práce691,55 kBAdobe PDFZobrazit/otevřít
vyskocil-p.pdfPrůběh obhajoby práce399,77 kBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/41542

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.