velikost textu

Artificial Neural Networks and Their Usage For Knowledge Extraction

Upozornění: Informace získané z popisných dat či souborů uložených v Repozitáři závěrečných prací nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora.
Název:
Artificial Neural Networks and Their Usage For Knowledge Extraction
Název v češtině:
Umělé neuronové sítě a jejich využití při extrakci znalostí
Typ:
Disertační práce
Autor:
RNDr. Zuzana Petříčková
Školitel:
doc. RNDr. Iveta Mrázová, CSc.
Oponenti:
Prof. Ing. Aleš Procházka, CSc.
Doc. RNDr. Gabriela Andrejková, CSc.
Id práce:
44677
Fakulta:
Matematicko-fyzikální fakulta (MFF)
Pracoviště:
Katedra teoretické informatiky a matematické logiky (32-KTIML)
Program studia:
Informatika (P1801)
Obor studia:
Teoretická informatika (4I1)
Přidělovaný titul:
Ph.D.
Datum obhajoby:
22. 9. 2015
Výsledek obhajoby:
Prospěl/a
Jazyk práce:
Angličtina
Klíčová slova:
vrstevnaté neuronové sítě, kondenzovaná interní reprezentace, citlivostní analýza, výběr příznaků, prořezávání, zobecňování
Klíčová slova v angličtině:
feed-forward neural networks, condensed internal representation, sensitivity analysis, feature selection, pruning, generalization
Abstrakt:
Název práce: Umělé neuronové sítě a jejich využití při extrakci znalostí Autor: RNDr. Zuzana Petříčková Katedra: Katedra teoretické informatiky a matematické logiky Vedoucí disertační práce: doc. RNDr. Iveta Mrázová, CSc., Katedra teo- retické informatiky a matematické logiky Abstrakt: Vrstevnaté neuronové sítě jsou známé především díky své schopnosti dobře zobecňovat a odhalit v datech i složité nelineární závislosti. Na druhé straně má tento model tendenci vytvářet poměrně složitou vnitřní strukturu, a to především pro rozsáhlé datové sady. Při efektivním řešení náročných úloh jsou proto kladeny vysoké nároky především na rychlost procesu učení, schopnost sítě zobecňovat a na vytvoření jednoduché a transparentní struktury modelu. V této práci jsme navrhli obecnou metodologii pro učení vrstevnatých neuro- nových sítí. Jejím základem je rychlá a robustní metoda škálovaných konjugo- vaných gradientů. Tento standardní algoritmus učení je rozšířen o analytické či aproximativní oslabování citlivosti a o vynucovaní kondenzované interní re- prezentace. Redundantní vstupní a skryté neurony jsou prořezávány pomocí technik založených na citlivostní analýze a interní reprezentaci znalostí. Vlastnosti navržené a implementované metodologie byly otestovány na řadě úloh, vesměs s pozitivním výsledkem. Vytvořený algoritmus učení je velmi rychlý a robustní k volbě parametrů. Alternativní testované metody překonává jak ve schopnosti naučených sítí zobecňovat, tak i v jejich citlivosti k šumu v datech. Metoda je schopna poměrně dobře rozpoznat irelevantní vstupní příznaky a vytvořit v průběhu učení jednoduchou a transparentní strukturu sítě. Tím usnadňuje interpretaci funkce naučené sítě. Klíčová slova: vrstevnaté neuronové sítě, kondenzovaná interní reprezen- tace, citlivostní analýza, výběr příznaků, prořezávání, zobecňování
Abstract v angličtině:
Title: Artificial Neural Networks and Their Usage For Knowledge Extraction Author: RNDr. Zuzana Petříčková Department: Department of Theoretical Computer Science and Mathema- tical Logic Supervisor: doc. RNDr. Iveta Mrázová, CSc., Department of Theoretical Computer Science and Mathematical Logic Abstract: The model of multi/layered feed/forward neural networks is well known for its ability to generalize well and to find complex non/linear dependencies in the data. On the other hand, it tends to create complex internal structures, especially for large data sets. Efficient solutions to demanding tasks currently dealt with require fast training, adequate generalization and a transparent and simple network structure. In this thesis, we propose a general framework for training of BP/networks. It is based on the fast and robust scaled conjugate gradient technique. This classical training algorithm is enhanced with analytical or approximative sensitivity inhibition during training and enforcement of a transparent in- ternal knowledge representation. Redundant hidden and input neurons are pruned based on internal representation and sensitivity analysis. The performance of the developed framework has been tested on various types of data with promising results. The framework provides a fast training algorithm, robust to tunable parameters. Furthermore, it outperforms the reference techniques in the achieved generalization ability and robustness to noise in the data. It is very likely to identify redundant input features and create a simple and transparent network structure during training. In such a way it simplifies knowledge extraction from the model. Keywords: feed-forward neural networks, condensed internal representation, sensitivity analysis, feature selection, pruning, generalization
Dokumenty
Stáhnout Dokument Autor Typ Velikost
Stáhnout Text práce RNDr. Zuzana Petříčková 2.92 MB
Stáhnout Příloha k práci RNDr. Zuzana Petříčková 15.25 MB
Stáhnout Abstrakt v českém jazyce RNDr. Zuzana Petříčková 31 kB
Stáhnout Abstrakt anglicky RNDr. Zuzana Petříčková 33 kB
Stáhnout Posudek vedoucího doc. RNDr. Iveta Mrázová, CSc. 142 kB
Stáhnout Posudek oponenta Prof. Ing. Aleš Procházka, CSc. 1.45 MB
Stáhnout Posudek oponenta Doc. RNDr. Gabriela Andrejková, CSc. 258 kB
Stáhnout Záznam o průběhu obhajoby 99 kB