Evoluční algoritmy jsou v posledních 20 letech jednou
z nejúspěšnějších metod pro
řešení netradičních optimalizačních
problémů, jako např. hledání
nejvhodnějších dokumentů obsahujících
požadované informace, objevování
nejzajímvějších znalostí
v dostupných datech, či další typy
optimalizačních úloh, při nichž lze hodnoty
cílové funkce získat pouze empiricky. Protože
evoluční algoritmy používají pouze
funkční hodnoty cílové funkce,
blíží s k jejímu optimu mnohem pomaleji
než optimalizační metody pro hladké funkce,
které využívají rovněž informace o
gradientu cílové funkce, případně i o
jejích druhých derivacích. Tato vlastnost
evolučních algoritmů je zvláště
nevýhodná v kontextu nákladného a
časově náročného empirického způsobu
získávání hodnot cílové funkce.
Evoluční algoritmy však lze podstatně urychlit,
jestliže při vyhodnocování funkčních hodnot
cílové funkce používají empirickou
cílovou funkci jen občas, zatímco většinou
vyhodnocují pouze dostatečně přesný regresní
model této funkce. Jednoduchý, ale často
používaný typ regresních modelů je
specfický typ rozhodovacích stromů, tzv. regresní
stromy. Od počátku minulého desetiletí se věnuje
pozornost také vytváření kombinací
rozhodovacích stromů, tzv. náhodných lesů.
Výzkum využitelnosti náhodných lesů k
urychlení evoluční optimalizace empirických
funkcí je však teprve na samém počátku.
Příspět by k němu měla i navrhovaná
práce.
Student se nejdříve důkladně seznámí s regresními stromy a náhodnými lesy a také s principy optimalizace pomocí evolučních algoritmů. Bude přitom věnovat pozornost i urychlení evoluční optimalizace empirických funkcí pomocí regresního modelu cílové funkce. S využitím prostudované literatury navrhne algoritmy využití náhodných lesů k tomuto účelu. Algoritmy dovede až do podoby prototypové implementace ve vývojovém prostředí Matlab. Urychlení evoluční optimalizace otestuje na několika testovacích funkcích pro evoluční algoritmy, jakož i na alespoň jedné databázi hodnot empirické cílové funkce z reálné aplikace, kterou dostane od vedoucího práce.
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and time-consuming empirical way of obtaining values of the objective function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function. A simple but freequently encountered kind of regression models is based on decision trees, it is referred to as regression trees. Since the beginning of the previous decade, attention is paid also to creating combinations of decision trees, called random forests. Investigation into utilizability of random forests for speeding up evolutionary optimization of empirical functions is, however, only at its very beginning. It should be contributed also by the proposed thesis.
· L. Breiman, Random Forests. Machine Learning, 45 (2001) 5–32.
· A. Criminisi, J. Shotton, E. Konukoglu, Decision Forests: A Unified Framework for Classification, Regression, Density Estimation, Manifold Learning and Semi-Supervised Learning. Foundations and Trends in Computer Graphics and Vision, 7 (2012) 81–227.
· M. Emmerich, K. Giannakoglou, B. Naujoks, Single- and multiobjective evolutionary optimization assisted by Gaussian random field metamodels. IEEE Transactions on Evolutionary Computation, 10 (2006) 421–439.
· Z.Z. Zhou, Y.S. Ong, P.B. Nair, A.J. Keane, K.Y. Lum, Combining global and local surrogate models to accellerate evolutionary optimization. IEEE Transactions on Systems, Man and Cybernetics. Part C: Applications and Reviews, 37 (2007) 66–76.