Incorporación de información de gradientes en el diseño de algoritmos evolutivos multi-objetivos hibridos



Incorporación de información de gradientes en el diseño de algoritmos evolutivos multi-objetivos hibridos

Adriana Lara López
 

Texto completo de la Tesis     

 



Resumen

Durante las ultimas décadas los algoritmos evolutivos se han vuelto populares como herramientas para la solución de problemas de optimización multiobjetivo (MOPs). Estos algoritmos evolutivos multiobjetivo, comúnmente conocidos como MOEAs, han demostrado ser una opción muy conveniente y por eso mismo han dado origen al estudio de aplicaciones y mejoras en su eficiencia. Tradicionalmente estos algoritmos no explotan la información o específica del dominio de los MOPs; en particular, no utilizan información que tenga que ver con la continuidad ni diferenciabilidad de sus funciones. En esta tesis, estudiamos la manera de explotar información relacionada con los gradientes de las funciones objetivo, como una manera de guiar la búsqueda de los MOEAs y hacerlos más eficientes. También se analiza el uso de esta información como herramienta para refinar la precisión de las soluciones. El trabajo de esta tesis se enfoca en dos objetivos, el primero es construir buscadores locales eficientes que combinen y exploten la información obtenida de los gradientes de las funciones. El segundo objetivo es incorporar estos buscadores locales dentro de los MOEAs para generar algoritmos híbridos. Se proponen varios buscadores locales con características diversas y varias opciones para su integración con MOEAs. Se presentan análisis teóricos y pruebas experimentales de su eficacia y eficiencia en problemas de prueba tradicionales. Se mencionan pautas para hacer eficiente este tipo de integración de heurísticas y se presentan conclusiones.

 

Abstract

Over the last decades evolutionary algorithms have become very popular to solve multi- objective optimization problems (MOPs). Several multi-objective evolutionary algorithms (MOEAs) have been developed to solve MOPs with successfull results. A feature of these algorithms is that they do not exploit concrete information, about continuity or differentia- bility of the objective functions of the problems—which is considered as information of the problem domain. One question that arises when seeking for more efficient MOEAs, is about the effectiveness of including this mathematical information during the MOEA execution. In particular, we are interested in exploiting the gradient information of the objective functions during the evolutionary search. In this thesis, the inclusion of gradient-based local searchers into MOEAs is presented. An in depth study of the gradient-based search directions is included, as well as the proposal of diverse types of hybridization. This coupling has two aims, one is made in order to improve the performance of these stochastic algorithms, and the second one is to efficiently refine their solution sets. Hybrid gradient-based MOEAs are built and tested, in this work, over widely used benchmark MOPs. The numerical results are analyzed and discussed; also, conclusions and extensions for promising future research paths are included.