Summary: | En el presente trabajo mostramos cómo el uso combinado de las buenas propiedades mostradas hasta ahora tanto por los métodos exactos de optimización, principalmente los basados en el uso del gradiente de las funciones objetivo, como por los algoritmos metaheurísticos dan lugar a algoritmos híbridos capaces de resolver problemas de optimización multiobjetivo con un número reducido de evaluaciones de la función objetivo. Para ello, reemplazamos los operadores de mejora propios del SSPMO (Molina et al., 2007) por búsquedas locales utilizando las direcciones de búsqueda que nos proporcionan el vector gradiente de cada uno de las funciones objetivo. El algoritmo propuesto es testado sobre un conjunto de funciones de prueba estándar de la literatura y las soluciones obtenidas son comparadas con las obtenidas por el SSPMO. Dichas pruebas muestran que el uso de la información dada por los gradientes permite reducir el número de puntos visitados acelerando la convergencia sin perder la capacidad exploratoria de los metaheurísticos.
|