|

Эволюционный алгоритм многокритериальной оптимизации с суррогатными моделями машинного обучения

Авторы: Горбунов С.М., Становов В.В. Опубликовано: 01.07.2025
Опубликовано в выпуске: #2(151)/2025  
DOI:

 
Раздел: Информатика, вычислительная техника и управление | Рубрика: Системный анализ, управление и обработка информации  
Ключевые слова: дорогостоящая многокритериальная оптимизация, эволюционные алгоритмы, суррогатные модели, кригинг, машины опорных векторов

Аннотация

Повышена эффективность эволюционных алгоритмов решения дорогостоящих многокритериальных задач оптимизации путем внедрения эффективных регрессионных моделей машинного обучения, аппроксимирующих целевые функции, для ускорения сходимости к истинному фронту Парето при ограниченном числе вычислений критериев (так называемый суррогатный подход). За основу разработанного метода многокритериальной оптимизации с суррогатным подходом взят эволюционный алгоритм MOEA/D. В качестве суррогатных моделей рассмотрены метод регрессионного анализа, основанный на гауссовых процессах, --- кригинг (KRG), и метод опорных векторов (SVM), предназначенный для решения задач классификации и регрессии. Показано, что модифицированный эволюционный алгоритм многокритериальной оптимизации MOEA/D демонстрирует сравнимые или лучшие результаты на всех тестовых задачах международного соревнования алгоритмов многокритериальной оптимизации. Сравнение эволюционного алгоритма MOEA/D с другими участниками соревнования не проводилось, в частности, из-за уменьшенного вычислительного ресурса. Предложенный подход с кригингом показал лучшие средние результаты по метрике IGD, которая предназначена для оценки качества работы алгоритмов многокритериальной оптимизации. Разработанный подход с кригингом также показывает более разнообразные решения по сравнению с методами опорных векторов и алгоритмом MOEA/D

Работа выполнена при поддержке Минобрнауки России в рамках государственного задания (проект № FEFE-2023-0004)

Просьба ссылаться на эту статью следующим образом:

Горбунов С.М., Становов В.В. Эволюционный алгоритм многокритериальной оптимизации с суррогатными моделями машинного обучения. Вестник МГТУ им. Н.Э. Баумана. Сер. Приборостроение, 2025, № 2 (151), с. 48--62. EDN: TCDOWZ

Литература

[1] Zitzler E. Evolutionary algorithms for multiobjective optimization: methods and applications. Zurich, Swiss Federal Institute of Technology, 1999.

[2] Li C., Han S., Zeng S., et al. Expensive optimization. In: Intelligent optimization. Singapore, Springer, 2024, pp. 265--281. DOI: https://doi.org/10.1007/978-981-97-3286-9_14

[3] Rahat A.A., Everson R.M., Fieldsend J.E. Alternative infill strategies for expensive multi-objective optimization. In: GECCO’17, 2017, pp. 873--880. DOI: https://doi.org/10.1145/3071178.3071276

[4] Wang H., Jin Y., Doherty J. Committee-based active learning for surrogate-assisted particle swarm optimization of expensive problems. IEEE Trans. Cybern., 2017, vol. 47, no. 9, pp. 2664--2677. DOI: https://doi.org/10.1109/TCYB.2017.2710978

[5] Partha P.B., Ponnuthurai N.S. Multiobjective evolutionary optimization. In: Wiley encyclopedia of electrical and electronics engineering. New York, John Wiley, 2018. DOI: https://doi.org/10.1002/047134608x.w8380

[6] Li H., Zhanq Q. MOEA/D: a multiobjective evolutionary algorithm based on decomposition. IEEE Trans. Evol. Comput., 2007, vol. 11, no. 6, pp. 712--731. DOI: https://doi.org/10.1109/TEVC.2007.892759

[7] Chiles J., Desassis N. Fifty years of kriging. In: Handbook of mathematical geosciences. Cham, Springer, 2018, pp. 589--612. DOI: https://doi.org/10.1007/978-3-319-78999-6_29

[8] Cortes C., Vapnik V. Support vector networks. Mac. Learn., 1995, vol. 20, no. 3, pp. 273--297. DOI: https://doi.org/10.1007/bf00994018

[9] Rasmussen C.E., Christopher W. Gaussian processes for machine learning. London, MIT Press, 2006.

[10] Vapnik V. The nature of statistical learning theory. Berlin, Heidelberg, Springer, 2000.

[11] Santner T., Williams B., Notz W. The design and analysis of computer experiments. Berlin, Springer, 2003.

[12] Sacks J., Schiller S.B., Welch W.J. Designs for computer experiments. Technometrics, 1989, vol. 31, no. 1, pp. 41--47. DOI: https://doi.org/10.1080/00401706.1989.10488474

[13] Press W.H., Teukolsky S.A. Numerical recipes in C. The art of scientific computing. Cambridge, Cambridge University Press, 1992.

[14] Horn R.A., Johnson C.R. Matrix analysis. Cambridge, Cambridge University Press, 1990.

[15] Bennett K., Mangasarian O. Bilinear separation of two sets in n-space. Comput. Optim. Applic., 1993, vol. 2, pp. 207--227. DOI: https://doi.org/10.1007/BF01299449

[16] Bishop C.M. Pattern recognition and machine learning. New York, Springer Sciense & Business Media, 2006.

[17] Smith K. Precalculus. Burlington, Jones & Bartlett Learning, 2011.

[18] Zitzler E., Thiele L. Multiobjective evolutionary algorithms: a comparative case study and the strength Pareto approach. IEEE Trans. Evol. Comput., 1999, vol. 3, no. 4, pp. 257--271. DOI: https://doi.org/10.1109/4235.797969

[19] Zhang Q., Liu W., Tsang E., et al. Expensive multiobjective optimization by MOEA/D with Gaussian process model. IEEE Trans. Evol. Comput., 2010, vol. 14, no. 3, pp. 456--474. DOI: https://doi.org/10.1109/TEVC.2009.2033671

[20] Zhang Q., Zhou A., Zhao S., et al. Multiobjective optimization test instances for the CEC 2009 special session and competition. Technical Report CES-487. Colchester, University of Essex, 2008.

[21] Sun Y., Yen G., Yi Z. IGD indicator-based evolutionary algorithm for many-objective optimization problems. IEEE Trans. Evol. Comput., 2019, vol. 23, no. 2, pp. 173--187. DOI: https://doi.org/10.1109/TEVC.2018.2791283

[22] Hamdam M. On the disruption-level of polynomial mutation for evolutionary multi-objective optimisation algorithms. Computing and Informatics, 2010, vol. 29, no. 5, pp. 783--800.

[23] Ram B., Deb K. Simulated binary crossover for continuous search space. Complex Systems, 1995, vol. 9, no. 2. URL: https://www.complex-systems.com/abstracts/v09_i02_a02

[24] Mann H.B., Whitney D.R. On a test of whether one of two random variables is stochastically larger than the other. Ann. Math. Statist., 1947, vol. 18, no. 1, pp. 50--60. DOI: https://doi.org/10.1214/aoms/1177730491