协方差矩阵自适应进化策略 (CMAES)

class pypop7.optimizers.es.cmaes.CMAES(problem, options)[source]

协方差矩阵自适应进化策略(CMAES)。

注意

CMAES 被广泛认为是连续黑箱优化(BBO)领域中最先进的进化算法之一,根据广受认可的Nature进化计算的综述。

For some (rather all) interesting applications of CMA-ES, please refer to e.g., [SIMULIA > CST Studio Suite > Automatic Optimization (Dassault Systèmes)], [PNAS-2024], [Nature Communications-2024], [AIAA Journal-2024], [NeurIPS-2024 Spotlight], [ICLR-2024 Spotlight], [TMRB-2024], [LWC-2024], [RSIF-2024], [MNRAS-2024], [Medical Physics-2024], [Wolff, 2024], [Jankowski et al., 2024], [Martin, 2024, Ph.D. Dissertation (Harvard University)], [Milekovic et al., 2023, Nature Medicine], [Chen et al., 2023, Science Robotics], [Falk et al., 2023, PNAS], [Thamm&Rosenow, 2023, PRL], [Brea et al., 2023, Nature Communications], [Ghafouri&Biros, 2023], [Barral, 2023, Ph.D. Dissertation (University of Oxford)], [Slade et al., 2022, Nature], [Croon et al., 2022, Nature], [Rudolph et al., 2022, Nature Communications], [Cazenille et al., 2022, Bioinspiration & Biomimetics], [Franks et al., 2021], [Yuan et al., 2021, MNRAS], [Löffler et al., 2021, Nature Communications], [Papadopoulou et al., 2021, JPCB], [Schmucker et al., 2021, PLoS Comput Biol], [Barkley, 2021, Ph.D. Dissertation (Harvard University)], [Fernandes, 2021, Ph.D. Dissertation (Harvard University)], [Quinlivan, 2021, Ph.D. Dissertation (Harvard University)], [Vasios et al., 2020, Soft Robotics], [Pal et al., 2020], [Lei, 2020, Ph.D. Dissertation (University of Oxford)], [Pisaroni et al., 2019, Journal of Aircraft], [Yang et al., 2019, Journal of Aircraft], [Ong et al., 2019, PLOS Computational Biology], [Zhang et al., 2017, Science], [Wei&Mahadevan, 2016, Soft Matter], [Loshchilov&Hutter, 2016], [Molinari et al., 2014, AIAAJ], [Melton, 2014, Acta Astronautica], [Khaira et al., 2014, ACS Macro Lett.], [Otake et al., 2013, Phys. Med. Biol.], [Wang et al., 2010, TOG], [Wampler&Popović, 2009, TOG] RoboCup, 2014 3D Simulation League Competition Champions, [Muller et al., 2001, AIAAJ], to name a few.

Parameters:
  • 问题 (字典) –

    问题参数包含以下常见设置 ():
    • ’fitness_function’ - 需要最小化的目标函数 (函数),

    • ’ndim_problem’ - 维度数 (整数),

    • ’upper_boundary’ - 搜索范围的上限 (类数组),

    • ’lower_boundary’ - 搜索范围的下限 (类数组).

  • options (dict) –

    具有以下常见设置的优化器选项 (keys):
    • ’max_function_evaluations’ - 函数评估的最大次数 (int, 默认: np.inf),

    • ’max_runtime’ - 允许的最大运行时间 (float, 默认: np.inf),

    • ’seed_rng’ - 随机数生成的种子,需要显式设置 (int);

    以及以下特定设置 (keys):
    • ’sigma’ - 初始全局步长,也称为变异强度 (float),

    • ’mean’ - 初始(起始)点,也称为高斯搜索分布的均值 (array_like),

      • 如果未给出,将从均匀分布中随机抽取一个样本,其搜索范围由 problem[‘lower_boundary’]problem[‘upper_boundary’] 限定。

    • ’n_individuals’ - 后代数量,也称为后代种群大小 (int, 默认: 4 + int(3*np.log(problem[‘ndim_problem’]))),

    • ’n_parents’ - 父母数量,也称为父母种群大小 (int, 默认: int(options[‘n_individuals’]/2)).

示例

使用黑盒优化器 CMAES 来最小化著名的测试函数 Rosenbrock:

 1>>> import numpy  # engine for numerical computing
 2>>> from pypop7.benchmarks.base_functions import rosenbrock  # function to be minimized
 3>>> from pypop7.optimizers.es.cmaes import CMAES
 4>>> problem = {'fitness_function': rosenbrock,  # to define problem arguments
 5...            'ndim_problem': 2,
 6...            'lower_boundary': -5.0*numpy.ones((2,)),
 7...            'upper_boundary': 5.0*numpy.ones((2,))}
 8>>> options = {'max_function_evaluations': 5000,  # to set optimizer options
 9...            'seed_rng': 2022,
10...            'mean': 3.0*numpy.ones((2,)),
11...            'sigma': 3.0}  # global step-size may need to be fine-tuned for better performance
12>>> cmaes = CMAES(problem, options)  # to initialize the optimizer class
13>>> results = cmaes.optimize()  # to run the optimization/evolution process
14>>> print(f"CMAES: {results['n_function_evaluations']}, {results['best_so_far_y']}")
15CMAES: 5000, 0.0017

关于Python代码的正确性检查,请参考此基于代码的可重复性报告以获取所有详细信息。对于基于pytest的自动测试,请参见test_cmaes.py

best_so_far_x

在整个优化过程中找到的最终最佳解决方案。

Type:

array_like

best_so_far_y

在整个优化过程中找到的最终最佳适应度。

Type:

array_like

mean

初始(起始)点,也称为高斯搜索分布的平均值。

Type:

array_like

n_individuals

后代数量,也称为后代种群大小/样本大小。

Type:

int

n_parents

父母数量,也称为父母种群大小 / 正选择搜索点的数量。

Type:

int

sigma

最终的全局步长,也称为变异强度(在优化过程中更新)。

Type:

float

参考文献

https://cma-es.github.io/

Hansen, N., 2023. The CMA evolution strategy: A tutorial. arXiv 预印本 arXiv:1604.00772.

Ollivier, Y., Arnold, L., Auger, A. 和 Hansen, N., 2017. 信息几何优化算法:通过不变性原理的统一视角。 机器学习研究杂志, 18(18), 第1-65页。

Hansen, N., Atamna, A. 和 Auger, A., 2014年9月。 如何评估随机搜索中的步长适应机制。 在国际并行问题解决自然会议中(第60-69页)。Springer, Cham.

Kern, S., Müller, S.D., Hansen, N., Büche, D., Ocenasek, J. 和 Koumoutsakos, P., 2004. 学习连续进化算法中的概率分布——比较综述。 自然计算, 3, 第77-112页。

Hansen, N., Müller, S.D. 和 Koumoutsakos, P., 2003. Reducing the time complexity of the derandomized evolution strategy with covariance matrix adaptation (CMA-ES). 进化计算, 11(1), 第1-18页.

Hansen, N. 和 Ostermeier, A., 2001. 完全去随机化的进化策略中的自我适应。 进化计算, 9(2), 第159-195页。

Hansen, N. 和 Ostermeier, A., 1996年5月。 在进化策略中适应任意正态变异分布:协方差矩阵适应。 在IEEE国际进化计算会议论文集(第312-317页)中。IEEE。

请参考其轻量级的Python实现,来自cyberagent.aihttps://github.com/CyberAgentAILab/cmaes

请参考其官方 Python 实现,来自 Hansen, N.: https://github.com/CMA-ES/pycma

https://visitor-badge.laobi.icu/badge?page_id=Evolutionary-Intelligence.pypop https://visitor-badge.laobi.icu/badge?page_id=Evolutionary-Intelligence.pypop-CMAES