协方差矩阵自适应进化策略 (CMAES)
- class pypop7.optimizers.es.cmaes.CMAES(problem, options)[source]
协方差矩阵自适应进化策略(CMAES)。
注意
CMAES 被广泛认为是连续黑箱优化(BBO)领域中最先进的进化算法之一,根据广受认可的Nature对进化计算的综述。
For some (rather all) interesting applications of CMA-ES, please refer to e.g., [SIMULIA > CST Studio Suite > Automatic Optimization (Dassault Systèmes)], [PNAS-2024], [Nature Communications-2024], [AIAA Journal-2024], [NeurIPS-2024 Spotlight], [ICLR-2024 Spotlight], [TMRB-2024], [LWC-2024], [RSIF-2024], [MNRAS-2024], [Medical Physics-2024], [Wolff, 2024], [Jankowski et al., 2024], [Martin, 2024, Ph.D. Dissertation (Harvard University)], [Milekovic et al., 2023, Nature Medicine], [Chen et al., 2023, Science Robotics], [Falk et al., 2023, PNAS], [Thamm&Rosenow, 2023, PRL], [Brea et al., 2023, Nature Communications], [Ghafouri&Biros, 2023], [Barral, 2023, Ph.D. Dissertation (University of Oxford)], [Slade et al., 2022, Nature], [Croon et al., 2022, Nature], [Rudolph et al., 2022, Nature Communications], [Cazenille et al., 2022, Bioinspiration & Biomimetics], [Franks et al., 2021], [Yuan et al., 2021, MNRAS], [Löffler et al., 2021, Nature Communications], [Papadopoulou et al., 2021, JPCB], [Schmucker et al., 2021, PLoS Comput Biol], [Barkley, 2021, Ph.D. Dissertation (Harvard University)], [Fernandes, 2021, Ph.D. Dissertation (Harvard University)], [Quinlivan, 2021, Ph.D. Dissertation (Harvard University)], [Vasios et al., 2020, Soft Robotics], [Pal et al., 2020], [Lei, 2020, Ph.D. Dissertation (University of Oxford)], [Pisaroni et al., 2019, Journal of Aircraft], [Yang et al., 2019, Journal of Aircraft], [Ong et al., 2019, PLOS Computational Biology], [Zhang et al., 2017, Science], [Wei&Mahadevan, 2016, Soft Matter], [Loshchilov&Hutter, 2016], [Molinari et al., 2014, AIAAJ], [Melton, 2014, Acta Astronautica], [Khaira et al., 2014, ACS Macro Lett.], [Otake et al., 2013, Phys. Med. Biol.], [Wang et al., 2010, TOG], [Wampler&Popović, 2009, TOG] RoboCup, 2014 3D Simulation League Competition Champions, [Muller et al., 2001, AIAAJ], to name a few.
- Parameters:
问题 (字典) –
- 问题参数包含以下常见设置 (键):
’fitness_function’ - 需要最小化的目标函数 (函数),
’ndim_problem’ - 维度数 (整数),
’upper_boundary’ - 搜索范围的上限 (类数组),
’lower_boundary’ - 搜索范围的下限 (类数组).
options (dict) –
- 具有以下常见设置的优化器选项 (keys):
’max_function_evaluations’ - 函数评估的最大次数 (int, 默认: np.inf),
’max_runtime’ - 允许的最大运行时间 (float, 默认: np.inf),
’seed_rng’ - 随机数生成的种子,需要显式设置 (int);
- 以及以下特定设置 (keys):
’sigma’ - 初始全局步长,也称为变异强度 (float),
’mean’ - 初始(起始)点,也称为高斯搜索分布的均值 (array_like),
如果未给出,将从均匀分布中随机抽取一个样本,其搜索范围由 problem[‘lower_boundary’] 和 problem[‘upper_boundary’] 限定。
’n_individuals’ - 后代数量,也称为后代种群大小 (int, 默认: 4 + int(3*np.log(problem[‘ndim_problem’]))),
’n_parents’ - 父母数量,也称为父母种群大小 (int, 默认: int(options[‘n_individuals’]/2)).
示例
使用黑盒优化器 CMAES 来最小化著名的测试函数 Rosenbrock:
1>>> import numpy # engine for numerical computing 2>>> from pypop7.benchmarks.base_functions import rosenbrock # function to be minimized 3>>> from pypop7.optimizers.es.cmaes import CMAES 4>>> problem = {'fitness_function': rosenbrock, # to define problem arguments 5... 'ndim_problem': 2, 6... 'lower_boundary': -5.0*numpy.ones((2,)), 7... 'upper_boundary': 5.0*numpy.ones((2,))} 8>>> options = {'max_function_evaluations': 5000, # to set optimizer options 9... 'seed_rng': 2022, 10... 'mean': 3.0*numpy.ones((2,)), 11... 'sigma': 3.0} # global step-size may need to be fine-tuned for better performance 12>>> cmaes = CMAES(problem, options) # to initialize the optimizer class 13>>> results = cmaes.optimize() # to run the optimization/evolution process 14>>> print(f"CMAES: {results['n_function_evaluations']}, {results['best_so_far_y']}") 15CMAES: 5000, 0.0017
关于Python代码的正确性检查,请参考此基于代码的可重复性报告以获取所有详细信息。对于基于pytest的自动测试,请参见test_cmaes.py。
- best_so_far_x
在整个优化过程中找到的最终最佳解决方案。
- Type:
array_like
- best_so_far_y
在整个优化过程中找到的最终最佳适应度。
- Type:
array_like
- mean
初始(起始)点,也称为高斯搜索分布的平均值。
- Type:
array_like
- n_individuals
后代数量,也称为后代种群大小/样本大小。
- Type:
int
- n_parents
父母数量,也称为父母种群大小 / 正选择搜索点的数量。
- Type:
int
- sigma
最终的全局步长,也称为变异强度(在优化过程中更新)。
- Type:
float
参考文献
Hansen, N., 2023. The CMA evolution strategy: A tutorial. arXiv 预印本 arXiv:1604.00772.
Ollivier, Y., Arnold, L., Auger, A. 和 Hansen, N., 2017. 信息几何优化算法:通过不变性原理的统一视角。 机器学习研究杂志, 18(18), 第1-65页。
Hansen, N., Atamna, A. 和 Auger, A., 2014年9月。 如何评估随机搜索中的步长适应机制。 在国际并行问题解决自然会议中(第60-69页)。Springer, Cham.
Kern, S., Müller, S.D., Hansen, N., Büche, D., Ocenasek, J. 和 Koumoutsakos, P., 2004. 学习连续进化算法中的概率分布——比较综述。 自然计算, 3, 第77-112页。
Hansen, N., Müller, S.D. 和 Koumoutsakos, P., 2003. Reducing the time complexity of the derandomized evolution strategy with covariance matrix adaptation (CMA-ES). 进化计算, 11(1), 第1-18页.
Hansen, N. 和 Ostermeier, A., 2001. 完全去随机化的进化策略中的自我适应。 进化计算, 9(2), 第159-195页。
Hansen, N. 和 Ostermeier, A., 1996年5月。 在进化策略中适应任意正态变异分布:协方差矩阵适应。 在IEEE国际进化计算会议论文集(第312-317页)中。IEEE。
请参考其轻量级的Python实现,来自cyberagent.ai: https://github.com/CyberAgentAILab/cmaes
请参考其官方 Python 实现,来自 Hansen, N.: https://github.com/CMA-ES/pycma