应用程序
应用与引用论文
到目前为止,这个开源的Python库PyPop7已经在以下论文中被使用/引用(至少)(请注意,以下列表是持续更新的):
[cited] 表示PyPop7已被引用但未在相应的论文中使用。
[used] 表示PyPop7已被相应论文使用(但未在参考文献中引用)。
13: Miranda, P.B., Giráldez-Cru, J., Silva-Filho, M.W., Zarco, C. 和 Cordón, O., 2024年6月。 通过进化算法学习基于代理建模中的代理行为模式。 在IEEE进化计算大会(第1-8页)。IEEE。
12: 马, Z., 陈, J., 郭, H. 和 龚, Y.J., 2024. Neural Exploratory Landscape Analysis. arXiv 预印本 arXiv:2408.10672. [已使用&引用]
华南理工大学
11: Pinchuk, M., Kirgizov, G., Yamshchikova, L., Nikitin, N., Deeva, I., Shakhkyan, K., Borisov, I., Zharkov, K. 和 Kalyuzhnaya, A., 2024年7月. GOLEM: 物理和数字对象的图形表示的灵活进化设计. 在年度遗传和进化计算会议伴侣的会议记录中 (第1668-1675页). ACM. [引用]
ITMO大学
10: Vodopija, A., Cork, J.N. 和 Filipič, B., 2024年7月. The Lunar Lander Landing Site Selection Benchmark Reexamined: Problem Characterization and Algorithm Performance. 在年度遗传与进化计算会议论文集 (pp. 1381-1389). ACM. [used&cited]
约瑟夫·斯特凡研究所 + 约瑟夫·斯特凡国际研究生院
JADE
9: Bailo, R., Barbaro, A., Gomes, S.N., Riedl, K., Roith, T., Totzeck, C. 和 Vaes, U., 2024. CBX: Python 和 Julia 包用于基于共识的交互粒子方法. arXiv 预印本 arXiv:2403.14470. [引用]
牛津大学 + 代尔夫特理工大学 + 华威大学 + 慕尼黑工业大学 + 慕尼黑机器学习中心 + 德国电子同步加速器研究所 DESY + 伍珀塔尔大学 + 法国国家信息与自动化研究所 Inria + 巴黎高科路桥学校
8: 马, Z., 郭, H., 陈, J., 彭, G., 曹, Z., 马, Y. 和 龚, Y.J., 2024. LLaMoCo: 用于优化代码生成的大型语言模型的指令调优. arXiv 预印本 arXiv:2403.01131. [已使用&引用]
华南理工大学 + 新加坡管理大学 + 南洋理工大学
7: 张, Z., 魏, Y. 和 隋, Y., 2024. An Invariant Information Geometric Method for High-Dimensional Online Optimization. arXiv 预印本 arXiv:2401.01579. [已使用&引用]
清华大学
6: Yu, L., Chen, Q., Lin, J. 和 He, L., 2023. Black-box Prompt Tuning for Vision-Language Model as a Service. 国际人工智能联合会议论文集 (pp. 1686-1694). IJCAI. [已使用]
华东师范大学
5: Lee, Y., Lee, K., Hsu, D., Cai, P. 和 Kavraki, L.E., 2023. The Planner Optimization Problem: Formulations and Frameworks. arXiv 预印本 arXiv:2303.06768. [已使用&引用]
莱斯大学 + 上海交通大学 + 新加坡国立大学
4: 段强, 邵超, 周刚, 张明, 赵强, 史勇, 2023. Distributed Evolution Strategies with Multi-Level Learning for Large-Scale Black-Box Optimization. arXiv预印本 arXiv:2310.05377. [已使用]
段, Q., 邵, C., 周, G., 张, M., 赵, Q. 和 石, Y., 2024. Distributed Evolution Strategies With Multi-Level Learning for Large-Scale Black-Box Optimization. IEEE Transactions on Parallel & Distributed Systems, 35(11), pp.2087-2101.
哈尔滨工业大学 + 南方科技大学 + 悉尼科技大学 + 华威大学
3: 段强, 邵晨, 周刚, 杨浩, 赵强, 石勇, 2023. Cooperative Coevolution for Non-Separable Large-Scale Black-Box Optimization: Convergence Analyses and Distributed Accelerations. arXiv预印本 arXiv:2304.05020. [已使用]
哈尔滨工业大学 + 南方科技大学 + 悉尼科技大学
2: Duan, Q., Zhou, G., Shao, C., Yang, Y. 和 Shi, Y., 2022. Collective Learning of Low-Memory Matrix Adaptation for Large-Scale Black-Box Optimization. 在国际并行问题解决自然会议中 (pp. 281-294). Springer, Cham. [已使用, 本研究论文进入了PPSN-2022最佳论文奖的提名名单]
哈尔滨工业大学 + 南方科技大学 + 悉尼科技大学
1: 段强, 周国, 邵晨, 杨阳和石勇, 2022年7月. 大规模优化的分布式进化策略. 在ACM遗传与进化计算会议伴侣论文集 (第395-398页). ACM. [已使用]
哈尔滨工业大学 + 南方科技大学 + 悉尼科技大学
开源案例
到目前为止,这个Python库PyPop7已经在以下开源项目中使用(至少):
15 [2024]: https://github.com/GMC-DRL/Neur-ELA
FCMAES + SEPCMAES + RMES + CMAES
14 [2024]: https://github.com/nikivanstein/LLaMEA
13: https://github.com/AmitDIRTYC0W/neuronveil-mnist-train (2024)
CLPSO + GL25 + SHADE + JADE + LEP
12: https://pypi.org/project/advanced-global-optimizers/ (2024)
11: https://github.com/aiboxlab/evolutionary-abm-calibration (2024)
10: https://github.com/Echozqn/llm [https://github.com/Echozqn/llm/tree/main/collie/examples/alpaca/eda] (2024)
遗憾的是,这个开源项目目前无法公开访问。
9: https://github.com/BruthYU/BPT-VLM (2023)
8: https://github.com/opoframework/opof [在线文档: https://opof.kavrakilab.org/] (2023)
7: https://github.com/pyanno4rt/pyanno4rt [在线文档: https://pyanno4rt.readthedocs.io/en/latest/] (2023)
Tim Ortkamp:卡尔斯鲁厄理工学院(KIT)科学计算中心 + 德国癌症研究中心(DKFZ)放射肿瘤学医学物理 + 赫尔姆霍茨健康信息与数据科学学院
LMCMA + LMMAES
6: https://github.com/TUIlmenauAMS/BlackBoxOptimizerSPcomparison (2023)
4: https://github.com/jeancroy/RP-fit (2023)
3: https://github.com/moesio-f/py-abm-public (2023)
遗憾的是,这个开源项目目前无法公开访问。
2: https://github.com/Evolutionary-Intelligence/M-DES (2023)
1: https://github.com/Evolutionary-Intelligence/dpop7 (2023)
这是对PyPop7(目前正在积极开发中)的并行/分布式扩展。
介绍案例
关于这个开源库PyPop7的其他介绍/覆盖,请参考例如:
赞美
以下所有的赞誉都来自在线评论。我们非常感激这些慷慨的赞誉,特别是考虑到我们与他们并没有利益关系: