🖼️ 示例画廊# 梯度累积 梯度累积。 元学习 元学习。 双线性最小-最大问题中的乐观梯度下降 双线性最小-最大问题中的乐观梯度下降。 使用Flax和Optax在CIFAR10上实现ResNet。 使用Flax和Optax在CIFAR10上训练ResNet。 使用Flax的简单神经网络。 训练Flax模块的参数。 MNIST上的前瞻优化器 Adam优化器和前瞻包装器在MNIST数据集上的应用。 多层感知器 MNIST 使用Optax在MNIST上训练MLP分类器。 对抗训练 在MNIST上对卷积神经网络进行对抗训练。 在小型莎士比亚数据集上的字符级Transformer 字符级变换器在《小莎士比亚》上。 L-BFGS 使用LBFGS和线搜索。 扰动优化器 带有扰动的可微分函数。 线性分配问题 解决线性分配问题。 贡献示例# 使用🔧 Contrib模块的示例。 在MNIST上使用差分隐私的卷积神经网络。 在MNIST上具有差分隐私的卷积神经网络。 高原学习率调度器的Reduce reduce_on_plateau学习率调度器的示例用法。 锐度感知最小化 (SAM) 锐度感知最小化 (SAM). 从论文中重新创建AdeMAMix Rosenbrock图 AdEMAMix.