Shortcuts

SequentialLR

class torch.optim.lr_scheduler.SequentialLR(optimizer, schedulers, milestones, last_epoch=-1, verbose='deprecated')[源代码]

接收在优化过程中预期按顺序调用的调度器列表,以及提供精确间隔的里程碑点,以反映在给定时期应调用哪个调度器。

Parameters
  • 优化器 (优化器) – 包装的优化器。

  • 调度器 (列表) – 链式调度器列表。

  • 里程碑 (列表) – 反映里程碑点的整数列表。

  • last_epoch (int) – 最后一个epoch的索引。默认值:-1。

  • 详细 (布尔值) –

    没有任何作用。

    自版本 2.2 起已弃用: verbose 已被弃用。请使用 get_last_lr() 来访问学习率。

示例

>>> # 假设优化器对所有组使用 lr = 1.
>>> # lr = 0.1     如果 epoch == 0
>>> # lr = 0.1     如果 epoch == 1
>>> # lr = 0.9     如果 epoch == 2
>>> # lr = 0.81    如果 epoch == 3
>>> # lr = 0.729   如果 epoch == 4
>>> scheduler1 = ConstantLR(optimizer, factor=0.1, total_iters=2)
>>> scheduler2 = ExponentialLR(optimizer, gamma=0.9)
>>> scheduler = SequentialLR(optimizer, schedulers=[scheduler1, scheduler2], milestones=[2])
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()

返回当前调度器计算的最后一个学习率。

load_state_dict(state_dict)[源代码]

加载调度器的状态。

Parameters

state_dict (字典) – 调度器状态。应该是从调用 state_dict() 返回的对象。

print_lr(is_verbose, group, lr, epoch=None)

显示当前的学习率。

state_dict()[源代码]

返回调度器的状态为一个字典

它包含 self.__dict__ 中每个变量的条目,但不包括优化器。 包装的调度器状态也将被保存。

优云智算