Shortcuts

本地

这包含了TorchX本地调度器,可以通过子进程在本地运行TorchX组件。

class torchx.schedulers.local_scheduler.LocalScheduler(session_name: str, image_provider_class: Callable[[LocalOpts], ImageProvider], cache_size: int = 100, extra_paths: Optional[List[str]] = None)[source]

基础类: Scheduler[LocalOpts]

在本地主机上的调度。容器被建模为进程,并且对于本地主机运行不相关或无法强制执行的某些容器属性被忽略。被忽略的属性包括:

  1. 资源需求

  2. 资源限制执行

  3. 重试策略

  4. 重试次数(不支持重试)

  5. 部署偏好

调度程序支持在接收到SIGTERM或SIGINT时清理孤儿进程。 调度程序将终止生成的进程。

这是通过调度器 local_cwd 暴露的。

  • local_cwd 在当前工作目录下运行提供的应用程序,并忽略 images 字段,以加快迭代和测试速度。

注意

只有在主线程中实例化LocalScheduler时,孤儿清理才会起作用。

配置选项

    usage:
        [log_dir=LOG_DIR],[prepend_cwd=PREPEND_CWD],[auto_set_cuda_visible_devices=AUTO_SET_CUDA_VISIBLE_DEVICES]

    optional arguments:
        log_dir=LOG_DIR (str, None)
            dir to write stdout/stderr log files of replicas
        prepend_cwd=PREPEND_CWD (bool, False)
            if set, prepends CWD to replica's PATH env var making any binaries in CWD take precedence over those in PATH
        auto_set_cuda_visible_devices=AUTO_SET_CUDA_VISIBLE_DEVICES (bool, False)
            sets the `CUDA_AVAILABLE_DEVICES` for roles that request GPU resources. Each role replica will be assigned one GPU. Does nothing if the device count is less than replicas.

兼容性

注意

由于调度程序的差异,本地运行的作业在使用不同的调度程序时可能无法工作,这可能是由于网络或软件依赖性的原因。

功能

调度器支持

获取日志

✔️

分布式作业

LocalScheduler 支持多个副本,但所有副本都将在本地主机上执行。

取消任务

✔️

描述工作

✔️

工作区 / 补丁

部分支持。LocalScheduler 从本地目录运行应用程序,但不支持编程工作区。

挂载

弹性

auto_set_CUDA_VISIBLE_DEVICES(role_params: Dict[str, List[ReplicaParam]], app: AppDef, cfg: LocalOpts) None[source]

如果运行选项 auto_set_cuda_visible_devices = True,那么 根据每个角色的资源规范中指定的GPU数量,将 CUDA_VISIBLE_DEVICES 环境变量设置为每个副本(节点)的环境变量, 覆盖角色 env 字段中任何现有的 CUDA_VISIBLE_DEVICES。 要手动设置 CUDA_VISIBLE_DEVICES,请在调度器 runcfg 中使用 auto_set_cuda_visible_devices = False 运行。

注意

如果主机的设备数量少于请求的GPU总数,则不会设置CUDA_VISIBLE_DEVICES(即使auto_set_cuda_visible_devices=True)。

注意

此方法要么在所有GPU角色上设置CUDA_VISIBLE_DEVICES,要么不设置

示例(所有示例假设在具有8个GPU的主机上运行):

  1. Role(num_replicas=2, resource=Resource(gpus=2))
    1. replica_0的 CUDA_VISIBLE_DEVICES=0,1

    2. replica_1的 CUDA_VISIBLE_DEVICES=2,3

  2. Role(num_replicas=3, resource=Resource(gpus=4))
    1. 错误 - `` 3 * 4 = 12 >= 8``

  3. [Role(num_replicas=1, resource=Resource(gpus=2)), Role(num_replicas=3, resource=Resource(gpus=1))]
    1. role_0, replica_0的 CUDA_VISIBLE_DEVICES=0,1

    2. role_1, replica_0的 CUDA_VISIBLE_DEVICES=2

    3. role_1, replica_1的 CUDA_VISIBLE_DEVICES=3

    4. role_1, replica_2的 CUDA_VISIBLE_DEVICES=4

close() None[source]

仅适用于具有本地状态的调度程序!关闭调度程序,释放任何已分配的资源。一旦关闭,调度程序对象被视为不再有效,并且对该对象调用的任何方法都会导致未定义的行为。

此方法不应引发异常,并且允许在同一对象上多次调用。

注意

仅适用于具有本地状态的调度程序实现 (torchx/schedulers/local_scheduler.py)。 仅包装远程调度程序客户端的调度程序不需要 实现此方法。

describe(app_id: str) Optional[DescribeAppResponse][source]

描述指定的应用程序。

Returns:

AppDef 描述或如果应用程序不存在则为 None

list() List[ListAppResponse][source]

对于在调度程序上启动的应用程序,此API返回一个ListAppResponse对象列表,每个对象都包含应用程序ID及其状态。 注意:此API处于原型阶段,可能会发生变化。

log_iter(app_id: str, role_name: str, k: int = 0, regex: Optional[str] = None, since: Optional[datetime] = None, until: Optional[datetime] = None, should_tail: bool = False, streams: Optional[Stream] = None) Iterable[str][source]

返回一个迭代器,用于遍历k``th replica of the ``role的日志行。 当所有符合条件的日志行都被读取后,迭代器结束。

如果调度程序支持基于时间的光标获取自定义时间范围内的日志行,则sinceuntil字段会被尊重,否则它们会被忽略。不指定sinceuntil等同于获取所有可用的日志行。如果until为空,则迭代器的行为类似于tail -f,跟随日志输出直到作业达到终止状态。

日志的确切定义取决于调度程序。一些调度程序可能将stderr或stdout视为日志,而其他调度程序可能从日志文件中读取日志。

行为和假设:

  1. 如果在一个不存在的应用程序上调用,会产生未定义行为 调用者应在调用此方法之前使用exists(app_id)检查应用程序是否存在。

  2. 不是有状态的,使用相同参数调用此方法两次会返回一个新的迭代器。之前的迭代进度会丢失。

  3. 并不总是支持日志尾部查看。并非所有调度器都支持实时日志迭代(例如,在应用程序运行时查看日志尾部)。请参考特定调度器的文档以了解迭代器的行为。

3.1 If the scheduler supports log-tailing, it should be controlled

通过 should_tail 参数。

  1. 不保证日志的保留。当调用此方法时,底层调度程序可能已经清除了此应用程序的日志记录。如果是这样,此方法会引发任意异常。

  2. 如果 should_tail 为 True,该方法仅在可访问的日志行完全耗尽且应用程序达到最终状态时引发 StopIteration 异常。例如,如果应用程序卡住并且不产生任何日志行,则迭代器会阻塞,直到应用程序最终被终止(无论是通过超时还是手动),此时它会引发 StopIteration

    如果 should_tail 为 False,当没有更多日志时,该方法会引发 StopIteration

  3. 不需要所有调度程序都支持。

  4. 一些调度器可能通过支持__getitem__来支持行光标 (例如iter[50]跳转到第50条日志行)。

  5. Whitespace is preserved, each new line should include \n. To

    支持交互式进度条,返回的行不需要包含\n,但应在打印时不换行以正确处理\r回车符。

Parameters:

streams – 要选择的IO输出流。 选项之一:combined, stdout, stderr。 如果调度程序不支持所选的流,它将抛出一个ValueError。

Returns:

一个Iterator,用于遍历指定角色副本的日志行

Raises:

NotImplementedError – 如果调度程序不支持日志迭代

schedule(dryrun_info: AppDryRunInfo[PopenRequest]) str[source]

submit相同,只是它接受一个AppDryRunInfo。 鼓励实现者实现此方法,而不是直接实现submit,因为submit可以通过以下方式轻松实现:

dryrun_info = self.submit_dryrun(app, cfg)
return schedule(dryrun_info)

图像提供者

class torchx.schedulers.local_scheduler.ImageProvider[source]

管理在本地主机上下载和设置镜像。这仅对LocalhostScheduler是必需的,因为通常真实的调度器会代表用户执行此操作。

abstract fetch(image: str) str[source]

拉取给定的镜像并返回本地主机上拉取镜像的路径,如果无操作则返回空字符串

fetch_role(role: 角色) str[source]

fetch(image)相同,它获取角色的图像并返回图像根目录的路径,不同之处在于它允许此提供者更新角色。当需要在角色上设置额外的环境变量以符合图像提供者在本地主机上获取和管理图像的方式时,这很有用。默认情况下,此方法简单地委托给fetch(role.image)。如有必要,请覆盖。

get_cwd(image: str) Optional[str][source]

返回挂载的img目录的绝对路径。用作启动子进程的工作目录。

get_entrypoint(img_root: str, role: 角色) str[source]

返回入口点的位置。

get_replica_param(img_root: str, role: 角色, stdout: Optional[str] = None, stderr: Optional[str] = None, combined: Optional[str] = None) ReplicaParam[source]

给定角色副本的规格,返回ReplicaParam持有者,该持有者包含最终传递给subprocess.Popen的参数,以实际调用和运行每个角色的副本。img_root预计为self.fetch(role.image)的返回值。由于角色的镜像只需获取一次(而不是每个副本),预计调用者每个角色调用一次fetch方法,并为每个role.num_replicas调用此方法。

class torchx.schedulers.local_scheduler.CWDImageProvider(cfg: LocalOpts)[source]

类似于LocalDirectoryImageProvider,但它忽略图像名称并使用当前工作目录作为图像路径。

示例:

  1. fetch(Image(name="/tmp/foobar")) 返回 os.getcwd()

  2. fetch(Image(name="foobar:latest")) 返回 os.getcwd()

fetch(image: str) str[source]

拉取给定的镜像并返回本地主机上拉取镜像的路径,如果无操作则返回空字符串

get_cwd(image: str) Optional[str][source]

返回挂载的img目录的绝对路径。用作启动子进程的工作目录。

get_entrypoint(img_root: str, role: 角色) str[source]

返回入口点的位置。

class torchx.schedulers.local_scheduler.LocalDirectoryImageProvider(cfg: LocalOpts)[source]

将图像名称解释为本地主机上的目录路径。不会“获取”(例如下载)任何内容。与LocalScheduler结合使用以运行本地二进制文件。

图像名称必须是绝对路径且必须存在。

示例:

  1. fetch(Image(name="/tmp/foobar")) 返回 /tmp/foobar

  2. fetch(Image(name="foobar")) 引发 ValueError

  3. fetch(Image(name="/tmp/dir/that/does/not_exist")) 引发 ValueError

fetch(image: str) str[source]
Raises:

ValueError – 如果图像名称不是绝对路径,或者它不存在或不是一个目录

get_cwd(image: str) Optional[str][source]

返回绝对工作目录。用作子进程的工作目录。

get_entrypoint(img_root: str, role: 角色) str[source]

返回角色入口点。当本地调度器以image_type=dir执行时,子进程的工作目录将被设置为img_root。如果role.entrypoint是相对路径,它将被解析为img_root/role.entrypoint,如果role.entrypoint是绝对路径,它将按提供的路径执行。

参考

torchx.schedulers.local_scheduler.create_scheduler(session_name: str, cache_size: int = 100, extra_paths: ~typing.Optional[~typing.List[str]] = None, image_provider_class: ~typing.Callable[[~torchx.schedulers.local_scheduler.LocalOpts], ~torchx.schedulers.local_scheduler.ImageProvider] = <class 'torchx.schedulers.local_scheduler.CWDImageProvider'>, **kwargs: ~typing.Any) LocalScheduler[source]
class torchx.schedulers.local_scheduler.LogIterator(app_id: str, log_file: str, scheduler: 调度器, should_tail: bool = True)[source]
class torchx.schedulers.local_scheduler.PopenRequest(app_id: str, log_dir: str, role_params: Dict[str, List[ReplicaParam]], role_log_dirs: Dict[str, List[str]])[source]

保存用于为应用程序的每个角色的每个副本创建子进程的参数。

class torchx.schedulers.local_scheduler.ReplicaParam(args: List[str], env: Dict[str, str], stdout: Optional[str] = None, stderr: Optional[str] = None, combined: Optional[str] = None, cwd: Optional[str] = None)[source]

保存每个角色副本的LocalScheduler._popen()参数。

class torchx.schedulers.local_scheduler.SignalException(msg: str, sigval: Signals)[source]

在运行时,当torchx本地调度程序进程收到终止信号时,会引发异常。