使用 Docker Compose 启用 GPU 访问

如果Docker主机包含GPU设备并且Docker守护程序已相应设置,则Compose服务可以定义GPU设备预留。为此,请确保您已安装先决条件(如果尚未安装)。

以下部分的示例特别关注于使用Docker Compose为服务容器提供对GPU设备的访问。 您可以使用docker-composedocker compose命令。更多信息,请参见 迁移到Compose V2

启用GPU访问服务容器

GPU在compose.yml文件中通过Compose部署规范中的device属性引用,在需要它们的服务中使用。

这提供了对GPU预留的更细粒度控制,因为可以为以下设备属性设置自定义值:

  • capabilities. 此值指定为字符串列表(例如 capabilities: [gpu])。您必须在 Compose 文件中设置此字段。否则,在服务部署时会返回错误。
  • count. 这个值,指定为整数或值all,表示应保留的GPU设备数量(前提是主机拥有该数量的GPU)。如果count设置为all或未指定,默认情况下将使用主机上所有可用的GPU。
  • device_ids. 这个值,指定为字符串列表,表示主机上的GPU设备ID。您可以在主机的nvidia-smi输出中找到设备ID。如果没有设置device_ids,默认情况下将使用主机上所有可用的GPU。
  • driver。此值被指定为字符串,例如 driver: 'nvidia'
  • options。表示驱动程序特定选项的键值对。

重要

您必须设置capabilities字段。否则,在服务部署时会返回错误。

countdevice_ids是互斥的。您必须一次只定义一个字段。

有关这些属性的更多信息,请参阅 Compose 部署规范

用于运行一个服务并访问1个GPU设备的Compose文件示例

services:
  test:
    image: nvidia/cuda:12.3.1-base-ubuntu20.04
    command: nvidia-smi
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]

使用 Docker Compose 运行:

$ docker compose up
Creating network "gpu_default" with the default driver
Creating gpu_test_1 ... done
Attaching to gpu_test_1    
test_1  | +-----------------------------------------------------------------------------+
test_1  | | NVIDIA-SMI 450.80.02    Driver Version: 450.80.02    CUDA Version: 11.1     |
test_1  | |-------------------------------+----------------------+----------------------+
test_1  | | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
test_1  | | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
test_1  | |                               |                      |               MIG M. |
test_1  | |===============================+======================+======================|
test_1  | |   0  Tesla T4            On   | 00000000:00:1E.0 Off |                    0 |
test_1  | | N/A   23C    P8     9W /  70W |      0MiB / 15109MiB |      0%      Default |
test_1  | |                               |                      |                  N/A |
test_1  | +-------------------------------+----------------------+----------------------+
test_1  |                                                                                
test_1  | +-----------------------------------------------------------------------------+
test_1  | | Processes:                                                                  |
test_1  | |  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
test_1  | |        ID   ID                                                   Usage      |
test_1  | |=============================================================================|
test_1  | |  No running processes found                                                 |
test_1  | +-----------------------------------------------------------------------------+
gpu_test_1 exited with code 0

在托管多个GPU的机器上,device_ids字段可以设置为针对特定的GPU设备,而count可以用来限制分配给服务容器的GPU设备数量。

您可以在每个服务定义中使用countdevice_ids。如果您尝试同时使用两者、指定无效的设备ID或使用高于系统中GPU数量的计数值,将返回错误。

$ nvidia-smi   
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 450.80.02    Driver Version: 450.80.02    CUDA Version: 11.0     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  Tesla T4            On   | 00000000:00:1B.0 Off |                    0 |
| N/A   72C    P8    12W /  70W |      0MiB / 15109MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
|   1  Tesla T4            On   | 00000000:00:1C.0 Off |                    0 |
| N/A   67C    P8    11W /  70W |      0MiB / 15109MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
|   2  Tesla T4            On   | 00000000:00:1D.0 Off |                    0 |
| N/A   74C    P8    12W /  70W |      0MiB / 15109MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
|   3  Tesla T4            On   | 00000000:00:1E.0 Off |                    0 |
| N/A   62C    P8    11W /  70W |      0MiB / 15109MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+

访问特定设备

仅允许访问GPU-0和GPU-3设备:

services:
  test:
    image: tensorflow/tensorflow:latest-gpu
    command: python -c "import tensorflow as tf;tf.test.gpu_device_name()"
    deploy:
      resources:
        reservations:
          devices:
          - driver: nvidia
            device_ids: ['0', '3']
            capabilities: [gpu]