在容器中运行多个进程
容器的主要运行进程是Dockerfile末尾的ENTRYPOINT和/或CMD。最佳实践是通过每个容器使用一个服务来分离关注领域。该服务可能会分叉成多个进程(例如,Apache Web服务器启动多个工作进程)。拥有多个进程是可以的,但为了充分利用Docker的优势,避免一个容器负责整个应用程序的多个方面。您可以使用用户定义的网络和共享卷连接多个容器。
容器的主进程负责管理它启动的所有进程。在某些情况下,主进程设计不佳,当容器退出时,无法优雅地处理“收割”(停止)子进程。如果你的进程属于这种情况,你可以在运行容器时使用--init选项。--init标志会在容器中插入一个微小的init进程作为主进程,并在容器退出时处理所有进程的收割。以这种方式处理这些进程比使用像sysvinit或systemd这样的完整init进程来处理容器内的进程生命周期更为优越。
如果您需要在容器内运行多个服务,您可以通过几种不同的方式实现这一点。
使用包装脚本
将所有命令放入一个包装脚本中,包括测试和调试信息。将包装脚本作为你的CMD运行。以下是一个简单的示例。首先,包装脚本:
#!/bin/bash
# Start the first process
./my_first_process &
# Start the second process
./my_second_process &
# Wait for any process to exit
wait -n
# Exit with status of process that exited first
exit $?接下来是Dockerfile:
# syntax=docker/dockerfile:1
FROM ubuntu:latest
COPY my_first_process my_first_process
COPY my_second_process my_second_process
COPY my_wrapper_script.sh my_wrapper_script.sh
CMD ./my_wrapper_script.sh使用Bash作业控制
如果你有一个需要首先启动并保持运行的主进程,但你暂时需要运行一些其他进程(可能是为了与主进程交互),那么你可以使用bash的作业控制。首先,包装脚本如下:
#!/bin/bash
# turn on bash's job control
set -m
# Start the primary process and put it in the background
./my_main_process &
# Start the helper process
./my_helper_process
# the my_helper_process might need to know how to wait on the
# primary process to start before it does its work and returns
# now we bring the primary process back into the foreground
# and leave it there
fg %1# syntax=docker/dockerfile:1
FROM ubuntu:latest
COPY my_main_process my_main_process
COPY my_helper_process my_helper_process
COPY my_wrapper_script.sh my_wrapper_script.sh
CMD ./my_wrapper_script.sh使用进程管理器
使用像supervisord这样的进程管理器。这比其他选项更复杂,因为它要求你将supervisord及其配置打包到你的镜像中(或者基于包含supervisord的镜像),以及它管理的不同应用程序。然后你启动supervisord,它会为你管理进程。
以下Dockerfile示例展示了这种方法。示例假设这些文件存在于构建上下文的根目录中:
supervisord.confmy_first_processmy_second_process
# syntax=docker/dockerfile:1
FROM ubuntu:latest
RUN apt-get update && apt-get install -y supervisor
RUN mkdir -p /var/log/supervisor
COPY supervisord.conf /etc/supervisor/conf.d/supervisord.conf
COPY my_first_process my_first_process
COPY my_second_process my_second_process
CMD ["/usr/bin/supervisord"]如果你想确保两个进程都将它们的stdout和stderr输出到容器日志中,你可以在supervisord.conf文件中添加以下内容:
[supervisord]
nodaemon=true
logfile=/dev/null
logfile_maxbytes=0
[program:app]
stdout_logfile=/dev/fd/1
stdout_logfile_maxbytes=0
redirect_stderr=true