这些主题描述了Compose文件格式的第3版。这是最新的版本.
有几个版本的Compose文件格式 - 1,2,2.x和3.x.下表是快速浏览。有关每个版本包含和如何升级的详细信息,请参阅关于版本和升级.
version: "3"
services:
redis:
image: redis:alpine
ports:
- "6379"
networks:
- frontend
deploy:
replicas: 2
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
db:
image: postgres:9.4
volumes:
- db-data:/var/lib/postgresql/data
networks:
- backend
deploy:
placement:
constraints: [node.role == manager]
vote:
image: dockersamples/examplevotingapp_vote:before
ports:
- 5000:80
networks:
- frontend
depends_on:
- redis
deploy:
replicas: 2
update_config:
parallelism: 2
restart_policy:
condition: on-failure
result:
image: dockersamples/examplevotingapp_result:before
ports:
- 5001:80
networks:
- backend
depends_on:
- db
deploy:
replicas: 1
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
worker:
image: dockersamples/examplevotingapp_worker
networks:
- frontend
- backend
deploy:
mode: replicated
replicas: 1
labels: [APP=VOTING]
restart_policy:
condition: on-failure
delay: 10s
max_attempts: 3
window: 120s
placement:
constraints: [node.role == manager]
visualizer:
image: dockersamples/visualizer:stable
ports:
- "8080:8080"
stop_grace_period: 1m30s
volumes:
- "/var/run/docker.sock:/var/run/docker.sock"
deploy:
placement:
constraints: [node.role == manager]
networks:
frontend:
backend:
volumes:
db-data:
此参考页面上的主题按顶级按键按字母顺序组织,以反映撰写文件本身的结构。定义配置文件中的一部分,如顶级键build,deploy,depends_on, networks,等等,都与所有支持他们的子课题的选项中列出。这将映射到: : Compose文件的缩进结构。
一个好的开始是入门教程,它使用版本3编写堆栈文件来实现多容器应用程序,服务定义和群组模式。以下是本教程中使用的一些撰写文件。,
另一个很好的参考是在
Docker for Beginners实验室
主题 将应用程序部署到Swarm. 上的投票应用程序示例的compose文件 。这也在本节顶部上展示。
Compose文件是一个定义
服务,
网络 和
卷的YAML 文件.
Compose文件的默认路径是 ./docker-compose.yml
.
提示:您可以对此文件使用
.yml
或.yaml
扩展名。他们都工作.
服务定义包含将应用于为该服务启动的每个容器的配置,就像传递命令行参数一样 docker run
。同样,网络和卷的定义类似于 docker network create
和docker volume create
。
正如docker run
在Dockerfile指定选项(例如,CMD
, EXPOSE
,VOLUME
,ENV
)是默认的尊重-你不需要再次指定它们docker-compose.yml。
您可以使用类似Bash的${VARIABLE}
语法在配置值中使用环境变量 - 有关详细信息,请参阅
变量替换 for full details.
本节包含版本3中服务定义支持的所有配置选项的列表。
build
可以指定为包含构建上下文的路径的字符串:
version: '2'
services:
webapp:
build: ./dir
或者,作为一个对象,具有 上下文 和可选的Dockerfile 和 args下指定的路径:
version: '2'
services:
webapp:
build:
context: ./dir
dockerfile: Dockerfile-alternate
args:
buildno: 1
如果指定image
以及build
,然后撰写的名称与内置的图像webapp
和可选的tag
规定image
:
build: ./dir
image: webapp:tag
这将导致命名的镜像webapp
和标签tag
,从建成./dir
。
注意:在使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。该docker stack
命令仅接受预建图像。
到包含Dockerfile的目录的路径,或者是git仓库的URL。
当提供的值是相对路径时,它被解释为相对于撰写文件的位置。该目录也是发送到Docker守护程序的构建上下文。
Compose将使用生成的名称构建并标记它,然后使用该映像。
build:
context: ./dir
备用Docker文件。
Compose将使用备用文件来构建。还必须指定构建路径。
build:
context: .
dockerfile: Dockerfile-alternate
添加构建参数,环境变量只能在构建过程中访问。
首先,在Dockerfile中指定参数:
ARG buildno
ARG password
RUN echo "Build number: $buildno"
RUN script-requiring-password.sh "$password"
然后在build
密钥下指定参数。您可以传递映射或列表:
build:
context: .
args:
buildno: 1
password: secret
build:
context: .
args:
- buildno=1
- password=secret
您可以在指定构建参数时省略该值,在这种情况下,构建时的值是运行Compose的环境中的值。
args:
- buildno
- password
注:YAML布尔值(
true
,false
,yes
,no
,on
,off
)必须用引号括起来,这样分析器会将它们解释为字符串。
注意:此选项在v3.2中是新增功能
引擎将用于缓存解析的图像列表。
build:
context: .
cache_from:
- alpine:latest
- corp/web_app:3.14
注意:此选项在v3.3中是新增的
使用 Docker labels
将元数据添加到生成的图像。您可以使用数组或字典。
建议您使用反向DNS符号来防止标签与其他软件使用的标签相冲突。
build:
context: .
labels:
com.example.description: "Accounting webapp"
com.example.department: "Finance"
com.example.label-with-empty-value: ""
build:
context: .
labels:
- "com.example.description=Accounting webapp"
- "com.example.department=Finance"
- "com.example.label-with-empty-value"
添加或删除容器功能。查看man 7 capabilities
完整列表。
cap_add:
- ALL
cap_drop:
- NET_ADMIN
- SYS_ADMIN
注意:在 使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略这些选项 。
覆盖默认命令。
command: bundle exec thin -p 3000
该命令也可以是一个列表,类似于
dockerfile:
command: ["bundle", "exec", "thin", "-p", "3000"]
使用每个服务configs
配置在每个服务的基础上授予对配置的访问权限。支持两种不同的语法变体。
注意:该配置必须已经存在或 在configs 该堆栈文件的 顶级配置
中定义,否则堆栈部署将失败
短语法变体只指定配置名称。这允许容器访问该配置并将其安装在/<config_name>
容器内。源名称和目标安装点都设置为配置名称。
以下示例使用简短的语法来授予redis
对my_config
和my_other_config
配置的服务访问权限。将值 my_config
设置为文件的内容./my_config.txt
,并将 my_other_config
其定义为外部资源,这意味着它已经在Docker中定义,无论是通过运行docker config create
命令还是通过其他堆栈部署。如果外部配置不存在,则堆栈部署失败并出现config not found
错误。
注意:
config
定义仅在版本3.3及更高版本的组合文件格式中受支持。
version: "3.3"
services:
redis:
image: redis:latest
deploy:
replicas: 1
configs:
- my_config
- my_other_config
configs:
my_config:
file: ./my_config.txt
my_other_config:
external: true
长语法在服务的任务容器中如何创建配置提供了更多的粒度。
source
:Docker中存在的配置名称。target
:将要装入服务任务容器的文件的路径和名称。默认为/<source>
未指定。uid
和gid
:数字UID或GID,它将拥有服务的任务容器中的挂载配置文件。0
如果没有指定,则默认为Linux。Windows不支持mode
:将在服务的任务容器中装载的文件的权限,以八进制符号表示。例如,0444
代表世界可读。默认是0444
。配置不能被写入,因为它们被安装在临时文件系统中,所以如果设置可写位,则忽略它。可执行位可以设置。如果您不熟悉UNIX文件权限模式,您可能会发现此下面的示例设置的名称my_config
,以redis_config
在容器内,将模式设定为0440
(组可读),并且将所述用户和组103
。该redis
服务无法访问该my_other_config
配置。
version: "3.3"
services:
redis:
image: redis:latest
deploy:
replicas: 1
configs:
- source: my_config
target: /redis_config
uid: '103'
gid: '103'
mode: 0440
configs:
my_config:
file: ./my_config.txt
my_other_config:
external: true
您可以授予对多个配置的服务访问权限,您可以混合长短语法。定义配置并不意味着授予对其的访问权限。
为容器指定一个可选的父cgroup。
cgroup_parent: m-executor-abcd
注意:在 使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
指定自定义容器名称,而不是生成的默认名称。
container_name: my-web-container
因为Docker容器名称必须是唯一的,如果您指定了自定义名称,则无法将服务扩展到超过1个容器。尝试这样做会导致错误。
注意:在 使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
注意:此选项已在v3.3中添加
配置托管服务帐户的凭据规范。此选项仅用于使用Windows容器的服务。在credential_spec
必须在格式file://<filename>
或registry://<value-name>
。
在使用时file:
,引用的文件必须存在于CredentialSpecs docker
数据目录的子目录中,这C:\ProgramData\Docker\
在Windows上是默认的。以下示例从名为C:\ProgramData\Docker\CredentialSpecs\my-credential-spec.json
以下文件的文件加载凭据规范 :
credential_spec:
file: my-credential-spec.json
使用时registry
:,凭据规范从守护程序主机上的Windows注册表中读取。具有给定名称的注册表值必须位于:
HKLM\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Virtualization\Containers\CredentialSpecs
以下示例从my-credential-spec
注册表中指定的值加载凭据规范:
credential_spec:
registry: my-credential-spec
仅限版本3
指定与部署和运行相关的配置。这只能部署到时生效 swarm 与
docker stack deploy,并且被忽略docker-compose up
和docker-compose run
。
version: '3'
services:
redis:
image: redis:alpine
deploy:
replicas: 6
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
有几个子选项可用:
为连接到群组的外部客户端指定服务发现方法。
版本3.3 .
endpoint_mode: vip
- Docker为服务分配虚拟IP(VIP),作为客户端到达网络服务的“前端”。Docker在服务的客户端和可用的工作者节点之间路由请求,而无需客户端了解有多少个节点参与服务或其IP地址或端口。(这是默认值。)endpoint_mode: dnsrr
- DNS循环(DNSRR)服务发现不使用单个虚拟IP。Docker为服务设置DNS条目,以便服务名称的DNS查询返回IP地址列表,客户端直接连接到其中一个。如果要使用自己的负载均衡器,或混合Windows和Linux应用程序,则DNS循环是非常有用的。version: "3.3"
services:
wordpress:
image: wordpress
ports:
- 8080:80
networks:
- overlay
deploy:
mode: replicated
replicas: 2
endpoint_mode: vip
mysql:
image: mysql
volumes:
- db-data:/var/lib/mysql/data
networks:
- overlay
deploy:
mode: replicated
replicas: 2
endpoint_mode: dnsrr
volumes:
db-data:
networks:
overlay:
endpoint_mode
在swarm模式CLI命令
docker service create也可用作标志 的选项。有关所有群集相关docker命令的快速列表,请参阅Swarm模式CLI命令.
指定服务的标签。这些标签只能在服务上设置,而不能在服务的任何容器上设置。
version: "3"
services:
web:
image: web
deploy:
labels:
com.example.description: "This label will appear on the web service"
要在容器上设置标签,请使用以下labels
键deploy
:
version: "3"
services:
web:
image: web
labels:
com.example.description: "This label will appear on all containers for the web service"
任一global
(正好一个每群节点容器)或replicated
(一个指定的数量的容器)。默认是replicated
。
version: '3'
services:
worker:
image: dockersamples/examplevotingapp_worker
deploy:
mode: global
指定布局约束
version: '3'
services:
db:
image: postgres
deploy:
placement:
constraints:
- node.role == manager
- engine.labels.operatingsystem == ubuntu 14.04
如果服务是replicated
(默认为),请指定在任何给定时间应运行的容器数。
version: '3'
services:
worker:
image: dockersamples/examplevotingapp_worker
networks:
- frontend
- backend
deploy:
mode: replicated
replicas: 6
配置资源约束。
注意:这取代了旧的资源约束选项在撰写非群模式文件之前版本3(
cpu_shares,cpu_quota,cpuset, mem_limit,memswap_limit,mem_swappines
s如在 升级版本2.x到3.x.
这些都是一个单一的值,类似于[docker service
create](/engine/reference/commandline/service_create.md) 对应的.
在这个通用示例中,redis
服务被限制为使用不超过50M
的内存和0.001
(0.1%)的可用处理时间(CPU),并且具有 保留20M
的内存和0.0001
CPU时间(一直可用)。
version: '3'
services:
redis:
image: redis:alpine
deploy:
resources:
limits:
cpus: '0.001'
memory: 50M
reservations:
cpus: '0.0001'
memory: 20M
下面的主题描述了为群集中的服务或容器设置资源约束的可用选项。
如果您的服务或容器尝试使用比系统可用的更多内存,则可能会遇到内存异常(OOME),并且容器或Docker守护程序可能被内核OOM杀手杀死。为了防止这种情况发生,请确保您的应用程序在具有足够内存的主机上运行,并且了解内存不足的风险。
配置在退出时是否以及如何重新启动容器。替换restart
.
condition
: 其中之一none
,on-failure
或any
(默认:)any
。delay
:在重新启动尝试之间等待多长时间,指定为 持续时间
(默认值:0)。max_attempts
: 在放弃之前尝试重新启动一个容器多少次(默认:永不放弃).window
: 在决定重新启动成功之前等待多长时间,指定为持续时间(默认:立即决定).version: "3"
services:
redis:
image: redis:alpine
deploy:
restart_policy:
condition: on-failure
delay: 5s
max_attempts: 3
window: 120s
配置服务如何更新。用于配置滚动更新。
parallelism
:一次更新的容器数量。delay
:更新一组容器之间等待的时间。failure_action
: 如果更新失败,该怎么办?其中之一continue,rollback或pause
(默认:)pause。monitor
: 每个任务更新后的持续时间来监视失败 (ns|us|ms|s|m|h)
(默认为0)。max_failure_ratio
:更新期间容忍的故障率。order
: 更新期间的操作顺序。其中一个stop-first
(旧任务,开始新的一个前停止),或者start-first
(新的任务首先启动,并且正在运行的任务将简要重叠)(默认stop-first)注:仅支持V3.4及更高版本。注意:order仅支持v3.4及更高版本的撰写文件格式。
version: '3.4'
services:
vote:
image: dockersamples/examplevotingapp_vote:before
depends_on:
- redis
deploy:
replicas: 2
update_config:
parallelism: 2
delay: 10s
order: stop-first
docker stack deploy
下面的子选项(支持docker compose up
和docker compose run
)是不支持的docker stack deploy
或deploy键的。
设备映射列表 使用与--device
docker客户端创建选项相同的格式。
devices:
- "/dev/ttyUSB0:/dev/ttyUSB0"
注意:在使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
服务之间的快速依赖,有两个作用:
docker-compose up
将依依次顺序启动服务。在下面的例子中,db并redis会开始之前web。docker-compose up SERVICE
将自动包含SERVICE的依赖关系。在下面的例子中,docker-compose up web也将创建和启动db和redis。简单的例子:
version: '3'
services:
web:
build: .
depends_on:
- db
- redis
redis:
image: redis
db:
image: postgres
使用时需要注意几件事情
depends_on
:
depends_on
在开始之前不会等待db
并且redis
“准备好”,web
直到它们被启动为止- 版本3不再支持的
condition
形式depends_on
depends_on
使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
自定义DNS服务器。可以是单个值或列表。
dns: 8.8.8.8
dns:
- 8.8.8.8
- 9.9.9.9
注意:使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
自定义DNS搜索域。可以是单个值或列表。
dns_search: example.com
dns_search:
- dc1.example.com
- dc2.example.com
注意:使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
版本2文件格式 and up.
在容器内安装临时文件系统。可以是单个值或列表。
tmpfs: /run
tmpfs:
- /run
- /tmp
注意:使用(版本3)Compose文件以群组模式部署堆栈
时,将忽略此选项 。
覆盖默认入口点。
entrypoint: /code/entrypoint.sh
entrypoint也可以是一个列表,类似于
dockerfile:
entrypoint:
- php
- -d
- zend_extension=/usr/local/lib/php/extensions/no-debug-non-zts-20100525/xdebug.so
- -d
- memory_limit=-1
- vendor/bin/phpunit
注意:设置
entrypoint
将使用ENTRYPOINTDockerfile
指令覆盖服务映像上的任何默认入口点集,并 清除映像上的任何默认命令 - 这意味着如果CMD
Dockerfile中有指令,则将忽略它。
从文件添加环境变量。可以是单个值或列表。
如果您指定了一个Compose文件docker-compose -f FILE,则路径 env_file相对于该文件所在的目录。
环境变量 部分中 声明的环境变量将覆盖这些值 - 即使这些值为空或未定义,这也将成立。
env_file: .env
env_file:
- ./common.env
- ./apps/web.env
- /opt/secrets.env
Compose期望env文件中的每一行都是VAR=VAL
格式化的。以#
(即注释)开始的行将被忽略,空白行也将被忽略。
# Set Rails/Rack environment
RACK_ENV=development
注意:如果您的服务指定构建选项,则在构建期间将不会自动显示在环境文件中定义的变量。使用
args
子选项build
定义构建时环境变量。
该值VAL
是按原样使用的,完全没有修改。例如,如果值被引号包围(通常是shell变量的情况),引号将包含在传递给Compose的值中。
请记住,在确定分配给显示多次的变量的值时,列表中文件的顺序很重要。列表中的文件从上到下处理。对于在文件中指定的相同变量,a.env
并在文件中 分配了不同的值b.env,如果b.env在下面列出(之后),则来自b.envstand 的值。例如,给出以下声明docker_compose.yml
:
services:
some-service:
env_file:
- a.env
- b.env
和以下文件:
# a.env
VAR=1
和
# b.env
VAR=hello
$ VAR将会hello
添加环境变量。您可以使用数组或字典。任何布尔值; true,false,yes no,需要用引号括起来,以确保它们不被YML解析器转换为True或False。
仅具有密钥的环境变量将被解析为其正在运行的机器上的值,这对于秘密或主机特定值有帮助。
environment:
RACK_ENV: development
SHOW: 'true'
SESSION_SECRET:
environment:
- RACK_ENV=development
- SHOW=true
- SESSION_SECRET
注意:如果您的服务指定构建选项,environment则在构建期间不会自动显示定义的变量。使用args子选项build定义构建时环境变量。
暴露端口而不将它们发布到主机 - 它们只能被链接服务访问。只能指定内部端口。
expose:
- "3000"
- "8000"
连接到组合之外docker-compose.yml
或甚至外部的容器,尤其是提供共享或公共服务的容器。 在指定容器名称和链接别名()时,external_links
遵循与legacy选项相似的语义。linksCONTAINER:ALIAS
external_links:
- redis_1
- project_db_1:mysql
- project_db_1:postgresql
注意:
如果您使用的是版本2或以上的文件格式,外部创建的容器必须连接至至少一个与要链接的服务相同的网络。链接是遗留选项。我们建议使用网络。
使用(版本3)Compose文件在群集模式下部署堆栈时,将忽略此选项。
添加主机名映射。使用与docker客户端--add-host
参数相同的值。
extra_hosts:
- "somehost:162.242.195.82"
- "otherhost:50.31.209.229"
将在/etc/hosts
此服务的内部容器中创建具有ip地址和主机名的条目,例如:
162.242.195.82 somehost
50.31.209.229 otherhost
配置运行的支票以确定此服务的容器是否“健康”。
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost"]
interval: 1m30s
timeout: 10s
retries: 3
interval并被timeout指定为持续时间。
test必须是字符串或列表。如果它是一个列表,第一项必须是NONE,CMD或CMD-SHELL。如果它是一个字符串,则相当于指定CMD-SHELL该字符串。
# Hit the local web app
test: ["CMD", "curl", "-f", "http://localhost"]
# As above, but wrapped in /bin/sh. Both forms below are equivalent.
test: ["CMD-SHELL", "curl -f http://localhost || exit 1"]
test: curl -f https://localhost || exit 1
要禁用图像设置的任何默认的健康检查,可以使用disable: true。这相当于指定test: ["NONE"]。
healthcheck:
disable: true
指定要从中启动容器的图像。可以是存储库/标签或部分映像ID。
image: redis
image: ubuntu:14.04
image: tutum/influxdb
image: example-registry.com:4000/postgresql
image: a4bc65fd
如果图像不存在,Compose尝试拉它,除非您也指定了构建,在这种情况下,它使用指定的选项构建它,并使用指定的标签进行标记。
指定容器的隔离技术。在Linux上,唯一支持的值是default。在Windows中,可接受的值是default,process和 hyperv。有关详细信息,请参阅
Docker Engine docs
.
使用Docker标签将元数据添加到容器。您可以使用数组或字典。
建议您使用反向DNS符号来防止标签与其他软件使用的标签相冲突。
labels:
com.example.description: "Accounting webapp"
com.example.department: "Finance"
com.example.label-with-empty-value: ""
labels:
- "com.example.description=Accounting webapp"
- "com.example.department=Finance"
- "com.example.label-with-empty-value"
链接到另一个服务中的容器。指定服务名称和链接别名(SERVICE:ALIAS)或仅指定服务名称。
web:
links:
- db
- db:database
- redis
链接服务的容器将以与别名相同的主机名或者未指定别名的服务名称可访问。
链接不需要启用服务进行通信 - 默认情况下,任何服务都可以达到该服务名称的任何其他服务。
链接还以与depends_on相同的方式表示服务之间的依赖关系 ,因此它们确定服务启动的顺序。
Notes
如果您定义了链接和网络,那么它们之间链接的服务必须至少共享一个网络以进行通信。
使用(版本3)Compose文件在群集模式下部署堆栈时,将忽略此选项
记录该服务的配置。
logging:
driver: syslog
options:
syslog-address: "tcp://192.168.0.42:123"
该driver 名称指定服务的容器的日志记录驱动程序,以及--log-driverdocker运行的选项(在此记录)。
默认值为json-file。
driver: "json-file"
driver: "syslog"
driver: "none"
Note: 只有json-file和journald驱动程序可以直接从docker-compose up和docker-compose logs。使用任何其他驱动程序不会打印任何日志。
使用options键指定记录驱动程序的日志记录选项,与--log-opt选项一样docker run。
记录选项是键值对。syslog选项示例:
driver: "syslog"
options:
syslog-address: "tcp://192.168.0.42:123"
默认驱动程序json-file具有限制存储的日志数量的选项。为此,请使用键值对来获取最大存储大小和最大文件数:
options:
max-size: "200k"
max-file: "10"
上面显示的示例将存储日志文件,直到它们达到max-size200kB,然后旋转它们。存储的各个日志文件的数量由max-file值指定。当日志超出最大限制时,会删除较旧的日志文件以允许存储新日志。
这是一个docker-compose.yml限制日志存储的示例文件:
services:
some-service:
image: some-service
logging:
driver: "json-file"
options:
max-size: "200k"
max-file: "10"
上述用于控制日志文件和大小的示例使用特定于json文件驱动程序的选项。这些特定选项在其他日志记录驱动程序中不可用。
网络模式。使用与docker客户端--net参数相同的值,加上特殊格式service:[service name]。
network_mode: "bridge"
network_mode: "host"
network_mode: "none"
network_mode: "service:[service name]"
network_mode: "container:[container name/id]"
Notes
- 使用(版本3)Compose文件在群集模式下部署堆栈时,将忽略此选项 。
network_mode: "host"
不能与links混合.
加入网络,引用顶级networks密钥下的条目
services:
some-service:
networks:
- some-network
- other-network
网络上此服务的别名(替代主机名)。同一网络上的其他容器可以使用服务名称或此别名来连接到其中一个服务的容器。
由于aliases是网络范围的,相同的服务可以在不同的网络上有不同的别名。
Note: 全网域别名可由多个容器共享,甚至可以由多个服务共享。如果是,则不能保证名称解决的哪个容器。
一般格式如下所示。
services:
some-service:
networks:
some-network:
aliases:
- alias1
- alias3
other-network:
aliases:
- alias2
在下面的例子中,提供了三种服务(web,worker,和db),其中两个网络(沿new和legacy)。该db服务是在到达的主机名db或database上new网络,并db或mysql将上legacy网络。
version: '2'
services:
web:
build: ./web
networks:
- new
worker:
build: ./worker
networks:
- legacy
db:
image: mysql
networks:
new:
aliases:
- database
legacy:
aliases:
- mysql
networks:
new:
legacy:
在加入网络时为该服务指定容器的静态IP地址。
顶级网络部分中的相应网络配置 必须具有ipam覆盖每个静态地址的子网配置的 块。如果需要IPv6寻址,则enable_ipv6必须设置该选项,您必须使用版本2.x Compose文件,如下所示。
一个例子:
version: '2.1'
services:
app:
image: busybox
command: ifconfig
networks:
app_net:
ipv4_address: 172.16.238.10
ipv6_address: 2001:3984:3989::10
networks:
app_net:
driver: bridge
enable_ipv6: true
ipam:
driver: default
config:
-
subnet: 172.16.238.0/24
-
subnet: 2001:3984:3989::/64
pid: "host"
将PID模式设置为主机PID模式。这将打开容器和主机操作系统之间的共享PID地址空间。使用此标志启动的容器将能够访问和操作裸机机器的命名空间中的其他容器,反之亦然。
Expose ports.
既可以指定端口(HOST:CONTAINER),也可以指定容器端口(将选择随机的主机端口)。
Note:以HOST:CONTAINER格式映射端口时,使用低于60的容器端口时,可能会遇到错误的结果,因为YAML会将格式的数字解析xx:yy为六进制(基数为60)。因此,我们建议您始终将端口映射明确指定为字符串。
ports:
- "3000"
- "3000-3005"
- "8000:8000"
- "9090-9091:8080-8081"
- "49100:22"
- "127.0.0.1:8001:8001"
- "127.0.0.1:5000-5010:5000-5010"
- "6060:6060/udp"
长格式语法允许配置不能以简短形式表达的其他字段。
target
: 容器内的端口published
: 公开端港口protocol
: 端口协议(tcp或udp)mode
: host用于在每个节点上发布主机端口,或者ingress用于在负载均衡的群集模式端口上发布主机端口。ports:
- target: 80
published: 8080
protocol: tcp
mode: host
Note: v3.2中的长语法是新的
使用每个服务secrets 配置在每个服务的基础上授予访问权限。支持两种不同的语法变体。
Note: 该秘密必须已经存在或者 在secrets 该堆栈文件的顶级配置中定义,否则堆栈部署将失败
For more information on secrets, see secrets.
短语法变体仅指定秘密名称。这允许容器访问秘密,并将其安装在/run/secrets/ 容器内。源名称和目标挂载点都设置为秘密名称。
以下示例使用简短的语法来授予redis对该my_secret和my_other_secret机密的服务访问权限。将值 my_secret设置为文件的内容./my_secret.txt,并将 my_other_secret其定义为外部资源,这意味着它已经在Docker中定义,无论是通过运行docker secret create 命令还是通过其他堆栈部署。如果外部机密不存在,则堆栈部署失败并出现secret not found错误。
version: "3.1"
services:
redis:
image: redis:latest
deploy:
replicas: 1
secrets:
- my_secret
- my_other_secret
secrets:
my_secret:
file: ./my_secret.txt
my_other_secret:
external: true
The long syntax provides more granularity in how the secret is created within
the service's task containers.
source
: The name of the secret as it exists in Docker.target
: The name of the file that will be mounted in /run/secrets/
in thesource
if not specified.uid
and gid
: The numeric UID or GID which will own the file within/run/secrets/
in the service's task containers. Both default to 0
if notspecified.
mode
: The permissions for the file that will be mounted in /run/secrets/
0444
represents world-readable. The default in Docker 1.13.1 is 0000
, but will
be 0444
in the future. Secrets cannot be writable because they are mounted
in a temporary filesystem, so if you set the writable bit, it is ignored. The
executable bit can be set. If you aren't familiar with UNIX file permission
modes, you may find this
permissions calculator{: target="_blank" class="_" }
useful.
The following example sets name of the my_secret
to redis_secret
within the
container, sets the mode to 0440
(group-readable) and sets the user and group
to 103
. The redis
service does not have access to the my_other_secret
secret.
version: "3.1"
services:
redis:
image: redis:latest
deploy:
replicas: 1
secrets:
- source: my_secret
target: redis_secret
uid: '103'
gid: '103'
mode: 0440
secrets:
my_secret:
file: ./my_secret.txt
my_other_secret:
external: true
You can grant a service access to multiple secrets and you can mix long and
short syntax. Defining a secret does not imply granting a service access to it.
Override the default labeling scheme for each container.
security_opt:
- label:user:USER
- label:role:ROLE
Note: This option is ignored when
deploying a stack in swarm mode
with a (version 3) Compose file.
Specify how long to wait when attempting to stop a container if it doesn't
handle SIGTERM (or whatever stop signal has been specified withstop_signal
), before sending SIGKILL. Specified
as a duration.
stop_grace_period: 1s
stop_grace_period: 1m30s
By default, stop
waits 10 seconds for the container to exit before sending
SIGKILL.
Sets an alternative signal to stop the container. By default stop
uses
SIGTERM. Setting an alternative signal using stop_signal
will causestop
to send that signal instead.
stop_signal: SIGUSR1
Note: This option is ignored when
deploying a stack in swarm mode
with a (version 3) Compose file.
Kernel parameters to set in the container. You can use either an array or a
dictionary.
sysctls:
net.core.somaxconn: 1024
net.ipv4.tcp_syncookies: 0
sysctls:
- net.core.somaxconn=1024
- net.ipv4.tcp_syncookies=0
Note: This option is ignored when
deploying a stack in swarm mode
with a (version 3) Compose file.
Override the default ulimits for a container. You can either specify a single
limit as an integer or soft/hard limits as a mapping.
ulimits:
nproc: 65535
nofile:
soft: 20000
hard: 40000
userns_mode: "host"
Disables the user namespace for this service, if Docker daemon is configured with user namespaces.
See dockerd for
more information.
Note: This option is ignored when
deploying a stack in swarm mode
with a (version 3) Compose file.
挂载主机路径或命名卷,指定为服务的子选项。
您可以将主机路径作为单个服务的定义的一部分进行安装,并且不需要在顶级volumes密钥中定义它。
但是,如果要跨多个服务重用卷,请在顶级volumes密钥中定义一个命名卷。使用命名卷与服务,群组和堆栈文件。
Note: 顶级 卷键定义一个命名卷,并从每个服务的volumes列表中引用它。这将替代volumes_from早期版本的撰写文件格式。
该实施例显示了一个名为体积(mydata)正在使用的web服务,和一个绑定安装为一个单一的服务(下第一路径定义db的服务 volumes)。该db服务还使用一个名为dbdata(称为db服务的第二个路径volumes)的命名卷,但使用旧的字符串格式来定义它,用于安装一个命名卷。命名卷必须列在顶级 volumes密钥下,如图所示。
version: "3.2"
services:
web:
image: nginx:alpine
volumes:
- type: volume
source: mydata
target: /data
volume:
nocopy: true
- type: bind
source: ./static
target: /opt/app/static
db:
image: postgres:latest
volumes:
- "/var/run/postgres/postgres.sock:/var/run/postgres/postgres.sock"
- "dbdata:/var/lib/postgresql/data"
volumes:
mydata:
dbdata:
可选地指定主机(HOST:CONTAINER)或访问模式(HOST:CONTAINER:ro)上的路径。
您可以在主机上安装相对路径,该路径将相对于正在使用的Compose配置文件的目录进行扩展。相对路径应该始于.或..。
volumes:
# Just specify a path and let the Engine create a volume
- /var/lib/mysql
# Specify an absolute path mapping
- /opt/data:/var/lib/mysql
# Path on the host, relative to the Compose file
- ./cache:/tmp/cache
# User-relative path
- ~/configs:/etc/configs/:ro
# Named volume
- datavolume:/var/lib/mysql
长格式语法允许配置不能以简短形式表达的其他字段。
type
: 安装类型volume,bind或tmpfssource
: 安装的源,主机上的绑定安装路径,或顶级volumes密钥中定义的卷的名称 。不适用于tmpfs mount。target
: 容器中将要装入卷的路径read_only
:将卷设置为只读的标志bind
: 配置其他绑定选项
propagation
:用于绑定的传播模式volume
:配置其他卷选项
nocopy
: 在创建卷时禁止从容器复制数据的标志version: "3.2"
services:
web:
image: nginx:alpine
ports:
- "80:80"
volumes:
- type: volume
source: mydata
target: /data
volume:
nocopy: true
- type: bind
source: ./static
target: /opt/app/static
networks:
webnet:
volumes:
mydata:
Note: v3.2中的长语法是新的
当使用服务,群集和docker-stack.yml文件时,请记住,支持服务的任务(容器)可以部署在群集中的任何节点上,每当节点更新时,它们可能是不同的节点。
在没有指定源的命名卷的情况下,Docker为支持服务的每个任务创建一个匿名卷。删除关联的容器后,匿名卷不会持久。
如果要使数据持久存在,请使用多主机感知的命名卷和卷驱动程序,以便可以从任何节点访问数据。或者,对服务设置约束,使其任务部署在存在卷的节点上。
作为示例,Docker Labs中docker-stack.yml的表决应用程序示例的文件 定义了一个名为db运行postgres数据库的服务。它被配置为命名卷,以便将数据保留在群集中, 并且被限制为仅在manager节点上运行。这是从该文件的相关剪辑:
version: "3"
services:
db:
image: postgres:9.4
volumes:
- db-data:/var/lib/postgresql/data
networks:
- backend
deploy:
placement:
constraints: [node.role == manager]
no是默认的重新启动策略,它不会在任何情况下重新启动容器。当always指定时,容器总是重新启动。on-failure如果退出代码指示故障错误,该 策略将重新启动容器。
restart: "no"
restart: always
restart: on-failure
restart: unless-stopped
这些都是一个单一的值,类似于其
docker run 对应物
user: postgresql
working_dir: /code
domainname: foo.com
hostname: foo
ipc: host
mac_address: 02:42:ac:11:65:43
privileged: true
read_only: true
shm_size: 64M
stdin_open: true
tty: true
一些配置选项,如interval和timeout子选项 check,接受一个持续时间为看起来像这样的格式的字符串:
2.5s
10s
1m30s
2h32m
5h34m56s
The supported units are us
, ms
, s
, m
and h
.
虽然可以在文件中声明卷作为服务声明的一部分,但本节允许您创建volumes_from可以跨多个服务重复使用的命名卷(不依赖),并且可以使用docker命令行轻松地检索和检查API。有关更多信息,请参阅 docker volume子命令文档。
以下是一个双服务设置的示例,其中将数据库的数据目录与其他服务共享为卷,以便可以定期备份数据库的数据目录:
version: "3"
services:
db:
image: db
volumes:
- data-volume:/var/lib/db
backup:
image: backup-service
volumes:
- data-volume:/var/lib/backup/data
volumes:
data-volume:
顶级volumes密钥下的条目可以为空,在这种情况下,它将使用引擎配置的默认驱动程序(在大多数情况下,这是 local驱动程序)。
指定该卷使用哪个卷驱动程序。默认为Docker Engine配置为使用的任何驱动程序,这在大多数情况下是这样 local。如果驱动程序不可用,引擎将在docker-compose up尝试创建卷时返回错误 。
driver: foobar
指定选项列表作为键值对,以传递给此卷的驱动程序。这些选项与驱动程序相关 - 有关详细信息,请参阅驱动程序文档。可选的。
driver_opts:
foo: "bar"
baz: 1
如果设置为true,则指定此卷已在Compose之外创建。docker-compose up不会尝试创建它,如果不存在则会引发错误。
external不能与其他卷配置键(driver,driver_opts)结合使用。
在下面的示例中,[projectname]_dataCompose 不是尝试创建一个名为的卷,而是 会查找一个简单调用的现有卷,data并将其安装到db服务的容器中。
version: '2'
services:
db:
image: postgres
volumes:
- data:/var/lib/postgresql/data
volumes:
data:
external: true
您还可以在Compose文件中与用于引用卷的名称分开指定卷的名称:
volumes:
data:
external:
name: actual-name-of-volume
总是使用docker stack deploy创建外部卷
如果使用docker stack deploy以swarm模式启动应用程序 (而不是docker组合),则将创建不存在的外部卷。在群集模式下,当由服务定义时,会自动创建一个卷。由于服务任务在新节点上安排, 所以swarmkit会在本地节点上创建卷。
使用Docker标签将元数据添加到容器 。您可以使用数组或字典。
建议您使用反向DNS符号来防止标签与其他软件使用的标签相冲突。
labels:
com.example.description: "Database volume"
com.example.department: "IT/Ops"
com.example.label-with-empty-value: ""
labels:
- "com.example.description=Database volume"
- "com.example.department=IT/Ops"
- "com.example.label-with-empty-value"
顶级networks密钥允许您指定要创建的网络。
Container
Networks](https://github.com/docker/labs/blob/master/networking/README.md)
指定该网络应使用哪个驱动程序。
默认驱动程序取决于您使用的Docker Engine是如何配置的,但在大多数情况下,它将bridge位于单个主机和overlaySwarm上。
如果驱动程序不可用,Docker Engine将返回一个错误。
driver: overlay
Docker默认bridge在单个主机上使用网络。
该overlay驱动程序创建一个跨多个节点命名的网络
swarm.
overlay
network with a service in swarm mode, see the Docker Labs tutorial on[Overlay networking and service
discovery](https://github.com/docker/labs/blob/master/networking/A3-overlay-networking.md).
Architecture](https://github.com/docker/labs/blob/master/networking/concepts/06-overlay-networks.md).
使用主机的网络堆栈,或没有网络。等同于 docker run --net=host或docker run --net=none。仅在使用docker stack命令时使用 。如果使用该docker-compose命令,请改用network_mode。
使用内置的网络,如语法host和none稍有不同。使用名称host或none(Docker已经自动创建的)和Compose可以使用的别名(hostnet或nonet在这些示例中)定义外部网络,然后使用别名授予对该网络的服务访问权限。
services:
web:
...
networks:
hostnet: {}
networks:
hostnet:
external:
name: host
services:
web:
...
networks:
nonet: {}
networks:
nonet:
external:
name: none
指定选项列表作为键值对,以传递给此网络的驱动程序。这些选项与驱动程序相关 - 有关详细信息,请参阅驱动程序文档。可选的。
driver_opts:
foo: "bar"
baz: 1
Note: Only supported for v3.2 and higher.
仅在driver设置时使用overlay。如果设置为true,则除了服务之外,独立容器可以附加到此网络。如果独立的容器附加到覆盖网络,则它可以与服务和独立容器通信,这些容器也从其他Docker守护程序连接到覆盖网络。
networks:
mynet1:
driver: overlay
attachable: true
在此网络上启用IPv6网络。
Compose File版本3中不支持
enable_ipv6
要求您使用版本2 Compose文件,因为在Swarm模式下此命令尚不支持。
Specify custom IPAM config. This is an object with several properties, each of
which is optional:
driver
: Custom IPAM driver, instead of the default.config
: A list with zero or more config blocks, each containing any of
the following keys:
subnet
: Subnet in CIDR format that represents a network segmentA full example:
ipam:
driver: default
config:
- subnet: 172.28.0.0/16
Note: Additional IPAM configurations, such as
gateway
, are only honored for version 2 at the moment.
By default, Docker also connects a bridge network to it to provide external
true
.Add metadata to containers using
Docker labels. You can use either
an array or a dictionary.
It's recommended that you use reverse-DNS notation to prevent your labels from
conflicting with those used by other software.
labels:
com.example.description: "Financial transaction network"
com.example.department: "Finance"
com.example.label-with-empty-value: ""
labels:
- "com.example.description=Financial transaction network"
- "com.example.department=Finance"
- "com.example.label-with-empty-value"
If set to true
, specifies that this network has been created outside of
Compose. docker-compose up
will not attempt to create it, and will raise
an error if it doesn't exist.
external
cannot be used in conjunction with other network configuration keys
(driver
, driver_opts
, ipam
, internal
).
In the example below, proxy
is the gateway to the outside world. Instead of
attempting to create a network called [projectname]_outside
, Compose will
look for an existing network simply called outside
and connect the proxy
service's containers to it.
version: '2'
services:
proxy:
build: ./proxy
networks:
- outside
- default
app:
build: ./app
networks:
- default
networks:
outside:
external: true
You can also specify the name of the network separately from the name used to
refer to it within the Compose file:
networks:
outside:
external:
name: actual-name-of-network
The top-level configs
declaration defines or references
configs which can be granted to the services in this
file
or external
.file
: The config is created with the contents of the file at the specifiedexternal
: If set to true, specifies that this config has already been
config not found
error occurs.In this example, my_first_config
will be created (as<stack_name>_my_first_config)
when the stack is deployed,
and my_second_config
already exists in Docker.
configs:
my_first_config:
file: ./config_data
my_second_config:
external: true
Another variant for external configs is when the name of the config in Docker
is different from the name that will exist within the service. The following
example modifies the previous one to use the external config calledredis_config
.
configs:
my_first_config:
file: ./config_data
my_second_config:
external:
name: redis_config
You still need to grant access to the config to each service in the
stack.
The top-level secrets
declaration defines or references
secrets which can be granted to the services in this
file
or external
.file
: The secret is created with the contents of the file at the specifiedexternal
: If set to true, specifies that this secret has already been
secret not found
error occurs.In this example, my_first_secret
will be created (as<stack_name>_my_first_secret)
when the stack is deployed,
and my_second_secret
already exists in Docker.
secrets:
my_first_secret:
file: ./secret_data
my_second_secret:
external: true
Another variant for external secrets is when the name of the secret in Docker
is different from the name that will exist within the service. The following
example modifies the previous one to use the external secret calledredis_secret
.
secrets:
my_first_secret:
file: ./secret_data
my_second_secret:
external:
name: redis_secret
You still need to grant access to the secrets to each service in the
stack.
{% include content/compose-var-sub.md %}