docker容器互联,实现目录、服务共享
一、需求
docker使服务之间实现容器隔离,比如Javaweb项目前端、后端、数据库、数据库后台,分别把它们部署在不同的容器里面,实现隔离。但服务和服务之间也有互访的需求,这就涉及到容器网络和容器互联挂载访问机制的内容。
容器是基于镜像创建的,最后的容器文件系统包括镜像的只读层+可写层,容器中的进程操作的数据持久化都是保存在容器的可写层上。一旦容器删除后,这些数据就没了,除非我们人工备份下来(或者基于容器创建新的镜像)。能否可以让容器进程持久化的数据保存在主机上呢?这样即使容器删除了,数据还在。
docker本身提供了一种机制,可以将主机上的某个目录与容器的某个目录(称为挂载点、或者叫卷)关联起来,容器上的挂载点下的内容就是主机的这个目录下的内容,这类似linux系统下mount的机制。 这样的话,我们修改主机上该目录的内容时,不需要同步容器,对容器来说是立即生效的。挂载点可以让多个容器共享。
二、通过docker run命令
1、运行命令:
# docker run --name node1 -h nodex -v /home/upload/:/data -d -i -t centos /bin/bash
其中的 -v 标记 在容器中设置了一个挂载点 /data(就是容器中的一个目录),并将主机上的 /home/upload/ 目录中的内容关联到 /data下。
这样在容器中对/data目录下的操作,还是在主机上对/home/upload/的操作,都是完全实时同步的,因为这两个目录实际都是指向主机目录。
通过docker inspect 命令查看目录对应关系
# docker inspect node1
[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "bind",
"Source": "/home/upload",
"Destination": "/data",
"Mode": "",
"RW": true,
"Propagation": "rprivate"
}
],
...........................
2、运行命令:
# docker run --name node2 -h nodex -v /data -d -i -t centos /bin/bash
上面-v的标记只设置了容器的挂载点,并没有指定关联的主机目录。这时docker会自动绑定主机上的一个目录。通过docker inspect 命令可以查看到。
# docker inspect node2
[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "volume",
"Name": "d04353ed38845a54a2bd5909b82c470fe644391626f877644e9580aba22a3a12",
"Source": "/var/lib/docker/volumes/d04353ed38845a54a2bd5909b82c470fe644391626f877644e9580aba22a3a12/_data",
"Destination": "/data",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
}
],
...........................
上面 Mounts下的每条信息记录了容器上一个挂载点的信息,"Destination" 值是容器的挂载点,"Source"值是对应的主机目录。
可以看出这种方式对应的主机目录是自动创建的,其目的不是让在主机上修改,而是让多个容器共享。
三、通过dockerfile创建挂载点
上面介绍的通过docker run命令的-v标识创建的挂载点只能对创建的容器有效。
通过dockerfile的 VOLUME 指令可以在镜像中创建挂载点,这样只要通过该镜像创建的容器都有了挂载点。
还有一个区别是,通过 VOLUME 指令创建的挂载点,无法指定主机上对应的目录,是自动生成的。
# cat Dockerfile
下面的dockfile文件通过VOLUME指令指定了两个挂载点 /data1 和 /data2
#test
FROM centos
MAINTAINER djl
VOLUME ["/data1","/data2"]
# docker build -t test .
[root@localhost ~]# docker build -t test .
Sending build context to Docker daemon 28.77 MB
Step / : FROM centos
---> 9f38484d220f
Step / : MAINTAINER djl
---> Running in d14672dadf87
---> 602a4b8e796d
Removing intermediate container d14672dadf87
Step / : VOLUME /data1 /data2
---> Running in 30b586d5aaf4
---> f51b774e7869
Removing intermediate container 30b586d5aaf4
Successfully built f51b774e7869
查看构建的镜像
# docker images
[root@localhost ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
test latest f51b774e7869 minutes ago MB
centos latest 9f38484d220f months ago MB
运行一个容器
# docker run --name node3 -h nodex -d -i -t test /bin/bash
[root@localhost ~]# docker run --name node3 -h nodex -d -i -t test /bin/bash
6fb05f94a368e05dd96e2f42432f1e4c0dcad1bd6b726079c69fba0625783c38
[root@localhost ~]#
[root@localhost ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
6fb05f94a368 test "/bin/bash" seconds ago Up seconds node3
f2bf65a82acc centos "/bin/bash" About an hour ago Up About an hour node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2
我们通过docker inspect 查看通过该dockerfile创建的镜像生成的容器,可以看到如下信息
# docker inspect node3
[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "volume",
"Name": "cc2fcaccae2dca5021d82d4d581e1f500816a96745237527d4fa7925a2061e04",
"Source": "/var/lib/docker/volumes/cc2fcaccae2dca5021d82d4d581e1f500816a96745237527d4fa7925a2061e04/_data",
"Destination": "/data1",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
},
{
"Type": "volume",
"Name": "2f7419b960ae0a3f7be58875f5021312b181fdad72e2c7390b2bb7aab7d06b24",
"Source": "/var/lib/docker/volumes/2f7419b960ae0a3f7be58875f5021312b181fdad72e2c7390b2bb7aab7d06b24/_data",
"Destination": "/data2",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
}
],
...........................
可以看到两个挂载点的信息。
四、容器共享卷(挂载点)
下面我们创建另一个容器可以和node3共享 /data1 和 /data2卷 ,这是在 docker run中使用 --volumes-from标记,如:
1、可以是来源不同镜像,如:
# docker run --name node4 -itd --volumes-from node3 centos /bin/bash
[root@localhost ~]# docker run --name node4 -itd --volumes-from node3 centos /bin/bash
ced022f71608c81fd2d689861809b033996351e4dc23c210eaeda675ff28a31b
[root@localhost ~]#
[root@localhost ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ced022f71608 centos "/bin/bash" seconds ago Up seconds node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2
验证:
[root@localhost ~]# docker exec node3 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var
[root@localhost ~]# docker exec node4 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var
2、也可以是同一镜像,如:
# docker run --name node5 -itd --volumes-from node3 test /bin/bash
[root@localhost ~]# docker run --name node5 -itd --volumes-from node3 test /bin/bash
e6a2584eab2cce5b678f432d8eb48a762e5b1b2d57bcd76ee48f121c51ff282d
[root@localhost ~]#
[root@localhost ~]# docker exec node5 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var
五、最佳实践:数据容器
如果多个容器需要共享数据(如持久化数据库、配置文件或者数据文件等),可以考虑创建一个特定的数据容器,该容器有1个或多个卷。
其它容器通过--volumes-from 来共享这个数据容器的卷。
因为容器的卷本质上对应主机上的目录,所以这个数据容器也不需要启动。
# docker run --name dbdata test echo "data container"
[root@localhost ~]# docker run --name dbdata test echo "data container"
data container
[root@localhost ~]#
[root@localhost ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ac04a4f5d1ab test "echo 'data contai..." seconds ago Exited () seconds ago dbdata
e6a2584eab2c test "/bin/bash" minutes ago Up minutes node5
ced022f71608 centos "/bin/bash" minutes ago Up minutes node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2
[root@localhost ~]# docker start dbdata
dbdata
[root@localhost ~]#
[root@localhost ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ac04a4f5d1ab test "echo 'data contai..." seconds ago Exited () seconds ago dbdata
e6a2584eab2c test "/bin/bash" minutes ago Up minutes node5
ced022f71608 centos "/bin/bash" minutes ago Up minutes node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2
说明:有个卷,容器之间的数据共享比较方便,但也有很多问题需要解决,如权限控制、数据的备份、卷的删除等。
参考博客:
docker学习笔记18:Dockerfile 指令 VOLUME 介绍
docker容器互联,实现目录、服务共享的更多相关文章
- Docker容器安装配置SQLServer服务(Linux)
一:前言 随着不断的对Docker容器的实践和学习,越来越觉得容器的强大,把 SQL Server 数据库服务放在docker容器中,比你自己在宿主服务器上面安装配置一个SQL Server服务器是要 ...
- 【Docker学习之六】Docker容器互联
环境 docker-ce-19.03.1-3.el7.x86_64 centos 7 一.基于Volume的互联就是-v参数,将本机文件或目录挂载到容器目录,实现文件目录共享 二.基于Link的互联 ...
- Docker系列(四):Docker容器互联
基于Volume的互联 为什么需要Volume docker文件系统是分层的,下面的是全部是只读的,最上面的是可写层,容器中的进程如果修改了某个文件,比如修改了下层的某个文件,其实是在最顶层复制下层文 ...
- Docker容器挂载宿主目录的情形分析
Docker容器启动的时候,如果要挂载宿主机的一个目录,可以用-v参数指定. 譬如我要启动一个centos容器,宿主机的/test目录挂载到容器的/soft目录,可通过以下方式指定: # docker ...
- 使用weave实现跨主机docker容器互联
关于weave的原理不做细致的说明,如果想了解weave可以登陆官网:https://www.weave.works/ In this post,使用阿里云3台ECS服务器进行weave搭建,并测试搭 ...
- Docker - 容器互联
容器互联 通过docker run命令的--link参数可以让容器之间通过连接(linking)系统进行交互. 参数格式:--link name:alias ,name是要链接的容器名称, alias ...
- centos:解决docker容器内挂载目录无权限 ls: cannot open directory .: Permission denied
docker运行一个容器后,将主机中当前目录下的文件夹挂载到容器的文件夹后 进入到docker容器内对应的挂载目录中,运行命令ls后提示: ls: cannot open directory .: P ...
- Docker | 容器互联互通
上篇讲到创建自定义网络,我创建了 mynet 网络,并指定了网关和子网地址.在上篇结尾呢,我抛出了一个问题:其它网络下的容器可以直接访问mynet网络下的容器吗?今天就让我们一块看下怎么实现容器互联. ...
- docker容器互联
link方式 http://blog.csdn.net/halcyonbaby/article/details/42112325 通过link方式创建容器,然后我们可以使用被link容器的别名进行访问 ...
随机推荐
- nginx服务无法停止(Windows)
本人一般停止nginx服务都是通过Windows自带的任务管理器来强制结束nginx进程实现的,如图 2.但是 这次我通过同样的方法来结束nginx服务,发现nginx的进程无法结束 3.首先我要 ...
- ORM执行原生SQL语句
# 1.connectionfrom django.db import connection, connections cursor = connection.cursor() # cursor = ...
- [题解]CSP2019 Solution - Part B
\(\text{orz}\) 一波现场 \(\text{A}\) 掉 \(\text{D1T3}\) 的神仙 D2T3 centroid Solution 考虑每个点 \(u\) 作为重心的贡献 假设 ...
- SpringCloud Zipkin
原文地址:https://blog.csdn.net/z8414/article/details/78600646 Zipkin是一个链路跟踪工具,可以用来监控微服务集群中调用链路的通畅情况 前提:S ...
- [ PyQt入门教程 ] PyQt5中多线程模块QThread使用方法
本文主要讲解使用多线程模块QThread解决PyQt界面程序唉执行耗时操作时,程序卡顿出现的无响应以及界面输出无法实时显示的问题.用户使用工具过程中出现这些问题时会误以为程序出错,从而把程序关闭.这样 ...
- 分布式RPC系统框架Dubbo
导读 Apache Dubbo是一款高性能.轻量级的开源Java RPC框架,它提供了三大核心能力:面向接口的远程方法调用,智能容错和负载均衡,以及服务自动注册和发现. dubbo官网:点我直达 第一 ...
- 在ubuntu18.04下搭建kvm
前一段时间一直在尝试Ubuntu上搭建xen,一直出现各种问题,各种坑 首先先感谢下面这个公司对我的耐心解答,非常感谢.特别是后面来的电话对我进行了详细的解答,所以选择搭建kvm. 1. 需要检查一下 ...
- 搭建本地测试es集群
需求 在本地搭建es+kibana+elasticsearch-head 搭建环境 mac本地,使用docker+docker-compose 方式搭建 设置docker 内存8G 搭建es和es+h ...
- Git详解之其他系统结合
前言 世界不是完美的.大多数时候,将所有接触到的项目全部转向 Git 是不可能的.有时我们不得不为某个项目使用其他的版本控制系统(VCS, Version Control System ),其中比较常 ...
- 如何快速安装kafka-manager
1.下载kafka-manager git clone https://github.com/yahoo/kafka-manager.git 2.配置sbt镜像仓库 因为kafka-manager是雅 ...