一、需求

docker使服务之间实现容器隔离,比如Javaweb项目前端、后端、数据库、数据库后台,分别把它们部署在不同的容器里面,实现隔离。但服务和服务之间也有互访的需求,这就涉及到容器网络和容器互联挂载访问机制的内容。

容器是基于镜像创建的,最后的容器文件系统包括镜像的只读层+可写层,容器中的进程操作的数据持久化都是保存在容器的可写层上。一旦容器删除后,这些数据就没了,除非我们人工备份下来(或者基于容器创建新的镜像)。能否可以让容器进程持久化的数据保存在主机上呢?这样即使容器删除了,数据还在。

docker本身提供了一种机制,可以将主机上的某个目录与容器的某个目录(称为挂载点、或者叫卷)关联起来,容器上的挂载点下的内容就是主机的这个目录下的内容,这类似linux系统下mount的机制。 这样的话,我们修改主机上该目录的内容时,不需要同步容器,对容器来说是立即生效的。挂载点可以让多个容器共享。

二、通过docker run命令

1、运行命令:

# docker run --name node1 -h nodex -v /home/upload/:/data -d -i -t centos /bin/bash

其中的 -v 标记 在容器中设置了一个挂载点 /data(就是容器中的一个目录),并将主机上的 /home/upload/ 目录中的内容关联到 /data下。

这样在容器中对/data目录下的操作,还是在主机上对/home/upload/的操作,都是完全实时同步的,因为这两个目录实际都是指向主机目录。

通过docker inspect 命令查看目录对应关系

# docker inspect node1

[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "bind",
"Source": "/home/upload",
"Destination": "/data",
"Mode": "",
"RW": true,
"Propagation": "rprivate"
}
],
...........................

2、运行命令:

# docker run --name node2 -h nodex -v /data -d -i -t centos /bin/bash

上面-v的标记只设置了容器的挂载点,并没有指定关联的主机目录。这时docker会自动绑定主机上的一个目录。通过docker inspect 命令可以查看到。

# docker inspect node2

[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "volume",
"Name": "d04353ed38845a54a2bd5909b82c470fe644391626f877644e9580aba22a3a12",
"Source": "/var/lib/docker/volumes/d04353ed38845a54a2bd5909b82c470fe644391626f877644e9580aba22a3a12/_data",
"Destination": "/data",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
}
],
...........................

上面 Mounts下的每条信息记录了容器上一个挂载点的信息,"Destination" 值是容器的挂载点,"Source"值是对应的主机目录。

可以看出这种方式对应的主机目录是自动创建的,其目的不是让在主机上修改,而是让多个容器共享。

三、通过dockerfile创建挂载点

上面介绍的通过docker run命令的-v标识创建的挂载点只能对创建的容器有效。

通过dockerfile的 VOLUME 指令可以在镜像中创建挂载点,这样只要通过该镜像创建的容器都有了挂载点。

还有一个区别是,通过 VOLUME 指令创建的挂载点,无法指定主机上对应的目录,是自动生成的。

# cat Dockerfile

下面的dockfile文件通过VOLUME指令指定了两个挂载点 /data1 和 /data2

#test
FROM centos
MAINTAINER djl
VOLUME ["/data1","/data2"]

# docker build -t test .

[root@localhost ~]# docker build -t test .
Sending build context to Docker daemon 28.77 MB
Step / : FROM centos
---> 9f38484d220f
Step / : MAINTAINER djl
---> Running in d14672dadf87
---> 602a4b8e796d
Removing intermediate container d14672dadf87
Step / : VOLUME /data1 /data2
---> Running in 30b586d5aaf4
---> f51b774e7869
Removing intermediate container 30b586d5aaf4
Successfully built f51b774e7869

查看构建的镜像

# docker images

[root@localhost ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
test latest f51b774e7869 minutes ago MB
centos latest 9f38484d220f months ago MB

运行一个容器

# docker run --name node3 -h nodex -d -i -t test /bin/bash

[root@localhost ~]# docker run --name node3 -h nodex -d -i -t test /bin/bash
6fb05f94a368e05dd96e2f42432f1e4c0dcad1bd6b726079c69fba0625783c38
[root@localhost ~]#
[root@localhost ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
6fb05f94a368 test "/bin/bash" seconds ago Up seconds node3
f2bf65a82acc centos "/bin/bash" About an hour ago Up About an hour node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2

我们通过docker inspect 查看通过该dockerfile创建的镜像生成的容器,可以看到如下信息

# docker inspect node3

[
{
"Id": "d1c5d9eb3838c724b597db428ce26e72cfc667fbefb0ed712dbbaef5f374070f",
.............................
"Mounts": [
{
"Type": "volume",
"Name": "cc2fcaccae2dca5021d82d4d581e1f500816a96745237527d4fa7925a2061e04",
"Source": "/var/lib/docker/volumes/cc2fcaccae2dca5021d82d4d581e1f500816a96745237527d4fa7925a2061e04/_data",
"Destination": "/data1",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
},
{
"Type": "volume",
"Name": "2f7419b960ae0a3f7be58875f5021312b181fdad72e2c7390b2bb7aab7d06b24",
"Source": "/var/lib/docker/volumes/2f7419b960ae0a3f7be58875f5021312b181fdad72e2c7390b2bb7aab7d06b24/_data",
"Destination": "/data2",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
}
],
...........................

可以看到两个挂载点的信息。

四、容器共享卷(挂载点)

下面我们创建另一个容器可以和node3共享 /data1 和 /data2卷 ,这是在 docker run中使用 --volumes-from标记,如:

1、可以是来源不同镜像,如:

# docker run --name node4 -itd --volumes-from node3 centos /bin/bash

[root@localhost ~]# docker run --name node4 -itd --volumes-from node3 centos /bin/bash
ced022f71608c81fd2d689861809b033996351e4dc23c210eaeda675ff28a31b
[root@localhost ~]#
[root@localhost ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ced022f71608 centos "/bin/bash" seconds ago Up seconds node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2

验证:

[root@localhost ~]# docker exec node3 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var
[root@localhost ~]# docker exec node4 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var

2、也可以是同一镜像,如:

# docker run --name node5 -itd --volumes-from node3 test /bin/bash

[root@localhost ~]# docker run --name node5 -itd --volumes-from node3 test /bin/bash
e6a2584eab2cce5b678f432d8eb48a762e5b1b2d57bcd76ee48f121c51ff282d
[root@localhost ~]#
[root@localhost ~]# docker exec node5 ls /
anaconda-post.log
bin
data1
data2
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var

五、最佳实践:数据容器

如果多个容器需要共享数据(如持久化数据库、配置文件或者数据文件等),可以考虑创建一个特定的数据容器,该容器有1个或多个卷。

其它容器通过--volumes-from 来共享这个数据容器的卷。

因为容器的卷本质上对应主机上的目录,所以这个数据容器也不需要启动。

# docker run --name dbdata test echo "data container"

[root@localhost ~]# docker run --name dbdata test echo "data container"
data container
[root@localhost ~]#
[root@localhost ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ac04a4f5d1ab test "echo 'data contai..." seconds ago Exited () seconds ago dbdata
e6a2584eab2c test "/bin/bash" minutes ago Up minutes node5
ced022f71608 centos "/bin/bash" minutes ago Up minutes node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2
[root@localhost ~]# docker start dbdata
dbdata
[root@localhost ~]#
[root@localhost ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ac04a4f5d1ab test "echo 'data contai..." seconds ago Exited () seconds ago dbdata
e6a2584eab2c test "/bin/bash" minutes ago Up minutes node5
ced022f71608 centos "/bin/bash" minutes ago Up minutes node4
6fb05f94a368 test "/bin/bash" minutes ago Up minutes node3
f2bf65a82acc centos "/bin/bash" hours ago Up hours node1
d1c5d9eb3838 centos "/bin/bash" hours ago Up hours node2

说明:有个卷,容器之间的数据共享比较方便,但也有很多问题需要解决,如权限控制、数据的备份、卷的删除等。

参考博客:

docker学习笔记18:Dockerfile 指令 VOLUME 介绍

Docker容器数据卷-Volume小结

docker容器互联,实现目录、服务共享的更多相关文章

  1. Docker容器安装配置SQLServer服务(Linux)

    一:前言 随着不断的对Docker容器的实践和学习,越来越觉得容器的强大,把 SQL Server 数据库服务放在docker容器中,比你自己在宿主服务器上面安装配置一个SQL Server服务器是要 ...

  2. 【Docker学习之六】Docker容器互联

    环境 docker-ce-19.03.1-3.el7.x86_64 centos 7 一.基于Volume的互联就是-v参数,将本机文件或目录挂载到容器目录,实现文件目录共享 二.基于Link的互联 ...

  3. Docker系列(四):Docker容器互联

    基于Volume的互联 为什么需要Volume docker文件系统是分层的,下面的是全部是只读的,最上面的是可写层,容器中的进程如果修改了某个文件,比如修改了下层的某个文件,其实是在最顶层复制下层文 ...

  4. Docker容器挂载宿主目录的情形分析

    Docker容器启动的时候,如果要挂载宿主机的一个目录,可以用-v参数指定. 譬如我要启动一个centos容器,宿主机的/test目录挂载到容器的/soft目录,可通过以下方式指定: # docker ...

  5. 使用weave实现跨主机docker容器互联

    关于weave的原理不做细致的说明,如果想了解weave可以登陆官网:https://www.weave.works/ In this post,使用阿里云3台ECS服务器进行weave搭建,并测试搭 ...

  6. Docker - 容器互联

    容器互联 通过docker run命令的--link参数可以让容器之间通过连接(linking)系统进行交互. 参数格式:--link name:alias ,name是要链接的容器名称, alias ...

  7. centos:解决docker容器内挂载目录无权限 ls: cannot open directory .: Permission denied

    docker运行一个容器后,将主机中当前目录下的文件夹挂载到容器的文件夹后 进入到docker容器内对应的挂载目录中,运行命令ls后提示: ls: cannot open directory .: P ...

  8. Docker | 容器互联互通

    上篇讲到创建自定义网络,我创建了 mynet 网络,并指定了网关和子网地址.在上篇结尾呢,我抛出了一个问题:其它网络下的容器可以直接访问mynet网络下的容器吗?今天就让我们一块看下怎么实现容器互联. ...

  9. docker容器互联

    link方式 http://blog.csdn.net/halcyonbaby/article/details/42112325 通过link方式创建容器,然后我们可以使用被link容器的别名进行访问 ...

随机推荐

  1. nginx服务无法停止(Windows)

    本人一般停止nginx服务都是通过Windows自带的任务管理器来强制结束nginx进程实现的,如图 2.但是 这次我通过同样的方法来结束nginx服务,发现nginx的进程无法结束   3.首先我要 ...

  2. ORM执行原生SQL语句

    # 1.connectionfrom django.db import connection, connections cursor = connection.cursor() # cursor = ...

  3. [题解]CSP2019 Solution - Part B

    \(\text{orz}\) 一波现场 \(\text{A}\) 掉 \(\text{D1T3}\) 的神仙 D2T3 centroid Solution 考虑每个点 \(u\) 作为重心的贡献 假设 ...

  4. SpringCloud Zipkin

    原文地址:https://blog.csdn.net/z8414/article/details/78600646 Zipkin是一个链路跟踪工具,可以用来监控微服务集群中调用链路的通畅情况 前提:S ...

  5. [ PyQt入门教程 ] PyQt5中多线程模块QThread使用方法

    本文主要讲解使用多线程模块QThread解决PyQt界面程序唉执行耗时操作时,程序卡顿出现的无响应以及界面输出无法实时显示的问题.用户使用工具过程中出现这些问题时会误以为程序出错,从而把程序关闭.这样 ...

  6. 分布式RPC系统框架Dubbo

    导读 Apache Dubbo是一款高性能.轻量级的开源Java RPC框架,它提供了三大核心能力:面向接口的远程方法调用,智能容错和负载均衡,以及服务自动注册和发现. dubbo官网:点我直达 第一 ...

  7. 在ubuntu18.04下搭建kvm

    前一段时间一直在尝试Ubuntu上搭建xen,一直出现各种问题,各种坑 首先先感谢下面这个公司对我的耐心解答,非常感谢.特别是后面来的电话对我进行了详细的解答,所以选择搭建kvm. 1. 需要检查一下 ...

  8. 搭建本地测试es集群

    需求 在本地搭建es+kibana+elasticsearch-head 搭建环境 mac本地,使用docker+docker-compose 方式搭建 设置docker 内存8G 搭建es和es+h ...

  9. Git详解之其他系统结合

    前言 世界不是完美的.大多数时候,将所有接触到的项目全部转向 Git 是不可能的.有时我们不得不为某个项目使用其他的版本控制系统(VCS, Version Control System ),其中比较常 ...

  10. 如何快速安装kafka-manager

    1.下载kafka-manager git clone https://github.com/yahoo/kafka-manager.git 2.配置sbt镜像仓库 因为kafka-manager是雅 ...