메뉴

문서정보

목차

클라우드에서의 도커 데이터 볼륨 관리

도커는 데이터를 persistent 하게 저장하기 위해서 데이터 볼륨을 만든다. 실제 애플리케이션에서 만들어지는 데이터의 대부분은 데이터 볼륨에 저장이 된다. 애플리케이션이 만드는 로그나 데이터베이스의 데이터파일, 유저가 업로드한 파일등등이 모두 여기에 해당한다.

컨테이너 볼륨은 읽기 전용으로, 보통 수백메가 내외의 최소한의 파일들만을 포함한다. 로컬 호스트에서 문제가 생기더라도 다른 호스트에서 동일한 이미지로 컨테이너를 올리면 된다. 따라서 로컬 스토리지에서 볼륨을 관리해도 별 문제가 없다.

하지만 도커 데이터 볼륨은 아래의 특징들 때문에 로컬 스토리지에서 관리하기가 쉽지 않다.
  1. 대량의 읽기와 쓰기가 발생 할 확률이 높다. 로컬 스토리지로는 대량의 I/O를 처리 하기가 쉽지 않다.
  2. 데이터에 대한 리플리카나 패리티연산을 이용한 복구가 가능해야 한다.
  3. 복구가 이루어지는 동안 시스템 중단이 최소화 해야 한다.
원격에 Storage Node를 만들어서 컨테이너와 데이터 볼륨을 분리하는게 깔끔하겠다.

가정

로컬 호스트에서의 데이터 볼륨 제공

iSCSI 볼륨을 테스트 하기전에 로컬에서 간단히 테스트를 해보자. -v 옵션을 이용해서 간단하게 호스트 볼륨을 도커 볼륨으로 만들 수 있다. 로컬 디스크에 myvolume 디렉터리를 만들어서 볼륨으로 제공했다.
# docker run -v /root/myvolume:/webapp -i -t ubuntu /bin/bash 
df -h Filesystem                                              Size  Used Avail Use% Mounted on
none                                                     78G   64G  9.9G  87% /
tmpfs                                                   3.9G     0  3.9G   0% /dev
shm                                                      64M     0   64M   0% /dev/shm
/dev/disk/by-uuid/8c5d05ee-9c82-4f01-83fb-a4903f940111   78G   64G  9.9G  87% /webapp
tmpfs                                                   3.9G     0  3.9G   0% /proc/kcore
/webapp 디렉토리로 마운트 된 걸 확인 할 수 있다. 내 리눅스가 사용하는 ext4는 디스크 쿼터를 지원하지 않는다. 해서 전체 디스크 공간 78G 전체가 데이터 볼륨으로 잡혀 버렸다. 다음과 같은 방법으로 볼륨의 크기를 제한 할 수 있다.
# dd if=/dev/zero of=harddrive.img count=512 bs=1M
# mkfs.ext4 harddrive.img
# fdisk -l harddrive.img
Disk harddrive.img: 512 MiB, 536870912 bytes, 1048576 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

만들어진 이미지 파일을 myvolume 디렉터리로 마운트한다.
# mkdir /root/myvolume
# mount -o loop harddrive.img myvolume/

마운트 디렉터리를 데이터 볼륨으로 설정해서 실행한다.
# docker run -v /root/myvolume:/webapp -i -t ubuntu /bin/bash
# df -h
Filesystem                                              Size  Used Avail Use% Mounted on
none                                                     78G   64G  9.9G  87% /
tmpfs                                                   3.9G     0  3.9G   0% /dev
shm                                                      64M     0   64M   0% /dev/shm
/dev/disk/by-uuid/8c5d05ee-9c82-4f01-83fb-a4903f940111   78G   64G  9.9G  87% /etc/hosts
/dev/loop0                                              488M  396K  452M   1% /webapp
/dev/loop0 디바이스로 마운트 된 걸 확인 할 수 있다.

iSCSI라고 해도 달라질건 없다. 원격에 있는 볼륨을 마운트 한 후, 도커 볼륨으로 제공하면 된다.

iSCSI를 이용한 데이터 볼륨 제공

그래서 데이터 볼륨은 별도의 Storage Node(SNODE)를 이용해서 제공하기로 했다.

데이터 볼륨은 물리적으로 분리돼 있으며, storage network로 호스트와 연결돼 있다. 컨테이너가 볼륨을 요구하면, iSCSI를 이용해서 볼륨을 할당 받아서 컨테이너에 넘겨주는 방식이다.

데이터 볼륨 컨테이너를 만들면 컨테이너 ID를 반환한다. /var/lib/docker/containers/<container_id>/config.json에서 볼륨의 위치를 확인 할 수 있다.
# cat /var/lib/docker/containers/<conainer_id>/config.json
{
  "State" : {
    "Restarting" : false,
    "OOMKilled" : false,
  .....
  "Volumes" : {
      "/volumename" : "/var/lib/docker/vfs/dir/1d709224a364...."
   },
   ....
}
Volumes의 볼륨이름으로 iSCSI 볼륨을 마운트 하면 된다. 아래와 같이 묘사할 수 있다.

  1. 유저가 볼륨을 요청한다.
  2. 볼륨 컨테이너를 만들고, 볼륨 경로를 확인한다.
  3. SNODE에 유저가 요청한 만큼의 볼륨을 만든다.
  4. iSCSI 클라이언트 프로그램을 이용 볼륨을 attach 한다.
  5. attach한 볼륨을 포맷하고, 볼륨 경로에 마운트 한다.
  6. 해당 볼륨과 함께 컨테이너를 실행한다.

테스트 환경

테스트 환경이다.

SNODE 만들기

iSCSI로 볼륨을 서비스할 SNODE를 만든다. SNODE는 kvm 인스턴스로 실행된다. kvm 인스턴스를 위한 추가 볼륨을 만들었다.
# qemu-img create -f qcow2 add01.img 4G
kvm 인스턴스를 추가한 볼륨과 함께 실행한다.
# kvm -m 512 -net nic,macaddr=00:00:00:00:10:01 \
-net tap,script=/etc/ovs-ifup,downscript=/etc/ovs-ifdown ubuntu01.vdisk -\
hdb add01.vdisk
볼륨이 잘 올라왔는지 확인한다.
# fdisk -l

Disk /dev/sda: 10 GiB, 10737418240 bytes, 20971520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xfdba8efe

Device     Boot  Start      End  Sectors  Size Id Type
/dev/sda1  *      2048   499711   497664  243M 83 Linux
/dev/sda2       501758 20969471 20467714  9.8G  5 Extended
/dev/sda5       501760 20969471 20467712  9.8G 8e Linux LVM

Disk /dev/sdb: 4 GiB, 4294967296 bytes, 8388608 sectors
Units: sectors of 1 * 512 = 512 bytes
pv를 만든다.
# pvcreate /dev/sdb 
  Physical volume "/dev/sdb" successfully created
vg(볼륨그룹)을 만든다.
# vgcreate myVG /dev/sdb
  Volume group "myVG" successfully created
1G짜리 볼륨을 만들었다.
# lvcreate -L 1000M myVG
  Logical volume "lvol0" created
# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/myVG/lvol0
  LV Name                lvol0
  VG Name                myVG
  LV UUID                TtOcGe-LqqS-EEdD-J2R2-7t2j-x9z8-UMqAm6
  LV Write Access        read/write
  LV Creation host, time ubuntu, 2015-05-18 16:38:20 +0900
  LV Status              available
  # open                 0
  LV Size                1000.00 MiB
  Current LE             250
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:2

이제 iSCSI 설정을 한다. iqn을 만든다.
# tgtadm --lld iscsi --op new --mode target --tid 1 -T iqn.joinc.com.example:storage.disk1
# tgtadm --lld iscsi --op show --mode target
Target 1: iqn.joinc.com.example:storage.disk1
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
    Account information:
    ACL information:
root@ubuntu:~# 
Target에 앞서 만든 볼륨 lvol0을 매핑한다.
# tgtadm --lld iscsi --op new --mode logicalunit --tid 1 --lun 1 -b /dev/myVG/lvol0
# tgtadm --lld iscsi --op show --mode target
Target 1: iqn.joinc.com.example:storage.disk1
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
        LUN: 1
            Type: disk
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 1049 MB, Block size: 512
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: rdwr
            Backing store path: /dev/myVG/lvol0
            Backing store flags: 
    Account information:
    ACL information:
외부에서 iSCSI Target에 접근할 수 있도록 bind 한다.
# tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL

도커를 올리기 위한 kvm 인스턴스 실행

kvm 인스턴스를 실행한다. 이 kvm 인스턴스에서 도커를 실행한다.
# kvm -m 512 -net nic,macaddr=00:00:00:00:10:02 -net tap,script=/etc/ovs-ifup,downscript=/etc/ovs-ifdown ubuntu02.vdisk
iscsi 클라이언트 패키지를 설치한다.
# apt-get install open-iscsi
iSCSI 타겟을 찾는다(discovery).
# iscsiadm --mode discovery --type sendtargets --portal 192.168.5.2
192.168.5.2:3260,1 iqn.joinc.com.example:storage.disk1
찾은 iSCSI타겟을 붙인다.
# iscsiadm --mode node --targetname iqn.joinc.com.example:storage.disk1 --portal 192.168.5.2 --login
Logging in to [iface: default, target: iqn.joinc.com.example:storage.disk1, portal: 192.168.5.2,3260] (multiple)
Login to [iface: default, target: iqn.joinc.com.example:storage.disk1, portal: 192.168.5.2,3260] successful.
fdisk로 확인.
# fdisk -l
...
Disk /dev/sdb: 1000 MiB, 1048576000 bytes, 2048000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
...
포맷하는 것으로 준비를 끝냈다.
# mkfs.ext4 /dev/sdb
mke2fs 1.42.12 (29-Aug-2014)
Creating filesystem with 256000 4k blocks and 64000 inodes
Filesystem UUID: f218ce56-d151-45c3-8413-7b31a0094482
Superblock backups stored on blocks: 
    32768, 98304, 163840, 229376
...
# fdisk -l /dev/sdb
Disk /dev/sdb: 1000 MiB, 1048576000 bytes, 2048000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

iSCSI 볼륨을 도커 데이터 볼륨으로 올리기

myvolume 이라는 이름의 컨테이너 볼륨을 만든다.
# docker create -v /myvolume --name myvolume ubuntu /bin/true 
2160ab6b0d3c9148b13af6509e8a1212febbfb3438c119da153a5a6abd5539bd
컨테이너 아이디에 대한 볼륨정보를 확인한다.
# cat /var/lib/docker/containers/2160ab6.../config.json | json_pp
...
   "Volumes" : {
      "/myvolume" : "/var/lib/docker/vfs/dir/82bff8483ec1f9a2b6f1936e2cc840ebdf08d533ca84a6448624e0d519abb91d"
   },
/dev/sdb를 /myvolume에 마운트 한다.
# mount /dev/sdb /var/lib/docker/vfs/dir/82b....
도커 컨테이너를 실행한다.
# docker run -it --volumes-from myvolume ubuntu /bin/bash
# ls
bin   dev  home  lib64  mnt       opt   root  sbin  sys  usr
boot  etc  lib   media  myvolume  proc  run   srv   tmp  var
myvolume를 확인 할 수 있다.

클라우드 인프라에서의 스토리지 서비스 구성

  • 20대의 CNODE의 총 대역폭은 40G다.
    • 스위치간 단일 포트의 대역폭 10G다. 두 대의 스위치를 사용했으니 총 20G다. 이렇게 해서는 CNODE와 SNODE의 대역폭을 다 채우지 못한다. LACP로 스위치간 포트를 묶어서 대역폭을 확보한다.
    난 스토리지/네트워크 장비 전문가는 아니다. 일단 풍월로 들은 정보로 대략 구성을 해봤다. 신뢰하지는 말자.

    정리

    • 도커 볼륨 컨테이너를 만들고, 이 컨테이너의 볼륨을 iSCSI에 마운트 하는 것으로 원격 스토리지의 볼륨을 가져다 사용할 수 있다.
    • 볼륨 서비스가 불리됨으로, AWS의 EBS와 같은 유연한 볼륨 서비스를 만들 수 있다.
    • 호스트와 상관없이 컨테이너를 실행해도 동일한 볼륨 서비스를 받을 수 있다.
    • 호스트(혹은 컨테이너가)가 맛이 가더라도, 다른 호스트에서 컨테이너를 띄우는 것으로 빠르게 컨테이너를 복구 할 수 있다.
    • 호스트와 별개로 SNODE의 가용성과 확장성을 확보하기 위한 활동을 할 수 있다.