首页 > 代码库 > Ceph块设备管理与Openstack配置(上)
Ceph块设备管理与Openstack配置(上)
Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分:
《Ceph简介》
《Ceph集群操作》
《Ceph块设备管理与Openstack配置》
《深入Ceph》
《ceph优化与性能测试》
注意:此文对应ceph版本为10.1.2
#ceph -v ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed380dcd4)
前言
目前接触到的Mitaka版本Openstack中,ceph主要用来提供块设备作为cinder、nova、glance的存储端。本篇也是讲述的块设备的相关概念及管理,以及在Openstack中虚拟机不同的启动方式对应ceph中不同的存储结构。本篇分为两个部分:块设备的特性与rbd命令;Openstack中ceph块设备使用。
Ceph块设备
Ceph块设备即RBD(RADOS Block Device),RBD通过librbd将数据条带化的存在ceph集群的OSD上。同时RBD是建立RADOS层之上,这样每一个块设备都会分布在多个ceph节点上。目前RBD驱动已经完美集成在linux内核中,提供了多种企业特性,如完整和增量快照(full and incremental snapshot)、自动精简配置(thin provision)、写时复制克隆(copy on write clone)、动态调整大小(dynamic resizing)、内存内缓存(In-memory caching)。
RBD的读写方式有下面两种:
1、在虚拟化引擎支持下,通过Hypervisor控制librbd库来对块设备读写。在对接上Openstack后,可以很好的利用RBD写时复制特性来快速启动多台虚拟机,后面会进一步介绍相关内容。
2、在映射完块设备后,本地文件系统通过内核KRBD驱动直接访问。
一、RBD命令操作
创建块设备
~~~bash rbd create -p volumes --size 1024 rbd_test -p 参数指定存储池,--size 指定大小,默认以M为单位,可以自己加单位如10G,最后rbd_test为创建的镜像名。 rbd ls|list -p volumes 查看volumes池下的images即块设备 rbd du -p volumes 查看volumes的使用情况。可以观察到使用了精简配置。 rbd info -p volumes rbd_test 查看rbd_test的相关信息,如大小,objects数量,order,format id和features。 ~~~
Tips:
1、-p 参数有时候可省略,使用pool/image_name的方式,如rbd info volumes/rbd_test
2、 创建块设备时默认object层为2,即带上了 –image-format 2的参数,会有许多高级性能,默认有features: layering, exclusive-lock, object-map, fast-diff, deep-flatten。
映射块设备
rbd map volumes/rbd_test 映射rbd_test到本地 rbd showmapped 查看映射的设备,有点问题,默认只能查看rbd池的块设备,其他池的只能看上一条命令的输出结果。默认从/dev/rbd0开始 mkfs.xfs /dev/rbd0;mkdir -p /mnt/rbd_test; mount /dev/rbd0 /mnt/rbd_test 格式化并挂载。
Tips:
1、map是报错”rbd: sysfs write failed
rbd: map failed: (6) No such device or address“,这是因为上面创建的object特性引起的,在我当前Ubuntu1610上,map命令不支持exclusive-lock之后等相关特性,需要手动指定layering特性,或者将image-format值设为1
rbd create -p volumes --size 10 rbd_test1 --image-format 2 --image-feature layering
调整RBD镜像大小
在上面的映射完块设备格式化挂载后,使用resize命令调整RBD,然后用XFS在线调整特性扩容文件系统。
rbd resize volume/rbd_test --size 20 xfs_growfs -d /mnt/rbd_test
二、RBD快照与克隆
为了深入了解Openstack中nova、cinder、glance之前的存储关
系,需要学习RBD的快照与克隆。
快照是某时间点上生成的只读RBD镜像的副本。
1、RBD快照操作
echo "hello ,This is a file ready to delete!" >>/mnt/rbd_test/snap_test_file 在块设备的挂载目录创建一个文件。 rbd snap create volumes/rbd_test@snapshot1 创建一个snapshot1的镜像。 rbd snap ls volumes/rbd_test 查看volumes池中rbd_test镜像所拥有的快照 ##测试快照功能 rm -rf /mnt/rbd_test/* rbd snap rollback volumes/rbd_test@snapshot1 将volumes/rbd_test的快照snapshot1回滚 umount /dev/rbd0 mount /dev/rbd0 /mnt/rbd_test ls /mnt/rbd_test 观察到文件恢复 ## 快照的删除 rbd snap rm volumes/rbd_test@snapshot1 rbd snap purge volumes/rbd_test 批量删除rbd_test上的镜像。
Tips:
1、快照和被快照的镜像是同等的,具有相同大小和特性,都是池中的一个镜像。
2、新建的快照通过”rbd ls”查看不到,需要用”rbd du”
2、RBD克隆操作
Ceph一个非常好的特性,即以COW(写时复制)的方式从RBD快照创建克隆(clone),在ceph中也称为快照分层(snapshow layering)。
在云平台中通常以创建快照来保护RBD镜像(rbd du -p images查看)。然后再从快照上来启动实例。启动的实例是COW克隆镜像。每一个克隆镜像都需要读取父镜像的数据,因此父镜像需要设置保护。当新的数据写入克隆镜像时会存在本身,克隆镜像与RBD镜像具有相同功能,如创建快照等。
rbd snap create volumes/rbd_test@snapshot_for_clone 创建一个名为snapshot_for_clone的镜像 rbd snap protect volumes/rbd_test@snapshot_for_clone 对此镜像设置保护 rbd clone volumes/rbd_test@snapshot_for_clone volumes/clone_rbd 创建克隆镜像 rbd info volumes/clone_rbd 查看克隆镜像 ##将克隆镜像独立出来,完全拥有父镜像数据,中断依赖关系 rbd flatten volumes/clone_rbd
Tips:
1、一个快照需要有分层特性(layering)才能创建COW克隆。在旧版本创建镜像默认为format-1类型,不具有此特性。
Ending:Ceph块设备管理与Openstack配置上篇结束,下篇将开始记录RBD在Openstack中的不同表现方式~
本文出自 “DanielQu” 博客,请务必保留此出处http://qujunorz.blog.51cto.com/6378776/1878878
Ceph块设备管理与Openstack配置(上)