Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。ceph]的统一体现在可以提供文件系统、块存储和对象存储,分布式体现在可以动态扩展。在国内一些公司的云环境中,通常会采用ceph作为openstack的唯一后端存储来提高数据转发效率。
Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表) ,并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。
官网:https://ceph.com/
官方文档:Welcome to Ceph — Ceph Documentation
高性能:a.摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。
b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。
c.能够支持上千个存储节点的规模,支持TB到PB级的数据。
高可用性:
高可扩展性:
特性丰富:
Ceph可以提供对象存储、块设备存储和文件系统服务,其对象存储可以对接网盘(owncloud )应用业务等;其块设备存储可以对接(Iaas) ,当前主流的IaaS运平台软件,如: OpenStack, CloudStack、Zstack, Eucalyptus等以及kvm等。
Ceph是一个高性能、可扩容的分布式存储系统,它提供三大功能:
对象存储(RADOSGW)?:提供RESTful接口,也提供多种编程语言绑定。兼容S3、 Swift ;
块存储(RDB):由RBD提供,可以直接作为磁盘挂载,内置了容灾机制;
文件系统(CephFS) :提供POSIX兼容的网络文件系统CephFS ,专注于高性能、大容量存储;
什么是块存储/对象存储/文件系统存储?
也就是通常意义的键值存储,其接口就是简单的GET、PUT、DEL 和其他扩展,代表主要有 Swift、S3 以及 Gluster等;
这种接口通常以QEMU Driver或者Kernel Module的方式存在,这种接口需要实现Linux的Block Device的接口或者QEMU提供的Block Driver接口,如Sheepdog, AWS的EBS ,青云的云硬盘和阿里云的盘古系统,还有Ceph的RBD (RBD是Ceph面向块存储的接口)。在常见的存储中DAS, SAN提供的也是块存储;
通常意义是支持POSIX接口,它跟传统的文件系统如Ext4是一个类型的,但区别在于分布式存储提供了并行化的能力,如Ceph的CephFS (CephFS是Ceph面向文件存储的接口) ,但是有时候又会把GlusterFS , HDFS这种非POSIX接口的类文件存储接口归入此类。当然 NFS、NAS也是属于文件系统存储;
无论使用哪种存储方式(对象、块、文件系统),存储的数据都会被切分成Objects。Objects size大小可以由管理员调整,通常为2M或4M。每个对象都会有一个唯一的OID,由ino与ono生成,虽然这些名词看上去很复杂,其实相当简单。
ino :即是文件的File ID ,用于在全局唯一标识每一个文件
ono:则是分片的编号
比如:一个文件FileID为A,它被切成了两个对象,一个对象编号0,另一个编号1,那么这两个文件的oid则为A0与A1。
File--此处的file就是用户需要存储或者访问的文件。对于一个基于Ceph开发的对象存储应用而言,这个file也就对应于应用中的“对象”,也就是用户直接操作的“对象”。
Ojbect--此处的object是RADOS所看到的"对象"。Object与上面提到的file的区别是, object的最大size由RADOS限定(通常为2MB或4MB) ,以便实现底层存储的组织管理。因此,当上层应用向RADOS存入size很大的file时,需要将file切分成统一大小的一系列object (最后一个的大小可以不同)进行存储。为避免混淆,在本文中将尽量避免使用中文的"对象"这一名词,而直接使用file或object进行说明。
PG (Placement Group)--顾名思义,PG的用途是对object的存储进行组织和位置映射。具体而言,一个PG负责组织若干个object (可以为数千个甚至更多) ,但一个object只能被映射到一个PG中,即,PG和object之间是"一对多"映射关系。同时,一个PG会被映射到n个OSD上,而每个OSD上都会承载大量的PG,即,PG和OSD之间是"多对多"映射关系。在实践当中,n至少为2,如果用于生产环境,则至少为3,一个OSD上的PG则可达到数百个。事实上, PG数量的设置牵扯到数据分布的均匀性问题。
OSD--即object storage device ,前文已经详细介绍,此处不再展开。唯一需要说明的是, osD的数量事实上也关系到系统的数据分布均匀性,因此其数量不应太少。在实践当中,至少也应该是数十上百个的量级才有助于Ceph系统的设计发挥其应有的优势。
基于上述定义,便可以对寻址流程进行解释了。具体而言,Ceph中的寻址至少要经历以下三次映射:
CRUSH , Controlled Replication Under Scalable Hashing ,它表示数据存储的分布式选择算法, ceph的高性能/高可用就是采用这种算法实现。CRUSH算法取代了在元数据表中为每个客户端请求进行查找,它通过计算系统中数据应该被写入或读出的位置。CRUSH能够感知基础架构,能够理解基础设施各个部件之间的关系。并CRUSH保存数据的多个副本,这样即使一个故障域的几个组件都出现故障,数据依然可用。CRUSH算是使得ceph实现了自我管理和自我修复。
RADOS 分布式存储相较于传统分布式存储的优势在于:
1,将文件映射到object后,利用Cluster Map通过CRUSH计算而不是查找表方式定位文件数据存储到存储设备的具体位置。优化了传统文件到块的映射和Block MAp的管理。
127.0.0.1localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1localhost localhost.localdomain localhost6 localhost6.localdomain6 172.16.254.163 dlp 172.16.254.64 node1 172.16.254.65 node2 172.16.254.66 node3 172.16.254.63 controller
useradd cent && echo "123" | passwd --stdin cent
echo -e 'Defaults:cent Irequiretty\ncent ALL = (root) NOPASSwD:ALL' I tee /etc/sudoers.d/cephchmod 440 /etc/sudoers.d/ceph
(3)在部署节点切换为cent用户,设置无密钥登陆各节点包括客户端节点
(4)在部署节点切换为cent用户,在cent用户家目录,设置如下文件: vi~/.ssh/config# create new (define all nodesand users)
Host dlp
Hostname dlp
User cent
Host node1
Hostname node1
User cent
Host node2
Hostname node2
User cent
Host node3
Hostname node3
User cent
Cat /etc/redhat-release
chmod 600 ~/.ssh/config
所有节点配置国内ceph源:
[ceph-yunwei]
name=ceph-yunwei-install
baseurl=https://mirrors.aliyun.com/centos/7.6.1810/storage/x86_64/ceph-jewel/
enable=1
gpgcheck=0
或者也可以将如上内容添加到现有的 CentOS-Base.repo 中。
?
(2)到国内ceph源中https://mirrors.aliyun.com/centos/7.6.1810/storage/x86_64/ceph-jewel/下载如下所需rpm包。注意:红色框中为ceph-deploy的rpm,只需要在部署节点安装,下载需要到ceph-rpm-jewel-el7-noarch安装包下载_开源镜像站-阿里云中找到最新对应的ceph-deploy-xxxxx.noarch.rpm 下载
清理缓存
Yum clean all
加载插件
Yum makecache
3)将下载好的rpm拷贝到所有节点,并安装。注意ceph-deploy-xxxxx.noarch.rpm 只有部署节点用到,其他节点不需要,部署节点也需要安装其余的rpm
?
(4)在部署节点(cent用户下执行):安装 ceph-deploy,在root用户下,进入下载好的rpm包目录,执行:
yum localinstall -y ./*
(或者sudo yum install ceph-deploy)
创建ceph工作目录
mkdir ceph &&? cd ceph
验证是否安装成功 ceph-deploy --version
ceph-deploy?new?node1 node2 node3
vim /ceph.conf
添加配置内容
mon_clock_drift_allowed = 2
mon_clock_drift_warn_backoff = 3
osd_pool_default_size = 3
(7)在部署节点执行,所有节点安装ceph软件
ceph-deploy install dlp node1 node2 node3
(8)在部署节点初始化集群(cent用户下执行):
ceph-deploy mon create-initial
(12)准备Object Storage Daemon:
ceph-deploy osd prepare node1:/var/lib/ceph/osd node2:/var/lib/ceph/osd node3:/var/lib/ceph/osd
?
(13)激活Object Storage Daemon:
ceph-deploy osd activate node1:/var/lib/ceph/osd node2:/var/lib/ceph/osd node3:/var/lib/ceph/osd
?
(14)在部署节点transfer config files
ceph-deploy admin dlp node1 node2 node3
sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
?
(15)在ceph集群中任意节点检测:
ceph -s
?
(1)客户端也要有cent用户:
useradd cent && echo?"123"?| passwd --stdin cent
echo-e?'Defaults:cent !requiretty\ncent ALL = (root) NOPASSWD:ALL'?| tee /etc/sudoers.d/ceph
chmod440 /etc/sudoers.d/ceph
?
在部署节点执行,安装ceph客户端及设置:
ceph-deploy install controller
ceph-deploy admin controller
?
(2)客户端执行
sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
?
(3)客户端执行,块设备rdb配置:
创建rbd:rbd create disk01 --size 10G --image-feature layering???
删除:rbd rm disk01列示rbd:rbd ls -l映射rbd的image map:sudo rbd map disk01?????
取消映射:sudo rbd unmap disk01
显示map:rbd showmapped
格式化disk01
文件系统xfs:sudo mkfs.xfs /dev/rbd0
挂载硬盘:sudo mount /dev/rbd0 /mnt
验证是否挂着成功:df -hT
?
(4)File System配置:
在部署节点执行,选择一个node来创建MDS:
ceph-deploy mds create node1
?
以下操作在node1上执行:
sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
?
在MDS节点node1上创建 cephfs_data 和? cephfs_metadata 的 pool
ceph osd pool create cephfs_data 128
ceph osd pool create cephfs_metadata 128
?
开启pool:
ceph fs?new?cephfs cephfs_metadata cephfs_data
?
显示ceph fs:
ceph fs lsceph mds stat
?
以下操作在客户端执行,安装ceph-fuse:
yum -y install ceph-fuse
?
获取admin key:
sshcent@node1"sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring"?> admin.key
chmod600 admin.key
?
挂载ceph-fs:
mount-t ceph node1:6789:/ /mnt -o name=admin,secretfile=admin.key
df-hT
?
停止ceph-mds服务:
systemctl stop ceph-mds@node1
ceph mds fail 0
ceph fs rm cephfs --yes-i-really-mean-it??
ceph osd lspools
显示结果:0 rbd,1 cephfs_data,2 cephfs_metadata,??
ceph osd pool rm cephfs_metadata cephfs_metadata --yes-i-really-really-mean-it
?
ceph-deploy purge dlp node1 node2 node3 controller
ceph-deploy purgedata dlp node1 node2 node3 controller
ceph-deploy forgetkeys
rm -rf ceph*