ceph、glusterfs、lustre、mfs技术比较

ceph、glusterfs、lustre、mfs技术比较

ID:35531345

大小:58.71 KB

页数:5页

时间:2019-03-25

ceph、glusterfs、lustre、mfs技术比较_第1页
ceph、glusterfs、lustre、mfs技术比较_第2页
ceph、glusterfs、lustre、mfs技术比较_第3页
ceph、glusterfs、lustre、mfs技术比较_第4页
ceph、glusterfs、lustre、mfs技术比较_第5页
资源描述:

《ceph、glusterfs、lustre、mfs技术比较》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、Ceph、GlusterFS>Lustre、MFS的比较MooseFS(MFS)CephGlusterFSLustreMetadataserver单个MDS。存在单点故障和瓶颈。多个MDS,不存在单点故障和瓶颈。MDS可以扩展,不存在瓶颈。无,不存在单点故障。靠运行在各个节点上的动态算法来代替MDS,不需同步元数据,无硬盘I/O瓶颈。双MDS(互相备份)。MDS不可以扩展,存在瓶颈。FUSE支持支持支持支持访问接口POSIXPOSIXPOSIXPOSIX/MPI文件分布/数据分布文件被分片,数据块保存在不同的存储服务器上。文件被分片,每个数据块是一个对象。对象保存在

2、不同的存储服务器上。ClusterTranslators(GlusterFS集群存储的核心)包括AFR、DHT和Stripe三种类型。AFR相当于RAID1,每个文件都被复制到多个存储节点上。Stripe相当于RAID0,文件被分片,数据被条带化到各个存储节点上。Translators可以组合,即AFR和stripe可以组成RAID10,实现高性能和高可用。可以把大文件分片并以类似RAID0的方式分散存储在多个存储节点上。冗余保护/副本多副本多副本镜像无数据可靠性由数据的多副本提由数据的多副本提供由镜像提供可靠性。由存储节点上的RAID1或RAID5/6提供可靠性可

3、靠性。供可靠性。假如存储节点火效,则数据不可用。备份提供备份工具。支持远程备份。故障恢复手动恢复当节点失效时,自动迁移数据、重新复制副本。当节点、硬件、磁盘、网络发生故障时,系统会自动处理这些故障,管理员不需介入。无扩展性增加存储服务器,可以提高容量和文件操作性能。但是由于不能增加MDS,内此元数据操作性能不能提高,是整个系统的瓶颈。可以增加元数据服务器和存储节点。容量可扩展。文件操作性能对扩展。元数据操作性能可扩展。容量可扩展。可增加存储节点,提高容量可文件操作性能,但是由于不能增加MDS,因此兀数据操作性能不能提高,是梏个系统的瓶颈。安装/部署简单简单简单复杂。

4、而,ULustre严重依赖内核,需要重新编译内核。开发语言CC++CC适合场景大量小文件读写小文件适合大文件。对于小文件,无元数据服务设计解决了元数据的问题。但GlusterFS并没冇在I/O方面作优化,在存储服务器底层文件系统上仍然是大量小文件,木地文件系统元数据访问是瓶颈,数据分布和并行性也无法大文件读写充分发挥作用。因此,GlusterFS的小文件性能还存在很人优化空间。产品级别小型中型中型应用国内较多无较多用八使用HPC领域。优缺点实施简单,但是存在单点故障。不稳定,冃前还在实验阶段,不适合于生产环境。无元数据服务辭,堆栈式架构(基本功能模块可以进行堆栈式组

5、合,实现强大功能)。具冇线性横向扩展能力。由丁•没有元数据服务器,因此增加了客户端的负载,占用相当的CPU和内存。但遍历文件日录时,则实现较为复杂和低效,需要搜索所有的存储节点。因此不建议使用较深的路径。很成熟、很庞大。引言:开源存储软件Ceph和Cluster能够提供相似的特性并R能够为用户节省不小的开支。那么谁更快?谁又更易用呢?开源的Ceph及RedHat旗下的Cluster都是成熟的技术,但兴许不久之后就将经历某种重生了。随着存储产业开始向扩展性存储及云的方向发展,将不断会有基于这些低价的软件技术的产品推向市场,而对这些自集成解决方案的补充在近一年来不断涌现

6、。Ceph与Gluster在原理上有着本质上的不同。Ceph基于一个名为RADOS的对象存储系统,使用一系列API将数据以块(block)、文件(f订e)和対象(object)的形式展现。Ceph存储系统的拓扑结构围绕着副本与信息分布,这使得该系统能够有效保障数据的完整性。而RedHat将Gluster描述为可扩展的网络存储设备(Scale-outNAS)和对象存储系统。它使用一个哈希算法来计算数据在存储池中的存放位置,这点跟Ceph很类似。并且这是保证扩展性的关键。在Gluster中,所有的存储服务器使用哈希算法完成对特定数据实体的定位。丁•是数据可以很容易的复制

7、,并且没有中心元数据单点这样一个容易造成访问瓶颈的部分,这种单点在早期Hadoop±出现,对性能和可靠性造成较大影响。Ceph与Gluster有着相似的数据分布能力。Ceph像人多数对象存储软件那样,通过更人的节点集进行数据条带化处理。这样的好处是能够防止数据访问的瓶颈效应。因为默认的Ceph块比较小(仅为64KB),所以数据流被切分为许多随机的10操作。而磁盘在随机10的时候一般能够达到最人值(对HDD而言最多达到150次每秒),并且这个数值不会随传输的数据大小改变多少。所以对TCeph而言,设置更大的10块意味着能够一次聚合传输更多的数据。Gluster默认

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。