[OpenStack 存储] Nova,Glance与Cinder 基于Ceph的统一存储方案

查看数: 34594 | 评论数: 6 | 收藏 3
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2014-9-21 22:38

正文摘要:

问题导读: 1.Ceph是什么? 2.1.CEPH的底层是什么? 3.CEPH存储集群中包含哪些层次结构? 4.本文是如何建立Nova,Glance与Cinder 基于Ceph的统一存储方案的? Ceph作为Linux PB级分布式文件系统,因 ...

回复

eason 发表于 2016-2-25 15:37:53
不错 好
445433045 发表于 2016-1-22 13:50:39
ceph作为openstack后端存储中,ceph和cinder服务结合的时候需要绑定存储节点的uuid吗?
lilili 发表于 2015-11-18 11:23:59
楼主,请问你的Openstack all-in-one是利用什么工具部署的?我是用devstack部署的,服务的重启没有这么方便
lilili 发表于 2015-10-6 20:29:15
收集keyring文件时,防火墙已经关掉仍会报那个错误?还有什么可能的原因导致收集不到
slosh 发表于 2015-9-6 09:52:53
版主大人,我在devstack里做实验,当使用glance-api连接到ceph cluster时,glance-api报错如下:
ERROR glance.api.v2.image_data [req-75d06dda-1773-414d-9d0d-c7785b336935 c8cc029cb8ec41ebba917d39323edfd2 89e8c584aaf0495f9a2d5d4b6981766a] Failed to upload image data due to internal error
ERROR glance.common.wsgi [req-75d06dda-1773-414d-9d0d-c7785b336935 c8cc029cb8ec41ebba917d39323edfd2 89e8c584aaf0495f9a2d5d4b6981766a] Caught error: error connecting to the cluster

但是我已经定义了相关参数,
[glance_store]
default_store = rbd
stores = glance.store.rbd.Store
rbd_store_pool = images
rbd_store_user = stack
rbd_store_ceph_conf = /etc/ceph/ceph.conf
rbd_store_chunk_size = 8

问题卡在这里了,不能测试ceph和openstack的结合。。。请版主大人指点。。
singlebj 发表于 2015-8-4 15:05:23
请问单独搭建ceph pool池中只有rbd
关闭

推荐上一条 /2 下一条