在Ceph Storage Cluster中创建一个池
您可以通过下面的链接以PDF格式下载本文,为我们提供帮助。
theロード下载PDF指南
关门
Ceph Storage是免费的开源软件,旨在针对现代数据分析,人工智能(AI),机器学习(ML),数据分析和新的关键任务工作负载进行大规模扩展定义的分布式存储解决方案。本文介绍了如何使用自定义数量的展示位置组(PG)创建Ceph池。
用Ceph的话,展示位置组(PG)是 碎屑或碎屑 逻辑对象池的示例,其中对象作为一组放置在OSD中。当Ceph将数据存储在OSD中时,部署组会减少每个对象的元数据量。
放置组的数量越多(例如,每个OSD 100个),则平衡效果越好。 Ceph客户端计算对象应属于哪个展示位置组。它通过散列对象ID并根据定义的池中PG的数量和池ID进行操作来实现此目的。见 PG到OSD的映射 有关更多信息。
计算展示位置组的总数。
(OSDs * 100) Total PGs = ------------ pool size
例如,假设集群具有 9 OSD,默认池大小为3。因此,PG是
9 * 100 Total PGs = ------------ = 300 3
建立一个游泳池
创建池的语法如下:
ceph osd pool create {pool-name} {pg-num}
其中:
- {泳池名称} –池的名称。必须是唯一的。
- {pg-num} –池放置组的总数。
创建数量为k8s-uat的展示位置组的新池 100
$ sudo ceph osd pool create k8s-uat 100 pool 'k8s-uat' created
列出可用的池以确认它们已创建。
$ sudo ceph osd lspools 1 .rgw.root 2 default.rgw.control 3 default.rgw.meta 4 default.rgw.log 5 k8s-uat
将池与应用程序关联
必须先将池与应用程序关联,然后才能使用它们。 CephFS使用的池或RGW自动创建的池会自动关联。
--- Ceph Filesystem ---
$ sudo ceph osd pool application enable cephfs
--- Ceph Block Device ---
$ sudo ceph osd pool application enable rbd
--- Ceph Object Gateway ---
$ sudo ceph osd pool application enable rgw
范例:
$ sudo ceph osd pool application enable k8s-uat-rbd rbd
enabled application 'rbd' on pool 'k8s-uat-rbd'
用于RBD的泳池 rbd
工具:
sudo rbd pool init k8s-uat-rbd
禁用应用程序:
ceph osd pool application disable {--yes-i-really-mean-it}
要获取特定的池或所有I / O信息:
$ sudo ceph osd pool stats [{pool-name}]
删除池
删除池:
sudo ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]
有关Ceph的其他文章将在未来几周内发表。保持联系。
您可以通过下面的链接以PDF格式下载本文,为我们提供帮助。
theロード下载PDF指南
关门