在Ceph Storage Cluster中創建一個池


您可以通過下面的鏈接以PDF格式下載本文,為我們提供幫助。

theロード下載PDF指南

關門


Ceph Storage是免費的開源軟件,旨在針對現代數據分析,人工智能(AI),機器學習(ML),數據分析和新的關鍵任務工作負載進行大規模擴展定義的分布式存儲解決方案。本文介紹了如何使用自定義數量的展示位置組(PG)創建Ceph池。

用Ceph的話,展示位置組(PG)是 碎屑或碎屑 邏輯對象池的示例,其中對象作為一組放置在OSD中。當Ceph將數據存儲在OSD中時,部署組會減少每個對象的元數據量。

放置組的數量越多(例如,每個OSD 100個),則平衡效果越好。 Ceph客戶端計算對象應屬於哪個展示位置組。它通過散列對象ID並根據定義的池中PG的數量和池ID進行操作來實現此目的。見 PG到OSD的映射 有關更多信息。

計算展示位置組的總數。

             (OSDs * 100)
Total PGs =  ------------
              pool size

例如,假設集群具有 9 OSD,默認池大小為3。因此,PG是

             9 * 100
Total PGs =  ------------ = 300
              3

建立一個游泳池

創建池的語法如下:

ceph osd pool create {pool-name} {pg-num}

其中:

  • {泳池名稱} –池的名稱。必須是唯一的。
  • {pg-num} –池放置組的總數。

創建數量為k8s-uat的展示位置組的新池 100

$ sudo ceph osd pool create k8s-uat 100
pool 'k8s-uat' created

列出可用的池以確認它們已創建。

$ sudo ceph osd lspools
1 .rgw.root
2 default.rgw.control
3 default.rgw.meta
4 default.rgw.log
5 k8s-uat

將池與應用程序關聯

必須先將池與應用程序關聯,然後才能使用它們。 CephFS使用的池或RGW自動創建的池會自動關聯。

--- Ceph Filesystem ---
$ sudo ceph osd pool application enable  cephfs

--- Ceph Block Device ---
$ sudo ceph osd pool application enable  rbd

--- Ceph Object Gateway ---
 $ sudo ceph osd pool application enable  rgw

範例:

$ sudo ceph osd pool application enable k8s-uat-rbd rbd
enabled application 'rbd' on pool 'k8s-uat-rbd'

用於RBD的泳池 rbd 工具:

sudo rbd pool init k8s-uat-rbd

禁用應用程序:

ceph osd pool application disable   {--yes-i-really-mean-it}

要獲取特定的池或所有I / O信息:

$ sudo ceph osd pool stats [{pool-name}]

刪除池

刪除池:

sudo ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]

有關Ceph的其他文章將在未來幾周內發表。保持聯繫。


您可以通過下面的鏈接以PDF格式下載本文,為我們提供幫助。

theロード下載PDF指南

關門


Sidebar