software:ceph-storage-cluster

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
software:ceph-storage-cluster [2022/12/11 19:37] – [rbd-fuse] stsoftware:ceph-storage-cluster [2024/03/11 23:25] (aktuell) – [Benchmarks] st
Zeile 144: Zeile 144:
   - keine Trennung zwischen Storage und Virtualisierung   - keine Trennung zwischen Storage und Virtualisierung
 ==== Benchmarks ==== ==== Benchmarks ====
 +
 +[[https://www.thomas-krenn.com/de/wiki/Ceph_Perfomance_Guide_-_Sizing_%26_Testing|Ceph Perfomance Guide - Sizing & Testing]]
  
 rados bench: Installation aus Paketquelle: https://download.ceph.com/ rados bench: Installation aus Paketquelle: https://download.ceph.com/
Zeile 206: Zeile 208:
 <code bash>ceph pg repair 1.4ac</code> <code bash>ceph pg repair 1.4ac</code>
  
 +Für Rados: 
 +<code bash> 
 +rados lspools 
 +rados list-inconsistent-pg {POOL} 
 +rados list-inconsistent-obj {placement-group-ID} --format=json-pretty 
 +</code>
 ===== Monitoring ===== ===== Monitoring =====
  
Zeile 523: Zeile 530:
 Beispiel OSD.0 entfernen: Beispiel OSD.0 entfernen:
 <code bash> <code bash>
 +ceph osd down 10
 +systemctl stop ceph-osd@10
 ceph osd purge 0 --yes-i-really-mean-it ceph osd purge 0 --yes-i-really-mean-it
-ceph osd crush remove osd.0 +# nicht mehr nötig: 
-ceph auth del osd.0+ceph osd crush remove osd.0 
 +ceph auth del osd.0
 # "updated" # "updated"
 # oder: # oder:
Zeile 531: Zeile 541:
 </code> </code>
  
 +wenn das Gerät dann immer noch busy ist:
  
 +<code bash>
 +ls /dev/mapper/ceph-* | xargs -I% -- dmsetup remove %
 +partprobe $DISK
 +sgdisk --zap-all $DISK
 +</code>
 +[[https://github.com/rook/rook/issues/9764|Quelle]]
 ==== Cluster Einstellungen ==== ==== Cluster Einstellungen ====