Ich nutze checkMK RAW 1.6.0p22 und überwache damit einen Proxmox-Server, der u.a. eine ZFS-formatierte Platte für Backups eingebunden hat. Neulich ist ein Check auf den Status “Warnung” gesprungen, da die Festplatte zu mehr als 80% belegt war. Das stimmte auch – doch habe ich daraufhin viele alte Backups gelöscht und erreiche jetzt laut Proxmox “nur” noch 70%. Leider erhalte ich aber von checkMK immernoch die alte Warnung.
Dort steht auch weiterhin, dass die Platte zu 81,81% gefüllt sei, was aber nicht mehr stimmt. Daher meine Frage: Woran kann das liegen oder wo stellt man das ab? Ein erneutes “Check neu ansetzen” liefert immer wieder das gleiche Resultat.
11:18/0 server ~ # zpool list
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
zfs-local-dump 1.62T 1.29T 345G - - 0% 79% 1.00x ONLINE -
bzw:
11:29/0 server ~ # zfs list
NAME USED AVAIL REFER MOUNTPOINT
zfs-local-dump/local-backups 1.29T 293G 870G /zfs-local-dump/local-backups
Ich bin auch der Meinung das wir bei 82% Füllstand circa sind.
1,62 TB Größe und 293 GB Available sind nach Adam Ries gut 18% frei noch oder wenn du anders rechnest mit 1,29 TB used und 293 GB free - Gesamt 1583 GB dann sind es 18,5% frei.
Also egal wie ich rechne komme ich immer auf einen Wert von knapp über 80% Füllstand.
Eindeutig Proxmox kann nicht mit ZFS umgehen
Ne im Ernst das ist nen typisches Problem wenn Software nix über das Filesystem weiß welches es beschreibt. Wie willst du sonst abbilden wenn ein Filesystem Dedup und Compression macht.
Ja, das kann ja sein – aber ich habe zig Backups auf dem Device gelöscht … trotzdem zeigt checkMK die ganze Zeit den gleichen Wert: 81.81% und weicht auch keinen Bruchteil davon ab :
Wie der ganze ZFS Kram funktioniert ist das bekannt?
Das ist hinreichend komplex. Ich kenn da auch nicht alle Fallstricke und Gegebenheiten.
Hier ein kurzer Überblick über alle ZFS Eigenschaften das ist echt viel https://docs.oracle.com/cd/E19253-01/820-2313/gazss/index.html
Das beim Löschen von Dateien der Platz nicht gleich frei wird ist nach kurzem überfliegen durchaus normal.
Was mich nur an deinem ZFS wundert ist, dass kein Dedup oder Compression an zu sein scheint. Das sind doch die einzig nützlichen Optionen wenn man das als Backup Storage benutzt. Weil wenn die Optionen an sind kannst eine prozentuale Auswertung des Platzes komplett vergessen. Dann am besten nur noch auf freien Platz in GB prüfen und warnen wenn der Wert X unterschreitet.
Wo siehst du das? Ich dachte bisher, dass Proxmox automatisch “das beste herausholt”? Diese Platte ist allerdings auch kein RAID sondern eine Einzelplatte, die ich bewusst mit ZFS formatiert hatte, damit die Vollbackups dort geparkt werden können.
(OT: Eigentlich habe ich dazu auch noch einen alten “Proxmox Backup Server (PBS)” in der Ecke stehen, der diese Aufgabe sehr gut und sehr schnell erledigt.)
Auf einem Backup Storage erwarte ich hier locker Werte von 50-100. Aber erst wenn genug Backups vorhanden sind und das Ganze groß genug ist. Also 1.6 TB für Backup Storage ist auch nicht arg da erwartet man eher so 10-20 TB^^
Ok, danke. Ich habe die Platte einfach eingebunden und benutzt – ohne großartig etwas zusätzliches einzustellen. Kann man das auch nachträglich höher drehen oder zickt ZFS dann wieder rum?
Eine größere Einzelplatte gab es zu dem Kurs nicht (2.5 Zoll in einem Dell-R730xd-Server).
Aber der PBS hat ein RAID, auf dem weit mehr Luft ist… und wenn ich das gerade auswendig richtig wiedergebe, ist die Compression-Rate dort auch wesentlich höher.
Ist es nicht auf ZFS so, dass er beim Löschen dieses tatsächlich nicht frei gibt, sondern erst überschreibt, wenn er den Platz braucht? So kann man Versionen von Dateien vorhalten und auch nach dem Löschen zurück. Also eine Versionsverwaltung built in vom Dateisystem.
Dann wird natürlich der potentiell freie Platz nach außen anders präsentiert als der tatsächlich (physisch) freie Platz. Das bekommen der Erfahrung nach die meisten Tools immer nicht richtig hin, aber checkmk rechnet im check alles am Ursprung sauber nach und es passt.
Das ist ein “ich erinnere mich dunkel an etwas”. Bin kein ZFS Profi und habe es seit Jahren nicht eingesetzt. Ich glaube mich aber zu erinnern, dass so eine Funktion in ZFS implementiert ist. Habe mich jetzt auch nicht damit beschäftigt, sollte nur ein “kann man Mal nach googlen” Hinweis sein.
Ich hole den Thread nochmal nach oben … auf dem Proxmox-Backup-Server sieht der Dedup-Faktor besser als 1.0 aus (aber auch weit schlechter als 50-100!).
Dort habe ich:
Der Dedup Faktor sieht aber ok aus. 90 Snapshots und ein Faktor von 19 ist doch in Ordnung.
Je mehr Backups nun dort landen umso größer wird der Faktor.
Die Größe des Backup Storage und die dort befindlichen Daten sind ja auch sehr klein. Je größer die Menge der Daten oder besser Snapshots ist umso mehr macht sich die Deduplication bemerkbar.
@edit: korrigiert die Snapshot Anzahl zu früh am Morgen
… hätte mich auch gewundert, wenn der PBS da irgendwelchen Mist macht. Der ist schließlich speziell dafür entwickelt worden und dazu noch “auf ZFS spezialisiert”
This topic was automatically closed 365 days after the last reply. New replies are no longer allowed. Contact @fayepal if you think this should be re-opened.