ZFS-Filesystem wird als zu voll angezeigt, obwohl Daten gelöscht wurden

Hallo.

Ich nutze checkMK RAW 1.6.0p22 und überwache damit einen Proxmox-Server, der u.a. eine ZFS-formatierte Platte für Backups eingebunden hat. Neulich ist ein Check auf den Status “Warnung” gesprungen, da die Festplatte zu mehr als 80% belegt war. Das stimmte auch – doch habe ich daraufhin viele alte Backups gelöscht und erreiche jetzt laut Proxmox “nur” noch 70%. Leider erhalte ich aber von checkMK immernoch die alte Warnung.

Dort steht auch weiterhin, dass die Platte zu 81,81% gefüllt sei, was aber nicht mehr stimmt. Daher meine Frage: Woran kann das liegen oder wo stellt man das ab? Ein erneutes “Check neu ansetzen” liefert immer wieder das gleiche Resultat.

Danke für einen guten Tipp.

Sicher, dass die Platte jetzt mehr Platz hat? ZFS kann einem da auch leicht was vormachen :slight_smile:

Was sagt ein “zpool list” oder auch ein “zfs list” für das entsprechende System?

Hi.
Ich habe gerade nachgesehen:

11:18/0 server ~ # zpool list
NAME             SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfs-local-dump  1.62T  1.29T   345G        -         -     0%    79%  1.00x    ONLINE  -

bzw:

11:29/0 server ~ # zfs list
NAME                           USED  AVAIL     REFER  MOUNTPOINT
zfs-local-dump/local-backups  1.29T   293G      870G  /zfs-local-dump/local-backups

Es ist <80%

Ich bin auch der Meinung das wir bei 82% Füllstand circa sind.
1,62 TB Größe und 293 GB Available sind nach Adam Ries gut 18% frei noch oder wenn du anders rechnest mit 1,29 TB used und 293 GB free - Gesamt 1583 GB dann sind es 18,5% frei.
Also egal wie ich rechne komme ich immer auf einen Wert von knapp über 80% Füllstand.

hm – im Proxmox-WebUI steht dies:


also hier definitiv < 80% – es werden aber seltsamerweise auch nur 1.14 TB angegeben?! :thinking:

Eindeutig Proxmox kann nicht mit ZFS umgehen :slight_smile:
Ne im Ernst das ist nen typisches Problem wenn Software nix über das Filesystem weiß welches es beschreibt. Wie willst du sonst abbilden wenn ein Filesystem Dedup und Compression macht.

Ja, das kann ja sein – aber ich habe zig Backups auf dem Device gelöscht … trotzdem zeigt checkMK die ganze Zeit den gleichen Wert: 81.81% und weicht auch keinen Bruchteil davon ab :thinking: :

Screenshot_20210317_175626

Wie der ganze ZFS Kram funktioniert ist das bekannt?
Das ist hinreichend komplex. Ich kenn da auch nicht alle Fallstricke und Gegebenheiten.
Hier ein kurzer Überblick über alle ZFS Eigenschaften das ist echt viel
https://docs.oracle.com/cd/E19253-01/820-2313/gazss/index.html
Das beim Löschen von Dateien der Platz nicht gleich frei wird ist nach kurzem überfliegen durchaus normal.
Was mich nur an deinem ZFS wundert ist, dass kein Dedup oder Compression an zu sein scheint. Das sind doch die einzig nützlichen Optionen wenn man das als Backup Storage benutzt. Weil wenn die Optionen an sind kannst eine prozentuale Auswertung des Platzes komplett vergessen. Dann am besten nur noch auf freien Platz in GB prüfen und warnen wenn der Wert X unterschreitet.

Wo siehst du das? Ich dachte bisher, dass Proxmox automatisch “das beste herausholt”? Diese Platte ist allerdings auch kein RAID sondern eine Einzelplatte, die ich bewusst mit ZFS formatiert hatte, damit die Vollbackups dort geparkt werden können.
(OT: Eigentlich habe ich dazu auch noch einen alten “Proxmox Backup Server (PBS)” in der Ecke stehen, der diese Aufgabe sehr gut und sehr schnell erledigt.)

hier

DEDUP → 1.00x

Auf einem Backup Storage erwarte ich hier locker Werte von 50-100. Aber erst wenn genug Backups vorhanden sind und das Ganze groß genug ist. Also 1.6 TB für Backup Storage ist auch nicht arg da erwartet man eher so 10-20 TB^^

Dem Proxmox ist jedes Filesystem gleich.

Ok, danke. Ich habe die Platte einfach eingebunden und benutzt – ohne großartig etwas zusätzliches einzustellen. Kann man das auch nachträglich höher drehen oder zickt ZFS dann wieder rum?

Eine größere Einzelplatte gab es zu dem Kurs nicht (2.5 Zoll in einem Dell-R730xd-Server).
Aber der PBS hat ein RAID, auf dem weit mehr Luft ist… und wenn ich das gerade auswendig richtig wiedergebe, ist die Compression-Rate dort auch wesentlich höher.

Juhu ich glaube das trifftet ab, ZFS schüttelt man mal eben nicht so aus dem Ärmel,

https://www.youtube.com/channel/UCC0WuyODhqPuROasZV878Yw

für erste. Mir wären 74% schon zu wenig.

Ist es nicht auf ZFS so, dass er beim Löschen dieses tatsächlich nicht frei gibt, sondern erst überschreibt, wenn er den Platz braucht? So kann man Versionen von Dateien vorhalten und auch nach dem Löschen zurück. Also eine Versionsverwaltung built in vom Dateisystem.
Dann wird natürlich der potentiell freie Platz nach außen anders präsentiert als der tatsächlich (physisch) freie Platz. Das bekommen der Erfahrung nach die meisten Tools immer nicht richtig hin, aber checkmk rechnet im check alles am Ursprung sauber nach und es passt.

Ist das eine Frage oder eine Antwort? Es wäre zumindest eine Erklärung :slight_smile:

Das ist ein “ich erinnere mich dunkel an etwas”. Bin kein ZFS Profi und habe es seit Jahren nicht eingesetzt. Ich glaube mich aber zu erinnern, dass so eine Funktion in ZFS implementiert ist. Habe mich jetzt auch nicht damit beschäftigt, sollte nur ein “kann man Mal nach googlen” Hinweis sein. :slight_smile:

:+1: alles klar. Danke!

1 Like

Ich hole den Thread nochmal nach oben … auf dem Proxmox-Backup-Server sieht der Dedup-Faktor besser als 1.0 aus (aber auch weit schlechter als 50-100!).
Dort habe ich:


(Der Pool rpool ist dieses Mal aber auch ein RAID-10/-mirror bestehend aus 4 Platten.)

Der Dedup Faktor sieht aber ok aus. 90 Snapshots und ein Faktor von 19 ist doch in Ordnung.
Je mehr Backups nun dort landen umso größer wird der Faktor.
Die Größe des Backup Storage und die dort befindlichen Daten sind ja auch sehr klein. Je größer die Menge der Daten oder besser Snapshots ist umso mehr macht sich die Deduplication bemerkbar.

@edit: korrigiert die Snapshot Anzahl zu früh am Morgen :slight_smile:

1 Like

… hätte mich auch gewundert, wenn der PBS da irgendwelchen Mist macht. Der ist schließlich speziell dafür entwickelt worden und dazu noch “auf ZFS spezialisiert” :slight_smile:

This topic was automatically closed 365 days after the last reply. New replies are no longer allowed. Contact @fayepal if you think this should be re-opened.