tazinblack wrote:
Auf meinem Notebook habe ich ja auch schon btrfs. Allerdings mache ich bisher keine Snapshots.
Kannst Du noch was zur Struktur sagen?
Bezüglich, wie ich das Dateisystem nutze ?
momentan auf 3 "Partitionen"
/ (system; lzo-Kompression - auf SSD)
/ (/usr/portage; lzo-Kompression - auf SSD)
/var/tmp (auf einem 8 GB zram-Laufwerk mit lz4-Kompression - Btrfs selbst läuft ohne Kompression)
tazinblack wrote:
Hast Du Subvols und wenn ja für was?
momentan noch nicht, aber wenn ich meinem Bauchgefühl trauen darf könnte ich diese bald für die System-Partition und /usr/portage einsetzen,
besonders Snapshots sind praktisch wenn ich mal wieder das System mit experimentellen/unstable Programmen aus Overlays z.B. Update
da sieht die Stabilität aber noch nicht so toll aus, wenn ich die Berichte in der Mailingliste richtig interpretiere
wie bereits geschrieben - bei
manchen gibt es wohl gar keine Probleme -
ergo "YMMV"
tazinblack wrote:
Trennst Du zwischen System und Daten?
Auf jedenfall !
Das System, /usr/portage, /var/tmp sind auf separaten (Btrfs) Partitionen, die Daten sind momentan noch ausschließlich auf ZFS
besonders weil ZFS wohl zu langsam auf der Systempartition und auch (relativ) schwierig zu konfigurieren ist [besonders im Single-Drive-Betrieb]
weiters traue ich Btrfs noch nicht vollständig (ENOSPC, Partition voll ohne die aller aktuellsten Patches (
http://marc.info/?l=linux-btrfs&m=141178540704904)) - spontane Datenkorruption oder Verlust der Zugriffsmöglichkeit nach Absturz [gibt es aktuell bei ZFSonLinux aber als "Issue" auch]), setze ich es noch nicht in größerem Maße als Backup oder Datenplatte ein
Der aktuelle Stand ("integration"
http://git.kernel.org/cgit/linux/kernel ... ntegration + Patches ==
https://github.com/kernelOfTruth/linux/ ... 09.2014_v2)
schaut schon ziemlich gut aus und mit den btrfs-progs 3.16.1 zeigt er sogar die Fehler im syslog bzw. dmesg - welche Dateien defekt sind:
Mal ein Beispiel:
btrfs scrub status /bak
scrub status for 8f518282-fea8-4bd1-ade9-20796f142684
scrub started at Fri Sep 26 18:32:09 2014 and was aborted after 1119 seconds
total bytes scrubbed: 115.93GiB with 206 errors
error details: verify=9 csum=197
corrected errors: 9, uncorrectable errors: 197, unverified errors: 0
[43163.689282] scrub_handle_errored_block: 7 callbacks suppressed
[43163.689289] BTRFS: checksum/header error at logical 21086208 on dev /dev/mapper/WD20EARS, sector 41184: metadata leaf (level 0) in tree 3
[43163.689290] BTRFS: checksum/header error at logical 21086208 on dev /dev/mapper/WD20EARS, sector 41184: metadata leaf (level 0) in tree 3
[43163.689292] btrfs_dev_stat_print_on_error: 7 callbacks suppressed
[43163.689293] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 1, gen 0
[43163.719712] BTRFS: fixed up error at logical 21086208 on dev /dev/mapper/WD20EARS
[43169.587212] BTRFS: checksum/header error at logical 634126336 on dev /dev/mapper/WD20EARS, sector 1254912: metadata leaf (level 0) in tree 7
[43169.587215] BTRFS: checksum/header error at logical 634126336 on dev /dev/mapper/WD20EARS, sector 1254912: metadata leaf (level 0) in tree 7
[43169.587217] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 2, gen 0
[43169.618124] BTRFS: fixed up error at logical 634126336 on dev /dev/mapper/WD20EARS
[43169.636874] BTRFS: checksum/header error at logical 634142720 on dev /dev/mapper/WD20EARS, sector 1254944: metadata leaf (level 0) in tree 7
[43169.636876] BTRFS: checksum/header error at logical 634142720 on dev /dev/mapper/WD20EARS, sector 1254944: metadata leaf (level 0) in tree 7
[43169.636878] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 3, gen 0
[43169.660588] BTRFS: fixed up error at logical 634142720 on dev /dev/mapper/WD20EARS
[43169.672894] BTRFS: checksum/header error at logical 634159104 on dev /dev/mapper/WD20EARS, sector 1254976: metadata leaf (level 0) in tree 7
[43169.672896] BTRFS: checksum/header error at logical 634159104 on dev /dev/mapper/WD20EARS, sector 1254976: metadata leaf (level 0) in tree 7
[43169.672898] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 4, gen 0
[43169.700981] BTRFS: checksum/header error at logical 634175488 on dev /dev/mapper/WD20EARS, sector 1255008: metadata leaf (level 0) in tree 7
[43169.700983] BTRFS: checksum/header error at logical 634175488 on dev /dev/mapper/WD20EARS, sector 1255008: metadata leaf (level 0) in tree 7
[43169.700986] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 5, gen 0
[43169.718411] BTRFS: fixed up error at logical 634159104 on dev /dev/mapper/WD20EARS
[43169.724950] BTRFS: fixed up error at logical 634175488 on dev /dev/mapper/WD20EARS
[43182.584496] BTRFS: checksum/header error at logical 1001586688 on dev /dev/mapper/WD20EARS, sector 4069760: metadata leaf (level 0) in tree 5
[43182.584500] BTRFS: checksum/header error at logical 1001586688 on dev /dev/mapper/WD20EARS, sector 4069760: metadata leaf (level 0) in tree 5
[43182.584503] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 6, gen 0
[43183.473031] BTRFS: fixed up error at logical 1001586688 on dev /dev/mapper/WD20EARS
[43183.482348] BTRFS: checksum/header error at logical 1001603072 on dev /dev/mapper/WD20EARS, sector 4069792: metadata leaf (level 0) in tree 7
[43183.482350] BTRFS: checksum/header error at logical 1001603072 on dev /dev/mapper/WD20EARS, sector 4069792: metadata leaf (level 0) in tree 7
[43183.482352] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 7, gen 0
[43183.483829] BTRFS: fixed up error at logical 1001603072 on dev /dev/mapper/WD20EARS
[43183.484247] BTRFS: checksum/header error at logical 1001619456 on dev /dev/mapper/WD20EARS, sector 4069824: metadata leaf (level 0) in tree 7
[43183.484248] BTRFS: checksum/header error at logical 1001619456 on dev /dev/mapper/WD20EARS, sector 4069824: metadata leaf (level 0) in tree 7
[43183.484250] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 8, gen 0
[43183.485222] BTRFS: fixed up error at logical 1001619456 on dev /dev/mapper/WD20EARS
[43183.485604] BTRFS: checksum/header error at logical 1001635840 on dev /dev/mapper/WD20EARS, sector 4069856: metadata leaf (level 0) in tree 7
[43183.485606] BTRFS: checksum/header error at logical 1001635840 on dev /dev/mapper/WD20EARS, sector 4069856: metadata leaf (level 0) in tree 7
[43183.485608] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 9, gen 0
[43183.486647] BTRFS: fixed up error at logical 1001635840 on dev /dev/mapper/WD20EARS
[43307.435028] BTRFS: checksum error at logical 14918418432 on dev /dev/mapper/WD20EARS, sector 31251072, root 5, inode 59217, offset 2859008, length 4096, links 1 (path: hdd2bak/mp3albs/own/Bravo Hits 26/_ Bravo Hits 26 (CD 1)/18-Plug'N'Play _ Warp '99.mp3)
[43307.435035] BTRFS: bdev /dev/mapper/WD20EARS errs: wr 0, rd 0, flush 0, corrupt 10, gen 0
[43307.435036] scrub_handle_errored_block: 7 callbacks suppressed
[43307.435037] BTRFS: unable to fixup (regular) error at logical 14918418432 on dev /dev/mapper/WD20EARS
bis vor ein paar Tagen hatte ich mich gewundert, warum er auf dieser gar nicht so alten Platte (2.5 Jahre alt) auf einmal Fehler anzeigt - Ende August war das ganze noch Fehlerfrei,
hatte davor aber schon manuell ca. knapp 10 Sektoren neu schreiben lassen (pending sectors) und extended offline S.M.A.R.T.
zeigte nichts mehr an
#19 Short offline Completed: read failure 10% 17128 3058543265
#20 Short offline Completed without error 00% 17119 -
#21 Short offline Completed: read failure 10% 17118 3058543264
2 of 2 failed self-tests are outdated by newer successful extended offline self-test # 4
Ich hab deshalb gestern abend mal ZFS drauf gemacht und startete ein zpool scrub - siehe da:
zpool status
pool: WD20EARS
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see:
http://zfsonlinux.org/msg/ZFS-8000-8A
scan: scrub in progress since Sat Sep 27 19:25:14 2014
438G scanned out of 912G at 65.8M/s, 2h3m to go
1K repaired, 48.03% done
config:
NAME STATE READ WRITE CKSUM
WD20EARS ONLINE 0 0 13
WD20EARS ONLINE 0 0 27 (repairing)
errors: 13 data errors, use '-v' for a list
es werden immer mehr Fehler und scrub läuft noch - der Platte ist also nicht mehr über den Weg zu trauen
Die Fehlermeldungen und Btrfs' Fähigkeiten scheinen durchaus (noch bzw. wieder) zuverlässig zu sein in Bezug auf Erkennung von defekter Hardware
tazinblack wrote:
Was kernelOfTruth oben berichtet hat, klingt doch eher etwas unentspannt.
Manuell nachpatchen wollte ich eigentlich auch nicht.
naja - das war es bis vor kurzem auch:
bis vor ein paar Tagen kamen auf einmal dutzende (und mehr) Fehler auf der System-Partition, die zwar erfolgreich behoben werden konnten
beunruhigt war ich dann aber schon
Formatierung und 3-4-fache Tests der SSD unter Windows brachten aber nichts zutage
Darum wieder ein stage4-Backup zurück und jetzt läuft es ohne Meldungen
dennoch merkwürdig - wird wohl durch die vielen aktuellen Patches verursacht worden sein
und es fanden sich höchstwahrscheinlich einige gröbere Probleme (Bugs seit es Btrfs gibt), Mängel bzw. effizientes Platzmanagement, etc. etc., die nun nicht mehr auftreten sollten
frisch formatiert + aktueller Kernel sollte einiges davon behoben sein
Na dann wirst du wohl oder übel bis mindestens 3.18 oder 3.19 warten müssen, dass es besonders in Bezug auf ENOSPC und Datenintegrität nach Abstürzen (Filipe Manana hat hier wirklich beeindruckende Arbeit geleistet) für den täglichen Einsatz geeignet ist - die notwendigen Änderungen sind im "Integration"-Zweig vorhanden, der frühestens in 3.18 drin sein wird
besonders
Btrfs: remove empty block groups automatically
(ENOSPC)
und diverse patches bezüglich
data corruption, fsync, etc.
werden wohl erst da standardmäßig in Btrfs enthalten sein, ein Teil wird mit Sicherheit zurückportiert