mi rispondo da solo la moltiplicazione per due serve perchè quando si usa l'opzione sunit=xx il valore xx è un multiplo di 512 bytedrakkan wrote:
da questo mi sembra di capire che la moltiplicazione per due non serva,
Moderator: ago
mi rispondo da solo la moltiplicazione per due serve perchè quando si usa l'opzione sunit=xx il valore xx è un multiplo di 512 bytedrakkan wrote:
da questo mi sembra di capire che la moltiplicazione per due non serva,

Code: Select all
mkfs.xfs -bsize=512 -dsunit=2,swidth=4 /dev/raid0/root -f
Code: Select all
Jul 13 08:50:15 [kernel] raid0_make_request bug: can't convert block across chunks or bigger than 64k 170980093 4

come qualsiasi altra cosa mal configurata.cloc3 wrote:già il sottotitolo farà brillare gli occhi a k.gothmog.
Volevo provare xfs, ma mi sono accorto che la cosa è più complessa del previsto.
Leggendo questo e gli altri post in giro, infatti, sembrerebbe che xfs, se mal impostato, sia una vera ciofeca.
se cerchi con google, troverai che il problema non è in XFS, ma è un noto bug che esiste dai tempi del kernel 2.5 (e mai realmente fixato) e generato da LVM2 + Soft RAID0. in parole povere, è un problema di LVM2, non di XFS. c'è una patch in giro da applicare al kernel (non ufficiale), e il filesystem XFS va ri-formattato con una particolare opzione per allineare il journaling con lo stripe size del soft RAID.cloc3 wrote:Sinceramente non riesco a capire bene la situazione.Code: Select all
Jul 13 08:50:15 [kernel] raid0_make_request bug: can't convert block across chunks or bigger than 64k 170980093 4
Mi sapreste dire qualcosa?

ci hai azzeccato in tutto. Su google ci sono post del 2003 su questo argomento, ma la "documentazione" è un po' troppo dispersa per le mie capacità di sintetizzare una soluzione. essendo ot qui, credo che ti scriverò in mp.!equilibrium wrote: se cerchi con google,

faccio un esempio concreto così da spiegare per bene questo concetto una volta per tutte; prendo il tuo caso specifico e lo userò come esempio, quindi un RAID0 di 2 unità con uno stripe size di 32K (valore da me inventato visto che non l'hai riportato nei precedenti post).cloc3 wrote:non è ot, invece, chiedere un cenno relativo alla scelta dei valori di sunit e swidth. i miei sono corretti, sono efficienti, per un filesystem che deve contenere il sistema operativo e i programmi principali?
Code: Select all
The sunit suboption is used to specify the stripe unit for a RAID device or a logical volume. The suboption
value has to be specified in 512-byte block units. Use the su suboption to specify the stripe unit size in
bytes. This suboption ensures that data allocations will be stripe unit aligned when the current end of file is
being extended and the file size is larger than 512KiB. Also inode allocations and the internal log will be
stripe unit aligned.
Aggiungo che il parametro lo si può ottenere anche entrando al boot nella utility BIOS del controller RAID controllando le informazioni del controller creato o esistente!equilibrium wrote:ultima TIP: per chi ha controllers RAID 3ware, determinate il chunk-size ottimale per il vostro array tramite i valori consigliati dall'utility tw_cli e non spannometricamente tramite Google


uppalo da qualche parte e poi linkalo quiriverdragon wrote:ma l'output è formattato sufficientemente male che non si capiva granché, e il forum non sembra permettere caratteri monospace. Quando sarà leggibile li reinserirò.
a non cambiare l'acces time per le directory, è il corrispettivo di noatimepower83 wrote:A che serve nodiratime?

Code: Select all
Sep 22 15:48:40 tomnote XFS: osyncisdsync is now the default, option is deprecated.
Sep 22 15:48:40 tomnote XFS: logbuf size for version 1 logs must be 16K or 32K

Code: Select all
-l version=2Code: Select all
mkfs.xfs -f -d unwritten=0 -l size=64m,version=2 /dev/vg/home
Purtroppo mi sono segnato solo i blocchiriverdragon wrote:In MB quanto sarebbe la differenza?
Non è un po' pochino? Anche secondo le linee guida di SGI [pp 7 e seguenti] per filesystem di queste dimensioni (parliamo di 48GB) la dimensione consigliata è 4KB. Comunque si tratta di una home quindi parliamo magari di file di qualche MB (musica, video) un bsize così basso potrebbe influenzare negativamente le performance dell'intero filesystem, o no?Ic3M4n wrote:per quanto riguarda la formattazione io avrei utilizzato anche l'opzione -b size=512 che permette di ridurre spazio sui file molto piccoli.

Ho provato su un'altra mia partizioneIc3M4n wrote:reiser utilizza 512 di default che io sappia.
Code: Select all
# debugreiserfs /dev/vg/usr | grep Blocksize
debugreiserfs 3.6.19 (2003 www.namesys.com)
Blocksize: 4096

l'aumento dei buffer di log ha solo lo scopo di ridurre gli accessi al disco e di conseguenza aumentare le prestazioni di scrittura/lettura, quindi dal punto di vista della sicurezza dei dati non perdi nulla e non guadagni nulla. Siccome il tuo scopo ultimo non sono le performance, ma solo una riduzione degli accessi allora ti consiglio di usare i valori che ho riportato nel mio tutorial (cioè il doppio dei valori di default), credo che siano più che sufficienti.Cazzantonio wrote:Volevo chiederti, secondo il tuo giudizio, quale potrebbe essere un valore per logbufs e logbsize per le partizioni sia sul notebook che sul server. Quello che mi crea dubbi è quali siano le controindicazioni per un valore alto di logbsize, ovvero se ci siano più rischi di perdere dati a scapito di una discutibile riduzione degli accessi a disco.
eheheheheCazzantonio wrote:Inoltre sono curioso di sapere come si faccia a capire se gli hd in mio possesso (tutti dei seagate barracuda) hanno le write-barriers hardware.

Avevo già controllato e non compare... comunque per sicurezza forzo l'utilizzo delle barriers in fase di mount!equilibrium wrote:Filesystem "XXXX": Disabling barriers, not supported by the underlying device
se il messaggio non ti esce a video in fase di mount vuol dire che hai pieno supporto alle write barrier hardware del drive(se maometto non va alla montagna ... )
Grazie, non ti preoccuparep.s.: sorry per la lunga attesa alla mia risposta.
ma quando monto /boot mi ritrovo cmq/dev/md0 /boot xfs barrier,noauto,noatime 1 2
Code: Select all
# dmesg | tail
nfsd: unexporting all filesystems
eth1: link down
eth1: link up, 100Mbps, full-duplex, lpa 0x41E1
eth1: link down
eth1: link up, 100Mbps, full-duplex, lpa 0x41E1
ISO 9660 Extensions: Microsoft Joliet Level 3
ISO 9660 Extensions: RRIP_1991A
Filesystem "md0": Disabling barriers, not supported by the underlying device
XFS mounting filesystem md0
Ending clean XFS mount for filesystem: md0
Code: Select all
grep -vE '(^[[:space:]]*($|(#|!|;|//)))'
no, e' tutto normale.Kernel78 wrote:Mi sembra di capire che non è proprio una bella cosa ...Code: Select all
Filesystem "md0": Disabling barriers, not supported by the underlying device XFS mounting filesystem md0 Ending clean XFS mount for filesystem: md0
Disabilito cmq la write cache o no ?
Scusate le domande stupide ma oggi mi sento più rimbambito del solito ...