Alé, sagra!equilibrium wrote:/NOTA: prometto che entro oggi aggiorno la presente guida.
Moderator: ago


Code: Select all
tomnote ~ # /etc/init.d/hdparm restart
* Service hdparm stopping
* WARNING: you are stopping a boot service.
* Service hdparm stopped
* Service hdparm starting
* Running hdparm on /dev/hda ... [ ok ]
* Running hdparm on /dev/hdb ...
HDIO_DRIVE_CMD(setcache) failed: Input/output error [ ok ]
* Service hdparm startedCode: Select all
#pata_all_args="-d1 -c3 -u1 -W0 -k1 -K1"
hda_args="-d1 -c3 -u1 -W0 -k1 -K1"
cdrom0_args="-d1 -c3 -u1 -k1 -K1"
bhe mi pare ovvia la risposta: un lettore CDROM non e' un harddrive.riverdragon wrote:E' relativo al fatto che di default /etc/conf.d/hdparm presenta le opzioni alla voce pata_all_args="..." e il tentativo di disabilitare la write cache dal lettore cd genera un errore


lo stripe size e' relativo al RAID.Scen wrote:Purtroppo mi ritengo abbastanza ignorante in materia di FS e simili, per cui mi tocca chiedere: cos'è lo stripe size? Come lo identifico/configuro? E' relativo al disco, al filesystem, alla configurazione RAID, o cosa?
Premessa: per il momento io ho un raid 5 sw composto da 3 hd e quando l'ho creato ho formattato con opzioni standard.!equilibrium wrote:[6] Stripe Size e RAID
Per chi dispone di un sistema basato su RAID, può trarre notevoli benefici in termini di prestazioni specificando al filesystem la dimensione dello stripe size e il numero di hard disk coinvolti nel RAID. In questo modo i buffers di lettura e scrittura saranno allineati con lo strip size dell'array RAID evitando inutili perdite di tempo al filesystem dovuti allo svuotamento/riempimento dei buffers in modo asincrono (e questo rallenta parecchio le performance del filesystem!!).
Per formattare il filesystem con le impostazioni specifiche per il proprio array RAID bisogna usare queste opzioni:
dove X è dato dal valore dello strip size moltiplicato per 2, e Y è dato dal valore dello strip size moltiplicato per il numero degli hard disk presenti nell'array (esclusi quelli di parità ) per 2.Code: Select all
mkfs.xfs -d sunit=X -d swidth=Y
facciamo qualche esempio pratico.
se ipotizziamo di avere un array RAID 5 formato da 5 hard disk e uno strip size di 64k:
X = 64*2
Y = 64*4*2
se ipotizziamo un array RAID 0 formato da 3 hard disk con uno strip size di 128K:
X = 128*2
Y = 128*3*2
N.B.: riporto la mia esperienza personale in merito a questo punto su un mio fileserver personale (RAID 5 con strip size 64K composto da 10 sata). Prima di effettuare la formattazione come spiegato al punto (6) il RAID aveva una capacità su lettura singola (non letture multiple in parallelo) pari a circa ~220MB/s, dopo aver riformattato l'array con le ottimizzazioni sopra spiegate la capacità in lettura singola è stata pari a ~400MB/s (entrambi i valori li ho rilevati con lo stesso strumento di benchmark)
Code: Select all
grep -vE '(^[[:space:]]*($|(#|!|;|//)))'
mi pare che ti sei dimenticato dell'opzione -b (e relativa -i) per cercare di ottimizzare l'occupazione di spazio su volumi di archiviazione. Che ne pensi?!equilibrium wrote:p.s.: proprio ora ho aggiornato pesantemente tutta la guida.

ho saltato volutamente quella parte per motivi che non sto qua ora a spiegare, a breve integrerò una spiegazione dettagliata per -b, -n, e -s per l'ottimizzazione dello spaziodjinnZ wrote:mi pare che ti sei dimenticato dell'opzione -b (e relativa -i) per cercare di ottimizzare l'occupazione di spazio su volumi di archiviazione. Che ne pensi?



p.s.: leggere attentamente il primo post del thread, graziebandreabis wrote:Dovo trovo questa guida?
Sbav sbav.

E poi non ho capito su quali partizioni sia utile usare xfs considerando che ho partizioni separate per /, /usr, /var, /home, /documenti.!equilibrium wrote:ho saltato volutamente quella parte per motivi che non sto qua ora a spiegare, a breve integrerò una spiegazione dettagliata per -b, -n, e -s per l'ottimizzazione dello spazio

la descrizione per quelle opzioni sono state incluse nel man: man mkfs.xfs.bandreabis wrote:In realtà stavo cercando info riguardo a:!equilibrium wrote:ho saltato volutamente quella parte per motivi che non sto qua ora a spiegare, a breve integrerò una spiegazione dettagliata per -b, -n, e -s per l'ottimizzazione dello spazio
XFS è un FS e come tale non è diverso dagli altri e non ha nessun genere di limitazione (paragonato ai FS inclusi nel kernel) quindi non ha molto senso come domanda.bandreabis wrote:E poi non ho capito su quali partizioni sia utile usare xfs considerando che ho partizioni separate per /, /usr, /var, /home, /documenti.

Code: Select all
mkfs.xfs -l lazy-count=1Code: Select all
barrier,nodiratime,noatime
sìbandreabis wrote:Se ho capito bene, da varie risposte al topic, conviene formattare le partizioni conCode: Select all
mkfs.xfs -l lazy-count=1
barrier solo se il tuo HDD supporta le Write Barrier.bandreabis wrote:montare le partizioni con le opzioni in fstabdisattivando la write cache sui dischi (anche se con i PATA crollano le prestazioni).Code: Select all
barrier,nodiratime,noatime
Se non mi sbaglio: noatime implica nodiratime. Quindi basta noatime.bandreabis wrote:montare le partizioni con le opzioni in fstabdisattivando la write cache sui dischi (anche se con i PATA crollano le prestazioni).Code: Select all
barrier,nodiratime,noatime

sì esatto, ma ci sono software che con l'opzione noatime possono smettere di funzionare correttamente, io consiglio di usare relatime (man mount):xdarma wrote:Se non mi sbaglio: noatime implica nodiratime. Quindi basta noatime.
Code: Select all
relatime
Update inode access times relative to modify or change time. Access time is only updated if the previous access time
was earlier than the current modify or change time. (Similar to noatime, but doesn't break mutt or other applications
that need to know if a file has been read since the last time it was modified.)sui desktop / notebook è un buon modo per risparmiare corrente / batteria mantenendo l'HDD in stato di standy per tempi molti più lunghi (alzino la mano quanti di voi hanno bisogno di verificare la data di ogni singolo file che creano) e allo stesso tempo l'HDD entra in standby molto prima se ha meno operazioni I/O da fare; per un server invece il discorso cambia, l'incremento di performance è notevole, soprattutto per i file server o i mail server, dove gli accessi I/O sono presenti 24h/7 quindi il poter risparmiare qualche decimo di secondo per ogni processo I/O si tramuta in un sensibile aumento della responsività del server.xdarma wrote:noatime non è specifico di xfs ma "generico unix" e, a memoria, disabilita le scritture di access time su disco diminuendo il "traffico". Non è detto che questo risparmio si traduca in aumento di prestazioni visibile, magari l'impatto è minimo.
sui vecchi PATA sì, il crollo è dell'ordine dei 2/3 delle performance originarie, sui SATA invece non è rilevabile, ma il problema non si pone, chi usa ancora i PATA al giorno d'oggi?xdarma wrote:Disabilitare la write-cache del disco, secondo me, non si tradurrà in un "crollo" delle prestazioni.
c'è da tenere a mente che nonostante siano passati anni dalla sua segnalazione, nel kernel linux è ancora presente il famoso bug che uccide le performance degli I/O quando la cpu è sotto forti carichi: prima che me lo chiediete, sì, il bug è ancora presente nella versione 2.6.36 rilasciata di recente e sì, non verrà risolto nemmeno per la versione 2.6.37.xdarma wrote:Mi verrebbe da dirti che la differenza maggiore sarà un filesystem più sicuro, ma fai prima a fare una prova e dirmi cosa ti sembra

