Gentoo Forums
Gentoo Forums
Gentoo Forums
Quick Search: in
backup su hard disc esterno
View unanswered posts
View posts from last 24 hours
View posts from last 7 days

Goto page Previous  1, 2, 3  
Reply to topic    Gentoo Forums Forum Index Forum italiano (Italian) Forum di discussione italiano
View previous topic :: View next topic  
Author Message
sabayonino
Apprentice
Apprentice


Joined: 03 Jan 2012
Posts: 247

PostPosted: Tue Dec 17, 2013 12:13 pm    Post subject: Reply with quote

io potrei cosnigliarti rsnapshot che fa degli snapshot (appunto) di una data cartella. è facile da configurare ed una volta configurato non ci devi più pensare (se non per le modifiche eventuali)

e poi per comodità effettuare un tarball dell'ultimo snapshot (o degli ultimi snapshot)

e poi effettuare uno script che ti mandi l'email .

potrei buttar giù la configurazione e uno script di mail ed effettuare delle prove.

se ti va di provare .

Installare rsnapshot (nonm dovrebbe richiedere chissà uali dipendenze)
Code:
# emerge rsnapshot --a


[edit] se ti tieni gli snapshot sul disco esterno e non hai necessità di fare upload/download del backup , non serve nemmeno a comprimerlo

gli snapshot sono direttamente accessibili ed in caso di recupero dati hai il file già a disposzione (dipende comunque dal livello di snapshot impostato) e basta un a semplice copia o rsync per recuperare il contenuto

si può impostare gli snap sad ogni ora/giorno/settimana/mese ..

se cerchi "backup con rsnapshot" in rete puoi capire come funziona.

se puoi ti bastanbo gli snapshot non ti devi nemmeno preoccupare di formattare e che altro ovviamente sempre se non sono presenti file superiori a 2G) , ma immaginando il tipo di contenuto ... non credo :D





[ri-edit] : io ho già pronto lo script di controllo per rsnapshot se vuoi provare anche questa soluzione ti preparo un post con tutte le istruzioni del caso :wink:
_________________
BOINC ed il calcolo distribuito
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Tue Dec 17, 2013 2:35 pm    Post subject: Reply with quote

djinnZ wrote:
Code:
zgrep 'FUSE' /proc/config.gz
emerge -pv ntfs3g
emerge -pv ntfs-3g
uname -a
per informazioni.
Se per ntfs3g o ntfs-3g ti esce qualcosa del genere
emerge -pv ntfs3g:
These are the packages that would be merged, in order:

Calculating dependencies... done!
[ebuild   R    ] sys-fs/ntfs3g-2012.1.15-r2  USE="acl crypt external-fuse ntfsprogs suid xattr -debug -static-libs" 0 kB

Total: 1 package (1 reinstall), Size of downloads: 0 kB
e non un errore prova a vedere se
Code:
emerge -1F ntfs3g
riesce a terminare senza errori (se va è solo questione di installare un pacchetto) altrimenti potresti usare roba del genere http://www.paragon-software.com/home/extfs-windows/ http://www.fs-driver.org/ http://www.diskinternals.com/linux-reader/ e e formattare il disco da linux in qualcosa di più "normale".

Trattengo le valutazioni su come sia stato concepito codesto script, manco al mio primo tentativo (sulla bourne originale, il che è tutto dire) a quindici anni ho combinato un simile pasticcio.


Code:

 emerge -pv ntfs3g

These are the packages that would be merged, in order:

Calculating dependencies... done!
[ebuild  N    ] sys-fs/ntfs3g-1.2531  USE="-debug -suid" 636 kB

Total: 1 package (1 new), Size of downloads: 636 kB
saka-server ~ # emerge -pv ntfs-3g

These are the packages that would be merged, in order:

Calculating dependencies /

!!! 'ntfs-3g' is not a valid package atom.
!!! Please check ebuild(5) for full details.
!!! (Did you specify a version but forget to prefix with '='?)                ..                                             . done!
saka-server ~ # uname -a




mentre lanciando
emerge -1F ntfs3g

Code:

Calculating dependencies... done!

>>> Fetching (1 of 1) sys-fs/ntfs3g-1.2531
>>> Downloading 'http://distfiles.gentoo.org/distfiles/ntfs-3g-1.2531.tgz'
--2013-12-17 15:34:02--  http://distfiles.gentoo.org/distfiles/ntfs-3g-1.2531.tgz
Resolving distfiles.gentoo.org... 64.50.236.52, 64.50.233.100, 156.56.247.195, ...
Connecting to distfiles.gentoo.org|64.50.236.52|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-12-17 15:34:03 ERROR 404: Not Found.

>>> Downloading 'http://distro.ibiblio.org/pub/linux/distributions/gentoo/distfiles/ntfs-3g-1.2531.tgz'
--2013-12-17 15:34:03--  http://distro.ibiblio.org/pub/linux/distributions/gentoo/distfiles/ntfs-3g-1.2531.tgz
Resolving distro.ibiblio.org... 152.19.134.43
Connecting to distro.ibiblio.org|152.19.134.43|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: /gentoo/distfiles/ntfs-3g-1.2531.tgz [following]
--2013-12-17 15:34:03--  http://distro.ibiblio.org/gentoo/distfiles/ntfs-3g-1.2531.tgz
Reusing existing connection to distro.ibiblio.org:80.
HTTP request sent, awaiting response... 404 Not Found
2013-12-17 15:34:04 ERROR 404: Not Found.

>>> Downloading 'http://www.ntfs-3g.org/ntfs-3g-1.2531.tgz'
--2013-12-17 15:34:04--  http://www.ntfs-3g.org/ntfs-3g-1.2531.tgz
Resolving www.ntfs-3g.org... 77.86.224.47
Connecting to www.ntfs-3g.org|77.86.224.47|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-12-17 15:34:04 ERROR 404: Not Found.

!!! Couldn't download 'ntfs-3g-1.2531.tgz'. Aborting.
 * Fetch failed for 'sys-fs/ntfs3g-1.2531'

>>> Failed to emerge sys-fs/ntfs3g-1.2531

 * Messages for package sys-fs/ntfs3g-1.2531:

 * Fetch failed for 'sys-fs/ntfs3g-1.2531'
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Tue Dec 17, 2013 2:39 pm    Post subject: Reply with quote

sabayonino wrote:
io potrei cosnigliarti rsnapshot che fa degli snapshot (appunto) di una data cartella. è facile da configurare ed una volta configurato non ci devi più pensare (se non per le modifiche eventuali)

e poi per comodità effettuare un tarball dell'ultimo snapshot (o degli ultimi snapshot)

e poi effettuare uno script che ti mandi l'email .

potrei buttar giù la configurazione e uno script di mail ed effettuare delle prove.

se ti va di provare .

Installare rsnapshot (nonm dovrebbe richiedere chissà uali dipendenze)
Code:
# emerge rsnapshot --a


[edit] se ti tieni gli snapshot sul disco esterno e non hai necessità di fare upload/download del backup , non serve nemmeno a comprimerlo

gli snapshot sono direttamente accessibili ed in caso di recupero dati hai il file già a disposzione (dipende comunque dal livello di snapshot impostato) e basta un a semplice copia o rsync per recuperare il contenuto

si può impostare gli snap sad ogni ora/giorno/settimana/mese ..

se cerchi "backup con rsnapshot" in rete puoi capire come funziona.

se puoi ti bastanbo gli snapshot non ti devi nemmeno preoccupare di formattare e che altro ovviamente sempre se non sono presenti file superiori a 2G) , ma immaginando il tipo di contenuto ... non credo :D





[ri-edit] : io ho già pronto lo script di controllo per rsnapshot se vuoi provare anche questa soluzione ti preparo un post con tutte le istruzioni del caso :wink:


Ti ringrazio per la disponibilità, a fare prove per me non ci sono problemi, anzi calcola solo che questo non è il mio lavoro, lo faccio perchè ci siamo trovati in questa situazione, a me i computer piacciono e divertono e il sitema linux mi incuriosce parecchio, questo solo per dirti che potrebbe capitare (e capiterà) che ti (vi) faccia domande banali o scontate per voi esperti
:wink:

Tornando a noi, devo in conclusione formattare comunque l'hdd in ntfs poichè superiamo i fatidici 2gb giusto ?
Back to top
View user's profile Send private message
sabayonino
Apprentice
Apprentice


Joined: 03 Jan 2012
Posts: 247

PostPosted: Tue Dec 17, 2013 5:35 pm    Post subject: Reply with quote

fortek wrote:


Tornando a noi, devo in conclusione formattare comunque l'hdd in ntfs poichè superiamo i fatidici 2gb giusto ?


se utilizzi quello script si. dato che il file risultante è maggiore di 2Gb

ma se rileggi la mia proposta , potresti utilizzare gli snapshot con uno script e un paio di file di configurazione.

se vuoi provare con rsnapshot fammi sapere.

Se sei curioso di sapere come funziona rsnapshot : http://www.miamammausalinux.org/2009/03/rsnapshot-backup-incrementale-sincronizzato/ :lol:

tralascia l'installazione e la configurazione ma leggi come funziona

Code:
# emerge rsnapshot


se vuoi provarlo , possiamo affiancarlo allo script attuale . i vantaggi di rsnapshot li ho elencati nel mio post precedente.

sta a te a decidere
_________________
BOINC ed il calcolo distribuito
Back to top
View user's profile Send private message
sabayonino
Apprentice
Apprentice


Joined: 03 Jan 2012
Posts: 247

PostPosted: Tue Dec 17, 2013 8:34 pm    Post subject: Reply with quote

Io ti posto il procedimento che potresti attuare con rsnapshot (potrebbe sempre essere utile a qualcun'altro)

Installare rsnapshot
Code:
# emerge rsnapshot


Ti posto la configurazione adatta alla tua situazione : (da quello che si evince dallo script che utilizzi , la directory da backuppare è /home/admin/samba )
Code:
# nano -w /etc/rsnapshot.conf


ed incolla il seguente codice (sperando che il copia incolla mantenga le tabulazioni !!! ogni parametro deve essere separato dalle tabulazioni e non da uno spazio fatto con la barra spaziatrice ! )
Code:
#################################################
# rsnapshot.conf - rsnapshot configuration file #
#################################################
#                                               #
# PLEASE BE AWARE OF THE FOLLOWING RULES:       #
#                                               #
# This file requires tabs between elements      #
#                                               #
# Directories require a trailing slash:         #
#   right: /home/                               #
#   wrong: /home                                #
#                                               #
#################################################

#######################
# CONFIG FILE VERSION #
#######################

config_version  1.2

###########################
# SNAPSHOT ROOT DIRECTORY #
###########################

# All snapshots will be stored under this root directory.
#
snapshot_root   /mnt/usbesterno/snapshot/

# If no_create_root is enabled, rsnapshot will not automatically create the
# snapshot_root directory. This is particularly useful if you are backing
# up to removable media, such as a FireWire or USB drive.
#
#no_create_root 1

#################################
# EXTERNAL PROGRAM DEPENDENCIES #
#################################

# LINUX USERS:   Be sure to uncomment "cmd_cp". This gives you extra features.
# EVERYONE ELSE: Leave "cmd_cp" commented out for compatibility.
#
# See the README file or the man page for more details.
#
#cmd_cp         /bin/cp

# uncomment this to use the rm program instead of the built-in perl routine.
#
cmd_rm          /bin/rm

# rsync must be enabled for anything to work. This is the only command that
# must be enabled.
#
cmd_rsync       /usr/bin/rsync

# Uncomment this to enable remote ssh backups over rsync.
#
#cmd_ssh        /usr/bin/ssh

# Comment this out to disable syslog support.
#
cmd_logger      /usr/bin/logger

# Uncomment this to specify the path to "du" for disk usage checks.
# If you have an older version of "du", you may also want to check the
# "du_args" parameter below.
#
#cmd_du         /usr/bin/du

# Uncomment this to specify the path to rsnapshot-diff.
#
#cmd_rsnapshot_diff     /usr/local/bin/rsnapshot-diff

# Specify the path to a script (and any optional arguments) to run right
# before rsnapshot syncs files
#
#cmd_preexec    /path/to/preexec/script

# Specify the path to a script (and any optional arguments) to run right
# after rsnapshot syncs files
#
#cmd_postexec   /path/to/postexec/script

#########################################
#           BACKUP INTERVALS            #
# Must be unique and in ascending order #
# i.e. hourly, daily, weekly, etc.      #
#########################################

#interval       orario  6
interval        giornaliero   7
interval        settimanale  4
interval        mensile 12

############################################
#              GLOBAL OPTIONS              #
# All are optional, with sensible defaults #
############################################

# Verbose level, 1 through 5.
# 1     Quiet           Print fatal errors only
# 2     Default         Print errors and warnings only
# 3     Verbose         Show equivalent shell commands being executed
# 4     Extra Verbose   Show extra verbose information
# 5     Debug mode      Everything
#
verbose         2

# Same as "verbose" above, but controls the amount of data sent to the
# logfile, if one is being used. The default is 3.
#
loglevel        3

# If you enable this, data will be written to the file you specify. The
# amount of data written is controlled by the "loglevel" parameter.
#
logfile /var/log/rsnapshot

# If enabled, rsnapshot will write a lockfile to prevent two instances
# from running simultaneously (and messing up the snapshot_root).
# If you enable this, make sure the lockfile directory is not world
# writable. Otherwise anyone can prevent the program from running.
#
lockfile        /var/run/rsnapshot.pid

# Default rsync args. All rsync commands have at least these options set.
#
#rsync_short_args       -a
#rsync_long_args        --delete --numeric-ids --relative --delete-excluded

# ssh has no args passed by default, but you can specify some here.
#
#ssh_args       -p 22

# Default arguments for the "du" program (for disk space reporting).
# The GNU version of "du" is preferred. See the man page for more details.
# If your version of "du" doesn't support the -h flag, try -k flag instead.
#
#du_args        -csh

# If this is enabled, rsync won't span filesystem partitions within a
# backup point. This essentially passes the -x option to rsync.
# The default is 0 (off).
#
#one_fs         0

# The include and exclude parameters, if enabled, simply get passed directly
# to rsync. If you have multiple include/exclude patterns, put each one on a
# separate line. Please look up the --include and --exclude options in the
# rsync man page for more details on how to specify file name patterns.
#
#include        ???
#include        ???
#exclude        ???
#exclude        ???

# The include_file and exclude_file parameters, if enabled, simply get
# passed directly to rsync. Please look up the --include-from and
# --exclude-from options in the rsync man page for more details.
#
#include_file   /path/to/include/file
#exclude_file   /path/to/exclude/file

# If your version of rsync supports --link-dest, consider enable this.
# This is the best way to support special files (FIFOs, etc) cross-platform.
# The default is 0 (off).
#
#link_dest      0

# When sync_first is enabled, it changes the default behaviour of rsnapshot.
# Normally, when rsnapshot is called with its lowest interval
# (i.e.: "rsnapshot hourly"), it will sync files AND rotate the lowest
# intervals. With sync_first enabled, "rsnapshot sync" handles the file sync,
# and all interval calls simply rotate files. See the man page for more
# details. The default is 0 (off).
#
#sync_first     0

# If enabled, rsnapshot will move the oldest directory for each interval
# to [interval_name].delete, then it will remove the lockfile and delete
# that directory just before it exits. The default is 0 (off).
#
#use_lazy_deletes       0

# Number of rsync re-tries. If you experience any network problems or
# network card issues that tend to cause ssh to crap-out with
# "Corrupted MAC on input" errors, for example, set this to a non-zero
# value to have the rsync operation re-tried
#
#rsync_numtries 0

###############################
### BACKUP POINTS / SCRIPTS ###
###############################

# LOCALHOST
backup  /home/admin/samba               localhost/


Crea una cartella "snapshot" nel dispositivo esterno . Qui ci metteremo gli snapshot (con dispositivo montato ovviamente) e li manteniamo separati da altri contenuti del disco :roll:
Code:
# mkdir /mnt/usbesterno/snapshot



Ora crea 3 script per gli snapshot (serviranno anche poi per la schedulazione):
Code:
# touch /root/snapshot_giornaliero.sh  /root/snapshot_settimanale.sh  /root/snapshot_mensile.sh


Puoi già renderli eseguibili :
Code:
# chmod +x /root/*.sh


ora edita il file per lo snapshot giornaliero :
Code:
# nano -w /root/snapshot_giornaliero.sh


ed incollaci il seguente codice
Code:
#!/bin/bash


data="`date "+%A %d-%m-%Y"`"
tipo="giornaliero"
bk_msg_good="Backup $tipo : $data effettuato con successo"
bk_msg_bad="Backup $tipo : $data non effettuato correttamente"


if [[ `mountpoint  /mnt/usbesterno` ]] ; then
if [[ -d /mnt/usbesterno/snapshot ]] ; then sleep 1
else
mkdir /mnt/usbesterno/snapshot
fi
echo "Il dispositivo esterno è montato  : Effettuo il backup"
sleep 5
rsnapshot -v $tipo
echo $bk_msg_good
echo $bk_msg_good >> /root/snapshot.log
echo $bk_msg_good | mail -a "From:serverxxx@xxx.it" -s "Log Server Saka Backup " xxx@gmail.com
echo $bk_msg_good | mail -a "From:serverxxx@xxx.it" -s "Log Server Saka Backup " xxxx@xxxxx.com

else

echo "Il dispositivo esterno per il backup non risulta montato. Impossibile effettuare il backup *** $bk_msg_bad"
echo $bk_msg_bad >> /root/snapshot.log
echo $bk_msg_bad | mail -a "From:serverxxx@xxx.it" -s "Log Server Saka Backup " xxx@gmail.com
echo $bk_msg_bad | mail -a "From:serverxxx@xxx.it" -s "Log Server Saka Backup " xxxx@xxxxx.com

fi


Spiegazione : if [[ `mountpoint /mnt/usbesterno` ]] controlla che il mountpoint /mnt/usbesterno sia correttamente montato e nel caso fosse corretto procede al backup ,scrive nel log (con data e ora) e manda una mail di avvenuto backup ; in caso contrario scrive nel log (con data e ora) e manda una mail con esito negativo

mentre
Code:
if [[ -d /mnt/usbesterno/snapshot ]] ; then sleep 1
else
mkdir /mnt/usbesterno/snapshot
fi

Controlla che la directory "snapshot" esista e se non c'è la crea
Quindi qualsiasi dispositivo venga montato in /mnt/usbesterno sarà la destinazione del backup. :roll:
(quindi in /etc/fstab puoi rimettere /dev/sdc1 al posto dell'UUID ... e puoi utilizzare dischi diversi senza troppi sbattimenti)

copia lo stesso codice anche per gli altri script cambiando solo la variabile "tipo" per :
tipo="settimanale" per snapshot_settmanale.sh
tipo="mensile" per snapshot_mensile.sh

ora non ti resta che schedularli nel cron di sistema
Code:
# nano -w /etc/crontab


aggiungi i il seguente codice
Code:
# Snapshot giornaliero (effettuato tutti i giorni alle ore 00:01)
1 0 * * * /bin/bash /root/snapshot_giornaliero.sh

# Snapshot settimanale (effettuato ogni lunedì alle ore 00:30)
30 0 * * 1 /bin/bash /root/snapshot_settimanale.sh

# Snapshot menisle (effettuato ad ogni giorno 1 del mese alle ore 00:30)
30 0 1 * * /bin/bash /root/snapshot_mensile.sh


Il cron di sistema comincerà a schedularli subito

Se desideri testare la sintassi del file di configurazione per vedere se ci sono errori , basta che tu esegua :

Giornaliero :
Code:
# rsnapshot -t giornaliero


Settimanale :
Code:
# rsnapshot -t settimanale


Mensile :
Code:
# rsnapshot -t mensile


Per provare il backup manualmente rimuovi il parametro -t (o opzionalkmente abilita il verbose con il paramtro -v)

Le rotazioni possono essere modificate a piacimento nel file /etc/rsnapshot.conf
Code:
#interval       orario  6
interval        giornaliero   7
interval        settimanale  4
interval        mensile 12


Se non hai la necessità di tenere degli snapshot settimanali o mensili puoi commentare le relative righe e tenere solo gli snapshot giornalieri (ed eventualmente cambiare il numero delle rotazioni)

ATTENZIONE : ogni parametro va separato con la TABULAZIONE e non con lo spazio (Barra spaziatrice,frecce etc)

Buona fortuna ... spero sia utile

:roll:

PS : rsnapshot può essere configurato anche in altri modi : questo è uno dei tanti :D

[edit] : non ho commentato nello scirpt ogni passaggio per ovvie ragioni di tempo :twisted: ... ma se hai necessità di inserire commenti e speigazioni più complete
fammi sapere che provvederò/speigherò
_________________
BOINC ed il calcolo distribuito


Last edited by sabayonino on Wed Dec 18, 2013 1:33 pm; edited 1 time in total
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 8:02 am    Post subject: Reply with quote

Woh, che lavoro grazie.
Ora mi metto con calma e ci lavoro su.
Prima di partire un paio di cose :
Mi sorgeva il dubbio della formattazione del HDD poichè mi ricordavo avessi detto :


sabayonino wrote:

se puoi ti bastanbo gli snapshot non ti devi nemmeno preoccupare di formattare e che altro ovviamente sempre se non sono presenti file superiori a 2G) , ma immaginando il tipo di contenuto ... non credo :D


Ho letto il link sul funzionamento di rsnapshot, praticamente cambia solo i file variati rispetto al backup old giusto ?
Per questo motivo non dovrebbe creare file superiori a 2 GB ? (mi resta il dubbio sulla tua affermazione sopra a questo punto)

Starò attento nel copia incolla a verificare le tabulazioni, ti chiedo però :
nel codice da copiare mi hai evidenziato in blu (link) le parti che devo modificare con le email (giustamente)
Mi son perso però a metà codice circa dove trovo
#EXAMPLE.com
#backup root@example.com
Devo sostituirlo con cosa ? Devo rileggermi lo script "originale" per capire cosa sostuire ? (per caso è il dominio?)

attendo tue indicazioni
grazie
Back to top
View user's profile Send private message
sabayonino
Apprentice
Apprentice


Joined: 03 Jan 2012
Posts: 247

PostPosted: Wed Dec 18, 2013 11:29 am    Post subject: Reply with quote

fortek wrote:
Woh, che lavoro grazie.
Ora mi metto con calma e ci lavoro su.
Prima di partire un paio di cose :
Mi sorgeva il dubbio della formattazione del HDD poichè mi ricordavo avessi detto :


sabayonino wrote:

se puoi ti bastanbo gli snapshot non ti devi nemmeno preoccupare di formattare e che altro ovviamente sempre se non sono presenti file superiori a 2G) , ma immaginando il tipo di contenuto ... non credo :D


Ho letto il link sul funzionamento di rsnapshot, praticamente cambia solo i file variati rispetto al backup old giusto ?
Per questo motivo non dovrebbe creare file superiori a 2 GB ? (mi resta il dubbio sulla tua affermazione sopra a questo punto)

Starò attento nel copia incolla a verificare le tabulazioni, ti chiedo però :
nel codice da copiare mi hai evidenziato in blu (link) le parti che devo modificare con le email (giustamente)
Mi son perso però a metà codice circa dove trovo
#EXAMPLE.com
#backup root@example.com
Devo sostituirlo con cosa ? Devo rileggermi lo script "originale" per capire cosa sostuire ? (per caso è il dominio?)

attendo tue indicazioni
grazie


no il file di configurazione (/etc/rsnapshot.conf) lo devi copiare così come è . l'ho già adattato alle tue esigenze
quello è il file di conf standard e riporta anche esempi (tutto quello che sta dopo il cancelletto èp considerato come commento). rsnapshot può essere utilizzato anche per backup in remoto.

io ho modificato solo le righe
Code:
snapshot_root   /mnt/usbesterno/snapshot/
#interval       orario  6
interval        giornaliero   7
interval        settimanale  4
interval        mensile 12
backup        /home/admin/samba                 localhost/


Assicurati che gli elementi siano separati dalla tabulazione
(così come gli altri elementi dello script che non ho toccato)


invece le mail le devi mettere nei tre script snapshot_giornaliero snapshot_settimanale snapshot_mensile

per i file di 2G... esso veniva creato quando si comprimeva tutta la cartella del backup. gli snapshot invece sono cartelle normali. a meno che tu all'interno di queste cartelle non hai file superiori ai 2G il problema può esser considerato "risolto".

Ti invito a rileggere bene quello che ho scritto nel post precedente se non vuoi fare confusione
_________________
BOINC ed il calcolo distribuito
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 1:55 pm    Post subject: Reply with quote

C'è qualcosa che non mi torna..........

I file all'interno delle cartelle sono tutti superiori a 2 gb...............

Nel tentativo fatto lunedi con il comando :
/bin/sh -x /root/backup.sh

Da cui abbiamo evinto che genera file troppo grandi per la formattazione fat32, ha creato all'interno delle cartelle monday e tuesday dei file bz2 di oltre 3 giga !!!!!!!!!!!!!!!!!!!!! (monday è di 3,99 giga)

Come ha fatto se la formattazione fat32 non permette di superare i 2 giga mi chiedo ora io ??
E perchè ha creato il file backup monday e mi ha inviato conferma email , mentre per il file tuesday non mi ha inviato conferma email ??
Quindi stasera dovrebbe farmi il backup senza inviarmi l'email..................... giusto ?

Sono confuso :?
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 2:02 pm    Post subject: Reply with quote

Vi chiedo inoltre :
Putty mi serve per entrare nel pc da altro pc.
Esiste un modo per vedere , tramite winzozz il disco esterno collegato al pc server/ubuntu ? (per verificare il contenuto senza doverlo ogni volta "smontare" e collegare fisicamente ad un pc winzozz)
Back to top
View user's profile Send private message
djinnZ
Advocate
Advocate


Joined: 02 Nov 2006
Posts: 4728
Location: not so far from an evil, world famous volcano. Under dictatorship, idiocracy, property of banks...

PostPosted: Wed Dec 18, 2013 2:08 pm    Post subject: Reply with quote

  1. rsnapshot è installabile? ne dubito
    Code:
    emerge -F rsnapshot
  2. gli script di questo genere si mettono in etc, nelle directory appositamente predisposte/preposte, non si lasciano mai nella dir di root (o di altri utenti, persino se dedicati) ed ovviamente il chmod 0750 è d'uopo;
  3. la copia a mezzo cp o rsync su un filesystem fat implica la perdita della proprietà e dei permessi, con tutte le conseguenze negative del caso;
  4. senza almeno un
    Code:
    [ $? != 0 ] && echo $bk_msg_bad | mail -a "From:serverxxx@xxx.it" -s "Log Server Saka Backup " xxxx@xxxxx.com
    si reitera l'inconsistenza (ai limiti delll'idiozia e/o criminale quando perpetrata in ambito diverso dal suggerimento al volo in forum o se proposta quale risultato professionale) dello script precedente.


@sabayonino: cose del genere
Code:
chmod +x /root/*.sh
non si fanno mai. Lo ho imparato a mie spese, nel peggiore dei modi. :wink:

@fortek: 4 GB non 2 GB è il limite estremo. 2 GB è un limite legato alla mancata abilitazione del supporto LFS nel sistema.
Ma sopra i 2 GB i sistemi M$ (non mi chiedre quali, non me lo ricordo e non vado certo a cercare) od altre porcate proprietarie potrebbero piallare i file, tra le tante idiozie che fanno in automatico.
A naso dovresti avere un vecchio kernel < 2.6.14 ed all'epoca (mi pare) LFS non era abilitato per default, a dimostrazione di quanto sopra. ( lo so che sembro uno che vorrebbe istituire i campi di concentramento per tutti i cosiddetti "tecnici" ma ... in effetti è proprio così :twisted: )
Per vedere il backup ti basta aggiungere alla condivisione SMB la directory del backup. Ovvero devi configurare samba.
_________________
scita et risus abundant in ore stultorum sed etiam semper severi insani sunt:wink:
mala tempora currunt...mater stultorum semper pregna est :evil:
Murpy'sLaw:If anything can go wrong, it will - O'Toole's Corollary:Murphy was an optimist :wink:
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 2:44 pm    Post subject: Reply with quote

Quindi :
Code:

bzip2: I/O or other error, bailing out.  Possible reason follows.
bzip2: File too large
        Input file = (stdin), output file = (stdout)


Il motivo dell'errore non è la grandezza del file ?
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 3:03 pm    Post subject: Reply with quote

Ho lanciato nuovamente :
/bin/sh -x /root/backup.sh

risultato sempre :

Code:

+ folder_up=/home/admin/
+ folder_from=samba/
+ folder_to=/mnt/usbesterno/
++ date +%Y_%m_%d_%H_%M
+ formato=2013_12_18_15_02
+ monthly=true
+ month_day=1
+ log=/root/backup.log
+ echo

++ date '+%Y-%m-%d %H:%M'
+ esito='2013-12-18 15:02'
+ esito='2013-12-18 15:02 - '
+ clear
++ date +%A
+ oggi=Wednesday
++ date +%d
+ cur_day=18
+ is_the_date=false
+ esito_giorno=false
+ esito_mese=false
+ test -d /mnt/usbesterno/Wednesday
+ test -d /mnt/usbesterno/Wednesday
+ oggi=Wednesday/
+ cd /mnt/usbesterno/Wednesday/
+ test -f tmp_2008_07_30_23_59.bz2
+ mv tmp_2008_07_30_23_59.bz2 old.bz2
+ cd /home/admin/
+ tar -cjf /mnt/usbesterno/Wednesday/tmp_2013_12_18_15_02.bz2 samba/

bzip2: I/O or other error, bailing out.  Possible reason follows.
bzip2: File too large
        Input file = (stdin), output file = (stdout)
+ cd /mnt/usbesterno/Wednesday/
+ test -f tmp_2013_12_18_15_02.bz2
+ esito_giorno=true
+ test -f old.bz2
+ rm old.bz2
+ '[' true ']'
+ esito='2013-12-18 15:02 -  Copia del GIORNO avvenuta con successo'
+ echo 2013-12-18 15:02 - Copia del GIORNO avvenuta con successo
+ echo 2013-12-18 15:02 - Copia del GIORNO avvenuta con successo
+ mail -a From:xxx@xxx.it -s 'Log Server Saka Backup ' xxx@xxx.com
+ echo 2013-12-18 15:02 - Copia del GIORNO avvenuta con successo
+ mail -a From:xxx@xxxl.it -s 'Log Server Saka Backup ' xxx@xxx.eu
+ '[' 18 = 1 ']'
+ true
+ false


Quindi in sostanza mi fa un backup incompleto giusto ? Il file sarebbe ancora più grande di quello che ha scritto (che presumo sarà di 4 giga e rotti come quello di ieri )

****

E aggiungo : quindi può esserci questo errore chissa da quanto tempo, il fatto che l'email di conferma mi arrivi comuqnue è fuorviante giusto ?
Il "bubbone" è saltato fuori perchè (chissà per quale mistero) l'email ha smesso di arrivarmi, altrimenti sarei andato avanti con quell'errore (e relativo backup incompleto) per chissà quanto tempo..........
O sto dicendo eresie informatiche ?
Back to top
View user's profile Send private message
djinnZ
Advocate
Advocate


Joined: 02 Nov 2006
Posts: 4728
Location: not so far from an evil, world famous volcano. Under dictatorship, idiocracy, property of banks...

PostPosted: Wed Dec 18, 2013 3:13 pm    Post subject: Reply with quote

Il motivo dell'errore è che il file è più grande di 4GB, limite che probabilmente è stato innalzato all'epoca della configurazione del sistema (merdannium sono quasi certo che li piallava i file sopra i 2GB e cinque/sei anni or sono li potevi trovare ancora in giro i mentecatti che lo usavano).

In generale se si deve operare in ambiente legacy il limite è 2 GB, altrimenti è 4GB.
Senza dimenticare che, sempre se non ricordo male, c'è un problema con i bit finali al troncamento (per cui un file di 4 GB potrebbe essere leggermente più piccolo) ma è legato al singolo sistema e filesystem utilizzato.
Di norma non si fanno mai file più grandi di 2 GB se non per uso interno.
_________________
scita et risus abundant in ore stultorum sed etiam semper severi insani sunt:wink:
mala tempora currunt...mater stultorum semper pregna est :evil:
Murpy'sLaw:If anything can go wrong, it will - O'Toole's Corollary:Murphy was an optimist :wink:
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 3:24 pm    Post subject: Reply with quote

Che soluzione mi rimane quindi ?
Formattare l'hard disc in ntfs ?
Nessuna controindicazione tipo mancato riconoscimento di linux/gentoo ?
Back to top
View user's profile Send private message
djinnZ
Advocate
Advocate


Joined: 02 Nov 2006
Posts: 4728
Location: not so far from an evil, world famous volcano. Under dictatorship, idiocracy, property of banks...

PostPosted: Wed Dec 18, 2013 3:50 pm    Post subject: Reply with quote

fortek wrote:
Quindi in sostanza mi fa un backup incompleto giusto ? Il file sarebbe ancora più grande di quello che ha scritto (che presumo sarà di 4 giga e rotti come quello di ieri )

****

E aggiungo : quindi può esserci questo errore chissa da quanto tempo, il fatto che l'email di conferma mi arrivi comuqnue è fuorviante giusto ?
Il "bubbone" è saltato fuori perchè (chissà per quale mistero) l'email ha smesso di arrivarmi, altrimenti sarei andato avanti con quell'errore (e relativo backup incompleto) per chissà quanto tempo..........
O sto dicendo eresie informatiche ?
Finalmente ... :cry:

I casi sono due: o ti metti a posto il sistema aggiornandolo (praticamente impossibile, è troppo vecchio) ed a questo punto puoi usare rsnapshot, ntfs o quel che ti pare o modifichi lo script tenendo conto di quello che hai per adattarlo al limite "serio" dei 2 GB.
Tieni conto che se sei in questa disgraziata repubblica e sei sottoposto agli obblighi di cui al dlgs 196/2003 sono più di cinque anni che stai violando la legge in pratica. Come ti ho già detto all'inizio.

Per il problema della traslazione dai filesystem nativi a vfat si deve prima capire cosa fa codesta macchina per poter dire, a ragion veduta, se la perdita della proprietà e dei permessi è influente o meno ed in quali termini.
_________________
scita et risus abundant in ore stultorum sed etiam semper severi insani sunt:wink:
mala tempora currunt...mater stultorum semper pregna est :evil:
Murpy'sLaw:If anything can go wrong, it will - O'Toole's Corollary:Murphy was an optimist :wink:


Last edited by djinnZ on Wed Dec 18, 2013 4:20 pm; edited 1 time in total
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Wed Dec 18, 2013 4:17 pm    Post subject: Reply with quote

In conclusione :
Per utilizzare rsnaphot o formattare in ntfs dovrei aggiornare il sistema, che è impossibile quindi scarto l'ipotesi

Soluzione due sarebbe splittare i file in parti più piccole come suggerito in questo post di Sabayonino :

Cito (sabayonino) :
Oppure potresti "splittare" il file durante la fase di compressione modificando il comando
Codice:
tar -cjf /mnt/usbesterno/Monday/tmp_2013_12_16_16_31.bz2 samba/

in
Codice:
tar -cjf ${folder_from} | splid -d -b 2000M - ${folder_to}${oggi}tmp_${formato}.bz2.part

dovrebbe creare dei file da meno di 2Giga (2G=2048M) nel formato <nome-backup>.bz2.part00 <nome-backup>.bz2.part01 etc

per ricomporre le parti in un file unico in caso di necessità (non nel filsystem FAT32) :
Codice:
# <nome-backup>.bz2* > <nome-backup>.bz2



[edit] però occorre modificare anche le altre parti dello script per rimuovere le parti "old". si dovrebbe controllare come si comporta .

Questa è l'unico tentativo che posso fare giusto ?
Back to top
View user's profile Send private message
djinnZ
Advocate
Advocate


Joined: 02 Nov 2006
Posts: 4728
Location: not so far from an evil, world famous volcano. Under dictatorship, idiocracy, property of banks...

PostPosted: Wed Dec 18, 2013 4:37 pm    Post subject: Reply with quote

Rileggi quello che ho scritto, con calma ed attenzione, dal primo post. E non ci sono solo quelle ciofeche di VFAT32 e NTFS come filesystem... tanto per incominciare...

Se vuoi agire razionalmente prima si scompone il problema in necessità ed i base a quelle si trovano le soluzioni.
Non si procede con la prima fesseria che viene in mente.
Perché fai il backup? A cosa ti serve? etc. Stabilito questo si vede, con i mezzi a disposizione cosa ci si può inventare.

Meglio perdere un secondo a fare il quadro della situazione che buttarsi e ripetere gli stessi errori. Se non mi metti in condizione di aiutarti...
La prima cosa che non ho inteso è quale sia la ragione di fare un backup giornaliero differenziato.

Nei tuoi panni, anni or sono, visto che non era possibile contare su un minimo di capacità, non oso neppure parlare di professionalità, per l'assistenza ho fatto la scelta di arrangiarmi e mantengo da solo i miei sistemi¹.

Ti ripeto che la vigente legislazione (e lo volevano persino come presidente uno di quei fossili accademici e non, dopo i danni immani che hanno causato) impone l'aggiornamento dei sistemi oltre al backup periodico (di qui il fattto che quel carciofo del primo ministro recentemente abbia parlato di fondi per l'informatizzazione, c'è una legge che impone l'obsolescenza programmata a tornaconto di M$ che può imporre fetenzie come 8 segando il supporto alle versioni precedenti).

¹ ho lavorato nell'I.T., ma sono un C.d.L. non un tecnico (del piffero)
_________________
scita et risus abundant in ore stultorum sed etiam semper severi insani sunt:wink:
mala tempora currunt...mater stultorum semper pregna est :evil:
Murpy'sLaw:If anything can go wrong, it will - O'Toole's Corollary:Murphy was an optimist :wink:


Last edited by djinnZ on Thu Dec 19, 2013 1:12 pm; edited 1 time in total
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Thu Dec 19, 2013 12:56 pm    Post subject: Reply with quote

La mia conoscenza di gentoo (e di linux in generale) è limitata.
Io davo per scontato che chi ha impostato questo sistema avesse programmato degli aggiornamenti automatici (sempre che si possa fare con linux).
Ovvio che se lo avessi saputo avrei chiesto ed avrei pensato io a farli.

Il backup viene fatto poichè vengono salvati dati sensibili importanti (contabilità, file,listini etc)

Abbiamo questo server basato su gentoo dove gira il nostro gestionale e dove ci sono le cartelle della rete aziendale.
Il backup era programmato per salvare questi dati ogni giorno nel modo che abbiamo visto dallo script.

La mia necessità sarebbe di riprisitnare il sistema di backup così come era, o trovare una soluzione il più simile possibile (quindi backup quotidiano in automatico).
Il fatto che mi venga inviata una email di conferma, alla luce di quando abbiamo visto, non se se a questo punto serva a qualcosa vista la bassissima attendibilità...........
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Thu Dec 19, 2013 2:38 pm    Post subject: Reply with quote

djinnZ wrote:

La prima cosa che non ho inteso è quale sia la ragione di fare un backup giornaliero differenziato.




Ogni giorno vengo salvati nuovi dati (fatture, file di lavoro etc) e credo che , in accordo con chi ci fornisce il gestionale, la persona che ha creato il sitema lo abbia fatto così per poter ripristinare ogni giorno (in caso di necessità) le ultime cose salvate.
Grazie ancora per la disponibilità e chiedimi pure tutto ciò che serve per permetterti di aiutarmi :wink:
Back to top
View user's profile Send private message
djinnZ
Advocate
Advocate


Joined: 02 Nov 2006
Posts: 4728
Location: not so far from an evil, world famous volcano. Under dictatorship, idiocracy, property of banks...

PostPosted: Thu Dec 19, 2013 2:43 pm    Post subject: Reply with quote

UFFA. :evil:
Fondamentalmente ci sono due approcci al salvataggio dei file: atomico o universale (per alcuni c'è anche molecolare, che sarebbe una via di mezzo); e ci sono tre politiche: incrementale, completo e differenziale.
Se hai a che fare con un archivio di singoli documenti il metodo atomico è quello più valido in quanto più affidabile; in caso di danno anche al backup, infatti, almeno ne recuperi una parte. Per l'approccio atomico ti rivolgi ad un banale cp o rsync (che hai sul tuo sistema).
Se hai a che fare con una miriade di piccoli file collegati incomprensibilmente tra di loro (come nei programmi di contabilità) l'approccio migliore è universale, perché o recuperi tutto o non hai niente in mano. Quindi usi soluzioni come tar | bzip per ridurre le dimensioni di un unico "pacco" di dati ma anche rsync o cp vanno bene. Inutile, per modo di dire, sottolineare che se uno dei file od il singolo file che compongono il backup sono danneggiati facile che lo hai perso per intero.
Questo è il primo problema. A quanto pare abbiamo capito che il tuo approccio deve essere universale (anche se non so a cosa possano servire dei backup se non puoi ripristinare il sistema in grado di leggerli).
Il secondo problema è capire se vuoi risparmiare tempo e ti serve incrementale o differenziale o ti basta il completo.
Visto che lo lasci in automatico possiamo parlare di completo, tanto ti basta che al mattino seguente sia stato fatto, per quello che mi pare di capire.

Di sicuro in vece di
Code:
tar -cjf ${folder_to}${oggi}tmp_${formato}.bz2 ${folder_from}
e la sola verifica dell'esistenza del file di backup (che è una mastodontica coglionata)
Code:
tar -cjf ${folder_to}${oggi}tmp_${formato}.bz2 ${folder_from} || rm ${folder_to}${oggi}tmp_${formato}.bz2
dovrebbe rendere lo script accettabile senza troppe modifiche.
Spostarlo in /etc e dargli i permessi opportuni sarebbe aderire al buonsenso.
Un remount rw ed un remount ro all'inizio ed alla fine dovrebbero garantirti da problemi con la disconnessione (ed il disco andrebbe montato in ro).
Un banale
Code:
[backup]
comment = backup
path = /mnt/usbesterno
public = yes
writable = no
aggiunto nalla conf di samba dovrebbe consentirti di vedere il contenuto del disco.

Oppure potresti pensare di formattare il disco con ext3 e renderlo leggibile da windows installando sulle macchine windows i driver che ti ho indicato. Niente più problemi di permessi e limitazioni di dimensioni.

Una alternativa potrebbe essere un approccio atomico completo a mezzo rsync o cp. Quindi si tratta solo di andare a sostituire il comando tar con cp od rsync nello script originale.
Con un rsync -caAHXrv dovresti metterci pochi minuti a fare il backup invece dell'oretta che richiede normalmente. Spazio maggiore ed i permessi, se usi vfat, sono le incognite.

Il problema è che non so come sia organizzata codesta contabilità. Se fossi certo che file e permessi sono univoci si potrebbe ovviare con una riga di mount del genere
Code:
qualcosa    /mnt/usbesterno    vfat    noauto,users,exec,sync,uid=000,gid=000,umask=0000,dmask=000,flush,ro    0 0
e continuare ad usare vfat con rsync o cp.
Si dovrebbe adattare lo script a gestire directory in vece di file .bz2 ma siamo sul semplice.
Se è immondizia derivata da vecchi programmi in cobol (tipo le pseudo aziende acquistate da certi fondi internazionali) si dovrebbe capire qual è l'utente proprietario ed i permessi sono tutti a 0777 per dirne una... quindi sarebbe realmente fattibile.

Ti ripeto che sistemato il problema immediato ti conviene attivarti per imparare ad aggiornare il sistema. La via più semplice sarebbe incominciare da zero su un altro computer e copiare la configurazione. Quando ti senti sicuro che tutto è a posto li scambi.
Ed a questo punto potresti pensare di fare qualcosa di più sofisticato, compreso il backup remoto delle macchina windows, il backup in automatico quando colleghi il disco etc. Con qualsiasi strumento ti venga in mente.
Non è impossibile, tutt'altro.
E, cosa più importante, alla fine non dovrai più dipendere da coprofiti come quello che ti ha lasciato codesto regalo... sotto l'albero. :twisted:
Quando si parla di gestionali il motto è "se non sono ottusi, inconpenti, pasticcioni e delinquenti non li vogliamo" per il reclutamento del personale.
Per gli interventi "esterni" poi, la consuetudine è sempre introdurre (ma anche imporre) mentecatti e sfigati da cui estorcere partecipazioni al compenso ed ottimi per scaricare le future necessità di sostituzione ed intervento (o scaricare sulla clientela i dipendenti incapaci, dopo averli sfruttati, facendoli mettere in proprio a fare assistenza HW).
Con l'arrivo delle multinazionali poi siamo su termini troppo volgari per essere espressi qui.

Aggiornamenti automatici su gentoo non se ne impostano, mai.
Ricompilare tutto è una operazione semplice ma prende tempo, carica molto la macchina (al punto che può diventare inutilizzabile per le altre funzioni) e non è garantito che tutto vada a posto automaticamente, nulla di trascendentale, in genere si tratta di ripulire pacchetti vecchi o ricostruire dipendenze ma non sono cose da fare in automatico. (a dire il vero il 99% dei problemi odierni nascono da aggiornamenti interrotti a metà, IMHO è una cretinata a prescindere).
Personalmente uso due partizioni, una con il sistema in esecuzione ed una con la copia sulla quale compilo. Quando è tutto a posto porto i binari compilati sull'installazione principale.
Gentoo ti garantisce tempi di esecuzione dimezzati e pochissime sorprese rispetto ad immondizia come cessos ... pardon CentOS... ma tutto ha un prezzo.

Chiaro? E non sono tutte le opzioni. Persino con le limitazioni attuali.

Mi serve capire come sono impostati i permessi e chi è il proprietario dei file da copiare per poterti dare suggerimenti affidabili.

Per l'opzione filesystem sei tu a dover decidere.

N.B.: domani è l'ultimo giorno di lavoro prima che mi diriga verso altri lidi dove spero di non essere vessato ulteriormente da canzoncine natalizie, buonismi demenziali, richieste di doni, inviti traducibili nell'accudire l'altrui prole etc. :mrgreen:
Maledette tradizioni medioevali imbecilli esaltate in chiave consumistica ... :evil:
_________________
scita et risus abundant in ore stultorum sed etiam semper severi insani sunt:wink:
mala tempora currunt...mater stultorum semper pregna est :evil:
Murpy'sLaw:If anything can go wrong, it will - O'Toole's Corollary:Murphy was an optimist :wink:


Last edited by djinnZ on Fri Dec 20, 2013 3:20 pm; edited 1 time in total
Back to top
View user's profile Send private message
fortek
n00b
n00b


Joined: 09 Dec 2013
Posts: 38

PostPosted: Fri Dec 20, 2013 8:06 am    Post subject: Reply with quote

Ok, sono in chiusura anche io, aggiorneremo la discussione alla riapertura !!!
Back to top
View user's profile Send private message
Display posts from previous:   
Reply to topic    Gentoo Forums Forum Index Forum italiano (Italian) Forum di discussione italiano All times are GMT
Goto page Previous  1, 2, 3
Page 3 of 3

 
Jump to:  
You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot vote in polls in this forum