Die Frage ist jetzt, wohin mit dem Backup? Haben wir da überhaupt Platz für?
gateway: ~ #df -h zeigt uns den aktuellen Zustand
Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
udev 476M 0 476M 0% /dev das „Geräteverzeichnis“
tmpfs 99M 5,7M 93M 6% /run ein temporäres Verzeichnis, dem RAM zugeordnet
/dev/mapper/gw–vg-root 7,3G 1,2G 5,8G 17% / unser root Verzeichnis
tmpfs 491M 0 491M 0% /dev/shm
tmpfs 5,0M 0 5,0M 0% /run/lock hier liegen die Lockfiles der laufenden Prozesse
tmpfs 491M 0 491M 0% /sys/fs/cgroup
/dev/mapper/gw–vg-var 3,7G 214M 3,2G 7% /var unser drittes LVM
/dev/mapper/gw–vg-boot 276M 85M 177M 33% /boot unser erstes LVM
tmpfs 99M 0 99M 0% /run/user/0
Schnell können wir uns ausrechnen, daß ein Backup möglich wäre, besser wäre aber eine eigene Partition dafür.
Der einfachste Weg wäre eine externe Festplatte via USB, aber, ein Backup sollte immer an zwei räumlich getrennten Orten liegen, und wir wollen etwas über den Logical Volume Manager LVM lernen. Ein paar Befehle zeigen uns den aktuellen Zustand an:
pvs
zeigt die physical Volumes, hier /dev/md0, unser Raid, mit Informationen wie: Beherbergt eine Volume Gruppe gw-vg, Formatiert mit lvmVersion2, ist groß in Gigabite, hat frei Gigabite.
vgs
liefert ähnliche Informationen, nur auf die Volumegruppen beschränkt
lvs
zeigt die angelegten logical Volumes mit Name und Größe
Das Ganze ausführlicher:
pvdisplay
vgdisplay
lvdisplay
Für ein Backup würden jetzt 2Gb Speicherplatz reichen, gerne dürfen es aber mehr als die Gesamtgröße aller logical Volumes sein.
Erstellen wir also ein neues LVM.
Hier setze ich das jetzt trotzdem auf „nur“ 4Gb, da ich wie gesagt auf einer Beispielmaschine ohne Funktion tanze.
Die folgenden Befehle veranschaulichen den Gebrauch der Syntax um ein neues LVM zu erstellen,
man lvm
listet alles, Gruppen/Volumes erstellen, ändern, aktivieren, deaktivieren
( eine Logical Group wird nicht eingehängt ( mount ) sondern aktiviert. Um ein Logical Volume einzuhängen, muß die Logical Group aktiv sein ),
Logical Volumes erstellen:
lvcreate -n [NameDesNeuenVolumes] -L [Größe] [Gruppenname]
gateway: ~ #lvcreate -n backup -L 4g gw-vg
Logical volume „backup“ created.
gateway: ~ #mkfs -t ext4 /dev/gw-vg/backup wir erstellen das Dateisystem um backup mounten zu können
mke2fs 1.44.5 (15-Dec-2018)
Discaarding device blocks: done
creating filesystem with 1048576 4k blocks and 262144 inodes
Filesystem UUID: c6628743-5ff4-4a43-9ad7-e92356ec8761
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Allocating group tables: done
Writing inode tables: done
Creating journal (16384 blocks): done
Writing superblocks and filesystem accounting information: done
gateway: ~ #mkdir /backup wir erstellen ein neues Verzeichnis /backup
gateway: ~ # mount -t ext4 /dev/gw-vg/backup /backup wir hängen das neue Volume dort ein, wird nach Neustart nicht mehr eingehängt sein, siehe „Goodies-fstab“
gateway: ~ #df -h
/dev/mapper/gw–vg-backup 3,9G 16M 3,7G 1% /backup
gateway: ~ # wir haben ein Backupverzeichnis in dem wir ein Backup anlegen können ohne das der Speicherplatz unter root beschrieben wird
Weitere neue Befehle hier:
mkdir [/Pfad/Name]
legt ein neues Verzeichnis an
touch [/Pfad/Name]
würde analog eine neue leere Datei anlegen
mkfs -t [DATEISYSTEM] [/PFADzum-neuen-GERÄT]
erstellt ein Dateisystem
mount -t [DATEISYSTEM] [/PFADzumGERÄT] [/WOsoll-es-eingehängt werden]
hängt ein Dateisystem ein
umount [/PFAD/WOist-es-eingehängt]
hängt es wieder aus
alles wieder ausführlich mit
man mkdir
man touch
man usw
Wo wir gerade dabei sind, werfen wir der Vollständigkeithalber einen kurzen Blick in die Raidverwaltung mdadm:
gateway: ~ #cat /proc/mdstat zeigt den aktuellen Zustand im laufenden System
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[1] sdc1[2](S) sda1[0]
26194944 blocks super 1.2 [2/2] [UU]
unused devices: <none>
gateway: ~ #Wir sehen unser Raid1 unter /dev/md0 mit drei Festplatte, davon zwei aktiv [0] und [1] , beide ok [UU], und ein Spare [S]
gateway: ~ #mdadm -D /dev/md0 wird etwas ausführlicher
gateway: ~ # mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Oct 17 14:41:56 2019
Raid Level : raid1
Array Size : 26194944 (24.98 GiB 26.82 GB)
Used Dev Size : 26194944 (24.98 GiB 26.82 GB)
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Wed Oct 23 13:35:39 2019
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Consistency Policy : resync
Name : gateway:0 (local to host gateway)
UUID : d3594f07:7a5321d2:926eb124:704b6115
Events : 417
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 - spare /dev/sdc1
Das soll dazu aber erstmal reichen, vertiefen wir mdadm später oder
man mdadm
next> rdiff-backup