J'ai créé un d2.xlarge EC2 instance sur AWS qui retourne la sortie suivante:pour une partition Filesystem disparaît EC2 reboot
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
`-xvda1 202:1 0 8G 0 part/
xvdb 202:16 0 1.8T 0 disk
xvdc 202:32 0 1.8T 0 disk
xvdd 202:48 0 1.8T 0 disk
La valeur par défaut /etc/fstab ressemble à ceci
LABEL=cloudimg-rootfs / ext4 defaults,discard 0 0
/dev/xvdb /mnt auto defaults,nofail,x-systemd.requires=cloud-init.service,comment=cloudconfig 0 2
maintenant, je fais un système de fichiers EXT4 pour xvdc
$ sudo mkfs -t ext4 /dev/xvdc
mke2fs 1.42.13 (17-May-2015)
Creating filesystem with 488375808 4k blocks and 122101760 inodes
Filesystem UUID: 2391499d-c66a-442f-b9ff-a994be3111f8
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information:
done
blkid renvoie un UID pour le système de fichiers
$ sudo blkid /dev/xvdc
/dev/xvdc: UUID="2391499d-c66a-442f-b9ff-a994be3111f8" TYPE="ext4"
Ensuite, je monte sur /mnt5
$ sudo mkdir -p /mnt5
$ sudo mount /dev/xvdc /mnt5
Il se monté avec succès. Jusqu'à ce que les choses fonctionnent bien.
Maintenant, je redémarre la machine (d'abord l'arrêter puis la démarrer) puis SSH dans la machine.
je fais
$ sudo blkid /dev/xvdc
Il me renvoie rien. Où est passé le système de fichiers que j'ai créé avant le redémarrage? Je suppose que le système de fichiers pour les montures reste créé même après le cycle de redémarrage. Ai-je oublié quelque chose pour monter une partition sur une instance AWS EC2?
J'ai suivi cette http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-using-volumes.html et il ne semble pas fonctionner comme décrit ci-dessus