Ressources :
Nous décrivons ci-dessous comment créer l'instance "bkp-srv" depuis l'instance "web-srv" :
Le transfert d'une sauvegarde d'un datacentre à un autre nécessite l'utilisation de fonctionnalité d'OpenStack non accessible directement depuis le manager d'OVH. Afin de pouvoir accéder à ces fonctionnalités, il est nécessaire d'instance les utilitaires Glance, Nova et OpenStack. Ces outils vont nous permettre de manipuler les instances, les volumes et les images (sauvegardes). Ils peuvent être installé sur une machine locale ou sur une instance selon les besoins.
Pour télécharger localement une sauvegarde d'instance :
glance image-list
glance image-show --human-readable <image-ID>
glance image-show <image-ID> | grep -P "(?:created_at|updated_at)"
glance image-show --human-readable <image-ID> | grep "size"
glance image-download <image-ID> --progress --file ./<mon-fichier-de-sauvegarde-web-srv>.qcow2
Pour transférer une sauvegarde d'instance d'un datacentre à un autre dans le même projet Public Cloude (ce qui est notre cas) :
openstack image list
openstack image save --file <mon-fichier-de-sauvegarde-web-srv>.qcow <image-ID>
~/<mon-dossier-de-stockage>/ovh-openstack/sinp-<region>-<abréviation-datacentre>/
~/Applications/ovh-openstack/sinp-paca-UK1/
cp ~/Applications/ovh-openstack/sinp-paca-GRA7/openrc.sh ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh
OS_REGION_NAME
. Ex. : vi ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh
GRA7
par UK1
cd ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh
source ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh
openstack image create --disk-format qcow2 --container-format bare --file ~/<mon-dossier-de-stockage>/ovh-openstack/sinp-<region>-<abréviation-datacentre-principal>/<mon-fichier-de-sauvegarde-web-srv>.qcow <nom-image-web-srv>
openstack image create --disk-format qcow2 --container-format bare --file ~/Applications/ovh-openstack/sinp-paca-GRA7/2021-03-29_web-srv.qcow2 copy_web-srv_for_bkp-srv
Il n'est pas possible de télécharger directement un volume (bootable ou pas). Il est nécessaire de créer une image à partir du snapshot du volume pour ensuite télécharger localement l'image :
openstack volume list
openstack volume show <volume-id>
openstack image create --volume <nom-volume> <nom-image>
openstack image create --volume db-storage 2021-03-26_db-storage_before_deleting
openstack image list | grep "<nom-image>"
openstack image list | grep "2021-03-26_db-storage_before_deleting"
active
atteint, l'image est téléchargeable localement avec : openstack image save --file ./<nom-image-locale>.raw <image-ID>
Il faut uploader l'image locale du volume puis la transformer en volume sur le datacentre choisi :
openrc.sh
correspondant au datacentre sur lequel vous souhaitez uploader le volume : cd
source openrc.sh
openstack image create --container-format bare --disk-format qcow2 --file <nom-fichier-image-local> <nom-image>
<nom-image>
que vous venez d'uploader sur le datacentre : openstack image list
<image-ID>
), sa taille en Giga-Octets ( <taille-en-Go>
) et le nom du volume que vous souhaitez créeer (<volume-nom>
) : openstack volume create --image <image-ID> --size <taill-en-Go> <volume-nom>
Lors de la création de la nouvelle instance :
copy_web-srv_for_bkp-srv
Après la création de la nouvelle instance dans le Manager d'OVH, il est nécessaire de :
vi /etc/hostname
web-aura-sinp
) par le nouveau : bkp-<region>-sinp
vi /etc/hosts
ens3
et ens4
(anciennement eth0
, eth1
) :systemctl reboot
firewall-cmd --zone=public --permanent --add-port=<port-ssh-bkp>/tcp
firewall-cmd --zone=internal --permanent --add-port=<port-ssh-bkp>/tcp
firewall-cmd --zone=internal --permanent --add-port=8086/tcp
firewall-cmd --zone=internal --permanent --add-port=8089/udp
firewall-cmd --reload
firewall-cmd --zone=public --permanent --remove-port=<port-ssh-web>/tcp
firewall-cmd --zone=internal --permanent --remove-port=<port-ssh-web>/tcp
firewall-cmd --reload
/etc/postfix/main.cf
, le fichier /etc/postfix/smtp_header_checks
et dans le fichier /etc/mailname
. Voir la doc sur la config de Postfix. passwd
passwd geonat
Vérifications :
10.0.1.30
sur l'interface ens4
(anciennement eth1
) : ip a
ifup ens4
ou ifup eth1
ping 10.0.1.20