serveurs:installation:vlan

Ceci est une ancienne révision du document !


Mise en place du VLAN entre les deux serveurs

Notes : le terme région est à rapproché de "datacenter". Mais un datacenter peut habriter plusieurs codes régions (ex. UK et UK1 pour le datacenter de Londres).

  • Vérifier que vous avez bien préalablement créer un utilisateur OpenStack avec le rôle "Administrator"
  • Se rendre sur l'interface Manager OVH > Public Cloud > Management Interfaces > Horizon
    • Utiliser l'identifiant (hash) et le mot de passe générés automatiquement lors de la création du compte Administrateur : Manager OVH > Public Cloud > Project management > Users & roles
  • Dans l'interface d'OpenStack Horizon, sélectionner votre projet et région (GRA7) dans le bandeau, puise se rendre dans "Compute" > "Instances"
    • Sélectionner une instance ("sinp-<region>-web" ou "sinp-<region>-db") et choisir l'action "Attach interface"
      • The way to specify an interface : by network
      • Network : sinp-<region>-vpn (10.0.0.0/16)(nom du vRack préalablement donné)
      • IP Address : 10.0.1.10 (pour sinp-<region>-db), 10.0.1.20 (pour sinp-<region>-web), 10.0.1.30 (pour sinp-<region>-bkp.
      • Gateway : 10.0.0.1
  • Se connecter ensuite aux instances, puis modifier le fichier : vi /etc/network/interfaces.d/50-cloud-init.cfg ou vi /etc/network/interfaces.d/50-cloud-init
    • Pour vous connecter, si c'est la première fois, utiliser : ssh debian@<ipv4-instance>
    • Dans le fichier 50-cloud-init, une interface "eth0" devrait être présente avec l'IP publique et une interface "eth1" doit y être ajouté avec le contenu suivant :
      • Pour sinp-<region>-web
        auto eth1
        iface eth1 inet static
            address 10.0.1.10
            netmask 255.255.0.0
            mtu 9000
      • Pour sinp-<region>-db
        auto eth1
        iface eth1 inet static
            address 10.0.1.20
            netmask 255.255.0.0
            mtu 9000
      • Pour sinp-<region>-bkp
        auto eth1
        iface eth1 inet static
            address 10.0.1.30
            netmask 255.255.0.0
            mtu 9000
  • Si d'autres IP en 10.0… sont attachées à votre instance vous pouvez les détacher via l'interface d'Horizon.
  • Pour éviter les logs de DHCPDISCOVER dans le fichier de log /var/log/syslog, commenter les lignes suivantes dans le fichier : vi /etc/network/interfaces
    /etc/network/interfaces
    allow-hotplug eth1
    iface eth1 inet dhcp
     
    allow-hotplug eth2
    iface eth2 inet dhcp
  • Redémarrer votre instance avec la commande : reboot
    • Cela vous déconnecte de l'instance, c'est normal.
    • Vous pourrez vous y re-connecter avec ssh au bout de quelques dizaines de secondes.
  • Note : si pour une raison ou une autre, vous ne pouvez plus vous connecter à une instance via SSH, il est possible de passer par l'interface du Manager d'OVH ou l'interface d'Horizon. Ces 2 interfaces permettent d'accéder à une Console VNC. Attention, la console est en Qwerty par défaut, ce qui peut compliquer la saisie du mot de passe…

Pour réaliser cette opération, il est nécessaire de passer par l'API OVH v6. Cette API peut s'utiliser via l'interface web disponible :

  • Se rendre sur l'interface web de l'API : https://api.ovh.com/console/
  • Cliquer en haut à droit sur "login" pour se connecter avec son utilisateur OVH permettant d'accèder au projet Public Cloud concernant dans le Manager OVH.
  • Ouvrir le web service : GET /cloud/project/{serviceName}/network/private
    • Indiquer l'identifiant du projet Public Cloud dans le champ "serviceName" (à récupérer sous le nom du projet Public Cloud en haut à gauche dans l'interface du Manager d'OVH).
    • Cliquer sur le bouton "Execute"
    • Récupérer l'identifiant (propriété "id") du VLAN. Format : pn-10xxxxx_0
    • La propriété "régions" devrait à ce stade n'indiquer que "GRA7"
  • Ouvrir maintenant le web service : POST /cloud/project/{serviceName}/network/private/{networkId}/region
    • Remplir le champ "serviceName" comme prédément
    • Remplir le champ "networkId" avec l'identifiant du VLAN récupéré précédement.
    • Remplir le champ "ProjectNetworkPrivateRegionCreation" > "region" avec le code du datacentre où l'on veut pouvoir accéder à ce VLAN. Dans notre cas : UK1
    • Cliquer sur le bouton "Execute"
  • Ré-ouvrir le web service : GET /cloud/project/{serviceName}/network/private
    • Cliquer à nouveau sur le bouton "Execute"
    • Vérifier que la nouvelle région, dans notre cas UK1, apparait bien dans la liste.
  • Pour rendre visible ce réseau sur le nouveau Datacentre dans l'interface du Manager d'OVH, il peut être nécessaire de se déconnecter et se connecter à nouveau.
  • Notes : la création de l'instance en l'associant directement à ce réseau n'a pas fonctionnée. Erreur obtenue : Network … : requires a subnet in order to boot instances on.. L'instance a été créé sans réseau lié. Utilisaton d'OpenStack Horizon pour associer le réseau à l'instance.

Lorsque le VLAN existant est étendu au nouveau datacentre, ce dernier ne possède pas de sous-réseau. Il faut donc lui associer le même sous-réseau que celui présent dans le datacentre principal. Pour réaliser cela nous passons par la ligne de commande :

  • Cela implique de mettre en place un environnement OpenStack comme indiqué dans la documentation d'installation du serveur BKP.
  • Se connecter sur le datacentre secondaire ou se trouve "bkp-srv" : cd sinp-aura-UK1 ; source openrc.sh
  • Récupérer depuis l'interface d'Horizon sur le datacentre principal : le nom du réseau (Ex. sinp-aura-vpn ), le nom du sous-réseau (Ex. : (d977881c-84cc) ) et le rang d'IPs du sous-réseau (Ex. 10.0.0.0/16).
  • Créer le sous-réseau : openstack subnet create --network "<nom-reseau>" --subnet-range "<rang-ip-sous-réseau>" "<nom-sous-reseau>"
    • Ex. : openstack subnet create --network "sinp-aura-vpn" --subnet-range "10.0.0.0/16" "(d977881c-84cc)"
  • Il semble aussi nécessaire de modifier le sous-réseau des 2 datacentres pour utiliser la même IP dans le champ Gateway. Par exemple : 10.0.0.1
    • Les 2 sous-réseaux devraient aussi avoir : le même nom et le même ensemble d'IP.
  • Attacher ensuite le réseau sur une instance (voir ci-dessous) puis tester la connectivité entre les différentes instances : ping 10.0.1.20 et ping 10.0.1.10
  • serveurs/installation/vlan.1681985790.txt.gz
  • Dernière modification : 2023/04/20 10:16
  • de jpmilcent