Archives pour la catégorie ‘Réseau’

Debian : activer l’IPv6 sur une instance EC2

# vim /etc/network/interfaces
auto eth0
iface eth0 inet dhcp
   post-up sleep 2
iface eth0 inet6 dhcp

NetworkManager : désactiver la gestion d’une interface réseau

Par défaut, NetworkManager s’accapare de la gestion de toutes les interfaces réseaux. Dans le cadre de l’utilisation de système de virtualisation, ceci est problématique. Il est nécessaire de désactiver cette gestion en précisant soit le nom/regex de l’interface réseau, soit son adresse MAC.

Voici un exemple couvrant ces deux cas :

boris@debian:~$ vim /etc/NetworkManager/NetworkManager.conf
[main]
plugins=ifupdown,keyfile

[ifupdown]
managed=false

[keyfile]
unmanaged-devices=interface-name:vboxnet*;interface-name:docker0
unmanaged-devices=mac:74:da:38:60:15:cd
boris@debian:~$ sudo systemctl restart network-manager

Unbound : mise en place d’un fake DNS

La mise en place d’une cache DNS peut être nécessaire pour bypasser le résultat de requêtes DNS.

# apt-get install unbound
# vim /etc/resolv.conf
# cat /etc/unbound/unbound.conf
 
server:
    local-zone: "my.domain." static
    local-data: "fake.my.domain. IN A 10.20.2.22"
    local-data-ptr: "10.20.2.22 fake.my.domain"

CoreOS : fix crash du network stack sous Xen 4.2

Dec 16 11:30:08 ip-172-10-4-2.ap-southeast-1.compute.internal kernel: xen_netfront: xennet: skb rides the rocket: 19 slots, 65226 bytes
# ethtool -K eth0 sg off

Linux : modifier l’IP de sortie en configuration multi-alias

# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:1e:c9:ae:fc:6f brd ff:ff:ff:ff:ff:ff
inet 172.16.170.4/16 brd 172.29.255.255 scope global eth0:1
inet 172.16.170.5/16 brd 172.29.255.255 scope global secondary eth0:2
inet 172.16.170.6/16 brd 172.29.255.255 scope global secondary eth0:3
inet 172.16.170.7/16 brd 172.29.255.255 scope global secondary eth0:4
inet 172.16.0.3/16 brd 172.29.255.255 scope global secondary eth0
inet6 fe80::21e:c9ff:feae:fc6f/64 scope link
valid_lft forever preferred_lft forever
# ip route
default via 172.16.0.1 dev eth0
172.16.0.0/16 dev eth0  proto kernel  scope link  src 172.16.170.4
# ip route get 8.8.8.8
8.8.8.8 via 172.16.0.1 dev eth0  src 172.16.170.4
cache
# ip route replace default via 172.16.0.1 src 172.16.0.3
# ip route get 8.8.8.8
8.8.8.8 via 172.16.0.1 dev eth0  src 172.16.0.3
cache

Amazon Route 53 : alias sur le root domain

route53_root_alias

CloudFlare : redirection du root domain vers un CNAME

Dans le cas d’un hébergement web de type cloud, il est impossible de déclarer un CNAME au niveau du root domain (alias @).

Avec  CloudFlare, la solution est de déclarer l’alias @ avec une IP publique (quelle qu’elle soit) afin qu’il soit possible d’activer la mise en cache (qui sera donc obligatoire) et d’ajouter les pages rules suivantes :

  • Forward http://monsite.fr/* to http://www.monsite.fr/$1
  • Forward http://monsite.fr to http://www.monsite.fr/

Les reverse proxy Nginx de CloudFlare renverront ainsi une redirection 302 jusqu’au navigateur client.

Réseau : activer un port réseau sur un switch HP

bhuisgen@wks:~$ ssh manager@192.168.251.4
manager@192.168.251.4's password:
ProCurve J9280A Switch 2510G-48

SW-USR4# config

SW-USR4(config)# show interfaces brief

 Status and Counters - Port Status

                    | Intrusion                           MDI   Flow  Bcast
  Port    Type      | Alert     Enabled Status Mode       Mode  Ctrl  Limit
  ------- --------- + --------- ------- ------ ---------- ----- ----- ------
  1       100/1000T | No        Yes     Up     10FDx      MDIX  off   0
  2       100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
  3       100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  4       100/1000T | Yes       Yes     Up     1000FDx    MDIX  off   0
  5       100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  6       100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  7       100/1000T | No        No      Down   1000FDx    MDIX  off   0
  8       100/1000T | No        No      Down   1000FDx    MDI   off   0
  9       100/1000T | No        No      Down   1000FDx    MDI   off   0
  10      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  11      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  12      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  13      100/1000T | No        Yes     Down   1000FDx    MDIX  off   0
  14      100/1000T | No        Yes     Down   1000FDx    MDIX  off   0
  15      100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  16      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  17      100/1000T | No        No      Down   1000FDx    MDI   off   0
  18      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  19      100/1000T | No        No      Down   1000FDx    MDI   off   0
  20      100/1000T | No        No      Down   1000FDx    MDI   off   0
  21      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  22      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  23      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  24      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  25      100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
  26      100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
  27      100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  28      100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
  29      100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
  30      100/1000T | No        Yes     Up     1000FDx    MDI   off   0
  31      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  32      100/1000T | No        No      Down   1000FDx    MDI   off   0
  33      100/1000T | No        No      Down   1000FDx    MDI   off   0
  34      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  35      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  36      100/1000T | No        No      Down   1000FDx    MDI   off   0
  37      100/1000T | No        No      Down   1000FDx    MDI   off   0
  38      100/1000T | No        No      Down   1000FDx    MDI   off   0
  39      100/1000T | No        No      Down   1000FDx    MDI   off   0
  40      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  41      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  42      100/1000T | No        No      Down   1000FDx    MDI   off   0
  43      100/1000T | No        No      Down   1000FDx    MDI   off   0
  44      100/1000T | No        Yes     Down   1000FDx    MDIX  off   0
  45      100/1000T | No        No      Down   1000FDx    MDIX  off   0
  46      100/1000T | No        No      Down   1000FDx    MDI   off   0
  47-Trk2 100/1000T | No        No      Down   1000FDx    MDI   off   0
  48-Trk2 100/1000T | No        Yes     Up     1000FDx    MDIX  off   0

SW-USR4(config)# show port-security 16

 Port Security

  Port : 16
  Learn Mode [Continuous] : Continuous
  Action [None] : None

SW-USR4(config)# interface 16
SW-USR4(eth-16)# enable
SW-USR4(eth-16)# end

Pacemaker : configuration d’une ressource de type clone

Une ressource de type clone permet l’exécution simultanée d’une même ressource sur un ou plusieurs nodes composant le cluster.

Dans le cas présenté ici, il m’est nécesaire de lancer autofs sur les deux nodes composant le cluster, avec une instance par node. Les paramètres de configuration de la ressource clone sont donc clone max = 2 et clone node max = 1. De plus, il faut impérativement désactiver la colocation sur celle-ci.

heartbeat-clone_resource

Pacemaker : supprimer un node en doublon

root@node0 ~ # crm configure show
node $id="87979dd9-bb33-42ad-acb5-31d6023e0079" node0
node $id="8a34568b-d09f-457c-8cf0-22675d243342" node1
node $id="fabb197c-87f9-46d9-bb9e-27517a9717a4" node1
root@node0 ~ # cibadmin --query --local
    <nodes>
      <node id="87979dd9-bb33-42ad-acb5-31d6023e0079" uname="node0" type="normal"/>
      <node id="fabb197c-87f9-46d9-bb9e-27517a9717a4" uname="node1" type="normal"/>
      <node id="8a34568b-d09f-457c-8cf0-22675d243342" uname="node1" type="normal"/>
    </nodes>
root@node0 ~ # crm_node -i
87979dd9-bb33-42ad-acb5-31d6023e0079
root@node1 ~ # crm_node -i
8a34568b-d09f-457c-8cf0-22675d243342
root@node0 ~ # /etc/init.d/pacemaker stop
root@node1 ~ # /etc/init.d/pacemaker stop
root@node0 ~ # crm_node --force -R fabb197c-87f9-46d9-bb9e-27517a9717a4
root@node0 ~ # cibadmin --delete --obj_type nodes --crm_xml '<node id="fabb197c-87f9-46d9-bb9e-27517a9717a4" uname="node1" type="normal"/>'
root@node0 ~ # /etc/init.d/pacemaker start
root@node1 ~ # /etc/init.d/pacemaker start
Haut de page