Ronflex, le blade du ResEl

Le blade n'est actuellement qu'en phase de tests, les lames sont inventoriés et testées. Toutes les RAM sont en DDR3 et les disques sont tous les SAS 15k.

Un projet de test s de lames est en cours.(fortement inspiré de cet article https://githubengineering.com/githubs-metal-cloud/)

Documentation switchs du Blade: 3130gsg.pdf

Documentation lame:PowerEdge_M_Series_Blades_IO_Guide.pdf

Documentation chassis:

Mise à jour des firmwares des lames grâce à leur idrac:Performing_firmware_updates_on_PowerEdge_servers_using_the_iDRAC7_web_interface.pdf

  • [wiki:Machines/BLD-01] : Annonce un problème de carte vidéo au démarrage

    • RAM : 12*4GB
    • DISQUE : 0
  • [wiki:Machines/BLD-02] : Ne va pas plus loin que l'idracetc/sysconfig/network not found

    • RAM : 8*2GB
    • DISQUE : 2*73GB
  • [wiki:Machines/BLD-03] : Le CPU 1 affiche un erreur critique et une des barettes de ram (laquelle ?) déconne

    • Intel Xeon E5620 2.4GHz 16 coeurs
    • RAM : 12*4GB
    • DISQUE : 0 GB
  • [wiki:Machines/BLD-04] : Luigi : machine gérant les mails (remplaçante de TOAD)

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-05] :

    • RAM : 8*2GB
    • DISQUE : 0
  • [wiki:Machines/BLD-06] :

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-07] :

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-08] :

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-09] :

    • RAM : 8*2GB
    • DISQUE : 3*73GB
  • [wiki:Machines/BLD-10] :

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-11] :

    • RAM : 12*8GB
    • DISQUE : 2*73GB
  • [wiki:Machines/BLD-12] : Lincoln : machine de test pour RWS

    • RAM : 8*2GB
    • DISQUE : 2*146GB
  • [wiki:Machines/BLD-13] :

    • RAM : 8*2GB
    • DISQUE : 1*73GB
  • [wiki:Machines/BLD-14] : A tester, simble déconner au démarage

    • RAM : 8*2GB
    • DISQUE : 1*73GB
  • [wiki:Machines/BLD-15] : Proxima 2.0 : La carte mère est probablement morte (testé avec 4GB de ram et sans cpu ni disque, toujours HS)

    • RAM : 12*4GB
    • DISQUE : 2*73GB SAS
  • [wiki:Machines/BLD-16] : Il parait qu'il y a trop de RAM...

    • RAM : 12*4GB
    • DISQUE : 1*73GB
  • [wiki:Machines/BLD-17] : Hercule

    • RAM : 8*2GB
    • DISQUE : 2*146GB
    • TEST: ok
    • STATUS: En prêt pour projet S5
    • SYSTEME: CENTOS 7
  • [wiki:Machines/BLD-18] : DGSI : machine qui fait les graphes (remplacante de Tesla)

    • RAM : 8*2GB
    • DISQUE : 2*146GB
    • Test: non fait

    • Status: En production (non testé de manière hardware)

  • [wiki:Machines/BLD-19] :

    • RAM : 12*4GB
    • DISQUE : 2*73GB
  • [wiki:Machines/BLD-21] :

    • RAM : 12*4GB
    • DISQUE : 1*73GB
  • [wiki:Machines/BLD-22] :

    • RAM : 12*4 GB
    • DISQUE : 2*73GB
  • [wiki:Machines/BLD-23] :

    • RAM : 12*4GB
    • DISQUE : 2*73GB

Mapping des interfaces physiques des machines aux switches

Les switches à l'arrière du blade fonctionnent selon les principes suivants :

  • Ils disposent d'interfaces "virtuelles" numérotées de 1 à 16, qui correspondent aux cartes Ethernet intégrées aux lames et sont mappées selon les règles issues du manuel ci-dessous.
  • Ils disposent d'interfaces physiques variables en fonction du modèle de switch
  • Ils réalisent donc une opération de switching comme tout switch, entre les interfaces virtuelles et physiques
  • Il existe des modules I/O "pass-through" qui ne réalisent pas d'opération de switching mais connectent directement les cartes Ethernet à 16 ports Ethernet physiques à l'arrière

On se réfèrera à la documentation Dell officielle du châssis : https://topics-cdn.dell.com/pdf/poweredge-m1000e_owners-manual_en-us.pdf

Page 44 :

Dual-Port Mezzanine Cards For a half-height blade in bay n:

  • The integrated NIC connects to I/O module A1, port n and I/O module A2, port n.
  • Mezzanine card B connects to I/O module B1, port n and I/O module B2, port n.
  • Mezzanine card C connects to I/O module C1, port n and I/O module C2, port n.

For example, in a blade in slot 12, the integrated NIC connects to I/O module A1, port 12 and I/O module A2, port 12

Il est à noter que les lames du ResEl sont quasiment toutes équipées de deux cartes Ethernet en plus du module intégré.

Se connecter aux switchs du blade

Les identifiants du switch du blade sont dans le keepass président.

  ssh admin@ronflex.adm
  connect switch-n
Où n correspond au switch (A1, B1 etc)
  • Patou: A1 (ou simplement 1)
  • Graou: B1 (ou simplement 3)
  • Maud: C1 (ou simplement 5)

La connection aux switchs se fait uniquement par ldap avec vos ID admins.

Impossible d'écrire une fois connecté

Il semble que ce problème ait pour origine l'existence d'une session graphique sur l'interface web du blade qui a alors la main. Il suffit de se déconnecter, ou à défaut de trouver la personne à blâmer.

Bonnes pratiques pour l'installation d'une lame serveur

Dell recommande d'installer la distribution Redhat, car ils garantissent la mise à jour des drivers et que le système change peu dans le temps.

Une version plus libre de Redhat est Centos. Dell a developpé une solution de gestion de monitoring nommé OMSA que l'on peut installer sans problème sur nos serveurs. Il existe même un plugin Nagios du coup compatible Icinga 2 (L'une de nos solutions de monitoring).

Ce service OMSA existe portage pour Debian, voir le lien ci-dessous : https://linux.dell.com/repo/community/debian/

Il pourrait être interessant de l'installer sur un de nos serveurs non critique afin de faire un test pour voir ce qu'on peut faire en terme de monitoring.

Liens: