Choisir la langue :

Cluster HPC / HTC

À propos du Cluster HPC / HTC

 

Le Cluster HPC / HTC du méso-centre de l'Université de Lille comprend à ce jour 232 nœuds de calcul pour un total de 5880 cœurs, 35 To de RAM et 630 To de stockage pour une puissance totale de 312 TFlops.

Il a été financé par l'Université, la Région Nord-Pas de Calais, le FEDER et les laboratoires de l'Université par un processus de mutualisation.

 

 

Ressources matérielles

 

  • 1 serveur controleur (Dell R730xd - 2015)
    • 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,30 GHz
    • 64 Go de RAM ECC
    • Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
    • Baie de disques SAS
    • 190 To de stockage

 

  • 5 serveurs de stockage BeeGFS (Dell R520 - 2014)
    • 2 CPU Intel Xeon E5-2407 de 4 cœurs à 2,40 GHz
    • 48 Go de RAM ECC
    • Réseau Infiniband QDR 40 Gbps et ethernet 10 Gbps
    • Baies de disques SAS
    • 290 To utilisables

 

  • 36 nœuds de calcul CPU (C6320 - 2016)
    • 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,3 GHz
    • 128 Go de RAM ECC
    • Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps

 

  • 76 nœuds de calcul CPU (C6320 - 2017)
    • 2 CPU Intel Xeon E5-2650 v4 de 12 cœurs à 2,2 GHz
    • 128 Go de RAM ECC
    • Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps

 

  • 56 nœuds de calcul CPU (C6420 - 2019)
    • 2 CPU Intel Xeon Silver 4116 de 12 cœurs à 2,1 GHz
    • 192 Go de RAM ECC
    • Réseau Omnipath FDR 100 Gbps, ethernet 10 Gbps

 

  • 56 nœuds de calcul CPU (C6420 - 2020)
    • 2 CPU Intel Xeon Silver 4216 de 16 cœurs à 2,1 GHz
    • 192 Go de RAM ECC
    • Réseau Omnipath FDR 100 Gbps, ethernet 10 Gbps

 

  • 1 nœuds de calcul GPU (R730 - 2015)
    • 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,3 GHz
    • 256 Go de RAM ECC
    • Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
    • 2 GPU Nvidia K80 (4992 cœurs CUDA, 24Go GDDR5, 0.875 GHz)