À propos du Cluster HPC / HTC
Le Cluster HPC / HTC du méso-centre de l'Université de Lille comprend à ce jour 244 nœuds de calcul pour un total de 6264 cœurs, 38 To de RAM et 630 To de stockage pour une puissance totale de 340 TFlops.
Il a été financé par l'Université, la Région Hauts-de-France, l'État, le FEDER et les laboratoires de l'Université par un processus de mutualisation.
Ressources matérielles
- 1 serveur controleur (Dell R730xd - 2015)
- 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,30 GHz
- 64 Go de RAM ECC
- Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
- Baie de disques SAS
- 190 To de stockage
- 5 serveurs de stockage BeeGFS (Dell R520 - 2014)
- 2 CPU Intel Xeon E5-2407 de 4 cœurs à 2,40 GHz
- 48 Go de RAM ECC
- Réseau Infiniband QDR 40 Gbps et ethernet 10 Gbps
- Baies de disques SAS
- 290 To utilisables
- 36 nœuds de calcul CPU (C6320 - 2016)
- 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,3 GHz
- 128 Go de RAM ECC
- Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
- 76 nœuds de calcul CPU (C6320 - 2017)
- 2 CPU Intel Xeon E5-2650 v4 de 12 cœurs à 2,2 GHz
- 128 Go de RAM ECC
- Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
- 56 nœuds de calcul CPU (C6420 - 2019)
- 2 CPU Intel Xeon Silver 4116 de 12 cœurs à 2,1 GHz
- 192 Go de RAM ECC
- Réseau Omnipath FDR 100 Gbps, ethernet 10 Gbps
- 56 nœuds de calcul CPU (C6420 - 2020)
- 2 CPU Intel Xeon Silver 4216 de 16 cœurs à 2,1 GHz
- 192 Go de RAM ECC
- Réseau Omnipath FDR 100 Gbps, ethernet 10 Gbps
- 1 nœuds de calcul GPU (R730 - 2015)
- 2 CPU Intel Xeon E5-2670 v3 de 12 cœurs à 2,3 GHz
- 256 Go de RAM ECC
- Réseau Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
- 2 GPU Nvidia K80 (4992 cœurs CUDA, 24Go GDDR5, 0.875 GHz)