L’accounting sur turpan

Pour rappel Trupan est un Cluster qui interconnecte des nœuds de calcul. Chaque nœud de Turpan dispose de 80 cœurs et 2 cartes accélératrices GPU.

Plusieurs cas de figure se présentent en fonction de la partition utilisée : 

Accounting par type de partition


Partitions small, big et full

Partitions small, big et full

Pour une réservation sur ces partitions, les nœuds sont attribués dans leur intégralité (i.e les 80 cœurs de chaque nœud et les 2 cartes GPU sont réservés).
Tout nœud réservé est comptabilisé de la manière suivante :

(nombre de nœuds réservés) * (80 cœurs) * (temps de réservation effectivement utilisé)

Partitions shared ou visu 

Partitions shared ou visu 

Pour une réservation sur les partition shared ou visu, le nœud est partagé entre plusieurs utilisateurs.
Tout nœud réservé est comptabilisé de la manière suivante :

(nombre de cœurs réservés) * (temps de réservation effectivement utilisé)

Note :

Bien que leur consommation soit affichée, la consommation des cartes GPU n'est pas prise en compte dans la comptabilisation.

Exemples :


Partitions small, big et full

Partitions small, big et full
  • Je lance un job sur 2 nœuds, en lançant 80 tâches par nœud.
  • Mon job met 15h à tourner.
  • L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 2
#SBATCH -n 160
#SBATCH -p small
#SBATCH --ntasks-per-node=80
#SBATCH --ntasks-per-core=1
#SBATCH --time=20:00:00

Il me sera décompté (2 nœuds) * (80 cpus) * (15 h) = 2400 h_cpus
Pour rappel : 80 cœurs de calculs par noeud de Turpan.

Partitions small, big et full (dépeuplé)

Partitions small, big et full (dépeuplé)
  • Je lance un job sur 2 nœuds en dépeuplé, en lançant 40 tâches par nœud.
  • Mon job met 15h à tourner.
  • L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 2
#SBATCH -n 160
#SBATCH -p small
#SBATCH --ntasks-per-node=40
#SBATCH --ntasks-per-core=1
#SBATCH --time=20:00:00

Il me sera décompté (2 nœuds) * (80 cpus) * (15 h) = 2400 h_cpus
Pour rappel : 80 cœurs de calculs par noeud de Turpan.

Partition shared ou visu

Partition shared ou visu
  • Je lance un job utilisant 4 cpu
  • Mon job met 15h à tourner.
  • L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 1
#SBATCH -n 4
#SBATCH -p shared
#SBATCH --ntasks-per-node=4
#SBATCH --ntasks-per-core=1
#SBATCH --gres=gpu:1
#SBATCH --mem=20000
#SBATCH --time=20:00:00

Il me sera décompté (4 cpus) * (15 h) = 60 h_cpus

Et si mon quota est épuisé ?

Un job n’est comptabilisé que lorsqu’il est terminé. En cas de dépassement de quota :

  • Aucun job ne peut plus être soumis au gestionnaire de batch
  • Les jobs en attente sont supprimés
  • Les jobs en cours continuent leur exécution.
  • Mon responsable de projet peux demander une extension en allant dans l'application GRAMC (https://acces.mesonet.fr)
Espace utilisateurs/Doc Technique TURPAN/Lancer un calcul sur Turpan

Voir aussi

Afficher ma consommation sur turpan

Cet article décrit les commandes disponibles pour afficher la consommation de son projet, des membres de son projet et des jobs de son projet.