Genève, le 1er juillet 2009. Les préparatifs vont bon train en vue de la remise en service du Grand collisionneur de hadrons (LHC), l’accélérateur de particules le plus puissant du monde. La Grille de calcul mondiale pour le LHC (WLCG) est l’un des systèmes les plus importants sur lesquels s’appuieront les expériences qui utiliseront cette formidable machine. Après des mois de préparation et deux semaines de fonctionnement intensif 24 h sur 24, 7 jours sur 7, les expériences LHC ont atteint une nouvelle série d’objectifs visant à prouver qu’elles sont fin prêtes pour le début de la collecte de données, prévu plus tard dans l’année.
De nombreux tests ont eu lieu ces dernières années sur le traitement des données à grande échelle, mais cette démonstration a pour la première fois pris en compte tous les éléments clés - de la collecte des données jusqu’à leur analyse. Des records ont été atteints à de nombreux niveaux : débit de collecte de données, vitesse d’importation et d’exportation des données entre les différents centres, ainsi qu’un très grand nombre d’opérations d’analyse, de simulation et de retraitement (l’expérience ATLAS ayant à elle seule réalisé près d’un million d’analyses avec une capacité de trafic de 6 Go/s, soit l’équivalent d’un DVD rempli de données chaque seconde, et ce, sur de longues périodes). Ces résultats tombent à point nommé car ils coïncident avec la conversion des grilles en infrastructures en ligne durables, ce qui est fondamental pour les projets d’une durée de vie telle que celle du LHC. Le LHC devant redémarrer dans quelques mois à peine, on peut s’attendre à une forte augmentation du nombre des utilisateurs de la Grille, de plusieurs centaines d’utilisateurs individuels aujourd’hui à plusieurs milliers lorsque la collecte et l’analyse des données commenceront. Pour cela, il faudra impérativement rationaliser les opérations et simplifier les interactions entre l’utilisateur final et la Grille. STEP09 (Scale Testing for the Experiment Programme’09) a consisté, entre autres, en des tests à grande échelle des scénarios d’analyse des utilisateurs finaux, notamment des infrastructures de « soutien communautaire » où la communauté est formée et presque entièrement autonome, mais peut bénéficier de l’aide d’un noyau de spécialistes de la Grille et de ses applications.
Grâce à la collaboration de 33 pays, la WLCG concentre la puissance informatique de plus de 140 centres de calcul.
Sergio Bertolucci, directeur de la recherche et de l’informatique au CERN1 : « Les quatre expériences LHC (ATLAS, CMS, ALICE et LHCb) ont démontré leur capacité de gérer leur débit nominal simultanément. Pour la première fois, toutes les fonctionnalités informatiques des expériences ont été activées en même temps : la simulation, le traitement et l’analyse des données. La confiance est donc de mise quant à leur capacité d’analyser efficacement les premières données du LHC à la fin de cette année. »
Bob Jones, directeur du projet EGEE : « Une telle réussite représente également un gage précieux de l’état de développement de l’infrastructure EGEE et de sa capacité d’interagir avec de grandes infrastructures de grille dans d’autres régions du monde. Il est essentiel de garantir à nos utilisateurs, notamment aux communautés phares comme celle de la physique des hautes énergies, que ce niveau de service ne sera pas interrompu lors du passage d’EGEE à EGI. »
Ruth Pordes, directrice exécutive du consortium Open Science Grid : « On a une nouvelle fois la preuve que les infrastructures partagées peuvent être utilisées simultanément par de multiples communautés scientifiques ayant un besoin de capacité élevé. ATLAS et CMS ne démontrent pas seulement que la grille américaine OSG est utilisable, mais elles contribuent à faire évoluer les installations réparties au niveau national pour d’autres disciplines scientifiques. »
David Britton, responsable du projet GridPP : « Au Royaume-Uni, les tests de STEP09 se sont très bien déroulés sur la majorité des centres, ce qui a permis de se concentrer sur l’analyse de la qualité de fonctionnement et sur le perfectionnement de l’infrastructure. Le centre de niveau 1 du RAL a très bien fonctionné, n’ayant nécessité, sur deux semaines, qu’une seule intervention en dehors des heures de travail normales. De précieuses informations ont été obtenues quant à la performance des dérouleurs de bandes dans des conditions réalistes en termes de charge de travail. Pour tester le flux du réseau optique privé (OPN), le volume des données STEP09 envoyées en UDP a été augmenté et le système de partage équitable (« fairshare system ») a été réglé avec succès pour répartir équitablement la charge des expériences. »
Gonzalo Merino, directeur du centre de niveau 1 à Barcelone : « Les centres espagnols de la WLCG ont atteint les objectifs fixés par STEP09. Cet exercice a été très profitable, car un grand nombre des flux de données des expériences ont été testés simultanément à une échelle sans précédent, bien au-delà des valeurs nominales d’acquisition de données du LHC. Le centre de niveau 1 du PIC a fourni un service parfaitement stable et fiable qui a battu tous les records : jusqu’à 80 téraoctets de données échangées par jour avec les autres centres de la WLCG et plus de 2 gigaoctets de données traitées par seconde. Nous sommes à présent convaincus que les centres espagnols de la WLCG sont prêts pour la collecte de données. »
David Foster, responsable de l’activité du réseau optique privé (OPN) du LHC : « Le réseau optique privé du LHC qui a transporté les données entre les différents centres a démontré ses capacités en termes de performance et de résilience lors des tests STEP09. Les nouvelles capacités de débit (entre 40 et 100 Go/s), devraient nous permettre de répondre aux besoins des expériences LHC en matière de distribution des données ».
À propos du Grand collisionneur de hadrons
Le LHC, situé au CERN près de Genève (Suisse), est le plus grand accélérateur de particules du monde. Pour des milliers de physiciens, l’analyse des données du LHC à l’aide de la Grille de calcul pour le LHC équivaudra à une ruée vers l’or numérique. Leurs recherches devraient, d’après les prédictions théoriques, révéler l’existence de nouvelles particules fondamentales qui apporteront des réponses sur la nature ultime de la matière et les origines de notre Univers.
À propos des grilles de calcul
Une grille de calcul relie des ordinateurs répartis sur une grande zone géographique. De même que le World Wide Web donne accès à l’information, les grilles de calcul donnent accès aux ressources informatiques. Ces ressources comprennent la capacité de stockage, la puissance de traitement, les capteurs et les outils de visualisation, etc. Les grilles peuvent combiner les ressources de milliers d’ordinateurs différents pour créer une puissance de calcul gigantesque, aisément accessible depuis un ordinateur personnel et pouvant être utilisée pour de multiples applications scientifiques, commerciales et autres.
Pour en savoir plus :
BNL
Kendra Snyder – Chargée de communication BNL/US ATLAS
CNAF
FNAL
Rhianna Wisniewski – Rédactrice au sein du bureau de communication du Fermilab
FZK
GridPP
IN2P3
PIC
TRIUMF
Timothy I. Meyer – Responsable de la planification stratégique et de la communication
1. Le CERN, Organisation européenne pour la recherche nucléaire, est le plus éminent laboratoire de recherche en physique des particules du monde. Il a son siège à Genève. Ses États membres actuels sont les suivants: Allemagne, Autriche, Belgique, Bulgarie, Danemark, Espagne, Finlande, France, Grèce, Hongrie, Italie, Norvège, Pays-Bas, Pologne, Portugal, République slovaque, République tchèque, Royaume-Uni, Suède et Suisse. La Commission européenne, les États-Unis d'Amérique, la Fédération de Russie, l'Inde, Israël, le Japon, la Turquie et l'UNESCO ont le statut d'observateur.