« L’informatique est aujourd'hui ancrée dans les tissus industriel et scientifique ; elle fait partie intégrante du monde de la recherche, de l’ingénierie et de l’entreprise », a déclaré Herbert Cornelius, de la société Intel, à l’occasion de l’atelier « IT requirements for the next generation of research infrastructures workshop », tenu au CERN le 1er février 2013. La manifestation a rassemblé des acteurs de premier plan du secteur informatique, issus de l’industrie comme de la recherche. Ensemble, les participants se sont attachés à définir les besoins informatiques de la prochaine génération d'infrastructures de recherche scientifique en Europe, ainsi qu'à examiner des plans d’approvisionnement et à élaborer une feuille de route technologique commune.
Le CERN était le lieu idéal pour organiser l’événement, vu les infrastructures informatiques de rang mondial dont ont besoin les scientifiques de cette organisation pour mener à bien leurs travaux de recherche. Sergio Bertolucci, directeur de la recherche et de l'informatique scientifique au CERN, a fait l’éloge de la Grille de calcul mondiale pour le LHC pour le rôle essentiel qu’elle a joué dans la découverte, l’année dernière, d’un nouveau boson semblable au boson de Higgs. « Elle a fonctionné bien au-delà des spécifications pour lesquelles elle a été conçue… son rôle a été fondamental dans cette réussite, » a-t-il déclaré.
Laurence Field, responsable de l’informatique et de la gestion des données pour le projet CRISP, a précisé les défis auxquels les infrastructures informatiques doivent faire face pour faciliter la recherche scientifique dans de grands laboratoires de recherche en physique, comme le CERN. « Les débits de données augmentent considérablement en l’espace d’une décennie, explique Laurence Field. À l’horizon 2020, nous visons des débits de données de l’ordre du téraoctet par seconde. »
« Le LEP, le précédent collisionneur du CERN, avait permis de recueillir au total quelques téraoctets de données seulement, alors qu’après la première année de fonctionnement du Grand collisionneur de hadrons (LHC), on a pu acquérir une quantité de données de l’ordre du pétaoctet, précise Laurence Field. Nous devons absolument comprendre comment nous pouvons faire face à des débits de données toujours plus élevés. »
Bob Jones, responsable de CERN openlab, a souligné l’importance pour les secteurs public et privé de travailler ensemble afin de faire face aux défis informatiques que la prochaine génération d’infrastructures de recherche devrait engendrer. « Nous estimons que ce partenariat public-privé entre le monde de la recherche et celui de l’industrie est profitable à toutes les parties », a déclaré Bob Jones.
Pour en savoir plus, consultez le site web d’ISGTW (International Science Grid This Week) en anglais.