Big data en el LHC

Santiago González de la Hoz, Isidro González Caballero, José F. Salt Cairols

Resumen


Desde que en el año 2009 comenzaran a circular los primeros haces de protones en el LHC del CERN, los cuatro grandes detectores situados en los puntos de colisión han recogido un ingente volumen de datos, produciendo una media de 10 PetaBytes/año. Estos datos deben estar accesibles para todos los miembros de los distintos experimentos para ser analizados en el menor tiempo posible. Se está claramente ante lo que hoy se conoce como un problema de big data. Para resolver este problema se diseñó un Modelo Computacional que ha ido evolucionando con los años adaptándose tanto a las necesidades como a los recursos disponibles de almacenamiento, procesado y accesibilidad de los datos. Además, abordaremos las mejoras en las metodologías utilizadas en los análisis en el sentido de la obtención eficiente de conocimiento.


Texto completo:  Suscriptores Exclusivamente