Stampa

LA DISTILLATRICE DEI DATI

.

E' complesso e estremamente raffinato il lavoro di "distillazione" dei dati che in questi giorni stanno affluendo dai rivelatori dei vari esperimenti per poi essere distribuiti dai vari livelli della GRID (cioè ai diversi "tier" che vanno dal nodo centrale del CERN fino ai singoli centri regionali). Il calcolo degli esperimenti ad LHC rappresenta una sfida, sia in termini di mole di dati, dell'ordine di una quindicina di PetaByte all'anno, sia in termini di complessità, essendo destinati ad una comunità di quasi diecimila fisici provenienti da una cinquantina di paesi in  tutto il mondo. "In queste prime due settimane di lavoro sui dati abbiamo visto che il sistema di computing che abbiamo messo a punto funziona molto bene", spiega Marco Paganoni, responsabile del computing italiano per CMS. I test sono iniziati nel 2005 e si è arrivati così ben preparati al momento in cui dalle simulazioni si passa alla realtà. "Il lavoro più delicato consiste nel dare a tutti i fisici dell'esperimento un accesso efficiente ai dati - spiega Paganoni - cioè nel prendere i dati grezzi che ci arrivano dagli esperimenti e ridurli a un formato finale per le analisi". In altre parole partire da un insieme di numeri per arrivare a sintetizzare degli oggetti fisici, particelle su cui poi i fisici possono lavorare. "Durante l'anno, poi, i dati vengono riprocessati. Quest'anno - spiega Paganoni - contiamo di farlo quattro volte. Ogni volta sfruttiamo la migliore conoscenza dell'apparato sperimentale che abbiamo acquisito durante la presa dati".