Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2010  settembre 01 Mercoledì calendario

L’ora dei supercalcoli - Nei prossimi cinque anni la comunità tecnologica e scientifica avrà a disposizione milioni e milioni di dati, più di quanti ne siano stati prodotti nella storia dell’umanità

L’ora dei supercalcoli - Nei prossimi cinque anni la comunità tecnologica e scientifica avrà a disposizione milioni e milioni di dati, più di quanti ne siano stati prodotti nella storia dell’umanità. La sfida è creare un sistema operativo che permetta di gestire questa mole di informazioni per poi renderle utilizzabili». A parlare è Antonio Cisternino, ricercatore all’Università di Pisa e membro del team di 36 esperti mondiali (solo 6 europei) messo in piedi da Microsoft per «Modeling the world», il progetto da cui dovrebbe nascere una sorta di Windows per il supercalcolo. La società di Bill Gates ha deciso, infatti, di mettere piede nel modo del «Technical computing» e lo fa in grande stile: un piano biennale e un «think tank» di cervelloni di varie discipline che avrà il compito di pensare la nuova infrastruttura software che sta nascendo nei laboratori di Redmond. «Il supercalcolo viene applicato in vari ambiti: dalla climatologia all’industria petrolifera, passando per la fisica delle alte energie e gli studi sul sequenziamento del genoma - spiega Maurizio Davini, direttore dell’It Center di Pisa, anch’egli membro del team -. Il problema non è tanto creare un supercomputer quanto realizzare un sistema operativo che tratti al meglio i dati raccolti e li renda disponibili su una piattaforma condivisa». Un approccio innovativo per un sistema facile da usare e sufficientemente dinamico da poter essere applicato ad ambiti diversi: queste le caratteristiche su cui si lavorando in «Modeling the world». In pratica, una rivoluzione simile a quella che permise di passare dal complicato linguaggio del MS-DOS ai sistemi operativi a finestre, di cui Windows è stato il capostipite. «Prendiamo gli studi che vengono condotti al Cern - spiega Cisternino -. Ogni giorno lo scontro di fasci protonici nell’acceleratore Lhc produce un terabyte di dati. E’ una mole impressionante di informazioni, che per risultare significative e utili alla ricerca devono poter essere organizzate adeguatamente». Microsoft, dunque, si appresta a scrivere la grammatica del «Technical computing», un esperanto dei software che permetterà ai vari sistemi di supercalcolo di parlare una lingua comune. «Ad esempio, gli studiosi che lavorano su Lhc utilizzano già una rete di calcolo distribuito per l’analisi dei dati, ma il sistema non permette di condividere i risultati con gli scienziati del Fermilab di Chicago, che usano un sistema diverso». E il discorso non si limita alla ricerca scientifica: «Pensiamo a un sistema flessibile e intrasettoriale, che soddisfi esigenze diverse - conclude Davini -. Nella finanza, per esempio è apprezzata la velocità di calcolo, con cui comprare e vendere azioni in millisecondi, mentre per i fisici c’è bisogno di una maggiore accuratezza nel trattamento dei dati e di grandi database. Per questo, pensiamo ad applicazioni ad hoc». Elaborato questo linguaggio comune, aumentare la capacità di analisi e calcolo delle reti non sarà un problema: basterà agganciare nuovi computer (non troppo diversi dai normali pc) alla «grid» e metterli a disposizione del sistema operativo. Oggi, infatti, non si ragiona più come negli Anni 70, quando si pensava a solo cervellone, ma si punta su un’infrastruttura che funzioni con un’elaborazione dei dati «a staffetta»: i byte vengono distribuiti su tutte le macchine e questo consente di risparmiare enormi quantità di tempo. «Se si considera la potenza di calcolo - racconta Cisternino - l’unità di misura è il “core”, ossia il “cuore elaborativo” di un microprocessore. Per avere un ordine di grandezza si deve considerare che un centro di calcolo può avere dai 1000 ai 2 mila “core”, ma per “Modeling the world”, forse, non bastano tutti i “core” esistenti». E c’è da credere che dopo questa prova la creatura di Gates lancerà delle applicazioni che consentiranno ai singoli utenti di accedere alle straordinarie prestazioni del calcolo parallelo.