Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2005  novembre 14 Lunedì calendario

Anche se non tutti se ne sono accorti, a quasi sessant’anni dalle atomiche di Hiroshima e Nagasaki, tra Stati Uniti e Giappone è in corso ancora una guerra: è quella dei supercomputer, mostruosi calcolatori dalle prestazioni stellari che, al di là di record simbolici, puntano alla conquista di un mercato mondiale che vale milioni di dollari

Anche se non tutti se ne sono accorti, a quasi sessant’anni dalle atomiche di Hiroshima e Nagasaki, tra Stati Uniti e Giappone è in corso ancora una guerra: è quella dei supercomputer, mostruosi calcolatori dalle prestazioni stellari che, al di là di record simbolici, puntano alla conquista di un mercato mondiale che vale milioni di dollari. Prima, s’intende, di cedere a loro volta il passo a nuovi e più potenti concorrenti. Quella che si combatte tra le portaerei dell’informatica (da una parte le americane Ibm, Sgi, Sun Microsystems e Hp, dall’altra le giapponesi Nec e Fujitsu) è una guerra a colpi di ”flops” (Floating point operations Per Second), ovvero l’unità di misura usata per calcolare la velocità dei computer, basandosi sul numero di operazioni che la macchina è in grado di compiere in un secondo. Per capirci, se un normale personal computer da tavolo svolge oggi quasi 3 miliardi di operazioni al secondo (2.500 volte di più che nel 1980), il più potente di questi mostri è in grado di compiere 70.720 miliardi di operazioni al secondo (70,72 teraflops), cioè ultimare in tre giorni calcoli che appena un anno fa richiedevano un mese. Stiamo parlando di Blue Gene/L, il megacomputer Ibm che ha recentemente scalzato dalla vetta della semestrale Top 500 di categoria il giapponese Earth Simulator della Nec (scavalcato anche dal Columbia della Nasa), che occupava il trono da un paio d’anni. Un campione che in realtà sarà presto sostituito dalla versione definitiva della macchina (Blue Gene/L-beta) che sarà installata nella prima metà del 2005 al Lawrence Livermore Laboratory in California, per conto dell’Agenzia Federeale per la Sicurezza Nucleare, sezione del Dipartimento dell’Energia: 130 mila processori, rispetto ai 16 mila del prototipo che per ora lavoreranno al servizio delle industrie del petrolio e delle biotecnologie con prevedibili vantaggi per la ricerca scientifica. Se è vero che i supercalcolatori sono uno degli indicatori della forza industriale di una nazione, sarà bene sapere che quando il Blue Gene/L-beta sarà operativo, la sola Ibm avrà il 49,39 per cento della potenza di calcolo esistente al mondo. La superiorità americana nel settore sarà così ancora più netta e il gap tra Europa e Stati Uniti si sarà ulteriormente allargato. Una piccola curiosità: anche l’ultimo in classifica, il cinquecentesimo, è americano. Si chiama SuperDome ed è quasi tremila volte più veloce di un normale Pc. Ma quali indicazioni si possono trarre dalla Top 500 stilata dai ricercatori dell’Università di Mannheim (Germania) e dagli americani del Lawrence Berckeley National Laboratory e dell’Università del Tennessee? Innanzitutto, che macchine del genere hanno costi che in pochi si possono permettere. Per dare un’idea, la versione per imprese del Blue Gene (più semplice da usare e grande meno di un metro quadrato) costerà 1,5 milioni di dollari (circa 1,135 milioni di euro), ma sarà possibile anche noleggiarla nei centri Ibm specializzati presenti negli Usa e in Europa. E anche l’’affitto” non scherza: l’Sx-8, il nuovo gioiello della giapponese Nec in arrivo nel 2005, offrirà 65.000 miliardi di operazioni al secondo per la modica cifra di 8.700 euro al mese. Dopotutto, pare che un mercato ci sia, visto che nei prossimi tre anni saranno costruiti 700 Sx-8. Chi può acquistare o affittare calcolatori di questo tipo opera naturalmente nelle nazioni più ricche e industrializzate: ben 267 dei magnifici 500 hanno sede (in ordine decrescente) presso grandi imprese, laboratori di ricerca e università degli Stati Uniti, che costituiscono il 40 per cento del mercato mondiale, con prevalenza, come si è detto, di computer Ibm. L’Europa si difende con 127 supercalcolatori (soprattutto Nec), di cui 42 in Gran Bretagna, 35 in Germania, 15 in Francia e altrettanti in Italia, dove sistemi classificabili come supercomputer sono utilizzati dalle tre aziende di telefonia mobile per le loro reti e da altre grandi aziende come l’Agip e la Fiat. Quello più potente si trova in Spagna, al Barcelona Supercomputer Center: si chiama MareNostrum e occupa il quarto posto della classifica mondiale. Il Giappone possiede supercalcolatori molto potenti, ma non altrettanto numerosi: degli 87 che si trovano in Asia, ne ospita solo 30 (tra cui il già citato Earth Simulator), contro i 17 della Cina, che però ha più che raddoppiato i suoi 8 di soltanto un anno fa. Ma a cosa serve realmente un supercomputer? Sostanzialmente a elaborare enormi quantità di dati da cui sarebbe altrimenti impossibile trarre vantaggi in tempi ragionevoli. Il settore scientifico, per esempio, è alla perenne ricerca di risorse computazionali e ci sono ancora problemi, come l’analisi molecolare, fuori dalla portata del più potente dei calcolatori. Ma i benefici immediati non mancano e toccano i settori più svariati: previsioni del tempo, geofisica (dallo studio dei movimenti dei ghiacciai a quello delle correnti oceaniche), design industriale, medicina (controllo delle epidemie e potenziamento delle terapie), industria dei semiconduttori, telecomunicazioni e gestione di grandi database, per esempio in ambito finanziario. Non se ne parla volentieri, ma certamente i supercalcolatori sono e saranno sempre impiegati in campo militare, come per il monitoraggio, per simulazione, del decadimento dei materiali radioattivi negli arsenali. L’ex primatista Earth Simulator, commissionato dal ministero per l’Innovazione tecnologica giapponese, viene impiegato invece per monitorare terremoti, eruzioni vulcaniche e uragani nell’intero pianeta, elaborare dati sull’atmosfera e analizzare complessi modelli sul clima terrestre dei prossimi anni. Nello stesso campo opera anche il supercomputer Jujitsu VT770, impiegato per risolvere le complesse equazioni dell’ECMWF, uno dei modelli fisico-matematici più complessi al mondo che elabora previsioni fino a 5 giorni, il cui acronimo deriva dall’European Centre for Medium range Weather Forecast di Reading (Inghilterra), organizzazione meteorologica internazionale europea che ospita il VT770. Proprio perché destinati a svolgere compiti così delicati e complessi, i supercomputer sono sempre stati dotati di architetture più sofisticate e componentistica migliore dei normali computer. Ma a partire dagli anni Novanta, il divario tra la potenza delle Cpu per supercalcolatori e i normali microprocessori commerciali è progressivamente diminuito, anche perché i supercomputer hanno cambiato strategia aumentando la loro potenza grazie a cluster con un numero sempre maggiore di Cpu poco più potenti di quelle di un buon Pc e connesse da reti locali ad alta velocità. Ma c’è un’altra strada per ottenere grandi potenze di calcolo: collegare milioni di Pc che, sommando le loro singole capacità di calcolo, siano in grado di svolgere operazioni complessissime come fossero un unico enorme calcolatore. una modalità che è già stata sperimentata con successo negli Stati Uniti e ora sta prendendo forma anche in Europa grazie al progetto Grid, una rete telematica che secondo alcuni potrà sostituire Internet e per la quale l’Unione Europea ha già stanziato 300 milioni di euro, che salgono a 600 se consideriamo anche i programmi nazionali: in Italia è già attiva una Grid per la radiologia, che si estenderà anche alla biologia, all’astrofisica, all’analisi dei dati dei satelliti e a quelli delle borse.