Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2018  settembre 16 Domenica calendario

La legge di Moore non scandisce più il ritmo della trasformazione

Il commesso del negozio di Pc sulla 34ima strada a New York ha i capelli bianchi e ne ha viste molte. Ma finora aveva una certezza: la legge di Moore. Ogni due anni, a parità di dimensioni, la potenza del processori raddoppia. «È come la canzone dei soldati di Full metal jacket, ha presente?”Topolìn, Topolìn, viva Topolìn“. Segna il passo, dà la cadenza. Adesso non è più così. Da un anno all’altro ci sono ritardi, i nuovi processori non vanno più veloci. Si usano addirittura quelli dei telefonini. È cambiato tutto». La legge di Moore, nata dalle osservazioni empiriche di Gordon Moore di Intel, è diventata il mantra dei semiconduttori. Due anni per elaborare strategie e sviluppare prodotti. Per un decennio è stata la base della volata “Win-tel”, la corsa con la quale Windows, il sistema operativo dominante, e Intel, il principale produttore di Cpu, hanno fatto crescere tutto l’ecosistema attorno ai pc. C’erano anche effetti negativi, tra cui una rapidissima obsolescenza dei prodotti e la tendenza a creare software poco efficiente perché dopo pochi mesi i nuovi processori avrebbero coperto con la maggiore potenza i problemi di ingegneria del codice. 
Ma niente è per sempre. Soprattutto se c’è la fisica di mezzo. Perché nei transistor miniaturizzati circolano gli elettroni, che hanno una massa e quindi una dimensione. I canali entro cui scorrono devono essere abbastanza grandi per contenerli. C’è un limite, insomma, che – nel 2000 è diventato chiaro – sarebbe stato presto raggiunto: 4 nanometri, forse al massimo 2. E poi basta. Adesso siamo a 14 per i processori Intel, a 7 per quelli Arm. Oppure è diventato chiaro che non vale la pena spendere in R&D per superare questo ostacolo. Meglio seguire altre strade. E così è stato. Mentre la Semiconductor Industry Association stabiliva due anni fa che la legge di Moore è sostanzialmente superata altre opzioni si aprivano. Innanzitutto il rallentamento della crescita della potenza: è sempre meno un problema. 
Buona parte delle esigenze di calcolo per l’informatica si sono spostate nel cloud, dove c’è abbondanza di metodi per elaborare i problemi in modo distribuito o parallelizzare. Internet abilita nuovi modi che rendono la risorsa del calcolo non più scarsa. Un esempio è l’intelligenza artificiale, costruita e addestrata nel cloud lasciando poi al dispositivo si facciano le elaborazioni più semplici. 
Ma la potenza è solo una delle componenti di una Cpu: c’è anche consumo e impronta termica. Per risolvere questi problemi sono state sviluppate varie soluzioni, alcune mutuate dai processori incorporati in dispositivi chiusi, come smartphone o tablet. Architettura base semplificata, che mette sullo stesso chip tutti i principali strati. Nuove architetture delle schede madri. Forte miniaturizzazione delle altre componenti. Passaggio da sistemi basati su architetture complesse (Cisc) a versioni più semplici ed efficienti (Risc). Parallelizzazione del calcolo usando il processore grafico (Gpu). Ottimizzazione di tutte le componenti secondarie. Studio di ipotesi di processori “wet”, basati su cellule viventi (con scarsi risultati). Un altro approccio è quello pensato per la trasformazione del processore, ottimizzando lo spazio con l’idea dei sistemi a più isole di calcolo, i multi-core. A cui sono seguite le architetture multi-core asimmetriche: “cuori“più potenti per calcoli più impegnativi. I core si possono accendere e spegnere a piacimento.
La resa termica è sempre stata un problema: le Cpu non sono efficienti, perché generano tantissimo calore. Durante la corsa al numero massimo di transistor e alla velocità di esecuzione la soluzione era raffreddare. Poi le soluzioni sono diventate altre: processori che scaldano meno, ma anche codice che ne aumenta l’efficienza. Oppure computer più intelligenti, che sanno quando mettere a dormire tutto quel che non serve. Un’altra strada è stato chiedersi a cosa servano veramente i computer. Perché molte volte servono a fare cose piccole. Ecco dunque l’approccio più adattivo: micro-Cpu dedicate ad apparecchi diversi, che abilitano l’internet delle cose, che ricorrono all’intelligenza diffusa della rete per calcoli complessi. Oppure i problemi economici: i cinesi che fanno incetta di talenti per aggirare brevetti e tecnologie esistenti. Reinventare la Cpu anche perché oggi serve soprattutto a telefonini e computer che minano bitcoin. 
Il tutto in attesa della prossima rivoluzione, che però tarda. Perché dietro i bit elettrici ci sono i bit fatti di fotoni. E poi i qubit, i bit dei computer quantistici. Che richiederanno ancora parecchio tempo ma che possono essere già usati in maniera “sporca”. Il vero salto di qualità lo farà la quantistica. Per quella tuttavia non è prevista alcuna legge di Moore. Almeno per ora.