La legge di Moore viene da decenni insegnata nelle scuole come un assioma. Essa prevede che i transistor di un processore raddoppiano mediamente ogni due anni (ad oggi circa ogni 18 mesi) e anche le performance dei pc di conseguenza seguono lo stesso ritmo mentre, per le leggi del mercato, il prezzo di vendita tende a diminuire.
Una legge destinata, sulla carta, a restare valida almeno fino al 2020 e quindi a rendere prevedibile il mercato. E per quasi un cinquantennio nessuno era riuscito a metterne in dubbio la validità di base (nonostante qualche approccio critico che aveva portato a modifiche e perfezionamenti), fino ad oggi (noi ce ne eravamo occupati qui). A segnare la possibile svolta è stato John Gustafson, capo dei progettisti delle architetture grafiche della AMD, che ha dichiarato al sito The Inquirer che il ritardo registrato nel passaggio del processo produttivo da 28 a 20 nanometri è la conferma dell’inadeguatezza della Legge di Moore a spiegare l’andamento dell’attuale progresso tecnologico.
La Legge di Moore sta rallentando: è l’inizio della fine?
Dall’anno della sua prima formulazione (1965), la Legge di Moore si è evoluta. Tuttavia, secondo il capo delle architetture grafiche della casa di Sunnyvale, l’attuale forma della legge, che porta il nome del cofondatore di intel, appare inadeguata e anacronistica. Secondo l’interpretazione di John Gustafson di AMD, la redditività economica dei chip è invece definita dalla densità dei transistor. Questo parametro sarebbe più equo in quanto tiene in considerazione l’utilizzo effettivo. “Se stampate pochi transistor, il chip avrà un costo per transistor troppo elevato, e anche se ne mettete troppi vi troverete nella stessa situazione. Siamo in attesa che avvenga la transizione dai 28 ai 20 nanometri, e ci sta mettendo troppo rispetto a quanto aveva previsto la Legge di Moore”.
Cosa bolle in pentola: i numeri danno ragione ad AMD
Il modo migliore per capire se l’osservazione di Gustafson abbia un riscontro effettivo è guardare alle recenti dinamiche del commercio. In effetti la Radeon HD 7970 (con la prima GPU a 28 nanometri in ambito desktop) è stata rilasciata a fine 2011 mentre una nuova serie di soluzioni HD 8000 è attesa solo nel prossimo quarto trimestre (forse ancora a 28 nm). Lo spazio temporale quindi tende ad allargarsi.
Nuove priorità e tecnologie rallentano la potenza
Certo si potrebbe osservare che, tra i motivi che rallentano l’evoluzione tecnologica delle CPU, ci sia la mancanza di concorrenza nel settore. Ma in ogni caso pare che l’intuizione nata in casa AMD sia attinente. I pc oggi utilizzano una potenza inappropriata per svolgere funzioni relativamente semplici. Ma evidentemente la mancanza di concorrenza è dovuta al commercio di nicchia: forse quindi gli sforzi attuali dovrebbero essere indirizzati non tanto a smontare assiomi in corso quanto piuttosto ad analizzare le dinamiche di sviluppo dei SoC in ambito mobile, essendo questo il settore più attivo dell'industria elettronica. E’ evidente come vi siano bisogni emergenti che mettono in discussione le basi del ragionamento di Moore. Tra questi anche l’attenzione ai consumi nell’ottica del risparmio energetico. Anche per questioni di portabilità, la richiesta attuale è rivolta a processori a basso consumo per lunga autonomia.
Tra i due litiganti il terzo vende?
Non è un caso che nella storica concorrenza tra Intel e AMD abbia trovato spazio l’azienda inglese Arm, fornitrice, tra l’altro, degli schemi di produzione dei processori usati da Apple e Samsung. E non è un caso neppure che il settore dei tablet sia quello maggiormente trainante, visto che la batteria è un indicatore attendibile dei limiti dei dispositivi. Forte di questa tendenza Microsoft ha realizzato una versione di Windows 8, la RT, per quel tipo di processori. Anche Apple con iOS e Google con Android hanno dimostrato che è il sistema operativo ad adattarsi ai nuovi processori, sfruttandoli al massimo. Così facendo il margine tra la velocità e le architetture da pc tradizionale tende a ridursi al minimo, senza necessità di raddoppiare i transistor ogni due anni circa.
Io personalmente mi sono sempre espresso in maniera molto cauta e perplessa sul fatto che questa potesse essere definita una “legge”.
L’utilizzo di questo vocabolo determina di per sé una solidità che questo quasi-paradigma non ha mai avuto.
Il grosso problema di questo sistema di leggi (perché vale la pena di ricordare che in realtà la legge di Moore non è una legge ma sono tre differenti formulazioni) è che, in realtà, si tratta di affermazioni riguardo quello che è stato e che sottintendono l’idea che potrebbe esserci un trend rispettato anche in futuro, a parità di condizioni.
Onestamente ho sempre pensato che fosse piuttosto relativa la nozione di “legge” utilizzata in questo caso. Un esempio di vocabolo impiegato impropriamente, per dirla più chiaramente.
Non soltanto per via del fatto che il processo tecnologico non è poi così semplice da prevedere ma anche perché per realizzare delle medie sulla base dell’evoluzione anche solo appena passata di un intero sistema economico non può in alcun modo costituire una valida base per sostenere di aver davvero previsto il futuro.
Noi abbiamo utilizzato le leggi di Moore come una specie di mantra supposto infallibile, in realtà affannandoci a tentare in tutti i modi di continuare a garantire il suo fondamento.
Oggi il processo tecnologico ha bisogno di essere studiato, invece, in una maniera un po’ diversa, partendo dal presupposto che lo scopo del processo tecnologico quello di evolversi, non di garantire delle medie.
Come al solito, quando la “conoscenza” è piegata alle logiche di mercato, smette di essere un piacere ed un bene, diventa solo “business” e perde buona parte del suo senso.
La “Legge di Moore” in fondo non è mai stata altro che una semplice constatazione.
Si osserva il funzionamento dell’evoluzione della tecnologia e si emette un’ipotesi su come essa evolve.
Ma non esiste in realtà alcuna solidità scientifica di alcun tipo (come in moltissime regole/leggi economiche).
Fatto sta che la “Legge di Moore” ha ben descritto l’evoluzione tecnologica e del mercato ad essa legato per quasi 50 anni.
Ma la sua solidità non è migliore del dire che un dato pesce nuota sempre diritto perché non lo si è mai visto cambiare direzione per una distanza di 5m.
Anche se quel pesce continuasse a nuotare diritto per 50Km nulla gli impedirebbe di cambiare improvvisamente direzione.
Bene, il nostro pesce ha nuotato diritto per 50 anni, e adesso ha deciso di cambiare direzione. Nulla di così straordinario (se non il fatto che per 50 anni ha tenuto duro).
Più chiaro di così si muore…!
Bravo!
Ottimo esempio! 🙂
Devo ammettere che è ben poco da uomini di scienza chiamare questa “legge”, sono d’accordo anche io.
Sono anche io dell’idea che la legge di Moore non sia una vera e propria legge ma solo una constatazione espressa dal cofondatore di Intel. I computer del giorno d’oggi, per l’utente medio, hanno una potenza di calcolo fin troppo elevata rispetto a quello che basterebbe per le comuni azioni che possono prevedere: navigazione web, download di qualche file ecc. Lo si è visto con l’esperimento di Google, il ChromeBook, che, sebbene non abbia avuto un grande successo, rimane comunque un calzante esempio di come basti un semplice Notebook, senza particolari specifiche tecniche, a poter svolgere le quotidiane azioni. Il mondo dei Tablet e degli Smarthphone, che al momento è il più prolifero e fertile, surclasserà completamente le vendite dei PC per quanto riguarda il livello di utilizzo medio (come già è avvenuto). Vogliamo infatti paragonare la comodità di uno Smartphone rispetto a quella di un computer? L’unica reale preoccupazione sta nel fatto che i più brancoleranno solo sulla superficie del mondo delle tecnologie e non approfondiranno il discorso: lo si vede dal fatto che molti, specialmente i possessori di iPhone, non hanno mai o quasi mai collegato il proprio telefono al computer. Quel che voglio dire è che Tablet e Smarthphone sono si belli e pratici, ma non hanno sicuramente lo stesso fascino di un computer! In ogni caso, per concludere il discorso iniziale, la legge di Moore a mio avviso necessita solo di un upgrade. Moore infatti parlava propriamente di transistor nelle CPU di computer, io invece credo che più correttamente dovremmo parlare di transistor nelle CPU di Smarthphone e Tablet, che ora come ora stanno segnando il futuro, e che si stanno evolvendo allo stesso passo dei computer negli scorsi 50 anni in cui la legge di Moore è rimasta valida.
Non sono mai stato d’accordo con Moore. Si! per molti anni la logica ed i numeri hanno dato ragione a Moore, ma era inevitabile che le scoperte e le ricerche portassero ad una diversificazione dei sistemi per migliorare le prestazioni.
Vi ricordate la prima a crollare fu la frequenza di clock, adesso la miniaturizzazione.
Forse arriveranno i processori cubici (si a forma di cubo) e poi?
Bhe ne inventeranno ancora ed ancora, ed ancora.
E Moore? andrà per more!!
Un mio professore fece un commento a riguardo che mi trova completamente d’accordo: il mercato si è abituato al ritmo della “legge di Moore” creando una precisa aspettativa nel pubblico. I produttori non hanno fatto altro che soddisfare tale aspettativa per motivi di mercato. Di fisico la legge di Moore non ha nulla, è una semmai una legge di Marketing.
Diciamo che in effetti ha tutte le caratteristiche di una profezia che si autoavvera… 🙂
E come per l’amore, che il detto dice “è eterno finchè dura”, anche Moore ha fatto il suo tempo 🙂
La legge di Moore è come il paradigma della crescita economica infinita: si scontra con le leggi fisiche. Infatti non è possibile superare certe frequenze di clock perché la velocità della luce è una costante ben definita che, per quanto elevata, non può essere innalzata, e le dimensioni dei componenti stampati non possono scendere sotto una data scala perché anche il piccolo non è infinitamente piccolo, ma comunque ha un limite dato dalle dimensioni delle molecole dei materiali utilizzati.
Per anni si è continuato invece a sviluppare software che spreca risorse hardware con leggerezza, con un inesorabile peggioramento delle prestazioni. Tale trend è iniziato più o meno a partire dalla fine degli anni ’90, quando erano ancora sufficienti 32Mb ed un Pentium 166Mhz per produrre un CD o un filmato con qualità professionale, per giungere alla situazione odierna in cui 1Gb e 1.6Ghz sono pochi persino per Lubuntu Linux, e 512Mb scarsi pure per Android, a causa dei software che ci girano sopra.
Ci si augura che tornando ad essere realistici sui mezzi a nostra disposizione si rivaluti la necessità di ottimizzare i programmi destinati ad un uso continuo, un concetto che per tanto tempo è stato bistrattato e deriso, persino in ambiente Open Source.